هل تخطى غوغل دوبلكس أخلاقيات الذكاء الاصطناعي؟

كشفت شركة غوغل قبل أيام خلال مؤتمرها السنوي للمطورين عن ميزة جديدة في مساعدها الرقمي “غوغل أسيستنت” تحمل اسم “دوبلكس” وكان عرضا مذهلا لدرجة اعتبر كثيرون أن “دوبلكس” قد اجتاز بتفوق “اختبار تورينغ”، الذي يحدد ما إذا كان الحاسوب (البرنامج الذكي) قادرا على التفكير والتحدث مثل الإنسان الطبيعي، لكن في المقابل رأى آخرون أن في ذلك مؤشرا على مستقبل مظلم للذكاء الاصطناعي.
وفي العرض الذي قدمته غوغل، اتصل هذا المساعد الذكي بمطعم لإجراء حجز، وتحدث مع الموظف بطريقة بشرية كان يستحيل معها على الطرف الآخر أن يعلم أنه يتحدث إلى روبوت.
ورغم أن العرض أبهر الحضور، فإن موقع تيك كرنتش المعني بشؤون التقنية رأى فيه “دليلا غير مريح” على أن غوغل لم تضع في تصورها عندما صممت هذا النظام الآثار الأخلاقية الخطيرة للذكاء الاصطناعي.
وينقل موقع “غيك” المعني بشؤون التقنية، عن الباحث في مختبر الأخلاقيات الرقمية بمعهد أكسفورد للإنترنت ثوماس كينغ قوله “يبدو أن تجارب غوغل صُممت من أجل الخداع، لأن فرضيتهم الرئيسية كانت: هل بإمكانك تمييز هذا عن الشخص الحقيقي؟ وفي هذه الحالة، فإنه لم يتضح لماذا كانت فرضيتهم عن الخداع وليس عن تجربة المستخدم”.
ويضيف الباحث “أنت لا تحتاج بالضرورة إلى خداع الناس لمنحهم تجربة استخدام أفضل بأن يبدو صوتك طبيعيا. ولو أنهم اختبروا فرضية: هل هذه التقنية أفضل من الإصدارات السابقة أو جيدة مثل المتصل البشري؟ لما اضطروا إلى خداع الناس في التجربة”.
وقد يبدو ذلك مشكلة صغيرة، ولكن هناك مخاوف أخلاقية خطيرة من التجارب، خاصة تلك التي يتم إجراؤها على بشر أو تتعلق بهم.
فوفقا لكينغ فإنه حتى لو كانت غوغل لا تنوي خداع الناس فيمكن القول إنها كانت مهملة في عدم التأكد من أن التقنية لم تخدعهم، وفي هذه الحالة يجب أن تكون هناك آلية معينة لإخبار الناس بما يتحدثون إليه.
والمشكلة الحقيقية -حسب الباحث- هي حقيقة أن معرفة من وما الذي تتفاعل معه تغيّر طريقة ردة فعلنا. فهناك عدد لا يحصى من القرارات الصغيرة التي نقوم بها بناء على تلك التلميحات، مثل نغمة الكلام، حيث تتيح لنا التحول والتعاطف بشكل أفضل مع إنسان، وقد تخفف من لهجتك مثلا إذا أدركت أن الشخص الذي تتحدث معه مرهق أو مر بيوم عصيب.
ويضيف كينغ أنه “إذا بدأت بتمويه الخطوط فقد يتسبب هذا بعدم الثقة في جميع أنواع التفاعلات البشرية حيث سنصبح أكثر إثارة للريبة، فضلا عن استبدال الأشخاص بعملاء (ذكاء اصطناعي) لا معنى لهم”.
ويرى موقع “غيك” أنه رغم هشاشة هذه الحالات، فإنه من المهم في هذه المراحل المبكرة جدا أن نأخذ أخلاقيات الذكاء الاصطناعي بجدية بالغة، نظرا للمخاطر التي لا حصر لها المترتبة على خلق لشبه ذكاء اصطناعي، فإذا أردنا تفادي سيطرة الروبوتات على العالم، يتحتم علينا أخذ هذه المفاهيم على محمل الجد.

مشاركة Share on TwitterShare on FacebookShare on GooglePlusShare on Linkedin

Comments are closed.