ماذا لو كذبت الروبوتات؟
جفرا نيوز - تخيل السيناريو التالي: يوجه طفل صغير سؤالاً لبرنامج ذكاء صناعي أو مساعد صوتي بشأن ما إذا كان بابا نويل شخصية حقيقية أم لا... بالطبع تختلف الإجابة حسب تفضيلات كل أسرة، حيث يفضل البعض الكذب عن قول الحقيقة في الرد على مثل هذا السؤال، وهنا يتبادر السؤال بشأن كيف يجب أن تتصرف منظومات الذكاء الصناعي في مثل هذه المواقف.
وما زالت فكرة كذب الروبوتات غير مطروقة إلى حد كبير حتى وقتنا هذا، ومن بين الأسئلة المطروحة في هذا الشأن أنه إذا عرف البشر أن الروبوتات تكذب عليهم، فهل من الممكن أن يستعيدوا الثقة في هذه الروبوتات مجدداً؟
وحاول باحثان في مجال علوم الحاسب بجامعة جورجيا تيك الأميركية الرد على بعض هذه الأسئلة، حيث وضعا برنامجاً لمحاكاة القيادة لاختبار كيف يؤثر كذب الروبوتات على ثقة الإنسان، وهل يكفي اعتذار الروبوتات لاستعادة الثقة بها مجدداً. وتهدف نتائج هذا المشروع إلى توفير معلومات لمطوري البرمجيات وصناع السياسات لمعرفة استجابة البشر حيال كذب منظومات الذكاء الصناعي بشكل عام.
ويشير كانتون روجرز طالب الدكتوراه بجامعة جورجيا تيك، إلى أن «جميع الأعمال السابقة أثبتت أنه عندما يكتشف البشر أن الروبوتات تكذب عليهم، حتى إذا كان الكذب يعود عليهم بالفائدة، فإنهم يفقدون الثقة بالأنظمة الروبوتية».
ويقول في تصريحات للموقع الإلكتروني «سايتيك ديلي» المتخصص في الأبحاث العلمية: «نهدف من خلال هذه التجربة إلى تحديد ما إذا كانت الاعتذارات المختلفة تؤثر بشكل أفضل أو أسوأ في استعادة الثقة بين الإنسان والآلة».
وفي ورقة بحثية بعنوان «الكذب بشأن الكذب: اختبار استراتيجيات استعادة الثقة بعد كذب الروبوتات خلال المواقف عالية المخاطر، التي تم تقديمها خلال مؤتمر التفاعلات بين البشر والروبوتات في العاصمة السويدية استوكهولم، ابتكر الباحثان كانتون روجرز وريدن ويبر، الطالب في السنة الدراسية الثانية بجامعة جورجيا تيك، نموذج محاكاة قيادة يشبه ألعاب الفيديو لقياس طريقة تفاعل البشر مع منظومات الذكاء الصناعي في المواقف التي ترتفع فيها درجة المخاطر أو التي ترتبط بعنصر الوقت. وشارك في نموذج المحاكاة 341 شخصاً عبر الإنترنت و20 شخصاً بالحضور الشخصي.