جفرا نيوز -
جفرا نيوز - انشغل الإعلام العالمي قبل أسابيع قليلة بتصريح لموظف في "غوغل" زعم فيه أن نظام آليا اسمه "لامدا" أصبح يمتلك "وعياً ذاتياً".
النظام المذكور مبني على نموذج يراقب كيفية ارتباط الكلمات بعضها ببعض ثمّ يتنبأ بالكلمة اللاحقة.
لم تحتمل "غوغل" هذه المزاعم من موظفها فقامت بتعليق عمله باعتبار أنّه قام بالكشف عن مشروع سري، من دون أن تنجح في وقف سلسلة الأسئلة الأخلاقية حول هذه المسألة، التي تتكشف فصولها الجديدة مع تواصل تطوير تطبيقات الذكاء الصناعي.
وفي هذا السياق، نفذت باحثة سويدية، في جامعة غوتنبرغ، تجربة غريبة من نوعها عندما أعطت خوارزمية ذكاء صناعي توجيها بكتابة أطروحة أكاديمية من 500 كلمة عن الخوارزمية نفسها لتتفاجأ بالنتيجة!
فما إن بدأت الخوارزمية بتوليد النص المطلوب، تبين أنه يستوفي بشكل جيد الشروط الأكاديمية لكتابة ورقة علمية قابلة للنشر في مجلة محكمة.
ووصفت الباحثة السويدية ثونستروم، شعور "الرهبة" الذي اعتراها حين أكملت قراءة الورقة العلمية التي أنجزتها الخوارزمية في غضون ساعتين فقط، قبل أن تقوم بسؤال النظام مرة أخرى إذا كان يقبل بنشر بحثة في المجلة!
وردّ الذكاء الصناعي على طلب الباحثة بنشر بحثه بالإيجاب، لتسأل الأخيرة مجدداً عما إذا كان هناك أي تضارب في المصالح في عمله فأجاب بالنفي!
وبالفعل قبلت إحدى المجلات بنشر البحث بعد أن قرر رئيس التحرير التعامل مع الخوارزمية المؤلفة باعتبارها "كائناً واعياً"!
وتطرح هذه التجربة على غرابتها مجموعة إشكاليات عميقة على مستوى الملكية الفكرية والحقوق والقيمة، وهو ما أشارت إليه الباحثة ثونسترم بالقول إنه "قد يتعين على النشر الأكاديمي استيعاب مستقبل المخطوطات التي ينتجها الذكاء الاصطناعي، وقد تتغير قيمة سجلات نشر الباحث البشري إذا كان هناك شيء غير منطقي يمكن أن ينسب إليه الفضل في بعض أعمالهم".
وتتقاطع تجربة الباحثة السويدية في وصف المحادثة مع كلام موظف "غوغل" الذي تمّ إيقافه عن العمل بسبب زعمه أن الذكاء الصناعي الذي تطوره الشركة قد أصبح "واعياً".
ونقل الموظف تفاصيل "محادثته" مع النظام حين سأله عن أشد مخاوفه فأجاب الذكاء الصناعي بأنّ أشد مخاوفه أن يقوم أحدهم بإيقاف تشغيله!
وتابع الذكاء الصناعي، بحسب موظف غوغل، في تشبيه إيقاف تشغيله بحالة الموت لدى البشر.
وتتداعي كبار الهيئات التقنية في العالم في السنوات الأخيرة إلى إصدار بروتوكولات تنظم عمليات تطوير الذكاء الصناعي، خاصة بعد أن تبين الكثير من النتائج القانونية قد تترتب على عمل هذه التكنولوجيا.