هل ينسى الذكاء الاصطناعي ما تعلمه إياه؟

تواجه شركات التكنولوجيا تحديًا جديدًا يتمثل بمحو المعلومات الحساسة من أدمغة الذكاء الاصطناعي التوليدي، إذ ثبت وجود صعوبات ضخمة في تقنيات "النسيان القسري” التي تهدف إلى إزالة البيانات الخاصة أو المحمية بحقوق الطبع والنشر من نماذج الذكاء الاصطناعي العملاقة. بالتالي، هنالك عوائق تقنية ضخمة تحول دون دفع الذكاء الاصطناعي إلى "نسيان” ما تعلّمه.

ظهرت تلك الخلاصة في دراسة جديدة شارك في تأليفها باحثون من جامعات واشنطن وبرينستون وشيكاغو وجنوب كاليفورنيا، بالإضافة إلى محرك البحث "غوغل”. ووجدت الدراسة أن أكثر تقنيات النسيان القسري شيوعًا اليوم تميل إلى إضعاف نماذج الذكاء الاصطناعي، إلى درجة تجعلها غير قابلة للاستخدام، في أغلب الأحيان.

وفي هذا الصدد نقل موقع "تيك كرانش” عن ويجيا شي الباحثة المشاركة وطالبة الدكتوراه في علوم الكمبيوتر في جامعة واشنطن، قولها: "تُشير تقييماتنا إلى أن طرق النسيان القسري الممكنة حاليًا ليست جاهزة للاستخدام أو وضعها قيد التطبيق الفعلي في ظروف واقعية. حاليًا، لا توجد طرق فعالة تمكن النموذج من نسيان بيانات محددة من دون خسارة كبيرة في الفائدة”.

لا تمتلك نماذج الذكاء الاصطناعي التوليدي ذكاء حقيقيًا إنها أنظمة إحصائية تتنبأ بالكلمات والصور والكلام والموسيقى والفيديوهات وغيرها من البيانات من خلال تغذيتها بعدد هائل من الأمثلة.

لرؤية مدى فاعلية خوارزميات النسيان هذه، صممت شي وزملاؤها معيارًا لقياس النسيان، واختارت ثماني خوارزميات مفتوحة مختلفة لاختبارها في تلك المسألة. ويهدف المعيار، الذي يسمّى MUSE، اختصاراً لعبارة "تقييم النسيان الآلي بست طرق "Machine Unlearning Six ways Evaluation”، إلى اختبار قدرة الخوارزمية على عدم السماح للنموذج بإخراج بيانات التدريب بحرفيَّتِها (ظاهرة تعرف باسم الاستفراغ)، إضافة إلى القضاء على معرفة النموذج بتلك البيانات جنبًا إلى جنب مع أيّ دليل على أنه دُرِّب في الأصل على تلك البيانات (المطلوب نسيانها).

في تلك الدراسة، وجد الباحثون أن خوارزميات النسيان التي اختبروها جعلت النماذج تنسى معلومات معيّنة. لكنها أيضًا أثرت على مجمل قدرات تلك النماذج في الإجابة عن الأسئلة، ممّا يعني أن الحصول على "النسيان” جرى مقابل خفض القدرات الذكيّة في تلك النماذج.

وبالاستناد إلى ذلك، فإن قدرة نماذج الذكاء الاصطناعي على نسيان المعلومات بشكل فعّال ستحدّد مستقبل هذه التكنولوجيا، ذلك أن الفشل في تطوير حلول فعالة قد يؤدي إلى عواقب وخيمة، بما في ذلك تآكل الثقة في الذكاء الاصطناعي وتقييد إمكاناته الهائلة.

روسيا اليوم