جفرا نيوز -
تعمل غوغل، وهي واحدة من أقوى الشركات وأكثرها تأثيرا على وجه الأرض، على ضمان اعتماد الذكاء الاصطناعي التوليدي من جانب مليارات الأشخاص الذين يستخدمون منتجاتها كل يوم. وهي خطوة إستراتيجية واضحة، بالنظر إلى اعتبار غوغل متأخرة بخطوة عن شركة "أوبن إيه آي"، مطورة روبوت المحادثة الأشهر "شات جي بي تي"، في سباق الذكاء الاصطناعي.
منذ عام في نسخة مؤتمر غوغل "آي/ أو 2023″، ذكرت الشركة أنها ترى الذكاء الاصطناعي مستقبل البحث على الإنترنت. وفي نسخة هذا العام من المؤتمر، بدأت الرؤية تتضح أكثر، إذ ستبدأ غوغل في طرح "ملخصات الذكاء الاصطناعي" (AI Overviews)، التي كانت تُعرف سابقا باسم "تجربة البحث التوليدية" (SGE)، للمستخدمين في الولايات المتحدة وقريبا في جميع أنحاء العالم.
في المستقبل القريب، سيشاهد المليارات من مستخدمي غوغل حول العالم ملخصا مولدا بالذكاء الاصطناعي في أعلى صفحة نتائج البحث، وربما تكون هذه هي البداية لكيفية تغيير الذكاء الاصطناعي لتجربة البحث على محرك بحث غوغل.
ملخصات الذكاء الاصطناعي
تُقدِّم ميزة "ملخصات الذكاء الاصطناعي" الجديدة في بحث غوغل للمستخدمين إجابات مُولَّدة بالذكاء الاصطناعي على طلبات البحث التي يصلح أن تقدم لها إجابات ملخصة.
يجمع النموذج معلومات مختلفة من مواقع على شبكة الإنترنت، ويعرضها بطريقة ملخصة تمنح المستخدم الإجابة التي يبحث عنها دون أن يضطر إلى الضغط على رابط الموقع، أو حتى معرفة عناوين المقالات التي استخدمها الذكاء الاصطناعي كمصادر.
وأشارت الشركة إلى أن ملخصات الذكاء الاصطناعي ستظهر في أول نتائج صفحة بحث غوغل عندما يكون طلب البحث معقدا، وهذا ستحدده أنظمة بحث غوغل، أي ستختار متى تظهر تلك الملخصات تحديدا على طلبات المستخدمين.
هذه الملخصات الجديدة تدعمها نسخة مخصصة من نموذج "جيميناي"، وتساعده أجزاء أخرى من أنظمة بحث غوغل مثل خاصية "الرسم البياني المعرفي" (Knowledge graph)، وهو قاعدة بيانات ضخمة من المعلومات تُمكِّن غوغل من تقديم إجابات فورية وصحيحة عن بعض أسئلة المستخدم، التي تظهر عندما يبحث عن حقائق أو أشخاص أو أماكن بعينها، وتحدث هذه العملية داخل صفحة بحث غوغل، دون الحاجة إلى الانتقال أو الضغط على روابط أي موقع آخر.
تغير في طبيعة البحث
محرك بحث غوغل يعمل في الأساس بدعم من خوارزميات الذكاء الاصطناعي، التي تؤدي دورها في ترتيب صفحات المواقع في نتائج البحث. لكن المعضلة الآن أن روبوتات المحادثة، التي تعتمد على نماذج الذكاء الاصطناعي التوليدي، تقدم لنا وعدا جديدا بإعادة تصور علاقتنا مع عملية البحث على الإنترنت بالكامل. تماما كما قدم لنا محرك بحث غوغل هذا الوعد منذ بداياته الأولى، وربما تتغير معها بوابتنا التي اعتدناها للدخول إلى شبكة الإنترنت.
كانت غوغل تسير بخطى ثابتة على هذا الدرب منذ مدّة طويلة، فكانت تدفع باستمرار تجاه تغييرات في واجهة المستخدم لتقدم إجابات عن الأسئلة المطروحة في صفحة البحث نفسها، بدلا من تقديم الإجابة بالطريقة التقليدية من أحد المواقع على شبكة الإنترنت التي تظهر في نتائج البحث العادية، مثلا أحد تلك التغييرات شملت ميزة الرسم البياني المعرفي التي سيعتمد عليها ملخص الذكاء الاصطناعي.
لكن الأمر المختلف في تلك الأنظمة الجديدة أنها تستفيد من قوة التواصل مع الآخرين، فكرة الرد على أسئلتنا في المحادثة والتفاعل معنا هو أسلوب اعتدناه خلال العقد الماضي بفضل تطبيقات المحادثات المختلفة، مثل واتساب وماسنجر وغيرها، وهو ما أكده سوندار بيتشاي، الرئيس التنفيذي لشركة ألفابت، في مقابلة مع صحيفة "وول ستريت جورنال" أبريل/نيسان 2023، مشيرا إلى أن هذه هي رؤية الشركة لمستقبل محرك بحث غوغل، عبر التفاعل مع المستخدم في محادثة للإجابة عن أسئلته.
وبالنظر إلى تطبيقات التواصل الاجتماعي، سنجد أنها غيرت فعلا من علاقتنا بالبحث على الإنترنت، وهناك جيل جديد يبحث عن معلوماته في "تيك توك"، أو صور إنستغرام، أو فيديوهات يوتيوب، إذ يرى كثيرون أن هذه الوسائل تقدم تجارب إنسانية مرئية أفضل من النتائج التي قد يجدونها على صفحة بحث غوغل.
مخاوف من "الهلوسة"
أحد أوجه القلق والمخاوف الرئيسية من هذه الميزة الجديدة هي استمرار احتمالية "هلوسة" نموذج الذكاء الاصطناعي، التي تحدث عندما يقدم النموذج إجابات مُختلقة تماما ولا يوجد أي أساس لها في البيانات التي تدرب عليها.
ظهر هذا الأمر بعد تجربة تلك الميزة الجديدة في بحث غوغل، وتصاعدت الانتقادات بعد أن أظهر مستخدمو الميزة نتائج غير منطقية أو غير دقيقة ضمن الإجابات التي يمنحها النموذج للمستخدمين. إذ شارك مستخدمو وسائل التواصل الاجتماعي مجموعة متنوعة من لقطات الشاشة تظهر ميزة الذكاء الاصطناعي الجديدة وهي تقدم إجابات غير صحيحة ومثيرة للجدل.
مثلا، عندما سئلت الميزة عن عدد الرؤساء المسلمين الذين تولوا رئاسة الولايات المتحدة، أجابت: "كان للولايات المتحدة رئيس مسلم واحد، وهو باراك حسين أوباما". كما يمثل الإسناد إلى المصادر مشكلة في ميزة "ملخصات الذكاء الاصطناعي"، خاصة عند إسناد معلومات غير دقيقة إلى المتخصصين في المجال الطبي أو العلماء.
المشكلة هنا أننا عندما نواجه إجابة من روبوت، أو عندما نتخيل أن هناك نوعا من الأتمتة يحدث في الخلفية لإنتاج تلك الإجابة، فإننا نميل إلى تصديق الآلة بسهولة، وهو ما حاولت إثباته دراسة من إحدى الجامعات البولندية الكبرى عام 2020، التي ذكرت أن أكثر من 85% من المشاركين في التجارب تجاهلوا سلوك الروبوت، حتى وهو ينتج إجابات خاطئة عن عمد، واعتبروه مرجعا موثوقا لاتخاذ قراراتهم.
بالطبع، نحتاج إلى مزيد من الأبحاث والدراسات لكي نفهم تلك الظاهرة البشرية الجديدة بصورة أفضل، ولكن من الواضح أن البشر يثقون بمعلومات الذكاء الاصطناعي أكثر مما يثقون بمعلومات بني جنسهم، لأننا غالبا ما نتصور أن أنظمة الذكاء الاصطناعي موضوعية، ولا تتضمن إجاباتها تحيزا مسبقا، لكن على أرض الواقع، وبسبب أن تلك الأنظمة تدربت من بيانات ومحادثات بشرية في الأساس، فهي معرضة لما يتعرض له البشر من تحيز وعيوب أخرى.