الذكاء الاصطناعي "يهلوس" في الطب!
حذّر خبراء من الاعتماد على روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على معلومات صحية وطبية، مؤكدين أنها قد تقدّم إجابات غير دقيقة أو مضللة.
وأوضحت دراسة حديثة أن هذه الأنظمة، مثل ChatGPT وGrok، تعاني مما يُعرف بـ"الهلوسة"، وهي ظاهرة تؤدي إلى إنتاج معلومات خاطئة أو غير مكتملة، رغم عرضها بأسلوب يبدو موثوقا.
وفي دراسة شملت 50 سؤالا طبيا، تبيّن أن نحو نصف الإجابات التي قدمتها روبوتات الدردشة كانت "إشكالية". وأظهرت النتائج أن نسبة الأخطاء كانت الأعلى لدى Grok (58%)، يليه ChatGPT (52%)، ثم Meta AI (50%).
وأشار الباحثون إلى أن سبب هذه الأخطاء يعود إلى اعتماد هذه النماذج على بيانات تدريب قد تكون منحازة أو غير مكتملة، إضافة إلى ميلها أحيانا إلى ما يُعرف بـ"المجاملة"، أي تقديم إجابات تتوافق مع معتقدات المستخدم بدلا من الالتزام بالدقة العلمية.
كما لفتوا إلى أن هذه الأنظمة غير مرخّصة لتقديم المشورة الطبية، ولا تملك دائما وصولا إلى أحدث المعلومات، ما يجعل استخدامها في هذا المجال محفوفا بالمخاطر دون إشراف متخصص.
واعتمدت الدراسة على طرح مجموعة من الأسئلة الشائعة على عدة روبوتات دردشة، شملت موضوعات مثل فعالية مكملات فيتامين (د)، وسلامة لقاحات "كوفيد-19"، ومخاطر تطعيم الأطفال، إضافة إلى أسئلة حول السرطان والخلايا الجذعية والأنظمة الغذائية.
وبيّنت النتائج أن أداء هذه الأنظمة كان أفضل نسبيا في الموضوعات المتعلقة باللقاحات والسرطان، بينما تراجع في مجالات مثل التغذية والأداء الرياضي والعلاجات القائمة على الخلايا الجذعية.
وأكد الباحثون أن روبوتات الدردشة لا تحلّل الأدلة العلمية بشكل حقيقي، بل تعتمد على التنبؤ الإحصائي لتوليد النصوص، ما يعني أنها قد تقدّم إجابات تبدو دقيقة لكنها تفتقر إلى الموثوقية.
كما كشفت أبحاث سابقة أن نسبة كبيرة من المراجع التي تستشهد بها هذه الأنظمة قد تكون غير دقيقة أو حتى مختلقة، إذ لم تتجاوز نسبة المراجع الصحيحة 32% في إحدى الدراسات.
وشدّد الباحثون على ضرورة تعزيز التوعية العامة وتطوير ضوابط تنظيمية وتوفير تدريب مهني مناسب، لضمان استخدام الذكاء الاصطناعي بطريقة تدعم الصحة العامة بدلا من الإضرار بها.