مخاطر منح "شات جي بي تي" صلاحية الوصول لسجلاتك الطبية

أطلقت شركة OpenAI وضعاً صحياً جديداً داخل تطبيق "شات جي بي تي"، يُعرف باسم ChatGPT Health، يتيح للمستخدمين طرح أسئلة متعلقة بالصحة والحصول على إرشادات حول التغذية، ومتابعة ما بعد العمليات الجراحية، وفهم نتائج الفحوصات المخبرية، وشرح الرسائل الطبية غير الواضحة.

يوضح مسؤولون في OpenAI أن هذه الميزة لا تهدف لاستبدال الطبيب أو التشخيص المباشر، بل لدعم الرعاية الصحية وتمكين المستخدمين من فهم حالتهم الصحية بشكل أفضل. كما تشجع الشركة على ربط التطبيق بسجلات المستخدمين الطبية وتطبيقات الصحة مثل Apple Health للحصول على إجابات أكثر شخصية، مع ضمان تشفير البيانات وعدم استخدامها لتدريب الروبوت.

ويتيح شات جي بي تي للمستخدم التحكم الكامل في مستوى الوصول إلى البيانات، مع إمكانية قطع الربط في أي وقت، ويؤكد الفريق أن أكثر من 260 طبيباً ساهموا في تطوير النموذج وإرشاده لتقديم ملاحظات دقيقة، بما في ذلك التوصية بمراجعة الطبيب عند الحاجة، وفقاً لما ورد في موقع "ميترو"

خبراء يحذرون من الاعتماد المفرط على الذكاء الاصطناعي
رغم الفوائد المحتملة، حذر خبراء من أن الاعتماد على ChatGPT للحصول على نصائح صحية قد يكون خطراً على المستخدمين. وتشير دراسة لشركة Semble المتخصصة في الصحة الرقمية إلى أن نحو ربع المرضى يلجأون إلى الذكاء الاصطناعي لفهم حالتهم الصحية، ما يشبه استخدام غوغل لتشخيص الأمراض، رغم قدرة النظام على اجتياز اختبارات الترخيص الطبي.

وقد يؤدي الاعتماد على النصائح الصحية من الذكاء الاصطناعي إلى تشخيص غير دقيق، كما حدث مع رجل اتبع نصيحة ChatGPT حول استبدال الملح في نظامه الغذائي ببروميد الصوديوم، مما تسبب له بمضاعفات صحية. ويشير الخبراء إلى ميل أنظمة الدردشة لتعزيز ما يقوله المستخدم، ما قد يؤدي إلى تأكيد معتقدات خاطئة أو تقديرات غير دقيقة للحالة الصحية.

تحذيرات قانونية ونفسية
وحذرت المحامية سوفي ماكغاري، المتخصصة في قضايا الإهمال الطبي، من أن نصائح الذكاء الاصطناعي الصحية قد تكون خطيرة للغاية، خصوصاً إذا أدت إلى تشخيص مفرط أو ناقص أو خاطئ، مما يرفع مستويات القلق والتوتر لدى المستخدمين ويضغط على خدمات الطوارئ، أو يدفع البعض لمحاولة معالجة حالتهم بأنفسهم.

وأكدت ماكغاري أن الكثير من حالات الإهمال الطبي ترتبط بتأخر التشخيص أو المعلومات المضللة، وأن الاعتماد على تحليلات الذكاء الاصطناعي قد يؤدي إلى نتائج كارثية أو حتى مهددة للحياة، خصوصاً إذا قدمت النصائح الطبية بطريقة تبسيطية أو مطمئنة بشكل زائف.

قضايا أمنية للبيانات الطبية
وحذر خبير الأمن داري آغا من أن تحميل السجلات الطبية الكاملة على منصات الذكاء الاصطناعي في الولايات المتحدة قد يشكل خطرًا كبيرًا على الخصوصية. وأوضح أن تركيز البيانات الحساسة في مكان واحد يجعلها هدفًا جذابًا للمتسللين، وأن حماية هذه المعلومات تعتمد بشكل كامل على قوة إجراءات المنصة ضد الاختراقات والوصول غير المصرح به.

يقدم ChatGPT Health أدوات واعدة لدعم المستخدمين في فهم حالتهم الصحية، لكنه يثير تحذيرات قوية من الاعتماد المفرط، سواء من الناحية الطبية، النفسية، أو الأمنية. ويؤكد الخبراء على ضرورة استخدامه كأداة مساعدة، مع الاستمرار في مراجعة الطبيب المختص عند الحاجة، وعدم التعامل معه كبديل عن الرعاية الصحية التقليدية.