ذكاء اصطناعي يتسبب بتسمم وهلوسة رجل بعد نصيحة طبية قاتلة

أُدخل رجل يبلغ من العمر 60 عامًا إلى المستشفى وهو يعاني من أعراض نفسية حادة — إضافة إلى بعض الأعراض الجسدية، بما في ذلك العطش الشديد ومشكلات في التنسيق الحركي — بعد أن طلب من ChatGPT نصائح لتحسين نظامه الغذائي.
ما اعتقد أنه بديل صحي انتهى برد فعل سام شديد لدرجة أن الأطباء وضعوه تحت احتجاز نفسي إجباري.


بعد أن قرأ عن الآثار السلبية المحتملة لملح الطعام — المعروف كيميائيًا باسم كلوريد الصوديوم — استشار الرجل، الذي لم يُكشف عن اسمه، برنامج ChatGPT، فجاءه الرد بأنه يمكن استبداله بـ بروميد الصوديوم.

يبدو بروميد الصوديوم مشابهًا لملح الطعام، لكنه مركب مختلف تمامًا. ورغم استخدامه أحيانًا في المجال الطبي، فإنه يُستعمل في الغالب لأغراض صناعية وتنظيفية — وهو ما يعتقد الخبراء أن ChatGPT كان يشير إليه.

وبحكم دراسته للتغذية في الجامعة، قرر الرجل إجراء تجربة غذائية، فأزال كلوريد الصوديوم من نظامه الغذائي واستبدله ببروميد الصوديوم الذي اشتراه عبر الإنترنت.

بعد ثلاثة أشهر من هذا التغيير الغذائي، نُقل إلى المستشفى وسط مخاوف من أن جاره يقوم بتسميمه.

أخبر المريض الأطباء أنه يقطر ماءه بنفسه ويتبع عدة قيود غذائية. كان يشكو من العطش، لكنه كان مرتابًا عند عرض الماء عليه.

ورغم عدم وجود تاريخ مرضي نفسي لديه، بدأ بعد 24 ساعة من دخوله المستشفى يُظهر مزيدًا من البارانويا، وأبلغ عن هلوسات سمعية وبصرية.

تلقى علاجًا بالسوائل والإلكتروليتات والأدوية المضادة للذهان، وبعد محاولة للهروب، أُدخل في نهاية المطاف إلى جناح الطب النفسي الداخلي بالمستشفى.

وفي دراسة حالة نُشرت الأسبوع الماضي في مجلة Annals of Internal Medicine Clinical Cases، أوضح المؤلفون أن الرجل كان يعاني من التسمم البرومي، وهو متلازمة سامة تنجم عن التعرض المفرط لمركب البروميد الكيميائي أو قريبه عنصر البروم.

وعندما تحسنت حالته، تمكن من الإبلاغ عن أعراض أخرى مثل حب الشباب، والأورام الوعائية الكرزية، والتعب، والأرق، والرنح (اضطراب عصبي يسبب فقدان التنسيق العضلي)، والعطاش (عطش شديد)، وجميعها تتوافق مع أعراض تسمم البروميد.

وحذر مؤلفو الدراسة قائلين:

من المهم أخذ الحذر من أن ChatGPT وغيره من أنظمة الذكاء الاصطناعي قد تنتج معلومات علمية غير دقيقة، وتفتقر إلى القدرة على مناقشة النتائج نقديًا، وفي نهاية المطاف قد تساهم في نشر المعلومات المضللة

توضح شركة OpenAI، المطوّرة لـ ChatGPT، في شروط الاستخدام أن الذكاء الاصطناعي “ليس مخصصًا لاستخدامه في تشخيص أو علاج أي حالة صحية” — لكن ذلك لا يبدو أنه يردع الأميركيين الباحثين عن رعاية صحية سهلة الوصول.

وفقًا لاستطلاع أُجري عام 2025، فإن أكثر من ثلث الأميركيين (35%) يستخدمون الذكاء الاصطناعي بالفعل للتعرف على وإدارة جوانب من صحتهم وعافيتهم.

ورغم حداثة التقنية نسبيًا، فإن الثقة بالذكاء الاصطناعي مرتفعة نسبيًا، حيث يرى 63% أنه موثوق في تقديم المعلومات والتوجيهات الصحية — وهو معدل أعلى من وسائل التواصل الاجتماعي (43%) والمؤثرين (41%)، لكنه أقل من الأطباء (93%) وحتى الأصدقاء (82%).

كما يرى الأميركيون أن طرح الأسئلة على الذكاء الاصطناعي أسهل من البحث في محرك البحث (31%)، وأنه أكثر سهولة من التحدث إلى متخصص صحي (27%).

ومؤخرًا، أطلق خبراء الصحة النفسية جرس الإنذار بشأن ظاهرة متنامية تُعرف بـ “ذهان ChatGPT” أو “ذهان الذكاء الاصطناعي”، حيث يؤدي الانخراط العميق مع روبوتات المحادثة إلى ضائقة نفسية شديدة.

وقد دفعت تقارير عن سلوكيات خطيرة ناجمة عن التفاعل مع روبوتات المحادثة شركات مثل OpenAI إلى تطبيق إجراءات لحماية الصحة النفسية للمستخدمين.

واختتم مؤلفو التقرير بالقول:

“بينما يعد الذكاء الاصطناعي أداة ذات إمكانات كبيرة لردم الفجوة بين العلماء والجمهور غير الأكاديمي، إلا أنه يحمل أيضًا خطر نشر معلومات منزوعة من سياقها”.
“من غير المرجح إطلاقًا أن يذكر خبير طبي بروميد الصوديوم عندما يواجه مريضًا يبحث عن بديل صالح لكلوريد الصوديوم.


New York Post

يقول محدّثي :
لمّا تخرج الكلمة للعلن …فلا سلطة لك عليها …
كل يرميها بسهم عينه ..

 

ماهر حمصي

إبداع بلا رتوش
إشترك في القائمة البريدية