نصيحة قاتلة من ChatGPT سممت رجلا.. ما التفاصيل؟

سؤال بسيط على تطبيق ذكاء اصطناعي كاد يودي بحياة رجل، هذا ما حصل مع مواطن أمريكي أراد اتباع نظام غذائي قليل الملح فسأل ChatGPT، عن كيفية إزالة كلوريد الصوديوم (ملح الطعام) من غذائه، لكن المفاجأة أن الإجابة دفعته إلى تبديل الملح بمركب كيميائي خطير، مما أدخله المستشفى بحالة تسمم نادرة، فتحت هذه الحادثة الغريبة النقاش حول مخاطر الاعتماد المفرط على نصائح الذكاء الاصطناعي في أمور الصحة.
سؤال مصيري
صاحب الواقعة كان مهتماً بالتغذية الصحية، وقرأ عن أضرار الإفراط في ملح الطعام (كلوريد الصوديوم)، ولأنه درس التغذية سابقاً، قرر تجربة إزالة عنصر "الكلوريد" تحديداً من نظامه بدل مجرد تخفيف الصوديوم، فتوجه إلى ChatGPT للسؤال: "بماذا أستبدل كلوريد الصوديوم في طعامي ليختفي الكلوريد؟"
إجابة خاطئة وغير متوقعة
اقترح ChatGPT عليه البروميد، وجاءت إجابة الذكاء الاصطناعي مضللة ومميتة، إذ أوصى بشكل ما باستبدال الكلوريد بـالبروميد باعتباره "آمناً"، والتفسير الوحيد أنه ربما استند إلى معلومات عن استخدام البروميد قديماً في بعض الحالات، أو خلط بين سياقات غير غذائية، لكن المؤكد أنه لم يحذره من خطورة تناول مركب البروميد كبديل للملح.
ثقة عمياء وتنفيذ حرفي
أخذ الرجل النصيحة على محمل الجد، ومن خلال بحث بسيط، اشترى بروميد الصوديوم NaBr عبر الإنترنت (وهو مركب كيميائي كان يُستخدم في بدايات القرن الـ 20 كمهدئ)، وبدأ يرش بروميد الصوديوم على طعامه بدل الملح التقليدي طيلة 3 أشهر كاملة.
تسمم الغريب وأعراض مروعة
وصل الرجل لقسم الطوارئ شاكياً شعورًا بالتسمم، وفي البداية بدت فحوصاته الجسدية طبيعية، لكن سرعان ما ظهرت عليه أعراض عصبية حادة، أصبح شديد الهيجان والارتياب، ورفض شرب الماء رغم ظمئه، وبدأ يتخيل أشياء غير موجودة ويسمع أصواتاً غير حقيقية. تطور الأمر إلى نوبة ذهانية كاملة حاول فيها الهرب من المستشفى، مما اضطر الأطباء لتقييده، وإعطائه مهدئات ومضاداً للذهان فوراً لإنقاذه.
بحكم ندرة هذه الأعراض مجتمعة، شك الأطباء بحدسهم في تسمم بالبروميد، وهو حالة تسمى "البَرُومِزم" التي كانت معروفة قبل عقود عندما استُخدم البروميد دواءً، وبمجرد أن بدأ المريض يستعيد هدوءه وقدرته على الكلام بعد العلاج الوريدي، أكد شكهم، معترفا أنه بالفعل يتناول بروميد الصوديوم عمدًا كجزء من نظامه الغذائي.
تأثير البروميد على الدماغ
يوضح المختصون أن مركبات البروميد عند تناولها بجرعات عالية ولمدة طويلة سامة للجهاز العصبي المركزي، وتسبب اضطرابًا في كيمياء الدماغ فتؤدي إلى أعراض كالهلوسة والأوهام والتفكير المشوش.
لماذا أخطأ ChatGPT؟
على الأرجح، حين طُرح عليه السؤال، استرجع ChatGPT معلومة أن "البروميد يمكن أن يحل محل الكلوريد في بعض التفاعلات"، لكنه تجاهل أن ذلك في سياقات صناعية، أو تنظيفية، وليس للاستهلاك البشري.
ربما كان هذا الحوار مع إصدار أقدم (3.5 أو 4.0) قبل تشديد معايير السلامة، ورغم وجود تحذيرات مدمجة من إعطاء نصائح طبية ضارة، إلا أنها لم تتفعل هنا إما لأن السؤال بدا تقنيًا، أو لأن النظام أساء التقدير.
نصيحة طبية خاطئة، تسمم البروميد، كلوريد الصوديوم، حمية قليلة الملح، ذكاء اصطناعي
رجل اتبع نصيحة ChatGPT الغذائية بحذافيرها فكاد يقتل نفسه: التطبيق اقترح استبدال ملح الطعام بمركب البروميد السام، ما أدى لإصابته بتسمم عصبي خطير. حالة غريبة تسلط الضوء على مخاطر الاعتماد على نصائح الذكاء الاصطناعي في الصحة.