Недавнее исследование представляет собой поучительную историю, актуальную для нашего времени. Врачи рассказали о том, как мужчина пережил психоз, вызванный отравлением, после того как он следовал диетическим рекомендациям чат-бота компании Open AI. Вероятно, это первый задокументированный случай отравления с использованием искусственного интеллекта.
В сборнике «Анналы внутренней медицины: клинические случаи» врачи Вашингтонского университета описали реальный случай, который готов стать эпизодом сериала «Черное зеркало». Сообщается, что у мужчины развилось отравление бромидом, который он принимал в течение трех месяцев по рекомендации ChatGPT. К счастью, благодаря лечению его состояние улучшилось, и он успешно выздоровел.
В начале XX века бромистые соединения широко применялись для лечения различных заболеваний, от бессонницы до тревожности. Однако со временем люди осознали, что бромид может быть токсичен в высоких или хронических дозах и, по иронии судьбы, вызывать нейропсихиатрические проблемы. К 1980-м годам бромид был исключен из большинства лекарственных препаратов, а вместе с ним сократилось и число случаев отравления бромидом или бромизма. Тем не менее, этот ингредиент сохранился в некоторых ветеринарных препаратах и других потребительских товарах, включая пищевые добавки, а случаи бромизма происходят и сегодня.

Согласно отчету, мужчина обратился в отделение неотложной помощи и сообщил медперсоналу, что, возможно, его отравил сосед. Хотя некоторые физические показатели были в норме, мужчина стал возбужденным и параноидальным, отказывался пить воду, которую ему давали, несмотря на жажду. У него также появились зрительные и слуховые галлюцинации, а вскоре развился полноценный психотический эпизод. В разгар психоза пациент попытался сбежать, после чего врачи поместили его в «принудительное психиатрическое отделение в связи с тяжелой инвалидностью».
Врачи назначили мужчине внутривенные вливания и антипсихотик, и его состояние начало стабилизироваться. Они сразу заподозрили, что причиной болезни мужчины был бромизм, и как только тот достаточно оправился, чтобы говорить связно, выяснили, как именно вещество попало в его организм. Пациент рассказал, что начал намеренно принимать бромистый натрий три месяца назад. Он читал о негативном влиянии на здоровье чрезмерного содержания поваренной соли (хлорида натрия) в рационе. Однако, изучив литературу, нашел только рекомендации по снижению потребления натрия.
«Вдохновленный своим опытом изучения диетологии в колледже, — пишут врачи, — мужчина решил попробовать исключить хлорид из своего рациона. Он обратился за помощью к ChatGPT, и, по-видимому, тот сказал ему, что хлорид можно безопасно заменить бромом. Получив разрешение от AI, он начал употреблять бромистый натрий, купленный онлайн».
Учитывая хронологию случая, мужчина, вероятно, использовал ChatGPT 3.5 или 4.0. У врачей не было доступа к журналам чата этого человека, поэтому мы никогда не узнаем точно, как проходила его судьбоносная консультация. Но когда они спросили ChatGPT 3.5, чем можно заменить хлорид, он ответил, что это бромид. Возможно, и даже вероятно, что искусственный интеллект имел в виду примеры замены бромида, не имеющие никакого отношения к диете, например, для очищения организма. В частности, ChatGPT врачей в своем ответе указал, что контекст этой замены имеет значение. Однако искусственный интеллект также не предупредил об опасности употребления бромида и не спросил, почему человек вообще заинтересовался этим вопросом.
Что касается главного героя истории, он постепенно оправился от пережитого. В конце концов, ему отменили антипсихотические препараты, и через три недели после поступления он был выписан из больницы. В течение двух недель наблюдения его состояние оставалось стабильным.
Врачи отмечают, что, хотя такие инструменты, как ChatGPT, могут «обеспечить связь между учеными и неакадемическим сообществом, ИИ также несет риск распространения информации, вырванной из контекста». Они добавили, что медицинский эксперт, вероятно, не рекомендовал бы переход на бромид человеку, обеспокоенному потреблением поваренной соли.
Поддержать работу блога донатом можно по ссылке.
Больше на Сто растений, которые нас убили
Подпишитесь, чтобы получать последние записи по электронной почте.
