Мъж се озова в болница след съвет от ChatGPT

Мъж се озова в болница след съвет от ChatGPT Мъж, който използвал ChatGPT за съвети относно диетата си, в крайна сметка се отровил и постъпил в болница.
60-годишният пациент, който се опитвал да премахне трапезната сол от диетата си по здравословни причини, се обърнал към изкуствения интелект за заместител. Според случай, публикуван в Annals of Internal Medicine, когато ChatGPT му предложил да замени натриевия хлорид (трапезната сол) с натриев бромид, мъжът последвал съвета за период от три месеца.
Натриевият бромид е химично съединение, което прилича на сол, но е токсично за човешката консумация. Първоначално използван като противоепилептично и седативно средство, днес той се прилага основно за почистване, в производството и селското стопанство. Според Националните здравни институти на САЩ, това съединение е опасно за употреба от хора.
След като мъжът постъпил в болница, той съобщил за симптоми като умора, безсъние, лоша координация, акне по лицето, черешови ангиоми (червени бучки по кожата) и прекомерна жажда – всички признаци на бромизъм, заболяване, причинено от продължително излагане на натриев бромид. Също така, мъжът показвал признаци на параноя, твърдейки, че съседът му се опитвал да го отрови, и имал слухови и визуални халюцинации. В крайна сметка бил поставен на психиатричен надзор след опит за бягство.
Той бил лекуван с интравенозни течности и електролити, а също така му били предписани антипсихотични медикаменти. След три седмици наблюдение той бил освободен от болницата.
„Този случай показва как използването на изкуствен интелект (AI) може потенциално да допринесе за развитието на предотвратими неблагоприятни здравословни последици“, пишат изследователите в случая. „Тези езикови модели за прогнозиране на текст не притежават здрав разум и могат да доведат до катастрофални резултати, ако потребителят не приложи собственото си здраво разбиране.“
Изследователите посочват, че е „малко вероятно“ лекар да би споменал натриев бромид, когато говори с пациент, който търси заместител на натриевия хлорид. Те също така подчертават, че системите на AI могат да генерират научни неточности, нямат способността да разсъждават критично и в крайна сметка могат да разпространяват дезинформация.
Доктор Джейкъб Гланвил, главен изпълнителен директор на биотехнологичната компания Centivax в Сан Франциско, подчерта, че хората не трябва да използват ChatGPT като заместител на лекар. „Тези езикови модели предсказват текст, базиран на статистическата вероятност за следваща дума, а не чрез проверка на фактите“, добавя той. „Грешката с бромида показва защо контекстът е от съществено значение в съветите за здравето.“
OpenAI, създателят на ChatGPT, предостави следното изявление: „Нашите условия посочват, че ChatGPT не е предназначен за използване при лечение на здравословни състояния и не е заместител на професионални съвети. Работим по намаляване на рисковете и обучаваме нашите AI системи да насърчават хората да търсят професионално напътствие.“
15.08.2025, 16:23 часа
157 0
Остави коментар
Внимание! Сайтът не носи отговорност за съдържанието на коментарите.
capctha