Mężczyzna przypadkowo zatruł się po zastosowaniu diety zaleconej przez ChatGPT, która wywołała u niego halucynacje

Opublikowano: | Zaktualizowano:
Pewien mężczyzna w Waszyngtonie przypadkowo otruł się po zastosowaniu diety opracowanej przezChatGPT .
Nieznany z nazwiska 60-letni mężczyzna udał się na pogotowie, podejrzewając, że sąsiad go otruł.
Około dnia po przyjęciu do szpitala zaczął cierpieć na paranoję i halucynacje i próbował uciec ze szpitala.
Mężczyzna później wyznał, że miał kilka ograniczeń dietetycznych, m.in. destylował własną wodę i stosował „wyjątkowo restrykcyjną” dietę wegetariańską.
Po przeczytaniu o szkodliwości chlorku sodu, czyli soli kuchennej, powiedział lekarzom i zwrócił się do ChatGPT z prośbą o wyeliminowanie go ze swojej diety.
Chatbot miał mu doradzić, że sól można bezpiecznie zastąpić bromkiem sodu, który był stosowany jako środek uspokajający na początku XX wieku, a obecnie znajduje się w lekach przeciwdrgawkowych dla psów i ludzi.
Stosował się do tego zalecenia przez trzy miesiące i ostatecznie doszło u niego do zatrucia bromem.
Bromek może kumulować się w organizmie i upośledzać funkcjonowanie nerwów, co jest stanem zwanym bromizmem. Prowadzi to do dezorientacji, utraty pamięci, lęku, urojeń, wysypek i trądziku, na które cierpiał również mężczyzna.
Pewien mężczyzna w Waszyngtonie zatruł się bromem, postępując zgodnie z zaleceniami ChatGPT (zdjęcie stockowe)
Lekarze leczący tego mężczyznę z University of Washington w Seattle powtórzyli jego poszukiwania i otrzymali te same błędne porady.
Ostrzegali, że sprawa ta uwypukla, „w jaki sposób wykorzystanie sztucznej inteligencji może potencjalnie przyczynić się do rozwoju możliwych do uniknięcia niekorzystnych skutków zdrowotnych”.
Stwierdzili, że ChatGPT i inne chatboty mogą „generować nieścisłości naukowe, nie mieć możliwości krytycznego omawiania wyników i ostatecznie przyczyniać się do rozprzestrzeniania dezinformacji”.
Anonimowe studium przypadku, opublikowane na początku tego miesiąca w czasopiśmie Annals of Internal Medicine , pojawiło się tydzień po tym, jak OpenAI stwierdziło, że jedna z najnowszych ulepszeń chatbota może lepiej odpowiadać na pytania dotyczące zdrowia i „sygnalizować potencjalne obawy”.
Jednakże wytyczne ChatGPT stanowią, że narzędzie to nie jest „przeznaczone do diagnozowania lub leczenia jakichkolwiek schorzeń”.
Wygląda na to, że pacjent miał starszą wersję oprogramowania.
Po próbie ucieczki ze szpitala mężczyznę umieszczono pod opieką psychiatryczną i podano mu duże ilości płynów i elektrolitów, aby wypłukać bromek z organizmu.
Stężenie bromku wynosiło u niego 1700 mg/l, podczas gdy norma mieści się w przedziale od 0,9 do 7,3 mg/l.
Bromek był stosowany jako środek uspokajający w XIX i XX wieku i niegdyś był szeroko stosowany w lekach na receptę i bez recepty. Jednak w miarę jak badania ujawniały ryzyko związane z przewlekłą ekspozycją, organy regulacyjne zaczęły stopniowo wycofywać go z rynku leków w USA.
W rezultacie przypadki te zdarzają się rzadko.
Mężczyzna przyznał również, że sam destylował wodę i stosował „wyjątkowo restrykcyjną” dietę wegetariańską (zdjęcie stockowe)
Studium przypadku opublikowano po tym, jak firma OpenAI stwierdziła, że jedna z najnowszych aktualizacji chatbota może lepiej odpowiadać na pytania dotyczące zdrowia i „sygnalizować potencjalne problemy”
Mężczyzna zgłaszał trądzik i małe czerwone narośle na skórze, bezsenność, zmęczenie, problemy z koordynacją mięśni i nadmierne pragnienie.
Minęły trzy tygodnie, zanim poziom bromku się ustabilizował i udało się odstawić leki psychiatryczne, zanim mógł zostać wypisany ze szpitala.
Lekarze, którzy się nim opiekowali, napisali: „Sztuczna inteligencja jest narzędziem o dużym potencjale, jeśli chodzi o łączenie naukowców ze środowiskiem pozaakademickim, ale niesie też ze sobą ryzyko rozpowszechniania informacji wyrwanych z kontekstu.
„Jest bardzo mało prawdopodobne, aby ekspert medyczny wspomniał o bromku sodu, mając przed sobą pacjenta szukającego skutecznego zamiennika chlorku sodu”.
Podkreślili również, że „w miarę jak narzędzia sztucznej inteligencji będą coraz powszechniej stosowane, lekarze będą musieli brać to pod uwagę, dokonując przeglądu miejsc, w których pacjenci korzystają z informacji medycznych”.
Daily Mail