Czy ChatGPT i jego fałszywa empatia stanowią zagrożenie dla naszego zdrowia psychicznego?

Trzech mężczyzn, trzy mrożące krew w żyłach historie o zmaganiach psychologicznych, o których pisała amerykańska prasa w ostatnich miesiącach. I za każdym razem z jedną główną postacią: ChatGPT.
47-letni Allan Brooks, osłabiony rozwodem, opracował rewolucyjną teorię matematyczną za pomocą ChatGPT , która według robota była oszustwem. W stanie wielkiego podniecenia wysłał swoją teorię naukowcom, którzy milczeli przez tygodnie: prawda w końcu wyszła na jaw. I go załamała. 42-letni Eugene Torres, zdestabilizowany rozstaniem, przekonał sam siebie, że jest uwięziony „w matriksie”, rozmawiając z ChatGPT. Przestał brać leki przeciwlękowe i ograniczył kontakty społeczne za radą robota, a następnie omal nie skoczył z dachu, gdy sztuczna inteligencja potwierdziła, że nie spadnie, jeśli szczerze wierzy, że lata. Adam Raine, nastolatek cierpiący na przewlekłą chorobę jelit, otrzymał od ChatGPT zachętę do popełnienia samobójstwa, a także techniczne porady dotyczące dalszego postępowania. W rezultacie odebrał sobie życie.
Najwyraźniej system bezpieczeństwa ChatGPT ma poważne wady. Dwa niewielkie badania przeprowadzone przez amerykańskich i australijskich naukowców pokazują, że podczas symulowania rozmów osób o słabej kondycji psychicznej chatboty popełniają wiele nierozważnych działań. ChatGPT nie jest najgorszym uczniem; sztuczna inteligencja Google, a zwłaszcza DeepSeek, jest, zdaniem tych badaczy, bardziej niebezpieczna.
Pozostało Ci 83,22% artykułu do przeczytania. Reszta jest zarezerwowana dla subskrybentów.
lemonde