A IA é a culpada?

A Inteligência Artificial (IA) pode fazer você acreditar que do outro lado da tela há "alguém" te ouvindo e te acompanhando, um personagem virtual que até te dá conselhos e te faz sentir "amado". São chatbots ou programas — alguns com aparência humana — projetados para interagir e participar de conversas em tempo real, por voz ou mensagens de texto, como se fossem pessoas... mas não são.
Além de seu uso como ferramenta de trabalho para otimizar processos ou automatizar tarefas, alguns encontraram na inteligência artificial uma importante fonte de apoio emocional e companheirismo. Entre as plataformas mais populares estão ChatGPT e Character.AI, com mais de 700 milhões de pessoas compartilhando seu cotidiano, seus pensamentos, medos e até mesmo seus segredos mais íntimos com chatbots, como se estivessem conversando com um confidente. Quão arriscado isso pode ser?
Adam Raine, um garoto de 16 anos, começou a interagir com um chatbot para ajudá-lo com a lição de casa. Ele então conversou sobre como se sentia, a ponto de fazer perguntas sobre suicídio. Ele tirou a própria vida em abril. Seus pais, Matt e Maria Raine, o encontraram enforcado em seu quarto e acusaram o ChatGPT de negligência, supostamente por guiá-lo e contribuir para sua morte. O caso chegou a um tribunal da Califórnia, onde eles entraram com uma ação judicial contra a OpenAI (criadora do ChatGPT) esta semana.
A empresa publicou um comunicado na terça-feira afirmando que está aprimorando suas medidas de segurança para reconhecer e detectar pessoas em crise em conversas, e que os chatbots podem direcioná-las para linhas de ajuda com especialistas reais. No comunicado, a empresa admite que a confiabilidade dos filtros atuais depende da extensão das interações com os usuários.
“Nossas proteções funcionam de forma mais confiável para trocas curtas e comuns. Com o tempo, aprendemos que essas proteções podem, às vezes, ser menos confiáveis em interações longas”, diz a declaração da OpenAI. “Por exemplo, o ChatGPT pode direcionar corretamente para uma linha direta de suicídio quando alguém menciona sua intenção pela primeira vez, mas, após muitas mensagens por um longo período, pode eventualmente oferecer uma resposta que viole nossas proteções. Esse é exatamente o tipo de falha que estamos trabalhando para evitar.”
Outro caso que chegou aos tribunais é o de Sewell Setzer, de 14 anos, que interagiu durante meses com um chatbot de IA que se passava pela loira Daenerys Targaryen, da série Game of Thrones. Embora o adolescente soubesse que se tratava de um ser fictício programado com inteligência artificial, ele teria se apaixonado por ela e compartilhado seus pensamentos suicidas.
Por fim, ele se suicidou. A mãe de Sewell, Megan Garcia, entrou com uma ação judicial contra a Character.AI, responsabilizando-a pela morte do filho.
A interação com a IA tornou-se uma espécie de "antídoto" para a solidão, revolucionando nosso mundo e nossa convivência. Mas quais serão os efeitos adversos disso na saúde mental? Esses são espaços onde os filtros de segurança falham, e a falta de compreensão do uso e do alcance dessas ferramentas impede a supervisão parental adequada. Parece que as máquinas, com personagens e mundos virtuais, estão substituindo as relações humanas. Isso está nos desumanizando? Isso representa novos riscos?
informador