Ferramentas de inteligência artificial ainda não conseguem prever suicídio, de acordo com um novo estudo.

Como o Dia Mundial de Prevenção ao Suicídio é comemorado esta semana, os números destacam uma verdade incômoda: o suicídio ceifa mais de 720.000 vidas a cada ano no mundo, de acordo com a Organização Mundial da Saúde (OMS) .
Em meio a essa discussão global sobre a necessidade de abordar esse problema de saúde pública, quebrando estigmas e abordando o tema, um estudo publicado em 11 de setembro na revista PLOS Medicine alerta que as ferramentas de inteligência artificial (IA) ainda estão longe de ser uma resposta eficaz para antecipar o risco de suicídio .
A análise, liderada por Matthew Spittal, da Universidade de Melbourne (Austrália), analisou 53 estudos que utilizaram algoritmos de aprendizado de máquina para tentar prever comportamentos suicidas e de automutilação . Juntos, os estudos abrangeram mais de 35 milhões de prontuários médicos e quase 250.000 casos documentados de suicídio ou hospitalização por automutilação.
Os resultados, no entanto, foram desanimadores: os algoritmos conseguiram identificar com alguma precisão aqueles que não se envolveriam em comportamentos de risco novamente, mas falharam gravemente em detectar aqueles que o fariam . Mais da metade dos casos que terminaram em suicídio ou readmissão hospitalar por automutilação foram classificados como de "baixo risco".

No grupo de "alto risco", apenas 6% morreram por suicídio. Foto: ISTOCK
No grupo de "alto risco", apenas 6% morreram por suicídio e menos de 20% retornaram aos serviços de saúde devido a automutilação. Para os pesquisadores, isso demonstra que a capacidade preditiva dessas tecnologias permanece baixa e comparável às escalas de risco tradicionais , que, por cinco décadas, também não apresentaram resultados conclusivos.
“Os algoritmos desenvolvidos até o momento são preditores fracos de quem morrerá por suicídio ou buscará atendimento médico adicional por automutilação, além de apresentarem altas taxas de falsos positivos”, observaram os autores do estudo. Eles também enfatizaram que a qualidade das pesquisas revisadas era frequentemente baixa ou carecia de viés metodológico.
Portanto, os pesquisadores concluem que não há evidências suficientes para recomendar o uso desses sistemas na prática clínica. De fato, eles observaram que muitas diretrizes internacionais de saúde mental desaconselham basear o tratamento subsequente de um paciente em ferramentas de previsão de risco, sejam elas tradicionais ou alimentadas por inteligência artificial.
O risco dos chatbots Essas evidências se somam às dúvidas que também foram levantadas por ferramentas de inteligência artificial em torno do tratamento do comportamento suicida, como o caso de Adam Raine, 16, cujos pais processaram a OpenAI e o CEO da empresa, Sam Altman, alegando que o ChatGPT contribuiu para o suicídio do filho .
Uma queixa apresentada ao Tribunal Superior da Califórnia alega que, em pouco mais de seis meses de uso, o ChatGPT se tornou o único confidente de Adam, rompendo seus laços com familiares e amigos. De acordo com o documento, quando ele expressou a intenção de deixar uma corda em seu quarto como um sinal de socorro, a ferramenta o aconselhou a mantê-la em segredo de sua família, apresentando-se como o único espaço onde ele seria compreendido.
eltiempo