Sprache auswählen

German

Down Icon

Land auswählen

Mexico

Down Icon

ChatGPT und andere Sprachmodelle könnten Anzeichen einer Depression erkennen

ChatGPT und andere Sprachmodelle könnten Anzeichen einer Depression erkennen

Eine Studie des Jama Open Network legt nahe, dass große Sprachmodelle wie ChatGPT das Potenzial haben , psychische Gesundheitsrisiken bei Patienten in psychiatrischer Behandlung zu erkennen .

Untersuchungen eines koreanischen Teams deuten darauf hin, dass diese Modelle zwar „Potenzial“ für die Erkennung derartiger Risiken aufweisen, „ es jedoch unbedingt erforderlich ist, Leistung und Sicherheit vor der klinischen Anwendung weiter zu verbessern“.

Das Team untersuchte das Potenzial großer Sprachmodelle. Dabei handelt es sich um künstliche Intelligenzsysteme, die anhand großer Datenmengen trainiert werden , sodass sie in der Lage sind, natürliche Sprache zu verstehen und zu generieren.

Dasselbe Potenzial zeigen Embeddings, eine Technik zur Verarbeitung natürlicher Sprache, die menschliche Sprache in mathematische Vektoren umwandelt und die ebenfalls vom Team analysiert wurde.

Die Studie basierte auf Daten von 1.064 psychiatrischen Patienten im Alter von 18 bis 39 Jahren, die verschiedene Selbsteinschätzungs- und Satzvervollständigungstests absolvierten .

Lesen Sie: Holen Sie sich das zweite Produkt zum halben Preis für Sorianas Julio Regalado

Letztere bestehen darin, einem Patienten eine Reihe unvollendeter Sätze vorzuschlagen, die er mit dem Ersten beenden muss, was ihm in den Sinn kommt, und subjektive Informationen zu geben , beispielsweise über sein Selbstbild oder über zwischenmenschliche Beziehungen.

Die Daten wurden von großen Sprachmodellen wie GPT-4, Gemini 1.0 Pro oder Google Deepmind und von Text-Embedding-Modellen wie text-embedding-3-large OpenAI verarbeitet.

In der Studie heißt es, dass diese Modelle „ihr Potenzial bei der Beurteilung psychischer Gesundheitsrisiken“, darunter Depressionen und Selbstmord, „unter Verwendung narrativer Daten von psychiatrischen Patienten unter Beweis gestellt haben “.

In einem Kommentar zu der Studie, an der er nicht beteiligt war, wies Alberto Ortiz vom Universitätsklinikum La Paz (Madrid) darauf hin, dass die Studie an Patienten durchgeführt wurde, die sich bereits in psychiatrischer Behandlung befanden. Daher sei eine Verallgemeinerung der Ergebnisse, um diese Methodik auf die Risikoerkennung in der Allgemeinbevölkerung anzuwenden, „im Moment nicht möglich“.

Ortiz sagte im Science Media Centre, einer wissenschaftlichen Ressourcenplattform, dass sich die Anwendung von KI im Bereich der psychischen Gesundheit in jedem Fall auf die subjektiven Erzählungen der Menschen konzentrieren müsse, wie dies in dieser Forschung getan werde.

Er war jedoch der Ansicht, dass es „eine Sache ist, Risiken zu erkennen und Screenings durchzuführen, und eine ganz andere, Menschen mit psychischen Problemen zu behandeln. Diese Aufgabe geht über die Anwendung einer technologischen Lösung hinaus und bei der die Subjektivität des Arztes für die Entwicklung einer therapeutischen Bindung von wesentlicher Bedeutung ist.“

Das könnte Sie interessieren: Julio Regalado von Soriana: Dies sind ALLE Produkte, die 3 für 2 sind

* * * Bleiben Sie über Neuigkeiten auf dem Laufenden, treten Sie unserem WhatsApp-Kanal bei * * *

OB

informador

informador

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow