Logo newsbot.ch

Wissenschaft

Durch KI sollen Chats zu mentaler Gesundheit empathischer werden

2023-01-24 17:25:07
newsbot by content-proivder.ch GmbH
Quelle: Science Media Center Deutschland

Ein KI-Programm sorgt dafür, dass Aussagen von Nutzerinnen und Nutzern in Chats empathischer sind, wie das Science Media Center Deutschland schreibt.

Diesen Befund stellt ein Team von Forschenden aus den USA in einer Studie vor, die am 23.01.2023 im Fachjournal „Nature Machine Intelligence“ erschienen sei (siehe Primärquelle). Das Programm überprüft Formulierungen bei Laien-Gesprächen zu Problemen bei mentaler Gesundheit und schlägt mögliche empathischere Antworten vor.In der randomisierten Studie mit 300 Teilnehmenden wurde das „Hailey“ genannte Modell auf einem App-Interface, das der Plattform TalkLife nachempfunden war, getestet.

Auf TalkLife können User im nicht-klinischen Kontext mit anderen Usern über ihre psychischen Probleme schreiben. Dabei seien die Rollen so festgelegt, dass eine Person über ihre Erfahrungen und mentalen Probleme schreibt und die andere darauf reagiert und Feedback oder Ratschläge gibt.

Die KI schlug bei Antworten der beratenden User Verbesserungs- und Ergänzungsvorschläge vor – mit dem Ziel, dass die Antworten empathischer wirken. Die User konnten sich entscheiden, die Vorschläge anzunehmen oder sie zu ignorieren.Diese Hinweise haben laut den Autorinnen und Autoren dazu geführt, dass die Nachrichten im Durchschnitt als 19,6 Prozent empathischer beurteilt wurden als die von den Probandinnen und Probanden allein verfassten Nachrichten.

Bei Usern, die von Problemen berichteten, sich empathisch auszudrücken, wurden die durch die KI überprüften Antworten als durchschnittlich 38,9 Prozent empathischer bewertet. Diese Verbesserungen in der Empathie der Nachrichten wurden zum einen von 50 Probandinnen und Probanden beurteilt, die ansonsten nicht an der Studie teilnahmen, zum anderen von einem weiteren KI-Modell.

Da dieses aber auf dem gleichen Empathie-Modell beruht wie Hailey, habe dieser Befund allein nur begrenzte Aussagekraft – was die Forschenden auch betonen.Bei der Frage nach der Authentizität der Antwort – also ob eine Antwort den Eindruck erweckt, dass sie von einem Menschen geschrieben wurde – schnitten die von Menschen allein verfassten Antworten am besten ab, knapp vor den von Menschen nach KI-Hinweis verfassten. Die nur von der KI verfassten Antworten lagen in der Bewertung ungefähr 30 Prozentpunkte dahinter.

Daraus schließen die Forschenden, dass ein Human-in-the-Loop-Ansatz, bei dem Menschen von der KI unterstützt werden, der vielversprechendste ist, da dieser ein hohes Ausmaß an Empathie sowie Authentizität aufweist.Diese Befunde könnten Implikationen für psychologische Behandlungen geben. Gerade in einer Zeit, in der viel darüber diskutiert wird, was KI-Modelle wie ChatGPT leisten können und in welchen Bereichen sie besser nicht eingesetzt werden sollten, stellt sich die Frage, wie solche Sprachgeneratoren in der Psychologie verwendet werden könnten.

Da Therapieplätze oft schwer zu bekommen und mit langen Wartezeiten verbunden sind, rufen mögliche Alternativen großes Interesse hervor – aber auch Bedenken, da Fehler und schlechte Beratung in so einem sensiblen Bereich schwerwiegende Auswirkungen haben können.„Die Studie habe einige Stärken. Mit 300 Teilnehmenden und 10 Posts pro Person verfügt sie über eine hinreichend große Stichprobe, um belastbare Aussagen zu treffen.

Sowohl die Experimentalgruppe (die Posts mit Hilfe der KI schrieb) als auch die Kontrollgruppe (ohne KI) habe ein kurzes Training zu Empathie erhalten, sodass allen Teilnehmenden klar sein sollte, was das Ziel ist. Zudem wurde der Empathiegehalt der verfassten Posts auf zwei Arten gemessen – durch menschliche Urteiler*innen und durch eine maschinelle Analyse.

Dass die Empathie nicht durch die tatsächlichen Verfasser*innen der Ursprungsposts beurteilt wurde, halte ich aus ethischen Gründen für vertretbar. Es sei ein Pluspunkt, dass die Teilnehmenden nur auf zufällig ausgewählte Posts antworten sollten, diese Antworten aber nicht tatsächlich gepostet wurden.“„Eine Schwäche ist, dass die Personen, die den Empathiegehalt der Posts beurteilen sollten, nur gefragt wurden, welche von zwei Nachrichten (mit und ohne KI) empathischer ist.

Hier wäre eine Skala mit mehr Abstufungen schöner gewesen – jetzt weiß man nicht, ob die eine Nachricht nur ein kleines bisschen oder deutlich empathischer ist, und es sei auch unklar, ob beide Antworten eher wenig empathisch oder ohnehin schon recht empathisch sind. Immerhin zeigt sich dasselbe Muster für die menschliche und die automatische Kodierung.

Die automatische Kodierung erfolgte auf einer Skala von 0 bis 6 – damit sei auch bei den mit Hilfe einer KI generierten Antworten mit einem Mittelwert von 1.77 noch reichlich Luft nach oben. Das sollte man bei der Interpretation der Ergebnisse berücksichtigen.“„Es sei nicht erstaunlich, dass sich die Empathiewerte verbessern.

Ein ähnlicher Effekt wäre vermutlich aufgetreten, wenn andere Personen, insbesondere erfahrene Therapeut*innen, Verbesserungsvorschläge gemacht hätten. Es gibt einige Studien, die zeigen, dass Menschen einen Ratschlag eher annehmen, wenn sie glauben, er käme von einem Menschen, als wenn sie glauben, er käme von einer KI, wenn es um moralische Entscheidungen geht.

Von daher wäre es auch interessant, diese beiden Bedingungen zu vergleichen.“Auf die Frage nach Vor- und Nachteilen des von Plattformen wie TalkLife verwendeten Ansatzes der „Peer Supporters“: „Soziale Unterstützung sei generell hilfreich – es gibt schon seit Jahrzehnten Studien, die zeigen, dass Online Social Support-Gruppen positive Auswirkungen haben können, insbesondere für Personen, die Stigmatisierung befürchten oder wenige Personen mit dem gleichen Problem in ihrer Umgebung haben. Auch in Online-Gruppen könne ja meist jede/r kommentieren, ohne dass die Expertise überprüft wird.

In Online-Foren seien die Diskussionen aber für alle sichtbar, und es könne leichter jemand eingreifen, wenn Falschinformationen verbreitet werden oder der Ton nicht angemessen ist. Dyadische Konversationen, zum Beispiel mit einem Therapie-Chatbot, halte ich für deutlich riskanter.

Bei ernsthaften psychologischen Störungen sei ohnehin professionelle Hilfe angebracht.“„Die Ergebnisse seien auch über den Therapiekontext hinaus sehr relevant, weil Sprachmodelle im letzten Jahr sehr große Fortschritte gemacht haben und mehr und mehr Menschen anfangen werden, Tools wie ChatGPT zumindest für eine erste Version ihrer Texte zu benutzen. Dadurch werde es sehr wichtig, sich die verschiedenen Kooperationsformen (alles blind übernehmen oder anpassen) anzuschauen und dann im nächsten Schritt zu untersuchen, was die Auswirkungen in den jeweiligen Domänen seien – zum Beispiel wahrgenommene Kompetenz im beruflichen Kontext.

Sehr spannend sei auch die Frage, ob Menschen durch solche Tools mit der Zeit lernen, fehlerfreier, besser oder empathischer zu kommunizieren, insbesondere in einer Fremdsprache, oder ob sie sich stattdessen auf die Tools verlassen.“„Die Studie habe auch Angaben dazu, wie viele Personen jedes Mal die KI konsultiert haben, wie viele das nur ab und zu oder gar nicht getan haben, und ob sie die Vorschläge übernommen haben. Auch wenn man die Zusammenhänge der Nutzung mit den Empathiewerten mit Vorsicht genießen sollte, weil die Untergruppen oft recht klein sind, bieten diese Daten Anknüpfungspunkte für weitere Studien.“„Der in der Studie gewählte Ansatz sei spannend, aber die Überlegungen seien nicht komplett neu.

Unter dem Stichwort ‚behavioral enhancement‘ werde in der Forschung bereits seit vielen Jahren erforscht, inwieweit in computervermittelten Diskursen das menschliche Verhalten durch technische Eingriffe ‚verbessert‘ werden könne – so finden sich bei der Kommunikation über Avatare Studien, bei denen der*die Nachrichtenempfänger*in länger angeblickt oder stärker angelächelt wurde [1]. Neu sei hier, dass dahinter nun tatsächlich ein automatisiertes System steht, das die Aussagen auf Basis eines machine learning Ansatzes selbst generiert.

Leider erfährt man ausgerechnet über diesen Ansatz und das genaue Vorgehen sowie sie generelle Leistungsfähigkeit des machine learning Ansatzes im Paper vergleichsweise wenig. Was sei die Datenbasis der Trainingsdaten? Wie und von wem wurden die zugrundeliegenden Daten annotiert? Die Studie mit Nutzer*innen erscheint methodisch sauber durchgeführt, auch hier bleiben allerdings einige Aspekte unklar, die in psychologischen Journals erforderlich gewesen wären.“Auf die Frage nach der Wirkung des KI-Systems und die Verbesserung der Empathie und ob diese überraschend ist: „Letztlich beruhen machine learning Ansätze darauf, dass auf Basis der Daten von Menschen gelernt wird.

Das Ergebnis sei also erwartungsgemäß ähnlich zu dem, was entstehen würde, wenn man die Nachrichten eines nicht-empathischen Menschen durch einen empathischen Menschen redigieren lassen würde. Insbesondere, dass die Nachrichten von eher nicht-empathisch agierenden Menschen in ihrer Wirkung verbessert werden, sei also nicht besonders erstaunlich.“Auf die Frage nach Vor- und Nachteilen des von Plattformen wie TalkLife verwendeten Ansatzes der „Peer Supporters“: „Sollte sich ein solches Vorgehen breit durchsetzen, könne und sollte natürlich aus ethisch-normativer Sicht sowie auch aus rechtlicher Sicht diskutiert werden, inwieweit das problematisch ist.

Personen sollten vor allem immer darüber informiert sein, woher die Aussagen kommen und dass möglicherweise die Person, mit der man spricht, nicht der alleinige Urheber der Nachricht ist. Die*der Verfasser*in der Nachricht wählt zwar aus, welche Änderungsvorschläge sie*er vom KI-System übernimmt, dennoch würde die Empfänger*in über die Art des Urhebers getäuscht.“„Die Studie bedeutet keinen Durchbruch in der zukünftigen verbesserten Behandlung psychisch kranker Menschen.

Für eine solche erfolgreiche Behandlung sei mehr erforderlich als eine Steigerung der Empathie durch Anpassung der Äußerungen. Der hier gewählte Ansatz könne eventuell geeignet sein, empathischere Sprache im Alltag zu nutzen – mit der Notwendigkeit auch das ethisch und rechtlich kritisch zu reflektieren, damit die Botschäftsempfänger*innen nicht unwissentlich halb mit einem Bot sprechen.“„Der Befund, dass von künstlicher Intelligenz (KI) unterstützte Teilnehmende als empathischer bewertete Antworten geben als Teilnehmende ohne derartige Unterstützung sei auf den ersten Blick keine große Überraschung.

So gibt es hinreichende Befunde aus dem Bereich der Mensch-Automation-Interaktion, die nahelegen, dass Nutzende durchaus den Empfehlungen von automatisierten Unterstützungssystemen oder KI-Assistenzsystemen folgen. Die Erweiterung dieser Befunde auf eine soziale Interaktion und Empathie sei hierbei jedoch neu.“„Besonders interessant erscheinen mir zwei Untergruppen von Studienteilnehmenden.

Zum einen sei die Gruppe von Studienteilnehmenden interessant, die berichtet, ohne KI beim Formulieren empathischer Antworten Probleme zu haben: Diese Teilnehmenden zeigten eine besonders klare Verbesserung und scheinbar könne die KI hierbei als eine Art Trainingspartner fungieren, um empathischeres Verhalten zu erlernen. Dabei wäre für zukünftige Forschung relevant zu prüfen, inwiefern dieser Fertigkeitserwerb überdauern könne – also ob diese Personen auch ohne KI-Unterstützung weiterhin empathischere Nachrichten schreiben können.

Zum anderen sei eine Untergruppe an gegebenen Antworten der Teilnehmenden hervorzuheben, in der lediglich die Vorschläge der KI akzeptiert wurden, ohne dass noch weitere Veränderungen am vorgeschlagenen Text vorgenommen wurden. Derartiges Verhalten könne ein Zeichen von Übervertrauen in das Assistenzsystem sein, was im Gegensatz zur oben beschriebenen Möglichkeit zum Fertigkeitserwerb auf Dauer sogar zum Fertigkeitsverlust führen kann.

In diesem Fall wäre dies dann zum Beispiel der Verlust der Fertigkeit, selbst empathische Antworten zu formulieren, wenn auf Dauer immer nur direkt der KI-Empfehlung gefolgt wird. Das hätte auch zur Folge, dass die Formulierungshilfe der KI keine Unterstützung mehr ist, sondern letztlich eine gemeinsame Mensch-KI Formulierung nur noch eine KI-Formulierung werden könnte.“„Methodisch scheint die Messung von Empathie in den Formulierungen der Teilnehmenden prinzipiell valide zu sein, da hier andere Nutzende der Plattform nach einer Einschätzung gefragt wurden.

Hier wäre jedoch für eine künftige Verfestigung der Ergebnisse wünschenswert, das Level an Empathie in den geschriebenen Antworten von Expert:innen – wie etwa Psychotherapeut:innen – beurteilen zu lassen. Zudem sei klar, dass die zweite Messmethode – Bewertung der geschriebenen Antworten durch ein anderes computerbasiertes System – zumindest mit Vorsicht zu betrachten ist: Aufgrund des hohen Anteils direkt übernommener Formulierungsvorschläge beurteilt hier dann letztlich ein System das andere.“Prof.

Doktor Sonja Utz: „Ich habe keine Interessenkonflikte.“Dr. Tobias Rieger: „Es bestehen keine Interessenkonflikte.“Althoff T et al.

(2023): Human–AI collaboration enables more empathic conversations in text-based peer-to-peer mental health support. Nature Machine Intelligence.

DOI: 10.1038/s42256-022-00593-2.Prof. Doktor Nicole Krämer weist noch auf folgende Quellen hin: Beall AC et al.

(2003): Non-zero-sum mutual gaze in collaborative virtual environments. Proceedings of HCI International.[1] Oh SY et al.

(2016): Let the Avatar Brighten Your Smile: Effects of Enhancing Facial Expressions in Virtual Environments. PLOS ONE.

DOI: 10.1371/journal.pone.0161794..

Suche nach Stichworten:

alle KI Chats mentaler Gesundheit empathischer



Newsticker


Kantonspolizei Zürich

Bubikon: Fussgänger tödlich verletzt


Kantonspolizei Graubünden

Davos: Gleitschirmpilot verletzt


Kantonspolizei Zürich

Regensdorf: Kontrolle wegen illegalen Glücksspiels


Kantonspolizei Graubünden

Davos Dorf: Leicht Verletzter nach seitlich-frontalen Kollision


Kantonspolizei Freiburg

Verschmutzung eines Baches in Lentigny