ChatGPT als "Halbgott in Weiß" - Fachleute warnen vor "Übervertrauen"
Im Gegensatz zum Hausarzt sind KI-Sprachmodelle immer ansprechbar, manche erleben sie auch als freundlicher. Fachleute sehen Chancen, wenn Gesundheitsfragen bei ChatGPT und Co. landen – aber auch klare Grenzen.
Google als Lösung für alle Lebenslagen – diesen Trend bewerten Fachleute zweischneidig. Über Angebote aus dem Gesundheitswesen, etwa den ärztlichen Bereitschaftsdienst unter der Nummer 116 117, wüssten viele Menschen nicht Bescheid, sagte Elena Link, Expertin für Wissenschaftskommunikation, bei einer Veranstaltung des Science Media Center. Bei alltäglichen Fragen rund um Gesundheit „explodiert“ daher die Nutzung von KI-Sprachmodellen; auch Suchmaschinen nutzten verstärkt Künstliche Intelligenz.
Fast die Hälfte der Befragten (45 Prozent) hatte kürzlich in einer Umfrage des Digitalverbandes Bitkom angegeben, Gesundheitsfragen mit einem KI-Sprachmodell zu besprechen. Viele Menschen lassen sich laut Link auf diesem Weg bereits erfolgte Diagnosen erklären oder wollten abschätzen, ob bestimmte Symptome ärztliche Abklärung erforderten. Auch für Ernährungs- und Bewegungstipps seien Chatbots beliebt.
Reaktion auf Lücken in der Versorgung
Der Soziologe Felix Mühlensiepen erklärte dies auch damit, dass Menschen wochenlang auf Facharzttermine warten müssten und dass Hausarztpraxen im ländlichen Raum schlössen. „In der rheumatologischen Versorgung sehen wir heute, etwa in Brandenburg, bereits Engpässe.“ 70 Prozent der Anfragen rund um Gesundheit erreichten die gängigen Chatbots außerhalb der üblichen Sprechzeiten.
Eine weitere Erklärung seien Hemmschwellen, gerade bei psychischen Erkrankungen, Sucht oder sexuellen Funktionsstörungen: „Da tut man sich vielleicht leichter, einen Chatbot zu befragen“, sagte Mühlensiepen. Fraglich sei aber, wie solch sensible Daten geschützt würden.
Allgemeinplätze helfen nur bedingt
Die Firma OpenAI hat zu Beginn des Jahres „ChatGPT Health“ vorgestellt, das derzeit nur als Testversion in den USA verfügbar ist. Andere Modelle gäben allgemeine Hinweise, warnte Medizininformatikerin Kerstin Denecke – die im Einzelfall aber nur begrenzt weiterhelfen könnten. Im schlimmsten Fall drohten Fehlinformationen oder eine verzögerte Behandlung. Wo Ärztinnen und Ärzte früher als „Halbgott in Weiß“ verklärt worden seien, gebe es heute ein „Übervertrauen“ in KI.
Wichtig wären etwa mehr Rückfragen von Chatbots, mahnte Denecke. Auch sogenannte erfundene Antworten (Halluzinationen) sollten technisch ausgeschlossen werden. Link sprach sich für Schulungen in der Bevölkerung aus, da in niederschwelliger Information durchaus Chancen lägen.