Forscher: Diese Gefahr geht von perfekten Simulationen aus
Künstliche Intelligenz redet immer häufiger mit, doch mitfühlen kann sie nicht. Ein Theologe warnt vor einer Verarmung von Sprache – und von Beziehungen. Er erklärt, wo der Unterschied zu echten Kontakten liegt.
Morgens Brote machen, mittags die Kinder abholen, abends das Bett teilen: All diese Aufgaben könnten künftig nach Worten eines Theologen auch Maschinen übernehmen. Die Beziehung zwischen Menschen gehe jedoch über diese Alltagssituationen hinaus, sagte Lukas Brand am Dienstagabend in Kaiserslautern. Soeben ist seine Doktorarbeit zur „Reproduktion des Menschen im Medium der Technik“ erschienen.
Dies sei ein entscheidender Unterschied zwischen Mensch und Maschine: Menschen gewönnen ihre Bedeutung durch eine potenziell langfristige Beziehung, sagte Brand. Dagegen seien „Entitäten“ wie Haushaltsroboter oder Sprachassistenten allein im Moment ihrer Nutzung bedeutsam. Wenn Maschinen allerdings immer häufiger menschlich erschienen, drohe der Wert zwischenmenschlicher Beziehungen zu verwischen.
Soziale Roboter würden entwickelt, um Gefährten zu sein. Umgekehrt schrieben Menschen ihnen die Fähigkeit zur Freundschaft zu: „Berichte von Leuten, die Avatare vermenschlichen oder ChatGPT als Seelsorger empfinden, nehmen zu.“ Eine Umfrage des Digitalverbandes Bitkom hatte kürzlich ergeben, dass die Hälfte der 16- bis 29-Jährigen über bestimmte Themen eher mit Systemen der Künstlichen Intelligenz (KI) sprechen würde als mit Freunden und Familie. Damit drohe sich der Trend zu Vereinzelung und Einsamkeit fortzusetzen, warnte Brand.
"Fake News"-Vorwurf kann immer kommen
KI-Systeme simulierten Wirklichkeit, erläuterte Brand. Das mache es immer schwerer, zwischen falsch und echt zu unterscheiden. „Damit wird es auch schwieriger, den Vorwurf von ‚Fake News‘ zu entkräften – einfach, weil es auch möglich wäre, dass Aussagen simuliert sind.“ Was derzeit vor allem Internet und Medien betreffe, könnte künftig ebenso im Privaten ein Problem werden.
Sprachmodelle wie ChatGPT erzeugten Texte, die auf Basis bisheriger Texte wahrscheinlich seien, erklärte der Experte – und räumte zugleich ein, dass das KI-Ergebnis von menschlicher Sprachverarbeitung kaum zu unterscheiden sei. Das, was menschliche Kommunikation ausmache – eine Intuition beim Sprechen und eine Interpretation beim Zuhören oder Lesen -, fehle den KI-Assistenten jedoch. Wenn Sprache automatisiert vermittelt werde, werde Kommunikation also einseitig, was letztlich zur Verarmung von Sprache beitrage.