Transkript
EDITORIAL
Verführerische Redseligkeit
Bestimmt kennen auch Sie jemanden, der über alles Mögliche daherreden kann, ohne tatsächlich etwas von der jeweiligen Materie zu verstehen. Mangelnde Sachkenntnis überspielen diese Meister des Smalltalks mit wohlklingenden Worten, wobei der Wahrheitsgehalt eine eher untergeordnete Rolle spielt. Ähnliche Qualitäten hat der zurzeit gehypte Chatbot ChatGPT, der scheinbar auf jede Frage eine Antwort hat. Der Haken an der Sache: Anders als viele glauben, generiert ChatGPT seine Antworten nicht auf der Basis harter Fakten, sondern – ganz ähnlich wie die eingangs genannten menschlichen Dampfplauderer – mithilfe wohlgefälligen Daherredens. Im Grunde kombiniert der Chatbot lediglich Wörter und Sätze, die statistisch betrachtet häufig zusammen vorkommen, weswegen derartige Programme von einigen auch als «stochastische Papageien» bezeichnet werden. «Diese Art von Technologie ist dazu gemacht, Texte plausibel weiterzuführen, nicht, um die Wahrheit zu sagen. Deshalb gibt sie Antworten, die zwar immer sehr kompetent klingen, aber zum Teil erfundene Fakten enthalten», erläutert die Journalistin Ruth Fulterer in der NZZ die prinzipielle Funktionsweise und gleichzeitig das grösste Manko von ChatGPT (1). Als «riesige Remix-Maschine» bezeichnet der ZEIT-Autor Eike Kühl den Chatbot (2). Diese Remix-Maschine liefert zwar genügend Material, um gerade eben so die
US-amerikanische Medizinerprüfung bestehen zu
können (3); fehlerhafte medizinische Auskünfte des
Chatbots sind jedoch an der Tagesordnung. Deshalb
kommen die Autoren einer Studie, in der es um Laien-
fragen zum Brustkrebsscreening ging, zu dem Schluss,
dass der Chatbot zwar das Potenzial habe, korrekte
Informationen zu diesem Thema zu vermitteln, aber
einer ärztlichen Aufsicht bedürfe (4). Am Ende muss
dann eben doch wieder ein Mensch die Kontrolle und
die Verantwortung übernehmen.
Warum so viele trotzdem von ChatGPT fasziniert sind
und sich von ihm und ähnlichen Chatbots in Zukunft
wahre Wunder erhoffen, erklärt die Psychologin und
Informatikerin Prof. Ute Schmid (5): «Wir Menschen
sind evolutionär sehr darauf ausgerichtet, dass wir
anderen autonom handelnden Entitäten ähnliche
mentale Fähigkeiten zubilligen wie uns. (…) Insbeson-
dere, wenn etwas so pseudo-akkurat daherkommt,
sprechen wir ihm schnell Vertrauen zu.»
So gesehen ist das Resultat einer kürzlich publizierten
Studie zur vermeintlichen Einfühlsamkeit des Chat-
bots nicht erstaunlich (6). Man verglich die Antworten
von ChatGPT auf Patientenanfragen in einem öffent-
lichen Social-Media-Forum mit den Antworten von
Ärzten. Während der Chatbot eher weitschweifige
Antworten generierte, die neben dem inhaltlichen
Kern der Auskunft viele nette und vermeintlich per-
sönliche Worte enthielten, fielen die Antworten der
Kollegen etwas kürzer und nüchterner aus. Die Ant-
worten des Chatbots wurden prompt als empathi-
scher bewertet. Neu ist dieser Effekt nicht. Jemandem
viele Worte und damit mehr Zeit zu widmen, kommt
meistens gut an.
s
Renate Bonifer
1. Fulterer R: Microsoft macht Bing-Chat für alle verfügbar – und damit GPT-4. NZZ, 4. Mai 2023.
2. Kühl E: Gut erfunden ist halb geglaubt. Die ZEIT, 6. Dezember 2022. 3. Kung TH et al.: Performance of ChatGPT on USMLE: Potential for AI-assis-
ted medical education using large language models. PLOS Digit Health. 2023;2(2):e0000198. 4. Haver HL et al.: Appropriateness of Breast Cancer Prevention and Screening Recommendations Provided by ChatGPT. Radiology. 2023;307(4):e230424. 5. Kurz C et al.: ChatGPT – Noch kein Allheilmittel. Deutsches Ärzteblatt. 2023;120(6):A230-A235. 6. Ayers JW et al.: Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Intern Med. 2023;183(6):589-596.
ARS MEDICI 13 | 2023
351