Wenig Vertrauen in ,Dr. KI'
Menschen vertrauen medizinischen Ratschlägen weniger, wenn sie vermuten, dass eine künstliche Intelligenz an deren Erstellung beteiligt ist. Das ist das zentrale Ergebnis einer aktuellen Studie, die an der Uni Würzburg durchgeführt wurde.
©greenbutterfly, stock.adobe.com
Früher haben die Menschen Dr. Google befragt, wenn sie wissen wollten, ob ihre Symptome für eine leichte Magenverstimmung sprechen oder doch für Krebs im Endstadium; heute wendet sich manch einer dafür an ChatGPT – mit der Folge, dass niedergelassene Mediziner sich über Patienten beschweren, die mit fertigen Diagnosen aus dem Internet in die Sprechzimmer kommen und sich nur mit Mühe davon überzeugen lassen, dass sie nicht schwer erkrankt sind. Viele Menschen gaben in einer Studie an, eine KI-Zweitmeinung sei für sie eine Option. (siehe Meldung ,KI-Zweitmeinung für viele eine Option‘)
Tatsächlich ist das Vertrauen in die medizinische Kompetenz einer künstlichen Intelligenz (KI) aber längst nicht so ausgeprägt, wie es den Anschein hat. Das ist zumindest das Ergebnis einer neuen Studie, die jetzt in der Fachzeitschrift Nature Medicine veröffentlicht wurde.
Sie zeigt, dass Menschen medizinische Ratschläge als weniger zuverlässig und empathisch beurteilen, wann immer eine KI daran beteiligt war. Das war selbst dann der Fall, wenn die Studienteilnehmer annehmen konnten, dass ein Arzt unter Zuhilfenahme einer KI diese Empfehlungen erstellt hatte. Konsequenterweise waren die Befragten bei KI-unterstützten Entscheidungen auch in geringerem Maße dazu bereit, diesen zu folgen – verglichen mit Ratschlägen, die ausschließlich auf ärztlicher Expertise basierten.
Verantwortlich für diese Studie von Seiten der Julius-Maximilians-Universität (JMU) sind Moritz Reis und Prof. Wilfried Kunde vom Lehrstuhl für Psychologie III. Die Studie entstand in Zusammenarbeit mit Florian Reis von der Pfizer Pharma GmbH.
„Das Setting unserer Studie ist angelehnt an eine Digital Health-Plattform, auf der Informationen zu medizinischen Fragestellungen eingeholt werden können – also ein Setting, welches mit der zunehmenden Digitalisierung an Relevanz dazugewinnen wird“, beschreiben die Autoren ihr Vorgehen.
Mehr als 2.000 Studienteilnehmer erhielten im Rahmen des Experiments identische medizinische Ratschläge und sollten diese auf ihre Verlässlichkeit, Verständlichkeit und Empathie bewerten. Der einzige Unterschied: Während eine Gruppe die Information erhielt, diese Ratschläge stammten von einem Arzt, hieß es für die zweite Gruppe, ein KI-gestützter Chatbot sei dafür verantwortlich. Die dritte Gruppe wurde in dem Glauben gelassen, ein Arzt habe die Empfehlung unter Zuhilfenahme einer KI erstellt.
Die Ergebnisse seien eindeutig, so die Autoren: Menschen vertrauen medizinischen Empfehlungen weniger, wenn sie vermuten, dass KI beteiligt ist. Das gilt auch dann, wenn sie glauben, dass ärztliches Personal daran mitgewirkt hat. Auch in der Kategorie ,Empathie‘ schneidet der ärztliche Rat besser ab als die beiden KI-Varianten. Einzig unter dem Aspekt der Verständlichkeit zeigen sich kaum Unterschiede zwischen den drei Gruppen. Anscheinend haben Menschen unter diesem Gesichtspunkt keine Vorbehalte gegen die Technik.
„Das ist ein wichtiger Befund, da Vertrauen in medizinische Diagnosen und Therapieempfehlungen bekanntermaßen ein sehr wichtiger Faktor für den Behandlungserfolg ist“, bewerten die Autoren das Studienergebnis. Gerade vor dem Hintergrund einer möglichen Entbürokratisierung und Entlastung des ärztlichen Arbeitsalltags durch eine Kooperation mit KI hätten die Erkenntnisse einen besonderen Stellenwert. Nach Ansicht der Autoren bildet die Studie somit einen Startpunkt für eine detaillierte Erforschung der Bedingungen dafür, wie KI in Diagnostik und Therapie eingesetzt werden kann, ohne das Vertrauen und die Mitwirkung von Patienten zu gefährden.
Diese Meldung finden Sie auch in unserem Sondernewsletter KI im Gesundheitswesen