Ein Künstler in Deutschland wurde nach einem Angriff durch ein Insekt ins Krankenhaus eingeliefert, nachdem er Symptome entwickelt hatte, die die Ärzte nicht direkt mit anderen Krankheiten in Verbindung bringen konnten. Nach einem erfolglosen Monat der Behandlung, legte er seine medizinische Geschichte bei ChatGPT vor, der eine Diagnose stellte: Tularemie (Lupus-Erkrankung). ChatGPT hatte Recht und der Fall wurde später in einer wissenschaftlichen Studie veröffentlicht, wie VOX berichtete.
Gleichzeitig in den USA, ein Patient, der Anzeichen einer Psychose zeigte, stellte sich heraus, dass er die Ratschläge von ChatGPT befolgt hatte, um alternative Salzformen zu verwenden. Chatbot hatte ihm Natriumbromid empfohlen, eine toxische Substanz, die für die Reinigung von Schwimmbädern verwendet wird. Nachdem er sie drei Monate lang konsumiert hatte, landete er in einer psychiatrischen Abteilung für drei Wochen.
Dieser Kontrast zeigt klar, dass ChatGPT in schwierigen Fällen helfen kann, aber auch sehr gefährliche Ratschläge geben kann.
Experten betonen, dass der Einsatz von künstlicher Intelligenz (KI) in der Medizin große Vorsicht erfordert. Dr. Roxana Daneshjou, Professorin und Forscherin an der Stanford Medical School, warnt die Menschen, sehr vorsichtig zu sein.
“Wir müssen sehr vorsichtig sein, wenn wir KI in der Medizin einsetzen, insbesondere wenn wir nicht wissen, wie wir zwischen richtig und falsch unterscheiden können. Wenn sie richtig ist, funktioniert sie sehr gut, aber wenn sie falsch ist, können die Folgen katastrophal sein”, sagte sie.
Ein weiteres Problem ist, dass Chatbots tendenziell “servil” sind, also oft das geben, was der Benutzer hören möchte, auch wenn es falsch ist. Deshalb empfiehlt Daneshjou, dass Patienten besser “Dr. Google” verwenden, der verifizierte Informationen aus Quellen wie Mayo Clinic und Harvard Medical School bietet.
Andererseits kann ChatGPT als Hilfsmittel dienen. Er kann Patienten dabei helfen, ihre Notizen zu verstehen, Fragen für die nächste Visite vorzubereiten oder Ergebnisse von Analysen in einer verständlicheren Weise zu erklären. Im Jahr 2023 zeigte eine Studie, dass Chatbots oft bessere und empathischere Antworten geben als Ärzte in Online-Forumen.
Trotzdem gibt es auch die Frage der Privatsphäre, da ChatGPT nicht von HIPAA (Gesetz für die Privatsphäre von Gesundheitsdaten in den USA) geschützt ist.
Der Informationsinhalt, den Sie eintragen, kann gespeichert, verwendet und theoretisch in Antworten für andere verwendet werden.
Auf der anderen Seite der Gleichung, Ärzte nutzen bereits KI in ihrer Arbeit. Laut einem Bericht von Elsevier (2025) haben etwa die Hälfte der Ärzte ein KI-Tool verwendet und ein Fünftel hat es verwendet, um einen zweiten Meinung zu suchen. Studien zeigen, dass ChatGPT manchmal Diagnosen stellt, die genauer sind als die Ärzte, obwohl der Kombination von beiden am stärksten ist.
“Patienten sollten mit Ärzten über den Einsatz von großen Sprachmodellen sprechen und ehrlich, Ärzte sollten mit Patienten über dies sprechen. Wenn beide Seiten aus der ‘geheimen Welt’ herauskommen und offen sprechen, werden wir einen viel produktiveren Kommunikationsprozess haben”, sagte Adam Rodman, Arzt im Beth Israel Deaconess Medical Center und Lehrer an der Harvard Medical School.