LLM könnten bei Suizidprävention helfen
Große Sprachmodelle (Large Language Models, kurz LLM) könnten zukünftig bei der Suizidprävention unterstützen. Forschende vom Else Kröner Fresenius Zentrum (EKFZ) für Digitale Gesundheit haben jetzt eine Untersuchung dazu veröffentlicht.
©Antony-Weerut – stock.adobe.com
Künstliche Intelligenz (KI) könnte in Zukunft dabei helfen, suizidgefährdete Patienten frühzeitig zu erkennen und medizinisches Personal rechtzeitig zu informieren. Das berichten Forschende des Else Kröner Fresenius Zentrums (EKFZ) für Digitale Gesundheit der Technischen Universität (TU) Dresden gemeinsam mit Medizinern der Klinik und Poliklinik für Psychiatrie und Psychotherapie am Universitätsklinikum Carl Gustav Carus Dresden in ihrer Studie, die kürzlich in der Fachzeitschrift ,The British Journal of Psychiatry‘ veröffentlicht wurde.
Für die Analyse von Texten aus der psychiatrischen Anamnese nutzten die Autorinnen und Autoren ein neues großes Sprachmodell (Large Language Model, kurz LLM) der Familie ,Llama-2‘. Die Wissenschaftler wollten wissen, wie gut ihr Modell den Suizidalitätsstatus bei Patienten identifizieren kann – etwa ob lebensmüde Gedanken oder ein Todeswunsch bestehen. Dafür untersuchten sie einhundert Aufnahmedokumente und zeigten, dass das verwendete Modell diese Fälle zuverlässig und mit hoher Genauigkeit erkennen kann. Die Wissenschaftler nutzten lokale, klinikinterne Server, um sensible persönliche Daten optimal zu schützen und die Privatsphäre zu wahren.
„Wir konnten zeigen, dass Hinweise auf Suizidalität bei Patientinnen und Patienten automatisiert aus elektronischen Gesundheitsakten extrahiert werden können – mithilfe von großen Sprachmodellen. Unsere Ergebnisse unterstreichen das große Potenzial dieser Large Language Models für die Medizin. Obwohl wir ein nicht speziell für die Analyse von psychiatrischen Daten entwickeltes Modell verwendet haben, waren die Ergebnisse zuverlässig und präzise. Und sie lassen sich durch weitere Anpassungen noch weiter verbessern. Mögliche Anwendungen in der Klinik umfassen Frühwarn- und Überwachungssysteme für psychiatrische Notfälle, eine verbesserte Qualitätssicherung sowie die Analyse von psychiatrischen Symptomen innerhalb großer Datenmengen“, so Falk Gerrik Verhees, einer der Erstautoren der Studie und Psychiater am Universitätsklinikum Dresden.
Die Forschenden weisen darauf hin, dass es nun weiterer Untersuchungen bedürfe, bis diese Modelle tatsächlich erfolgreich in den Klinikalltag integriert werden können. Mit ihrer Publikation zeigen sie, dass lokal genutzte, große Sprachmodelle in der Lage sind, klinische Informationen aus freiem Text mit hoher Genauigkeit zu extrahieren. Durch die Verwendung von lokalen Lösungen mit geringen Hardwareanforderungen sinken auch die Hürden für eine Umsetzung in die Praxis.
„Diese KI-Methoden könnten medizinisches Fachpersonal in ihren Entscheidungen künftig unterstützen und die medizinische Dokumentation erleichtern. Das würde nicht nur unmittelbar die Qualität der Gesundheitsversorgung verbessern, sondern auch die medizinische Forschung langfristig voranbringen“, so Dr. med. Isabella C. Wiest, Erstautorin der Studie, Ärztin am Universitätsklinikum Dresden und Forscherin am EKFZ für Digitale Gesundheit.
Die Veröffentlichung: von Isabella C. Wiest, Falk Gerrik Verhees et al., ,Detection of Suicidality from Medical Text Using Privacy-Preserving Large Language Models.‘ Ist im British Journal of Psychiatry veröffentlicht worden. Sie finden die Veröffentlichung hier
Diese Meldung finden Sie auch in unserem Dezember-Newsletter