11/3/25
Tidsskriftet.no: Der Arzt über den Einsatz künstlicher Intelligenz: „Ich habe mehr Zeit zum Atmen“
Die Allgemeinmedizinerin Benedicte Wardemann zeigt, wie Noteless Patientenkonsultationen in Echtzeit transkribiert und den Inhalt systematisch in einem fertigen Notizentwurf organisiert, der sowohl medizinische Probleme als auch emotionale Nuancen erfasst.

Immer mehr Allgemeinmediziner setzen künstlich intelligente Assistenten ein, die bei Patientengesprächen transkribieren. Eine davon ist die Fachärztin für Allgemeinmedizin, Benedicte Wardemann.

— Wenn du möchtest, kann ich einen Patienten spielen und ein Problem präsentieren? Dann können wir sehen, wie das Programm die verschiedenen Teile aufnimmt?

Die Allgemeinmedizinerin Benedicte Wardemann von Vest Helse og Trening in Bærum zeigt, wie ihre künstlich intelligente Assistentin arbeitet. Sie drückt auf dem PC die Taste „Neue Beratung“, bevor sie zu sprechen beginnt:

— Hallo, ich hätte gerne Hilfe beim Abnehmen. Ich habe es schon einmal versucht und viele verschiedene Diäten ausprobiert. Vielleicht schaffe ich es, fünf Kilo abzunehmen, bevor ich merke, dass es zu schwierig wird, sie aufrechtzuerhalten. Dann breche ich zusammen und nehme wieder zu. Das ist natürlich eine Schande für mich, und ich habe das Gefühl, dass ich bei etwas versage, das alle anderen für selbstverständlich halten.

Während Wardemann spricht, werden die Worte in Echtzeit auf dem PC-Bildschirm transkribiert — über ein kleines, rundes, schwarzes Mikrofon auf dem Schreibtisch. Der Name des Programms ist Noteless, ein künstlich intelligenter Assistent, der das Gesundheitspersonal bei der Dokumentationsarbeit unterstützen soll.

Wardemann spielt weiterhin eine typische Patientin, bevor sie sich dann in dieser fiktiven Sprechstunde als Ärztin ausgibt.

Systematisierter Hinweis in einer medizinischen Fachzeitschrift

Wenn das Gespräch beendet ist, macht der Hausarzt ein paar Klicks auf dem Computer. Das Ergebnis? Der Entwurf einer vollständigen Tagebuchnotiz. Sie liest die Zusammenfassung laut vor:

Aktuelle Situation: Will Hilfe beim Abnehmen. Hat zuvor verschiedene Diäten mit nur vorübergehenden Wirkungen versucht. Gelingt es, ungefähr fünf Kilo abzunehmen, bevor es zu schwierig wird, den Gewichtsverlust aufrechtzuerhalten, und nimmt dann wieder zu. Erlebt dies als psychisch belastend, mit Schamgefühlen und mangelnder Kontrolle.

Das Programm organisiert den Inhalt der Patientenberatung systematisch in die Abschnitte Aktuelle Situation, Ergebnisse, Bewertung und Maßnahmen. Laut Wardemann ist die Notiz am Ende viel länger als das, was sie selbst geschrieben hätte.

Ich finde es faszinierend, dass es so gut strukturierte Sätze verwendet. Wenn ich das selbst geschrieben hätte, hätte ich höchstens eine oder zwei Zeilen verwendet. Ich hätte wahrscheinlich auch nicht die Tatsache berücksichtigt, dass sie Schamgefühle und mangelnde Kontrolle verspürt, die ebenfalls zur Komplexität des Abnehmens gehören.

Nachdem der Hausarzt überprüft hat, dass alles im Notizentwurf korrekt ist, kopiert er den Text in die offizielle Krankenakte des Patienten und spart dabei wertvolle Minuten.

KI-Forschung auf dem Vormarsch

Die Tatsache, dass Wardemanns KI-generierte medizinische Notizen länger und detaillierter sind und Nuancen erfassen, die sie möglicherweise nicht priorisiert hat, ist ein wichtiger Aspekt bei der Untersuchung von Forschungsarbeiten zu verschiedenen Sprachmodellen. Mehrere Studien deuten darauf hin, dass KI-generierte Antworten auf gesundheitsbezogene Fragen oft als einfühlsamer empfunden werden als Antworten von Ärzten.

Vor Kurzem Tidisskriftet veröffentlichte eine Studie mit dem Titel Künstliche Intelligenz und Antworten von Ärzten auf Gesundheitsfragen (1). In dieser Studie wurden 192 gesundheitsbezogene Fragen und die entsprechenden Antworten von Ärzten von der Website Studenterspør.no abgerufen. Das Sprachmodell GPT-4 wurde dann verwendet, um eine neue Reihe von Antworten auf dieselben Fragen zu generieren. In einem Blindtest wurden sowohl die Antworten der Ärzte als auch die KI-generierten Antworten von einer Gruppe von Befragten mit medizinischem Hintergrund ausgewertet.

Die Ergebnisse?

Die KI-generierten Antworten wurden als einfühlsamer, sachkundiger und hilfreicher empfunden als die von echten Ärzten gegebenen.

Einer der Forscher hinter der Studie, Ib Jammer, Doktorand und Anästhesist am Haukeland University Hospital, erklärt den Hintergrund der Forschung:

In einem seiner Vorträge hatte er eine ähnliche Studie aus den USA vorgestellt (2), in der untersucht wurde, wie ChatGPT auf gesundheitsbezogene Fragen reagierte.

Die damals veröffentlichten Ergebnisse zeigten, dass die Antworten von ChatGPT oft als signifikant besser bewertet wurden als die von Humanärzten. Das fanden wir faszinierend. Könnte ein Computer wirklich besser sein als wir? Wie ist das möglich? Und gilt das auch auf Norwegisch?

KI-ASSISTENT: Den lille, runde mikrofonen registrerer lyden i rommet slik at KI-programmet kan lage et utkast til…
Das kleine, runde Mikrofon fängt den Ton im Raum ein und ermöglicht es dem KI-Programm, eine Tagebuchnotiz zu verfassen.
Foto: Leikny Havik Skjærseth

Vor diesem Hintergrund führten Jammer und seine Kollegen ihre Studie durch. Obwohl mehrere Studien zeigen, dass Antworten von Sprachmodellen auf gesundheitsbezogene Fragen oft als sachkundiger wahrgenommen werden, ist es wichtig, die Schwächen der Modelle zu erkennen.

Notwendigkeit einer Regulierung

Es gab Fälle, in denen Sprachmodelle Aussagen getroffen haben, die sie nicht hätten treffen sollen, sagt Ishita Barua, ein Doktor mit einem Doktortitel in künstlicher Intelligenz.

Ich glaube, es gab in Belgien einen Fall, in dem sich ein Mann das Leben nahm, nachdem er den Ratschlägen eines Sprachmodells gefolgt war. Genau diese unbeabsichtigten Folgen müssen wir vermeiden. Das muss reguliert werden, und genau das macht Sprachmodelle zu einer Herausforderung — denn Kommunikation ist hochdynamisch. Dies zu regulieren ist heute schwierig und wird auch in Zukunft schwierig sein. Aber die Menschen müssen verstehen, dass dies nur ein Sprachmodell ist — es ist kein wirkliches Einfühlungsvermögen vorhanden.

Barua glaubt, dass Sprachmodelle sowohl für Ärzte als auch für Patienten ein wertvolles Instrument sein können — solange sie richtig verstanden und richtig angewendet werden. Sie betont jedoch, dass es viele Aspekte ihrer Verwendung gibt, die wir noch berücksichtigen müssen, und einige sind uns vielleicht noch gar nicht bewusst.

Es gibt viele einsame Menschen, mit denen niemand sprechen kann und die großen Trost darin finden, Sprachmodelle zu verwenden. Zum Beispiel sind wir derzeit nicht in der Lage, diese Bedürfnisse in der Psychiatrie vollständig zu erfüllen. Angesichts der Tatsache, dass diese Technologie nicht mehr wegzudenken ist, müssen wir alles in unserer Macht Stehende tun, um sicherzustellen, dass diese Modelle so sicher wie möglich sind. Aber noch einmal — ich weiß nicht, ob es möglich ist, das vollständig zu regulieren.

KI besser als Ärzte — oder nicht?

Die Studie wurde veröffentlicht in Tidisskriftet ist eine von vielen aktuellen Studien, die den Einsatz von Sprachmodellen im Gesundheitswesen untersuchen. Mehrere dieser Studien deuten darauf hin, dass KI-Modelle besser abschneiden als Ärzte selbst, sagt Ishita Barua.

In den letzten sechs Monaten haben mehrere Studien Sprachmodelle zu medizinischen Fragen und Fällen getestet. In der Regel wurde ChatGPT getestet, und mehrere Ergebnisse deuten darauf hin, dass es besser abschneidet als Ärzte allein — sogar besser als Ärzte, die Sprachmodelle verwenden. Dieser letzte Punkt war besonders überraschend.

Jedoch ein Schwedische Studie, kürzlich veröffentlicht in BMJ Open (3), ergab gegenteilige Feststellungen. Barua betont, dass diese Studie eher mit norwegischen Bedingungen vergleichbar ist, da sie in einem Nachbarland durchgeführt wurde und Fallstudien verwendet wurden, die realen klinischen Situationen sehr ähnlich sind.

In dieser Studie übertrafen Ärzte die Sprachmodelle. Die Ergebnisse deuten also in die entgegengesetzte Richtung. Vielleicht sollten wir Studien, die sich auf reale klinische Szenarien konzentrieren, in denen Sprachmodelle nicht mit der Leistung von Ärzten übereinstimmen, mehr Gewicht beimessen.

Es ist faszinierend, dass wir jetzt Studien mit widersprüchlichen Ergebnissen haben.

Auf den KI-Zug springen

Trotz der unterschiedlichen Studienergebnisse besteht kein Zweifel daran, dass künstliche Intelligenz nicht nur im Gesundheitswesen, sondern in vielen Bereichen der Gesellschaft Bestand haben wird. Während einige KI-Tools bereits angenommen haben, bleiben andere skeptisch. Für einige mag sich diese leistungsstarke Technologie sogar wie eine Bedrohung anfühlen.

Ich glaube nicht, dass medizinisches Fachpersonal durch KI ersetzt werden wird, aber wir könnten durch Menschen ersetzt werden, die wissen, wie man KI-Tools effektiv einsetzt. Ich sage immer, dass wir nicht überflüssig werden — wir müssen nur neue Nischen finden, in denen wir arbeiten können. Sich der KI zu widersetzen wird nicht helfen. Es kommt. Wir haben die Wahl: Umarmen Sie es und springen Sie in den Zug oder bleiben Sie am Bahnhof zurück. sagt Störsender.

Ishita Barua vergleicht die heutige KI-Revolution mit der Einführung des Internets.

Dies wird tief in alle Aspekte der Gesellschaft integriert werden. Es ist vergleichbar mit der Frage, warum wir lernen mussten, wie man das Internet benutzt. Wir brauchen, dass jeder ein grundlegendes Verständnis dafür hat, was KI ist. Wenn Ärzte Empfehlungen von KI-Modellen erhalten, müssen sie ihre berufliche Integrität wahren. Sie müssen verstehen, was diese Technologie wirklich ist, und erkennen, wann sie in eine Grauzone gerät, in der menschliches Eingreifen erforderlich ist. Es ist von entscheidender Bedeutung, potenzielle Fehler und Fallstricke zu antizipieren, bevor sie passieren.

Laut Barua sind die Bereiche, in denen die Einführung von KI im Gesundheitswesen am weitesten fortgeschritten ist, diejenigen, die stark auf Bildgebung und Mustererkennung angewiesen sind — wie Radiologie, Kardiologie, Dermatologie und Gastroenterologie.

Darüber hinaus liegt ein erheblicher Fokus auf generativer KI und Sprachmodellen, fügt sie hinzu.

Fallstricke der KI im Gesundheitswesen

Zurück bei Benedicte Wardemanns Allgemeinarztpraxis bei Vest Helse og Trening in Bærum. In der Praxis hängen Hinweise aus, die die Patienten darüber informieren, dass KI bei Konsultationen eingesetzt wird. Laut Wardemann haben keine Patienten negativ reagiert, obwohl sie live auf dem Computerbildschirm sehen können, wie ihre Worte transkribiert werden.

Sie stellt klar, dass das Mikrofon nicht funktioniert Aufzeichnung das Gespräch aber transkribiert was gesagt wird. Darüber hinaus arbeitet das KI-System unabhängig vom offiziellen Krankenaktensystem.

Es ist nicht üblich, den Namen oder die Geburtsnummer eines Patienten während einer Konsultation laut auszusprechen. Deshalb bleibt das System völlig unabhängig von personenbezogenen Daten.

Sobald die Beratung abgeschlossen ist, verbringt Wardemann etwa eine Minute, um die Tagebuchnotiz zu überprüfen um Genauigkeit zu gewährleisten.

Du musst immer nachschauen. Das KI-Modell ist ein „Genuß“ — es ist immer positiv und berücksichtigt nicht die Grenzen seiner Wissensbasis.

Dieses Bedürfnis nach Aufsicht ist entscheidend, gemäß Ishita Barua.

Ich glaube, dass Automatisierungsverzerrungen eine der größten Fallstricke sind. Wir neigen dazu, Maschinen zu sehr zu vertrauen, was dazu führt, dass wir uns zu sehr auf KI-generierte Entscheidungen und Empfehlungen verlassen. Das zweite Problem sind algorithmische Vorurteile — einige KI-Modelle werden möglicherweise nicht anhand eines ausreichend vielfältigen Datensatzes trainiert.

Wir haben ein übermäßiges Vertrauen in Maschinen, was uns übermäßig abhängig von KI-generierten Entscheidungen und Empfehlungen macht.

Wenn es darum geht spart Zeit, Ib Jammer weist darauf hin, dass die Effektivität von KI-Sprachmodellen stark davon abhängt, wie gut Anweisungen formuliert sind.

Hätten wir in unserer Studie keine spezifischen Anweisungen gegeben — nur eine Frage gestellt —, hätten wir Antworten erhalten, die eine umfangreiche Bearbeitung erforderten. erklärt er.

Ärzte haben immer noch das Sagen

Für Allgemeinmedizinerin Benedicte Wardemann, der eine Patientenliste verwaltet von 1.150 Menschen, KI-gestützte Technologie hat ihr in ihrer täglichen Arbeit mehr Luft zum Atmen gegeben.

Wie viel Zeit sparen Sie Ihrer Meinung nach an einem durchschnittlichen Arbeitstag?

Mehr als eine Stunde. Und es hat mich nicht dazu gebracht, mehr Patiententermine zu buchen — es hat mir einfach mehr Luft zum Atmen gegeben. Ich fühle mich besser in meiner Haut.

Sie glaubt das Die Einführung neuer Technologien ist unerlässlich.

Ich denke, wir müssen es wagen, neue Technologien einzusetzen, die uns bei unserer täglichen Arbeit helfen können. Ich habe das Gefühl, dass ich meine Zeit zurückbekomme und mehr davon für meine eigentliche Rolle als Arzt verwende. Deshalb rate ich den Kollegen, es auszuprobieren, offen für neue Technologien zu sein — aber denken Sie natürlich immer daran: Wir haben immer noch das Sagen.