KI-Modell besser als Ärzte bei Beurteilung von Augenproblemen
In einer von der Cambridge University geleiteten Studie schnitt das KI-Modell GPT-4 deutlich besser ab als nicht spezialisierte Ärzte in der Ausbildung, die in Bezug auf ihr augenmedizinisches Fachwissen mit Allgemeinärzten vergleichbar sind. Das KI-Modell erzielte ähnliche Ergebnisse wie Augenärzte in der Ausbildung und Fachärzte, wobei die leistungsstärksten Ärzte besser abschnitten. Die Ergebnisse wurden in der Fachzeitschrift PLOS Digital Health veröffentlicht.
GPT-4 wurde mit Ärzten in verschiedenen Stadien ihrer beruflichen Laufbahn getestet, darunter nicht spezialisierte Assistenzärzte sowie Augenärzte in der Ausbildung und Experten. Jedem von ihnen wurde eine Reihe von 87 Patientenszenarien mit einem spezifischen Augenproblem vorgelegt, und sie wurden gebeten, eine Diagnose zu stellen oder eine Behandlung zu empfehlen, indem sie aus vier Optionen auswählten.
Nach Einschätzung der Forscher werden große Sprachmodelle wahrscheinlich nicht das medizinische Fachpersonal ersetzen, aber das Potenzial haben, die Gesundheitsversorgung als Teil des klinischen Arbeitsablaufs zu verbessern. „Wir könnten KI realistisch bei der Einteilung von Patienten mit Augenproblemen einsetzen, um zu entscheiden, welche Fälle Notfälle sind, die sofort von einem Spezialisten behandelt werden müssen, welche von einem Hausarzt behandelt werden können und welche keine Behandlung benötigen“, sagte Dr. Arun Thirunavukarasu, Hauptautor der Studie, die er als Student an der School of Clinical Medicine der Universität Cambridge durchführte.
GPT-4 treibt den Online-Chatbot ChatGPT an, um maßgeschneiderte Antworten auf menschliche Fragen zu geben. In den letzten Monaten hat ChatGPT in der Medizin große Aufmerksamkeit erregt, weil er bei Prüfungen an medizinischen Fakultäten bestanden hat und bei der Beantwortung von Patientenanfragen präzisere und einfühlsamere Nachrichten liefert als menschliche Ärzte.
Quelle: Cambridge University