Sysmex Austria
Menu

KI im Labor: Wo stehen wir?

XTRA-ARTIKEL AUSGABE 2/2024

„Wolf im Schafspelz“ oder Segen? Zukunft oder schon Gegenwart? Wo hört der Algorithmus auf und wo fängt die KI an? Darf es ein wenig mehr sein als nur Algorithmus?

 

DIE GESPRÄCHSTEILNEHMENDEN (v. l. n. r.)

PROF. DR. THOMAS STREICHERT, Direktor des Instituts für Klinische Chemie an der Uniklinik Köln

DR. JAKOB ADLER, Facharzt für Laboratoriumsmedizin am IMD Labor Berlin (Institut für Medizinische Diagnostik) und IHP (Institut für Hämostaseologie und Pharmakologie MVZ GmbH) in Berlin

THOMAS GÖHL, Market Development Manager EMEA LATAM, Roche Information Solutions

moderiert von DIANA GRELL, Customer Liaison Manager, Diagnostic Concepts, Sysmex Deutschland

FOTOS DOMINIK ASBACH

KI hält auch in der Laboratoriumsmedizin immer stärker Einzug und verändert Arbeitsabläufe und Prozesse. Welche Chancen und Möglichkeiten ergeben sich daraus, welche Risiken drohen und welche Maßnahmen sind jetzt erforderlich, um die neue Technologie besser kontrollieren und entsprechend sicher nutzbar machen zu können?

Das Thema künstliche Intelligenz oder kurz KI ist buchstäblich in aller Munde, wird aber oft unterschiedlich verstanden. Was genau ist eigentlich KI?

THOMAS GÖHL Leider gibt es für KI bislang keine allgemeingültige Definition. Sehr vereinfacht gesagt, versteht man darunter die Schnittmenge aus Computerkompetenz und menschlicher Kompetenz, die über Algorithmen definiert wird. Algorithmen sind im Grunde mathematische Gleichungen oder Wenn-dann-Vorschriften, mit denen wir schon sehr lange arbeiten. Ein ganz einfaches Beispiel hierfür sind Summenformeln bei Excel oder auch ein Entscheidungsbaum mit einer Ja-nein-Unterscheidung, etwa zur Beurteilung von Blutwerten aus dem Labor. Es gibt natürlich auch viel kompliziertere Algorithmen. Das Wichtigste dabei ist, dass ein Algorithmus immer statisch ist. Es kommen also Informationen über ein Quellsystem rein, die werden auf eine zuvor definierte Art bewertet oder sortiert und danach kommt ein entsprechendes Ergebnis raus. KI ist grob gesagt eine Aneinanderreihung von Algorithmen, die aber – über die statische Ausführung von Anweisungen hinaus – auch mit Ausnahmen umgehen und damit auch unvorhergesehene Ereignisse berücksichtigen kann. So, wie das bislang nur der Mensch konnte.

Laborforum 2024 Düsseldorf

„Kein einziger Radiologe und keine einzige Radiologin sind durch KI oder E-Learning ersetzt worden“

PROF. DR. THOMAS STREICHERT

Wie wird KI aktuell in der Laboratoriumsmedizin eingesetzt?

DR. JAKOB ADLER Das, was wir aktuell in der Labormedizin an KI haben, kann man grob in zwei Gruppen einteilen. Die eine Sparte ist „Prozesse im Labor“ und die andere Sparte ist „Diagnostik und Wissen“. Hier nutzen wir KI, um diagnostisch am Patienten noch besser zu werden, indem wir zum Beispiel einen Algorithmus haben, der wie ein digitaler Biomarker funktioniert und Vorhersagen über Erkrankungen oder auch Prognosen liefern kann. Gleichzeitig können wir KI in der Forschung gut anwenden, indem wir etwa Algorithmen einsetzen, die Wissen neu aufarbeiten, indem sie Muster in riesigen Wissens- oder Datensammlungen erkennen. Das können Maschinen deutlich schneller und effizienter als der Mensch. Ein anschauliches Beispiel hierfür ist eine Studie mit einem KI-Clustering-Algorithmus zur Einteilung von Diabetestypen. Die klassische Einteilung von Diabetes unterscheidet Typ-1 und Typ-2 sowie eine genetische Variante. In der angesprochenen Cluster-Studie aber konnte die KI aus einem Pool von Daten zum Blutzuckerstoffwechsel insgesamt fünf Cluster erkennen, sprich fünf verschiedene Diabetestypen. Diese Ähnlichkeitsverteilung ließ sich an fünf verschiedenen Zentren in ähnlicher Weise beobachten, was zeigt, dass nicht die Struktur eines Datensatzes zufälligerweise dafür verantwortlich war, sondern dass es tatsächlich fünf statt nur zwei Diabetestypen gibt, die auch alle entsprechend anders therapiert werden sollten. Das sind wichtige Erkenntnisse, die inzwischen auch schon in einigen endokrinologischen Fachkliniken umgesetzt werden. Diese Möglichkeit zur Generierung von neuem Wissen sehe ich aktuell als den größten Nutzen von KI in der Laboratoriumsmedizin. In der Sparte „Prozesse im Labor“ kommen immer mehr die sogenannten „Large Language Models“, kurz LLM, wie ChatGPT oder auch Med-Gemini zum Einsatz, um Prozesse im Labor, also etwa die Qualitätskontrolle weiter zu verbessern.

KI wurde schon sehr früh für die Beurteilung von Bildern eingesetzt. Beispielsweise in der Pathologie oder Radiologie, sodass führende KI-Experten prophezeit haben, dass Deep Learning das Berufsbild des Radiologen oder der Radiologin überflüssig macht – stimmt das?

PROF. DR. THOMAS STREICHERT 2016 hat Geoffrey Hinton, der Gottvater der KI-Programmierung, mit dieser These die Medizinwelt schockiert, aber nichts davon ist

eingetroffen. Kein einziger Radiologe und keine einzige Radiologin sind durch KI oder durch E-Learning ersetzt worden. Im Gegenteil – weltweit gibt es sogar zu wenige Radiologinnen und Radiologen. Wir müssen also keine Angst um den Arbeitsplatz haben. Aber KI ist weiter auf dem Vormarsch, deshalb sollten wir uns gezielt überlegen, wie wir diese neuen Technologien im Labor am sinnvollsten anwenden können. Mit CellaVision und Accelerate Pheno haben wir ja bereits zwei FDA-zugelassene Geräte, die mittels KI ein (teil-)automatisiertes manuelles Differenzialblutbild sowie eine automatische Resistenztestung möglich machen. Das werden noch ungleich viel mehr werden. Die Investitionen in KI explodieren aktuell regelrecht. Laut Statista werden die Umsätze durch künstliche Intelligenz von derzeit rund 15 Milliarden bis 2028 auf über 102 Milliarden US-Dollar ansteigen.

Wie gut sind die KI-Sprachmodelle wirklich? Wie könnte man das testen?

STREICHERT Um das herauszufinden, haben wir verschiedene Studien durchgeführt. Unter anderem haben wir ChatGPT in der Variante 3.5 und in der Variante 4.0 jeweils das Medizinexamen machen lassen. Die Ergebnisse der KI haben wir anschließend mit denen von Medizinstudierenden verglichen. Das Ergebnis ist erstaunlich: Während die Variante GPT 3.5 noch etwas schlechter abschnitt als die Studierenden, lag die Variante 4.0 bereits oft besser als der Mensch und gleichauf mit den Top acht Prozent der Studierenden. Jetzt wollten wir es noch genauer wissen und haben dazu eine Studie gestartet, bei der wir die Antworten auf Patientenfragen von Ärzten und Ärztinnen aus einem Online Health Forum mit denen der Sprachmodelle ChatGPT, Gemini und Le Chat verglichen haben. Dabei zeigte sich, dass die Sprachmodelle zwar durchweg empathischer antworteten als die Ärzte. Was aber die Klarheit, Exaktheit und Qualität der Antworten anging, schnitten die KI-Programme durchweg schlechter ab. Vor allem bei der Interpretation von Verläufen waren die KI-Programme sichtlich überfordert und machten teils grobe Fehler.

Laborforum 2024 Düsseldorf

„Die Möglichkeit zur Generierung von neuem Wissen sehe ich aktuell als größten Nutzen von KI in der Laboratoriumsmedizin“

DR. JAKOB ADLER

Da stellt sich doch die Frage, welche Risiken birgt KI und wie weit kann ich ihr vertrauen?

STREICHERT Ein übermäßiges Vertrauen in KI ist gefährlich, weil die Programme – je nach Trainingsdaten – auch Fehler machen. Vor allem im Bereich Diagnostik kann das fatale Folgen haben. Hier treffen Menschen die besseren Entscheidungen. Ich halte es deshalb für enorm wichtig, zentrale Fähigkeiten und Fertigkeiten im Labor auch weiterhin zu trainieren und nicht alles den Maschinen zu überlassen, da Erfahrungswissen sonst irgendwann verloren geht. Zur Unterstützung und Entlastung bei Routinearbeiten kann KI aber sicherlich sehr hilfreich sein.

ADLER Ein weiteres Problem sehe ich darin, dass viele Firmen die Datenbasis ihrer Modelle nicht publizieren. Als Arzt habe ich damit oft keinerlei Informationen darüber, auf welchen Grundlagen die Entscheidung der KI beruht und inwieweit ich mich darauf verlassen kann.

 

Wer haftet bei Fehlentscheidungen von KI?

ADLER In letzter Konsequenz trägt die Haftung immer der Arzt. Die großen Tech-Firmen bieten zwar ständig neue Programme an, die du als Arzt nutzen darfst. Sobald es aber um das Rechtliche geht, verweisen sie wieder auf den Arzt zurück.

GÖHL Entscheidend finde ich, dass solche KI-Programme zugelassene Medizinprodukte mit entsprechend klarer Studienbasis und Evidenz als Medizinprodukt der entsprechenden Risikoklasse sind. Ansonsten ist der Mediziner komplett im Blindflug unterwegs, weil er nicht weiß, welche Sensitivität oder Spezifität dieser Algorithmus hat.

STREICHERT Juristisch gesehen ist KI in der Medizin eine sogenannte Neuland-Methode. Das heißt, in Abhängigkeit vom Einsatzzweck müssen wir unsere Patientinnen und Patienten auch darüber aufklären und eine Einwilligung einholen.

Gibt es hinsichtlich der Qualität Kontrollsysteme?

STREICHERT Zum jetzigen Zeitpunkt leider nein, aber sie sind unbedingt nötig. Ich denke da an Prozesskontrollen, wie es sie für Medizinprodukte, etwa für EKG-Geräte gibt. Hier muss jedes Gerät einen Test-Datensatz bestehen, bevor es in den Markt gebracht werden kann. Das sollte es auch für KI-Programme bei Labordaten geben.

ADLER Das Problem bei KI ist nur, dass sie sich ständig verändert, weil sie ja dazulernt. Theoretisch müsste man deshalb jede neue Version wieder neu zertifizieren und lizensieren lassen. Das kann, wie man bei ChatGPT gesehen hat, bereits nach wenigen Monaten der Fall sein. Da frage ich mich schon, wie das praktisch umgesetzt werden soll.

Laborforum 2024 Düsseldorf

„Im Gegensatz zu einem Algorithmus ist KI nicht statisch“

THOMAS GÖHL

Was benötigen wir noch, um KI im Labor einzuführen und anzuwenden?

ADLER Um den „Datenkraken“ Google & Co. zu entgehen, bietet zum Beispiel die deutsche Firma Aleph Alpha die DSGVO-konforme ChatGPT-Alternative „Luminous“ an. Die stellen ein vortrainiertes Sprachmodell zur Verfügung, das jedoch auf eigenen Servern laufen muss, die ausreichend Rechenleistung sowie mehrere leistungsstarke Grafikkarten benötigen, von denen eine rund 25.000 Euro kostet. Das ist sehr teuer, deshalb werden überwiegend immer noch die Cloudlösungen der großen Player genutzt.

STREICHERT Entscheidende Voraussetzung für den Einsatz von KI sind außerdem strukturierte Daten. Die haben wir im Krankenhaus aktuell schlichtweg nicht, und auch das Bewusstsein dafür ist bei den Leuten einfach noch nicht angekommen. Da muss sich unbedingt was ändern.

ADLER Im Labor sind die Daten zwar etwas strukturierter, aber auch das reicht für KI nicht aus. Wir brauchen sogenannte „FAIR-Data-Prinzipien“, um die Labore KI-ready zu machen. F steht dabei für „findable“. Das klingt banal, ist aber in manchen Laboren nicht so. A meint „accessable“, ich muss auch an die Daten rankommen. „Interoperable“, also I, bedeutet, dass die Daten zwischen den verschiedenen Systemen ausgetauscht werden können, und „reuseable“, also R, heißt, ich muss jederzeit wieder an sie rankommen.

Für wichtig halte ich darüber hinaus auch, dass sich die Labormedizin insgesamt deutlich mehr mit KI beschäftigt. Dazu muss man nicht programmieren können. Aber zumindest ein grobes Verständnis davon, wie ein Algorithmus funktioniert, sollte schon vorhanden sein.

GÖHL Wir müssen im Labor endlich auch dazu kommen, unsere Analysen vernünftig in der Bezeichnung zu standardisieren. Nur wenn die Semantik einheitlich ist, sind anschließend auch automatisierte Auswertungen über OINC oder Snovid CT für den Bereich der Mikrobiologie möglich.

ADLER Last but not least sollten wir bei KI auch über Nachhaltigkeit nachdenken. Nicht immer muss KI die effizienteste Lösung für mein Problem sein. Manchmal reicht tatsächlich auch eine lineare Regression oder ein einfaches Rechenmodell aus. Denn KI, vor allem die Sprachmodelle, sind echte Energiefresser. Eine einzige Anfrage bei ChatGPT benötigt rund einen halben Liter Kühlwasser.

Laborforum 2024 Düsseldorf

„Was brauchen wir, um KI wirklich sicher und vertrauensvoll im Labor einsetzen zu können?“ Das war eine der zentralen Fragestellungen der Podiumsdiskussion

DIANA GRELL

SUMMARY

  • KI hält in der Laboratoriumsmedizin immer mehr Einzug und bietet ein immenses Potenzial, birgt aber auch viele Risiken
  • Problematisch sind vor allem die fehlende Transparenz, die Auswahl der Trainingsdaten, ungeklärte Haftungsfragen und die fehlende Regulierung
  • Um KI sinnvoll einsetzen zu können, müssen die Daten im Krankenhaus und im Labor entsprechend strukturiert sein. Hier gibt es noch viel zu tun
Copyright © Sysmex Europe SE. All rights reserved.