Introducing G2.ai, the future of software buying.Try now

Künstliche Intelligenz im Gesundheitswesen: Vorteile, Mythen und Einschränkungen

23. Juli 2021
von Rachael Altman

Künstliche Intelligenz (KI) revolutioniert und belebt das moderne Gesundheitssystem, indem sie neue Verbindungen zwischen genetischen Codes findet oder Roboter steuert, die bei Operationen assistieren.

Der KI-Sektor ist eine der weltweit am schnellsten wachsenden Branchen. Er wurde 2014 auf 600 Millionen Dollar geschätzt und soll bis 2026 150 Milliarden Dollar erreichen

Werden KI und Robotik Menschen im Gesundheitswesen ersetzen?

Im Juni 2021 habe ich einen Kurs über Künstliche Intelligenz im Gesundheitswesen am MIT abgeschlossen, der sich damit befasste, wie KI in der Gesundheitsbranche angewendet wird und werden kann. 

Es gibt endloses Potenzial für die Vorteile von KI in diesem Sektor – von der Automatisierung administrativer Aufgaben bis hin zur Diagnose und Vorhersage von Krankheiten. Sie vereinfacht das Leben von Patienten, Ärzten und Krankenhausverwaltern, indem sie Aufgaben übernimmt, die normalerweise von Menschen erledigt werden, jedoch in kürzerer Zeit, zu einem Bruchteil der Kosten und in einigen Fällen mit größerer Genauigkeit. 

Obwohl KI viele Dinge tun kann, kann sie mit Unterstützung von Menschen noch viel mehr leisten. Also keine Sorge, Gesundheitsfachkräfte, die Roboter kommen nicht, um eure Jobs zu übernehmen – sie sind hier, um zu helfen. 

Das gesagt, gibt es mehrere andere wenig verstandene Aspekte der KI im Gesundheitswesen – was sie kann und was nicht – die Verbraucher oder Gesundheitsdienstleister beachten sollten.

Mythen und Missverständnisse über KI im Gesundheitswesen

Demokratisierung

Missverständnis: Man kann ein vorgefertigtes Computermodell nehmen und es auf jeden Prozess anwenden.

Dies ist in einfachen Fällen möglich, aber es ist nicht immer möglich, einen vorgefertigten Algorithmus zu nehmen, ihn in einer neuen Situation anzuwenden und perfekte Leistung zu erwarten. Die Leistung des Modells kann drastisch verbessert werden, indem generische und maßgeschneiderte Verbesserungen zu einem vorgefertigten Algorithmus hinzugefügt werden.

Die Demokratisierung der KI im Gesundheitswesen führt jedoch zu einem besseren Zugang und einem vorausschauenderen Workflow in der Patientenversorgung sowie zu intelligenteren reaktiven Reaktionen auf Gesundheitsprobleme. Da die Gesundheitsbranche zunehmend offen für KI-basierte Technologieanwendungen an zahlreichen Versorgungspunkten im Gesundheitswesen wird, hat der bessere Zugang zu intelligenten Informationen dazu beigetragen, Prozesse für die Patientenüberwachung, Diagnostik und Behandlung zu vereinfachen. Der zunehmende Einsatz von KI-Technologie schafft hilfreiche Beispiele und Erkenntnisse, die wiederum zu einer größeren Akzeptanz führen.

KI führt zu Vorurteilen

Missverständnis: KI führt zu Vorurteilen über eine Person oder Gruppe von Menschen basierend auf ihrer wahrgenommenen Gruppenzugehörigkeit. Es könnte auch Vorurteile aufgrund unvollständiger Daten geben.

Trotz der Darstellung von KI wird Vorurteil nicht von der KI selbst eingeführt; Vorurteile werden aus voreingenommenen Gesundheitsdaten und voreingenommenen Menschen, die die Algorithmen schreiben, gelernt. Wenn ein maschinelles Lernmodell richtig trainiert wird, kann es tatsächlich Vorurteile mindern und weniger voreingenommen agieren als ein Mensch. Es gibt zwei Hauptwege, wie Vorurteile in Trainingsdaten auftreten – entweder sind die gesammelten Daten nicht repräsentativ für die Realität oder sie spiegeln bestehende Vorurteile wider. 

Zum Beispiel argumentiert ein neuer Artikel im Journal of the American Medical Informatics Association, dass solche voreingenommenen Modelle die unverhältnismäßigen Auswirkungen der COVID-19-Pandemie auf farbige Menschen weiter verstärken könnten. 

Die COVID-19-Pandemie hat einen enorm überproportionalen Einfluss auf farbige Menschen gehabt, verschärft durch bestehende Ungleichheiten im Gesundheitswesen und systemischen Rassismus. Forscher warnten vor der Gefahr, KI als von Natur aus objektiv zu betrachten, insbesondere beim Aufbau von Modellen für die optimale Zuteilung von Ressourcen, einschließlich Beatmungsgeräten und Intensivpflegebetten.

Black-Box-Bedenken

Missverständnis: KI – insbesondere Deep Learning – operiert in einer Black Box

Dies wäre besorgniserregend in Fällen, in denen Interpretierbarkeit für die klinische Entscheidungsunterstützung im Gesundheitswesen wichtig ist. Die Interpretierbarkeit im Deep Learning verbessert sich jedoch, was Vorhersagen erklärbarer macht. Wenn Algorithmen in einer Black Box arbeiten, können medizinische Fachkräfte nicht erklären, wie die Software zu ihren Entscheidungen kommt – was eine Herausforderung für die klinische Entscheidungsfindung und das gesamte Patientenerlebnis darstellt.

Zum Beispiel könnte KI Notfall-Disponenten alarmieren, dass jemand einen Herzstillstand hat, aber die Kliniker können nicht vollständig erklären, wie die KI zu diesem Schluss gekommen ist. Dieses Wissensdefizit kann besorgniserregend sein, da ein Kliniker die Diagnose oder den Behandlungsplan des KI-gestützten Systems nicht erklären oder vollständig interpretieren kann. Und wenn Verbraucher ihre Gesundheit und Sicherheit der KI-unterstützten medizinischen Versorgung anvertrauen sollen, dann wollen sie verstehen, wie die KI zu diesen Entscheidungen gekommen ist. 

Die Grenzen der KI im Gesundheitswesen

Zusätzlich zu den Mythen und Missverständnissen ist es auch wichtig, sich der Grenzen der KI bewusst zu sein.

Unterschiede in Maschinen

Algorithmen, die mit Daten von einem bestimmten Typ von Bildgebungsgerät trainiert wurden, funktionieren möglicherweise nicht auf die gleiche Weise, wenn sie Instanzen von anderen Typen bewerten. Geringfügige Variationen in den Bildgebungsgeräten oder Radiologie-Software können ausreichen, um die Leistung eines Modells negativ zu beeinflussen.

Berichtsgenauigkeit

Die Zusammensetzung Ihrer Trainingsdaten bedeutet, dass die Genauigkeit Ihres Modells möglicherweise nicht so genau ist, wie behauptet. Datensätze in klinischen Studien können sich beispielsweise auf eine bestimmte Gruppe konzentrieren. Wenn eine Studie über Brustkrebs nur Beispiele enthält, bei denen die Tumoren homogen sind, kann die Berichtsgenauigkeit nicht auf andere Fälle übertragen werden.

Angetrieben von zunehmenden Mengen an medizinischen Daten, einschließlich derer, die von elektronischen Gesundheitsakten (EHR) und tragbaren Fitnessgeräten sowie medizinischen Geräten wie Herzschrittmachern bereitgestellt werden, wenden sich Forscher in der Wissenschaft und der pharmazeutischen Industrie KI-Anwendungen zu, um klinische Studien und klinische Entscheidungsfindung zu verbessern, Krankheiten genauer vorherzusagen oder zu diagnostizieren, medizinische Fortschritte zu beschleunigen und den Zugang zu experimentellen Behandlungen zu erweitern. 

Verwandt: 10 Gesundheitstechnologie-Trends zur Verbesserung Ihres Wohlbefindens

Adversariale Interventionen

Maschinelle Lernalgorithmen sind anfällig dafür, dass sie mit speziell gestalteten Eingaben „ausgetrickst“ werden können. Ein Team der Harvard Medical School und des MIT zeigte, dass es ziemlich einfach ist, ein KI-System zu täuschen, das medizinische Bilder analysiert.

Algorithmen haben sich als anfällig für das Risiko von adversarialen Angriffen erwiesen. Obwohl etwas theoretisch, beschreibt ein adversarialer Angriff ein ansonsten effektives Modell, das anfällig für Manipulationen durch Eingaben ist, die darauf ausgelegt sind, sie zu täuschen. Zum Beispiel wurden in einer Studie Bilder von gutartigen Muttermalen durch das Hinzufügen von adversarialem Rauschen oder sogar nur durch Rotation fälschlicherweise als bösartig diagnostiziert. Adversariales Rauschen ist eine Eingabe, die für Menschen „normal“ aussieht, aber zu einer Fehlklassifizierung durch ein maschinelles Lernmodell führt. 

Verteilungsschift

Ihr maschinelles Lernmodell kann möglicherweise nicht genau anwenden, was es aus Trainingsdaten gelernt hat, auf einen neuen Datensatz, wenn es einen signifikanten Unterschied (oder eine „Verschiebung“) von einem zum anderen gibt. Zum Beispiel, wenn ein Modell mit Daten von jungen Patienten in Kalifornien trainiert wird, würde es bei älteren Patienten in Australien funktionieren? 

Verteilungsschift ist vielen Klinikern vertraut, die außerhalb ihrer Komfortzone arbeiten müssen, wenn sie nicht unbedingt frühere Erfahrungen auf neue Situationen anwenden können. Maschinensysteme können schlecht darin sein, eine relevante Änderung im Kontext oder in den Daten zu erkennen, und dies führt dazu, dass das System falsche Vorhersagen basierend auf „außerhalb der Stichprobe“ Eingaben macht. Eine Diskrepanz zwischen Trainings- und Betriebsdaten kann durch Mängel in den Trainingsdaten eingeführt werden, aber auch durch die unangemessene Anwendung eines trainierten maschinellen Lernsystems auf einen unvorhergesehenen Patientenkontext.

Voreingenommene Daten

Wenn es Vorurteile in den Trainingsdaten gibt, wird das maschinelle Lernmodell von ihnen lernen und sie übernehmen.

Die Absicht ist, KI Technologie im Gesundheitswesen zu nutzen, um Anbietern zu helfen, objektivere, Echtzeit-Entscheidungen zu treffen und effizientere Pflege zu bieten. KI-Tools verlassen sich auf Daten, um maschinelle Algorithmen zu trainieren, Entscheidungen zu treffen. Wenn Sie einer Maschine beibringen möchten, einen Faktor wie die Verbreitung eines Virus über verschiedene demografische Gruppen zu schätzen, füttern Sie sie mit vielen Beispielen, damit die Maschine lernen kann, diese Muster zu erkennen. 

Die Maschine ist dann in der Lage, relevante Unterscheidungen zu treffen. Wenn die Daten von Natur aus voreingenommen sind oder keine vielfältige Darstellung der Zielgruppen enthalten, können die KI-Algorithmen keine genauen Ergebnisse liefern. 

Zum Beispiel, wenn die Daten, die für eine KI-Technologie verwendet werden, nur aus Notfallkliniken stammen, wird das KI-Modell weniger über Patientengruppen lernen, die normalerweise keine Notfallkliniken aufsuchen. Dasselbe könnte gesagt werden, wenn Daten aus der Bildanalyse von weißen männlichen Patienten verwendet werden und dann versucht wird, dasselbe Modell auf schwarze oder lateinamerikanische männliche Patienten anzuwenden.

Voreingenommene Daten können zu verzögerter oder unangemessener Patientenversorgung führen, die zu schädlichen Patientenergebnissen führt. Daher ist es wichtig sicherzustellen, dass Gesundheitsdaten, die zur Schulung von KI verwendet werden, repräsentativ für verschiedene Gruppen sind, um potenziellen Schaden für die Öffentlichkeit zu mindern, insbesondere für historisch marginalisierte Bevölkerungsgruppen. 

Verwandt: Patientenerfahrung zählt und die Pandemie hat sie verbessert

Was kommt als Nächstes?

Es gibt ein großes Potenzial für den Einsatz von KI in den Gesundheitssystemen, sowie Herausforderungen, Mythen und Einschränkungen. Durch maschinelle Lernansätze wächst der Zugang zu strukturierten Patientendaten rapide. Die Erkenntnisse, die Sie aus den Gesundheitsdaten gewinnen können, erweitern sich und ermöglichen bessere Vorhersagen, Diagnosen und Behandlungen. Dieser Artikel ist der erste in einer Reihe über die Vorteile und Herausforderungen von KI im Gesundheitswesen – und den Übergang zur digitalen Gesundheitsversorgung.

Möchten Sie mehr über Gesundheitssoftware erfahren? Erkunden Sie Gesundheitsversorgung Produkte.

Rachael Altman
RA

Rachael Altman

Rachael is a research analyst at G2 with a focus on healthcare and education. Prior to joining G2, she has worked as an academic librarian and in research and business development at law firms, accounting firms, and nonprofit organizations. She has a BA and MA in English and Creative Writing and an MS in Library & Information Science. Outside of G2, Rachael is a career coach, yoga and meditation teacher, and jewelry maker.