Introducing G2.ai, the future of software buying.Try now

Wie man Algorithmen erstellt, die sich selbst erklären

19. November 2021
von Matthew Miller

Im Jahr 2019 schrieb ich meine Vorhersagen über die Fortschritte, die wir 2020 im Bereich der KI sehen würden. In einer dieser Vorhersagen diskutierte ich das immerwährende Problem der algorithmischen Erklärbarkeit, also die Fähigkeit von Algorithmen, sich selbst zu erklären, und wie dieses Thema in diesem Jahr in den Vordergrund treten wird. Die Lösung dieses Problems ist entscheidend für den Geschäftserfolg, da die allgemeine Öffentlichkeit zunehmend unwohl mit Black-Box-Algorithmen wird. Black-Box-Algorithmen beziehen sich auf Algorithmen, bei denen man nicht erkennen kann, warum sie zu einem bestimmten Ergebnis gekommen sind. Wenn algorithmische Entscheidungen durch sehr große Datensätze bestimmt werden, kann dies ein heikles Problem sein. Da Transparenz das am weitesten verbreitete Prinzip in der aktuellen KI-Ethik-Literatur ist, ist es kein Wunder, dass Erklärbarkeit, ein Teilbereich der Transparenz, auf der Zunge von Regierungsbeamten, Technologen und Laien gleichermaßen liegt. Erklärbare KI, auch bekannt als XAI, ist der Prozess, bei dem der Entscheidungsprozess von Algorithmen transparent und für Menschen verständlich gemacht wird. Das Problem: Unseren Daten verstehen Wir alle kennen die Geschichte: Diese sich ständig verändernde Welt, in der wir leben, ist im Wesentlichen datengetrieben. Datenexperten verwenden ausgeklügelte Analysetools und Datenwissenschaftswerkzeuge, um aus den vielfältigen Datenmengen, die uns umgeben, Bedeutung zu ziehen. Aber mit Big Data kommt große Verantwortung. Algorithmische Methoden zur Arbeit mit den Daten, wie maschinelles Lernen und Deep Learning (ein Teilbereich des ersteren), können robuste Ergebnisse liefern, die es einem Analysten ermöglichen, zukünftige Ergebnisse basierend auf historischen Daten vorherzusagen. Leider sind bei vielen dieser Methoden die Ergebnisse klar, aber die Gründe und Erklärungen, wie der Algorithmus dorthin gelangt ist, weniger klar. Dies liegt hauptsächlich an der komplizierten und komplexen Natur der Algorithmen – insbesondere wenn es um Deep Learning geht, bei dem es viele Schritte oder Stufen zwischen Eingabe und Ausgabe geben kann. Dieses Problem wird durch die Tatsache verschärft, dass rechtliche Rahmenbedingungen weltweit, wie die Allgemeine Datenschutzverordnung (GDPR), den Menschen das Recht einräumen, eine Erklärung für das Ergebnis eines Algorithmus zu erhalten. Merry Marwig, G2s Marktanalystin für Datenschutz und Cybersicherheit, argumentiert: Artikel 22 der EU-GDPR mit dem Titel „Automatisierte Einzelentscheidungen, einschließlich Profiling“ befasst sich mit der Erklärbarkeit von KI. Der Zweck des Artikels besteht darin, einer Person die Möglichkeit zu geben, einen Menschen zu bitten, einen Fall zu überprüfen, in dem KI eine Entscheidung getroffen hat, die das Leben der Person beeinflusst. Wenn beispielsweise eine Person einen Bankkredit beantragt und abgelehnt wird, hat sie das Recht, die Faktoren zu erfragen, die zu diesem Ergebnis beigetragen haben. Vielleicht lag es daran, dass sie eine schlechte Kreditwürdigkeit oder eine frühere Insolvenz hatten und als zu riskant angesehen wurden, um einen Kredit zu gewähren. Das sind einfache Gründe für eine Kreditablehnung, aber was, wenn der Grund auf einer Vielzahl von Daten, Logik und Berechnungen beruht, die von einem Menschen nicht leicht erklärt werden können? Dies ist das Problem, das ein Mangel an KI-Erklärbarkeit für Unternehmen darstellt, und die Schwierigkeit, den Artikel 22 der GDPR einzuhalten. Es sollte jedoch beachtet werden, dass Rechtsexperten wie Sandra Wachter den Umfang und das Ausmaß der „Recht auf Erklärung“-Klausel in der GDPR und ihre Anwendung auf künstlich intelligente algorithmische Systeme in Frage stellen, da „die GDPR keine präzise Sprache sowie explizite und gut definierte Rechte und Schutzmaßnahmen gegen automatisierte Entscheidungsfindung enthält.“ Die Lösung: Algorithmische Erklärbarkeit Neben der Gesetzgebung der Regierung sehen wir auch, wie Unternehmensleiter auf die Stimme der Menschen hören, die laut einer Umfrage des IBM Institute for Business Value mehr Erklärbarkeit von KI fordern – und weiterhin fordern werden. IT-Profis erkennen den Nutzen voll und ganz, insbesondere in finanzieller Hinsicht. Laut der jährlichen Umfrage von CCS Insight unter IT-Entscheidungsträgern ist die Transparenz darüber, wie Systeme funktionieren und trainiert werden, jetzt eine der wichtigsten Anforderungen bei Investitionen in KI und maschinelles Lernen, die von fast 50 % der Befragten genannt werden. Mit diesem Wissen scheint es fast ein risikoloser Schritt zu sein, algorithmische Erklärbarkeit in den Technologiestack eines Unternehmens zu integrieren, um den Stakeholdern die Möglichkeit zu geben, in die Black Box zu blicken und die inneren Abläufe der Algorithmen zu verstehen. Wenn es nur so einfach wäre… Das Problem mit der Lösung Wie bei vielen idealisierten Lösungen sind sie nicht perfekt und funktionieren nicht für alle Probleme. Daher haben wir drei Hauptprobleme bei der Erweiterung und Einführung von Erklärbarkeit festgestellt. Tiefe und Komplexität des Algorithmus Obwohl einige maschinelle Lernalgorithmen aufgrund ihrer relativen Einfachheit eher zur Erklärung neigen, sind andere, wie Deep Learning, aufgrund ihrer verschachtelten Natur und der Tatsache, dass sie versteckte Schichten zwischen Eingabe und Ausgabe haben können, schwieriger. Das bedeutet jedoch nicht, dass alles verloren ist und wir unser Ziel der erklärbaren KI aufgeben sollten. (Wie das Sprichwort sagt: Wenn du beim ersten Mal nicht erfolgreich bist, versuche es, versuche es, versuche es erneut.) Wir sehen einen Trend auf dem Markt für Datenwissenschafts- und maschinelle Lernplattformen, bei dem Anbieter auf diesen Weckruf reagieren und Werkzeuge bereitstellen, um dem Algorithmus eines Benutzers eine Form der Erklärbarkeit zu geben. Zum Beispiel haben wir Werkzeuge gesehen – wie IBMs Explainability 360, AWS’ SageMaker Debugger und Googles Explainable AI –, die absichtlich nur einen Teil der Algorithmen innerhalb eines bestimmten Anwendungsfalls angehen, mit Plänen zur Erweiterung in der Zukunft. Der Bereich der KI- und maschinellen Lern-Operationalisierung (MLOps)-Software ist heiß. Auf G2 haben wir ein enormes Interesse an der Kategorie gesehen, mit einem Verkehrswachstum von 842 % im Juli 2021. Darüber hinaus hat G2 ein Attribut zur Kategorie der KI- und maschinellen Lern-Operationalisierung (MLOps)-Software hinzugefügt, das auf Werkzeuge abzielt, die auf algorithmische Erklärbarkeit ausgerichtet sind. Mit diesen Werkzeugen können Datenwissenschaftsteams Erklärbarkeit in ihre Datenpipeline einbauen und ihre Algorithmen und deren Ergebnisse anderen Abteilungen, Kunden und mehr erklären. Rezensenten beschreiben, wie wichtig Erklärbarkeit für ihre Datenwissenschaftspipeline ist. Zum Beispiel beschrieb ein Rezensent für MLOps: „ML-Observability ist der beste Teil der MLOps-Pipeline. Das Überwachen der Modelle auf Erklärbarkeit und Drift-Monitoring mit Grafana und Prometheus ist aufschlussreicher und macht jeden neugierig, tiefer einzutauchen.“ Es ist nicht, was du sagst – es ist, wie du es sagst Wie bei jeder Lösung ist es entscheidend, dass die Erklärung auf den Benutzer zugeschnitten ist, basierend auf seinen Fähigkeiten, seiner Rolle und seinem Zweck. Zum Beispiel könnte es kontraproduktiv und ineffektiv sein, einem Unternehmensleiter eine tiefgehende, datenlastige Erklärung zu geben. Gleichzeitig könnte dieser Erklärungsstil gut zu einem Datenanalysten oder Datenwissenschaftler passen, der den Algorithmus anpassen möchte. Einige der auf dem Markt verfügbaren Werkzeuge berücksichtigen dieses Dilemma und ermöglichen es, die Erklärung auf den Endbenutzer zuzuschneiden. Leider kann der Akt der Erklärung von KI manchmal verheerende Auswirkungen haben. Zu viel Transparenz kann zu einer Informationsüberflutung führen. In einer Studie von 2018, die untersuchte, wie nicht-expert Benutzer mit maschinellen Lernwerkzeugen interagieren, fand Jennifer Wortman Vaughan, eine Informatikerin bei Microsoft Research, heraus, dass transparente Modelle es tatsächlich schwieriger machen können, die Fehler des Modells zu erkennen und zu korrigieren, da die Erstellung von neuronalen Netzwerken, die transparenter sind, dazu führen kann, dass wir ihnen zu sehr vertrauen. Wie Douglas Heaven von MIT Tech Review schrieb: „Letztendlich wollen wir, dass sich AIs nicht nur Datenwissenschaftlern und Ärzten erklären, sondern auch Polizisten, die Gesichtserkennungstechnologie verwenden, Lehrern, die Analysesoftware in ihren Klassenzimmern verwenden, Schülern, die versuchen, ihre Social-Media-Feeds zu verstehen – und jedem, der auf dem Rücksitz eines selbstfahrenden Autos sitzt.“ Erklärbarkeit als „nice to have“ versus „must have“ Nur weil etwas erklärt werden kann, bedeutet das nicht, dass es erklärt werden sollte oder muss. Laut Dr. Francesco Corea, Forschungsleiter bei Balderton Capital, könnte die Erklärbarkeit von KI in der Zukunft Probleme schaffen. Dr. Coreas Punkt bekräftigt das oben genannte Problem: Nur weil etwas erklärt werden kann, bedeutet das nicht, dass es erklärt werden sollte. Darüber hinaus stimme ich voll und ganz zu, dass algorithmische Erklärbarkeit ein wesentlicher Bestandteil des Designprozesses sein muss und nicht nur ein nachträglicher Gedanke. Die Zukunft Diese Bewegung hin zur Erklärbarkeit ist aus einem weiteren Grund aufregend: Sie treibt den Kampf gegen algorithmische Voreingenommenheit voran. Es ist eine bekannte Tragödie, dass Algorithmen aufgrund einer Reihe von Faktoren wie voreingenommene Datensätze voreingenommene Ergebnisse liefern können. Ein Beispiel dafür ist die Tatsache, dass viele Gesichtserkennungssysteme besser darin sind, weiße Gesichter zu erkennen. Damon Civin, leitender Datenwissenschaftler bei Arm, bemerkte, dass der Vorstoß in Richtung erklärbarer KI dazu beitragen kann, die Auswirkungen voreingenommener Algorithmen zu verringern: „Wenn menschliche Betreiber die ‚Argumentation‘ eines Algorithmus überprüfen könnten, der Entscheidungen über Mitglieder von Hochrisikogruppen trifft, könnten sie möglicherweise Voreingenommenheit korrigieren, bevor sie ernsthafte Auswirkungen hat.“ Jeder, der daran interessiert ist, die katastrophalen und zerstörerischen Dinge zu sehen, die als Ergebnis voreingenommener Daten entstehen können, ist eingeladen, Caroline Criado-Pérezs aufschlussreiches Buch „Invisible Women“ zu lesen. Glücklicherweise sehen wir, wie oben erwähnt, dass Datenwissenschafts- und maschinelle Lernplattformen beginnen, Erklärbarkeitsfunktionen in ihre Produkte zu integrieren. Mit diesen Fähigkeiten kann man KI-gestützte Anwendungen und Software entwickeln, die auf Transparenz abzielen. Mit diesem Wissen können Unternehmen nicht nur ein ethisches Kästchen abhaken, sondern auch ihren Endbenutzern ein verantwortungsvolles Produkt bieten, das von allen verstanden werden kann.

Möchten Sie mehr über Datenwissenschafts- und maschinelles Lernen-Plattformen erfahren? Erkunden Sie Datenwissenschafts- und maschinelles Lernen-Plattformen Produkte.

Matthew Miller
MM

Matthew Miller

Matthew Miller is a research and data enthusiast with a knack for understanding and conveying market trends effectively. With experience in journalism, education, and AI, he has honed his skills in various industries. Currently a Senior Research Analyst at G2, Matthew focuses on AI, automation, and analytics, providing insights and conducting research for vendors in these fields. He has a strong background in linguistics, having worked as a Hebrew and Yiddish Translator and an Expert Hebrew Linguist, and has co-founded VAICE, a non-profit voice tech consultancy firm.