Loading

Künstlicher Intelligenz vertrauen? Von Thorben Schlätzer, ISS Software Gmbh

Künstliche Intelligenz (KI) gewinnt zunehmend auch in unseren alltäglichen Lebenssituationen an Bedeutung. Mit der nationalen Strategie für Künstliche Intelligenz hat die Bundesregierung Ende 2018 das Thema sogar noch konkreter gemacht. Durch die Breite der potenziellen Verbesserungsmöglichkeiten, wird sie bisweilen bereits als Allheilmittel gesehen.

Wer kennt sie nicht die Vorschläge für bestimmte Produkte bei Onlinekäufen. Aber vielleicht haben auch die Ihnen vorgeschlagenen Ergebnisse bereits schon mal zu einem befremdlichen Gefühl geführt. Für die konkrete Einsetzbarkeit der Technologie wirft dies jedoch eine grundsätzliche Frage auf: Können wir den Ergebnissen auf Basis Künstlicher Intelligenz vertrauen? Wie können wir ein Bewusstsein für die Ergebnisse aus unseren Algorithmen schaffen? Im Folgenden werden dafür zwei Themenkomplexe und mögliche Ansätze zu deren Handhabung beschrieben.

„Bias“- Die Datenstruktur

Hierzu sind einige Kriterien in Betracht zu ziehen. Im ersten Schritt ist das Training des Algorithmus zu hinterfragen. Dafür ist es besonders wichtig, einen Blick in die Struktur der unterliegenden Daten zu werfen. Denn der beste Algorithmus kann letztlich nur so schlau sein wie die Daten, die er zum Training bekommt. Hier reden Experten von einem sogenannten „Bias“, der auf eine Befangenheit der Daten hinweist. Ein prominentes Beispiel liefert das Unternehmen Amazon, das einen Algorithmus zur Rekrutierung neuer Mitarbeiter eingesetzt hat. Dieser wurde auf Basis der erhaltenen Bewerbungen der letzten 10 Jahre trainiert. Diese Gruppe wies einen überproportional hohen Anteil von Männern auf. Aus diesem Grund hat der Algorithmus bestimmte Merkmale wie z.B. den Abschluss an einem reinen Frauen-College negativ belegt und letztlich daraufhin Frauen und deren Qualifikationen diskriminierend behandelt.

„Black Box“

Ein anderer Begriff, der immer wieder fällt, ist der der „Black Box“, die ein komplexes System beschreibt, bei dem lediglich das äußere Verhalten betrachtet wird. Im Zuge der Entwicklungen von Deep Learning, das auf sehr komplexe Rechensysteme (neuronale Netze) setzt, werden Ergebnisse auf Basis bestimmter Gewichtungen erzielt, auf deren Herkunft man sehr geringen Einfluss, und für deren Zusammensetzung man einen nur sehr eingeschränkten Überblick hat. Dies führt bei vielen Aufgaben zu sehr guten Ergebnissen – aber eben nur für die Daten, die man als Grundlage für die Entwicklung nutzt. Es wurde bewiesen, dass Ergebnisse dieses Systems durch bestimmte Techniken „gehackt“ werden können, sodass die „Black Box“ ein gewünschtes, falsches Ergebnis produziert.

Welche Lösungsmöglichkeiten stehen uns offen?

Das Thema Künstliche Intelligenz könnte direkt wieder in den Schubladen verschwinden, wenn diese Probleme nicht lösbar wären. Ein von der ISS Software GmbH praktizierter Ansatz ist es, die intensive Datenanalyse und Vorbereitung für das Training der Künstlichen Intelligenz in den Fokus zu rücken. Die Modellierung und die Genauigkeit des Algorithmus gilt es stets zu hinterfragen und vor dem Einsatz gründlich zu testen. Für einen erfolgreichen Einsatz der Technologie wird aus diesem Grund ein ausführlicher „Proof Of Concept“ vorgeschaltet, der das Verhalten der Künstlichen Intelligenz überwacht und analysiert. Im Zusammenhang damit werden Maßnahmen getroffen, die die Transparenz des entstandenen Modells herstellen. Dafür wird das Augenmerk auf den Forschungszweig der sogenannten „XAI“ (Explainable AI oder Erklärbaren KI) gelegt, dessen Methoden eine Herleitung eines Vorhersageergebnisses versprechen und damit ein Verständnis für die „Black Box“ entstehen lassen können. Sollte eine Befangenheit des Algorithmus zu beobachten sein, gibt es Techniken wie das sogenannte „Debiasing“, das bestimmte Attribute der Daten für die Vorhersage neutralisiert.

Report Abuse

If you feel that this video content violates the Adobe Terms of Use, you may report this content by filling out this quick form.

To report a copyright violation, please follow the DMCA section in the Terms of Use.