Knapp zwei Jahre lang hat sich die interdisziplinäre Unterarbeitsgruppe der Initiative D21 mit Fragen rund um Verantwortlichkeit und Kontrolle, Nichtdiskriminierung, Transparenz und Nachvollziehbarkeit sowie Nachhaltigkeit beim Algorithmen-Monitoring beschäftigt. Die UAG brachte dazu JuristInnen, PhilosophInnen, Wirtschaftsfachleute und IT-ExpertInnen zusammen. Am 20. November 2019 hat die Initiative D21 gemeinsam mit KPMG neun Leitlinien präsentiert, die das Ergebnis dreier Denkimpulse der UAG sind.

49136135223_adf5cbe337_h

Im Rahmen eines Themenabends diskutierten rund 100 TeilnehmerInnen aus Politik, Verwaltung, Wirtschaft und Wissenschaft über Chancen, Herausforderungen und ungenutzte Potenziale eines Monitorings von algorithmischen Systemen. Algorithmische Systeme deshalb, weil es nicht nur um den Algorithmus an sich geht, sondern auch um Daten und um Personen, die entscheiden, erstellen, prüfen und nutzen – ein komplexes System, das in Gänze betrachtet werden muss, um die Ergebnisse der Algorithmen fairer zu gestalten.

Denn mit den Leitlinien wirbt die D21 auch dafür, in die Technik gelangte Vorurteile besser zu erkennen. Es gebe „kein algorithmisches System ohne menschliche Wahrnehmungen und Entscheidungen“, erläuterte Dr. Irina Eckardt von KPMG, Leiterin der UAG Algorithmen-Monitoring, zur Einleitung der Veranstaltung. Der soziale, kulturhistorische und ökonomische Hintergrund präge menschliche Entscheidungen. Dieser Faktor werde unbewusst in jede Entwicklungsphase algorithmischer Systeme mit eingebracht.

49136135198_4377c7c47e_h

Bisher verborgene subjektive Wertungen in analogen Verfahren könnten durch das Umsetzen in algorithmischen Strukturen aber auch sichtbarer werden, dies helfe, erstere auf den Prüfstand zu stellen. Nötig seien auf jeden Fall klare und verbindliche Richtlinien zum Umgang mit Vorurteilen.

Diese und die anderen in Leitlinien gegossenen Erkenntnisse wurden bei einem durch TeilnehmerInnen der UAG moderierten Marktplatz rege ausgewertet und diskutiert.

49136819752_7fd3aa5626_h
49136624376_f6b316964c_h

Die Praxistauglichkeit und mögliche praktische Umsetzungsmaßnahmen wurden im Anschluss auch auf dem Panel mit Prof. Christiane Wendehorst, Co-Vorsitzende der Datenethikkommission, Anke Domscheit-Berg, MdB und Mitglied der Enquete-Kommission KI, Iris Plöger, Mitglied er EU High-Level Expert Group on Artificial Intelligence, sowie Lena-Sophie Müller, Geschäftsführerin der Initiative D21, besprochen.

49136623936_e842c4970a_h

Prof. Wendehorst stellte fest, dass die vielfältigen Leitlinien die Debatte beleben und regte an, mit handhabbaren Vorschriften konkreter zu werden. Auch Domscheit-Berg möchte von den „Meta-Handlungsempfehlungen“ und Sektorenanweisungen für algorithmische Systeme zu einer verbindlichen Umsetzung zu kommen. Die Schwierigkeit sei jedoch, dass eine Einigung über Prinzipien noch keine Einigung in Details bedeute. Das sehe sie auch immer wieder in der Enquete-Kommission. Rechtsverbindliche Schritte ja, aber auf jeden Fall müsse es europäische Standards und Regelungen geben, keinesfalls dürfe man auf nationale Levels zurückfallen, forderte Plöger ergänzend.

49136820027_8547ba70ae_h
49136623786_861b96c847_h

Der Ball läge nun also im Feld der Politik, war sich das Panel einig. Die Stärken der Leitlinien zum ethischen Umgang mit Algorithmen-Monitoring der Initiative D21 seien, dass mit ihnen der Diskurs in die breite Öffentlichkeit getragen werde. Es brauche neben Regulierungen eben auch Selbstbefähigung und das Bewusstmachen, nicht nur die Gefahren zu sehen, sondern auch die Potenziale von KI sichtbar zu machen.

49136134553_19678218dd_h

Wir danken den Teilnehmerinnen und Teilnehmern der UAG Algorithmen-Monitoring sowie KPMG für die Unterstützung.

2e5a5047-kopie_web