Vorstellung der Leitlinien zum Algorithmen-Monitoring

Algorithmen werden zunehmend Grundlage wichtiger Entscheidungen. Welche ethischen Standards müssen hier gelten? Und wie können entsprechende Leitlinien in die Praxis übersetzt werden?

Knapp zwei Jahre lang hat sich die interdisziplinäre Unterarbeitsgruppe der Initiative D21 mit Fragen rund um Verantwortlichkeit und Kontrolle, Nichtdiskriminierung, Transparenz und Nachvollziehbarkeit sowie Nachhaltigkeit beim Algorithmen-Monitoring beschäftigt. Die UAG brachte dazu Jurist*innen, Philosoph*innen, Wirtschaftsfachleute und IT-Expert*innen zusammen. Am 20. November 2019 hat die Initiative D21 gemeinsam mit KPMG neun Leitlinien präsentiert, die das Ergebnis dreier Denkimpulse der UAG sind.

Dr. Irina Eckardt von KPMG, Leiterin der UAG Algorithmen-Monitoring
Dr. Irina Eckardt von KPMG, Leiterin der UAG Algorithmen-Monitoring

Im Rahmen eines Themenabends diskutierten rund 100 Teilnehmer*innen aus Politik, Verwaltung, Wirtschaft und Wissenschaft über Chancen, Herausforderungen und ungenutzte Potenziale eines Monitorings von algorithmischen Systemen. Algorithmische Systeme deshalb, weil es nicht nur um den Algorithmus an sich geht, sondern auch um Daten und um Personen, die entscheiden, erstellen, prüfen und nutzen – ein komplexes System, das in Gänze betrachtet werden muss, um die Ergebnisse der Algorithmen fairer zu gestalten.

Denn mit den Leitlinien wirbt die D21 auch dafür, in die Technik gelangte Vorurteile besser zu erkennen. Es gebe „kein algorithmisches System ohne menschliche Wahrnehmungen und Entscheidungen“, erläuterte Dr. Irina Eckardt von KPMG, Leiterin der UAG Algorithmen-Monitoring, zur Einleitung der Veranstaltung. Der soziale, kulturhistorische und ökonomische Hintergrund präge menschliche Entscheidungen. Dieser Faktor werde unbewusst in jede Entwicklungsphase algorithmischer Systeme mit eingebracht.

Dr. Irina Eckardt von KPMG, Leiterin der UAG Algorithmen-Monitoring
Dr. Irina Eckardt von KPMG, Leiterin der UAG Algorithmen-Monitoring

Bisher verborgene subjektive Wertungen in analogen Verfahren könnten durch das Umsetzen in algorithmischen Strukturen aber auch sichtbarer werden, dies helfe, erstere auf den Prüfstand zu stellen. Nötig seien auf jeden Fall klare und verbindliche Richtlinien zum Umgang mit Vorurteilen. Diese und die anderen in Leitlinien gegossenen Erkenntnisse wurden bei einem durch Teilnehmer*innen der UAG moderierten Marktplatz rege ausgewertet und diskutiert.

Prof. Christiane Wendehorst, Co-Vorsitzende der Datenethikkommission bei der Diskussion am Marktplatz.
Prof. Christiane Wendehorst, Co-Vorsitzende der Datenethikkommission bei der Diskussion am Marktplatz
Die Teilnehmenden bei der Diskussion am Marktplatz.
Die Teilnehmenden bei der Diskussion am Marktplatz

Die Praxistauglichkeit und mögliche praktische Umsetzungsmaßnahmen wurden im Anschluss auch auf dem Panel mit Prof. Christiane Wendehorst, Co-Vorsitzende der Datenethikkommission, Anke Domscheit-Berg, MdB und Mitglied der Enquete-Kommission KI, Iris Plöger, Mitglied er EU High-Level Expert Group on Artificial Intelligence, sowie Lena-Sophie Müller, Geschäftsführerin der Initiative D21, besprochen.

Die Speakerinnen bei der Paneldiskussion
Die Speakerinnen bei der Paneldiskussion

Prof. Wendehorst stellte fest, dass die vielfältigen Leitlinien die Debatte beleben und regte an, mit handhabbaren Vorschriften konkreter zu werden. Auch Domscheit-Berg möchte von den „Meta-Handlungsempfehlungen“ und Sektorenanweisungen für algorithmische Systeme zu einer verbindlichen Umsetzung zu kommen. Die Schwierigkeit sei jedoch, dass eine Einigung über Prinzipien noch keine Einigung in Details bedeute. Das sehe sie auch immer wieder in der Enquete-Kommission. Rechtsverbindliche Schritte ja, aber auf jeden Fall müsse es europäische Standards und Regelungen geben, keinesfalls dürfe man auf nationale Levels zurückfallen, forderte Plöger ergänzend.

Anke Domscheidt-Berg im Gespräch mit den anderen Panelistinnen
Anke Domscheidt-Berg im Gespräch mit den anderen Panelistinnen
Prof. Christiane Wendehorst
Prof. Christiane Wendehorst

Der Ball läge nun also im Feld der Politik, war sich das Panel einig. Die Stärken der Leitlinien zum ethischen Umgang mit Algorithmen-Monitoring der Initiative D21 seien, dass mit ihnen der Diskurs in die breite Öffentlichkeit getragen werde. Es brauche neben Regulierungen eben auch Selbstbefähigung und das Bewusstmachen, nicht nur die Gefahren zu sehen, sondern auch die Potenziale von KI sichtbar zu machen.

Die Teilnehmenden der Veranstaltung
Die Teilnehmenden hören gespannt zu

Wir danken den Teilnehmer*innen der UAG Algorithmen-Monitoring sowie KPMG für die Unterstützung.

Die Speaker*innen und Organisator*innen der Veranstaltung.

Ansprechpartnerin in der Geschäftsstelle

Porträt von Dr. Marie Blachetta

Dr. Marie Blachetta, Referentin Digital Responsibility (sie/ihr)