Vorstellung der Leitlinien zum Algorithmen-Monitoring
Algorithmen werden zunehmend Grundlage wichtiger Entscheidungen. Welche ethischen Standards müssen hier gelten? Und wie können entsprechende Leitlinien in die Praxis übersetzt werden?
Knapp zwei Jahre lang hat sich die interdisziplinäre Unterarbeitsgruppe der Initiative D21 mit Fragen rund um Verantwortlichkeit und Kontrolle, Nichtdiskriminierung, Transparenz und Nachvollziehbarkeit sowie Nachhaltigkeit beim Algorithmen-Monitoring beschäftigt. Die UAG brachte dazu Jurist*innen, Philosoph*innen, Wirtschaftsfachleute und IT-Expert*innen zusammen. Am 20. November 2019 hat die Initiative D21 gemeinsam mit KPMG neun Leitlinien präsentiert, die das Ergebnis dreier Denkimpulse der UAG sind.
Denkimpuls Digitale Ethik #10 | #AlgoMon: 9 Leitlinien zum ethischen Umgang mit Algorithmen-Monitoring
Die Leitlinien dienen beim Monitoring algorithmischer Systeme als Orientierung, wichtige Fragen nach der Verantwortlichkeit und Kontrolle, der Nichtdiskriminierung, der Transparenz und Nachvollziehbarkeit sowie der Nachhaltigkeit zu berücksichtigen. (Veröffentlichung: November 2019 – Leitlinien entstanden im Rahmen der UAG Algorithmen-Monitoring)
Denkimpuls Digitale Ethik #09 | Verantwortung für algorithmische Systeme
Die Verortung von Verantwortung sowie das vorausschauende Antizipieren von ethisch fraglichem oder rechtlich noch unklarem Handeln ist eine komplizierte Aufgabe. Zudem ist es oftmals die Komplexität der algorithmischen Systeme selbst, welche eine Rückführung von Verantwortung erschwert. (Veröffentlichung: November 2019 – entstanden im Rahmen der UAG Algorithmen-Monitoring)
Autor*innen: Corinna Balkow (Initiative D21 e. V.), Dr. Irina Eckardt (Initiative D21 e. V., KPMG)
Denkimpuls Digitale Ethik #08 | Transparenz und Nachvollziehbarkeit algorithmischer Systeme
In der Diskussion um transparente Gestaltung algorithmischer Systeme wird der Fokus oft auf die Bereitstellung von Informationen durch beteiligte Unternehmen gelegt. Dabei wird oft außer Acht gelassen, dass viele Menschen mit diesen Informationen wenig anfangen können. Sie brauchen eigentlich eine nachvollziehbare Aufarbeitung. (Veröffentlichung: Juni 2019 – entstanden im Rahmen der UAG Algorithmen-Monitoring)
Autor*innen: Corinna Balkow (Initiative D21 e. V.), Dr. Irina Eckardt (Initiative D21 e. V., KPMG)
Denkimpuls Digitale Ethik #07 | Bias in algorithmischen Systemen – Erläuterungen, Beispiele und Thesen
Bei der wachsenden Anwendung algorithmischer Systeme im Alltag stellen sich deren Einschränkungen als eine der entscheidenden Gerechtigkeitsfragen in der Digitalen Gesellschaft dar. Warum spielen sogenannte Bias in algorithmischen Systemen eine besondere Rolle? Wo kommen sie her, warum sind sie oft „menschengemacht“ und wie sollte damit umgegangen werden, um negative Folgen zu verhindern? (Veröffentlichung: März 2019 – entstanden im Rahmen der UAG Algorithmen-Monitoring)
Autor*innen: Corinna Balkow (Initiative D21 e. V.), Dr. Irina Eckardt (Initiative D21 e. V., KPMG)
Im Rahmen eines Themenabends diskutierten rund 100 Teilnehmer*innen aus Politik, Verwaltung, Wirtschaft und Wissenschaft über Chancen, Herausforderungen und ungenutzte Potenziale eines Monitorings von algorithmischen Systemen. Algorithmische Systeme deshalb, weil es nicht nur um den Algorithmus an sich geht, sondern auch um Daten und um Personen, die entscheiden, erstellen, prüfen und nutzen – ein komplexes System, das in Gänze betrachtet werden muss, um die Ergebnisse der Algorithmen fairer zu gestalten.
Denn mit den Leitlinien wirbt die D21 auch dafür, in die Technik gelangte Vorurteile besser zu erkennen. Es gebe „kein algorithmisches System ohne menschliche Wahrnehmungen und Entscheidungen“, erläuterte Dr. Irina Eckardt von KPMG, Leiterin der UAG Algorithmen-Monitoring, zur Einleitung der Veranstaltung. Der soziale, kulturhistorische und ökonomische Hintergrund präge menschliche Entscheidungen. Dieser Faktor werde unbewusst in jede Entwicklungsphase algorithmischer Systeme mit eingebracht.
Bisher verborgene subjektive Wertungen in analogen Verfahren könnten durch das Umsetzen in algorithmischen Strukturen aber auch sichtbarer werden, dies helfe, erstere auf den Prüfstand zu stellen. Nötig seien auf jeden Fall klare und verbindliche Richtlinien zum Umgang mit Vorurteilen. Diese und die anderen in Leitlinien gegossenen Erkenntnisse wurden bei einem durch Teilnehmer*innen der UAG moderierten Marktplatz rege ausgewertet und diskutiert.
Die Praxistauglichkeit und mögliche praktische Umsetzungsmaßnahmen wurden im Anschluss auch auf dem Panel mit Prof. Christiane Wendehorst, Co-Vorsitzende der Datenethikkommission, Anke Domscheit-Berg, MdB und Mitglied der Enquete-Kommission KI, Iris Plöger, Mitglied er EU High-Level Expert Group on Artificial Intelligence, sowie Lena-Sophie Müller, Geschäftsführerin der Initiative D21, besprochen.
Prof. Wendehorst stellte fest, dass die vielfältigen Leitlinien die Debatte beleben und regte an, mit handhabbaren Vorschriften konkreter zu werden. Auch Domscheit-Berg möchte von den „Meta-Handlungsempfehlungen“ und Sektorenanweisungen für algorithmische Systeme zu einer verbindlichen Umsetzung zu kommen. Die Schwierigkeit sei jedoch, dass eine Einigung über Prinzipien noch keine Einigung in Details bedeute. Das sehe sie auch immer wieder in der Enquete-Kommission. Rechtsverbindliche Schritte ja, aber auf jeden Fall müsse es europäische Standards und Regelungen geben, keinesfalls dürfe man auf nationale Levels zurückfallen, forderte Plöger ergänzend.
Der Ball läge nun also im Feld der Politik, war sich das Panel einig. Die Stärken der Leitlinien zum ethischen Umgang mit Algorithmen-Monitoring der Initiative D21 seien, dass mit ihnen der Diskurs in die breite Öffentlichkeit getragen werde. Es brauche neben Regulierungen eben auch Selbstbefähigung und das Bewusstmachen, nicht nur die Gefahren zu sehen, sondern auch die Potenziale von KI sichtbar zu machen.
Wir danken den Teilnehmer*innen der UAG Algorithmen-Monitoring sowie KPMG für die Unterstützung.