Berlin, 20. November 2019. Die Initiative D21 hat neun Leitlinien zum Monitoring von algorithmischen Systemen veröffentlicht. Diese wurden im Rahmen eines Themenabends in Berlin vorgestellt und ihre Praxistauglichkeit mit Vertreterinnen der Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“, der High-Level Expert Group on Artificial Intelligence (AI HLEG) sowie der Datenethikkommission diskutiert.
„Viele Anwendungen und Dienste des Alltags und der beruflichen Praxis beruhen heute auf algorithmischen Systemen. Sie helfen, indem sie z. B. aus großen Datenmengen Erkenntnisse ziehen und Informationen in Millisekunden verarbeiten oder Prozesse automatisieren“, erklärt Hannes Schwaderer, Präsident der Initiative D21, und meint weiter, um sie verantwortungsvoll einzusetzen und faire Ergebnisse zu erzielen, seien im Vorfeld bestimmte Überlegungen anzustellen. Die Leitlinien dienen als Orientierung, wichtige Fragen nach der Verantwortlichkeit und Kontrolle, der Nichtdiskriminierung, der Transparenz und Nachvollziehbarkeit sowie der Nachhaltigkeit zu berücksichtigen.
Interdisziplinäre und multiperspektivische Betrachtung relevanter Fragestellungen
Dr. Irina Eckardt, Vorständin Initiative D21 und KPMG, hat die Arbeit zum Algorithmen-Monitoring geleitet. Sie stellt fest: „Beim Planen, Prüfen und Kontrollieren geht es längst nicht mehr nur um die Algorithmen, sondern auch um Daten und um Personen, die entscheiden, erstellen, prüfen und nutzen. All das zusammengenommen bildet ein komplexes System – ein algorithmisches System“. Sie schlussfolgert: „Diese Komplexität stellt uns vor neue Herausforderungen, bei denen wir durch die aus der Unterarbeitsgruppe (UAG) Algorithmen-Monitoring entstandenen Denkimpulse und Leitlinien besseres Verständnis bieten“.
Expertinnen und Experten aus Wissenschaft, Wirtschaft, Verwaltung und Zivilgesellschaft haben knapp zwei Jahre in der UAG Algorithmen-Monitoring zusammengearbeitet und relevante Fragestellungen diskutiert. Beachtet wurden dabei vor allem ethisch-rechtliche, sozioökonomische sowie technologische Perspektiven.
Die Ergebnisse wurden in drei Veröffentlichungen zu den Themen „Bias in algorithmischen Systemen“, „Transparenz und Nachvollziehbarkeit algorithmischer Systeme“ und „Verantwortung für algorithmische Systeme“ festgehalten und über die Projektlaufzeit der UAG kontinuierlich weiterentwickelt. Sie bilden die Basis für die neun Leitlinien:
- Verantwortlichkeiten verteilen und verorten: Verantwortlichkeiten müssen zwischen den beteiligten Akteurinnen und Akteuren aufgeteilt werden, so dass Verantwortliche vor allem für Nutzende und Betroffene eindeutig identifiziert werden können.
- Bias erkennen und bewerten: Durch die deutlichere Konfrontation mit bisher verborgenen subjektiven Wertungen müssen diese sogenannten Bias überprüft und der Umgang mit ihnen gestaltet werden.
- Transparenz ermöglichen: Transparenz ist eine notwendige Grundlage für Prüfbarkeit, ihre Umsetzung in algorithmischen Systemen muss spezifisch an die Nutzungsgruppen angepasst werden.
- Nachvollziehbarkeit gewährleisten: Algorithmische Systeme müssen von Anfang an so gestaltet werden, dass Prozesse im Nachhinein durch kontextbezogene Informationen über das System für unterschiedliche Nutzungsgruppen nachvollziehbar sind.
- Bestehende Regulierungen anwenden: Das bestehende Recht muss angewendet, für eine digitale Anwendung überprüft und gegebenenfalls angepasst werden.
- Grundlegende Regeln definieren: Mit Mindeststandards sind algorithmische Systeme vergleichbarer und deren Einhaltung kann zu mehr Vertrauen und Akzeptanz führen.
- Wissen interdisziplinär austauschen: Kontinuierlicher, disziplin- und organisationsübergreifender Austausch verbessert die Qualität algorithmischer Systeme.
- Positiven Nutzen für Gesellschaft erzeugen: Nur eine am Gemeinwohl orientierte Entwicklung und ein nachhaltiger Einsatz algorithmischer Systeme können ethischen Anforderungen langfristig gerecht werden.
- Leitlinien kontinuierlich überprüfen: Die regelmäßige Beurteilung von Anpassungen rechtlicher Regelungen und deren Auswirkungen auf die Gestaltung algorithmischer Systeme müssen Bestandteil der Überprüfung sein, die Leitlinien kontinuierlich verbessert werden.
Pressekontakt
Roland Dathe
Referent Presse- und Öffentlichkeitsarbeit
+49 30 5268722-58
presse@initiatived21.de