Verantwortlichkeiten verteilen und verorten

Eine Vielzahl von Akteur*innen ist von der Beauftragung über die Entwicklung bis zum Einsatz an algorithmischen Systemen beteiligt. Klare und verbindliche Richtlinien zur Übernahme von Verantwortung für die einzelnen Phasen müssen formuliert werden.

Bias erkennen und bewerten

Bisher verborgene subjektive Wertungen können durch das Umsetzen in algorithmischen Strukturen sichtbarer werden. Da es keine algorithmischen Systeme ohne Bias geben kann, müssen klare und verbindliche Richtlinien zum Umgang mit diesen formuliert werden.

Transparenz ermöglichen

Durch die Komplexität algorithmischer Systeme können Fehlurteile, Fehlfunktionen und Bias oftmals nur schwer oder eingeschränkt erkannt werden. Ansprüche an Transparenz in algorithmischen Systemen müssen spezifisch umgesetzt werden.

Nachvollziehbarkeit gewährleisten

Algorithmische Systeme müssen von Anfang an so gestaltet werden, dass Prozesse im Nachhinein nachvollziehbar sind. Informationen über das System müssen gegenüber unterschiedlichen Nutzenden kontextbezogen dargestellt werden.

Bestehende Regulierungen anwenden

Neue gesetzliche Regelungen für algorithmische Systeme sind nicht zwingend erforderlich. Das bestehende Recht muss angewendet, für eine digitale Anwendung überprüft und gegebenenfalls angepasst werden.

Grundlegende Regeln definieren

Mit Mindeststandards sind algorithmische Systeme vergleichbarer. Dies kann zu mehr Vertrauen und Akzeptanz führen, wenn deren Einhaltung überprüfbar ist.

Wissen interdisziplinär austauschen

Die Qualität algorithmischer Systeme wird durch einen kontinuierlichen Austausch und gemeinsame Initiativen verbessert. Alle Akteur*innen tragen die Verantwortung zur Zusammenarbeit sowie zur Aneignung und Weiterentwicklung von Digitalkompetenzen.

Positiven Nutzen für Gesellschaft erzeugen

Nur eine am Gemeinwohl orientierte Entwicklung und ein nachhaltiger Einsatz algorithmischer Systeme können ethischen Anforderungen langfristig gerecht werden. Dafür tragen Staat, Unternehmen und Zivilgesellschaft gleichermaßen die Verantwortung.

Expert*innen aus Wissenschaft, Wirtschaft, Verwaltung und Zivilgesellschaft haben knapp zwei Jahre in der UAG Algorithmen-Monitoring zusammengearbeitet und relevante Fragestellungen diskutiert. Beachtet wurden dabei vor allem ethisch-rechtliche, sozioökonomische sowie technologische Perspektiven.

Die Ergebnisse wurden in drei Veröffentlichungen zu den Themen „Bias in algorithmischen Systemen“, „Transparenz und Nachvollziehbarkeit algorithmischer Systeme“ und „Verantwortung für algorithmische Systeme“ festgehalten und über die Projektlaufzeit der UAG kontinuierlich weiterentwickelt. Sie bilden die Basis für die neun Leitlinien, diese wurden am 20. November 2019 öffentlich vorgestellt und diskutiert.

To the English Version