AG-Blog | Bias, Algorithmen und menschenrechtliche Sorgfaltspflicht

UAG Algorithmen-Monitoring: Von den Problemen bei Algorithmen bis zur Frage, warum sich Unternehmen mit Menschenrechten beschäftigen sollten.

Berlin. Kann ein Algorithmus überhaupt biased sein? Dr. Aljoscha Burchardt vom DFKI verdeutlichte in seiner Präsentation die unterschiedlichen Wege, wie man Maschinen schlau machen kann. Von einfachen Algorithmen (können nicht von den vorgegebenen Schritten abweichen) über Expert*innen-Systemen (transparente Regeln, aber hoher Aufwand und nicht skalierbar) bis zu Maschinellem Lernen (ein algorithmisches Entscheidungssystem erkennt Muster in Millionen von Beispielen und wendet diese danach auf neue Daten an). Als Problem bleibt, dass es bei Maschinellem Lernen sehr schwierig ist, Bias nachzuvollziehen.

Die Teilnehmenden der UAG Sitzung sitzen gemeinsam an einer Tischgruppe und werden von dem Moderator zur Diskussion aufgefordert.
Einladung zur Diskussion über Bias in Algorithmischen Sprachen

Menschenrechtliche Sorgfaltspflicht

Carmen Auer von KPMG erläuterte die Geschichte der Erklärung der Menschenrechte und warum diese in unternehmerischen Zusammenhängen wichtig sind. Durch ein Compliance Management System könnte die Einhaltung von Menschenrechten im Unternehmen systematisch sichergestellt werden. Solche Kontrollsysteme könnten in Zukunft auch automatisiert ablaufen.

Diskussion zum Thesenpapier „Wie kommt Bias in Algorithmen?“

Zusätzlich zu den Impulsen tauschten sich die Teilnehmer*innen intensiv zu den inhaltlichen Schwerpunkten des entstehenden Thesenpapiers aus. Der Fokus der nächsten Sitzungen wird dann auf den Bereichen Transparenz bzw. Nachvollziehbarkeit und Verantwortung liegen.

Ansprechpartnerin in der Geschäftsstelle

Porträt von Dr. Marie Blachetta

Dr. Marie Blachetta, Referentin Digital Responsibility (sie/ihr)