Berlin, Dezember 2018.  

Algorithmen-Monitoring – Themenschwerpunkt Bias

„Kann ein Algorithmus überhaupt biased sein?“

Dr. Aljoscha Burchardt vom DFKI verdeutlichte in seiner Präsentation die unterschiedlichen Wege, wie man Maschinen schlau machen kann. Von einfachen Algorithmen (können nicht von den vorgegebenen Schritten abweichen) über Experten-Systemen (transparente Regeln, aber hoher Aufwand und nicht skalierbar) bis zu Maschinellem Lernen (ein algorithmisches Entscheidungssystem erkennt Muster in Millionen von Beispielen und wendet diese danach auf neue Daten an). Als Problem bleibt, dass es bei Maschinellem Lernen sehr schwierig ist, Bias nachzuvollziehen.

Menschenrechtliche Sorgfaltspflicht

Carmen Auer von KPMG erläuterte die Geschichte der Erklärung der Menschenrechte und warum diese in unternehmerischen Zusammenhängen wichtig sind. Durch ein Compliance Management System könnte die Einhaltung von Menschenrechten im Unternehmen systematisch sichergestellt werden. Solche Kontrollsysteme könnten in Zukunft auch automatisiert ablaufen.

Diskussion zum Thesenpapier „Wie kommt Bias in Algorithmen?“

Zusätzlich zu den Impulsen tauschten sich die TeinehmerInnen intensiv zu den inhaltlichen Schwerpunkten des Thesenpapiers aus. Der Fokus der nächsten Sitzungen wird dann auf den Bereichen Transparenz bzw Nachvollziehbarkeit und Verantwortung liegen.

Menschen diskutieren über Algorithmen Monitoring
Einladung zur Diskussion über Bias in Algorithmischen Systemen