AG-Blog | Künstliche Intelligenz kontrollieren?

Welche Informationen zu Entscheidungen algorithmischer Systeme müssen wann wem transparent gemacht werden? Welchen Aufwand müssen Unternehmen betreiben, um die digitale Weitergabe zu gestalten?

Speaker spricht zu Menschen, die um Tische sitzen. Er zeigt eine Präsentation.

Berlin. Beim ersten persönlichen Treffen in 2019 beschäftigte sich die UAG Algorithmen-Monitoring mit Fragen zur Kontrollierbarkeit Künstlicher Intelligenz-Systeme und Regeln für den Umgang mit algorithmischen Systemen. Zunächst begrüßten Irina Eckardt (Vorstand Initiative D21) und Lena-Sophie Müller (Geschäftsführerin Initiative D21) die Anwesenden und erläuterten die Arbeitsweise der Arbeitsgruppe. Hervorgehoben wurde der erste Denkimpuls zum Thema Bias in algorithmischen Systemen.

Was heute technisch schon möglich ist und in Zukunft noch kommen könnte, führt zu neuen Fragestellungen und ethischen Zielkonflikten. So wird der zunehmende Einsatz von algorithmischen Systemen auch ganz neue Herausforderungen an Regulierung stellen: Welche Informationen zu Entscheidungen algorithmischer Systeme müssen wann wem transparent gemacht werden? Welchen Aufwand müssen Unternehmen betreiben, um die digitale Weitergabe zu gestalten?

Künstliche Intelligenz kontrollieren?

Speaker spricht zu Menschen, die um Tische sitzen. Er zeigt eine Präsentation.

Zunächst stelle Mathias Bauer von KPMG das Projekt „AI in Control“ vor. Der Vortrag bezog sich auf die entwickelten Methoden, Frameworks und Tools, welche dazu beitragen sollen, mehr Kontrolle über eingesetzte algorithmische Systeme zu gelangen. Damit wird das Ziel verfolgt, mehr Integrität, Erklärbarkeit, weniger Diskriminierung und mehr agile und robuste algorithmische Systeme zu fördern. Der aktuell in einer Pilotphase befindliche Prozess stellt keine Zertifizierung dar, sondern eine interdisziplinäre Beratung.

9 Regeln der Algo.Rules

Falk Steiner (Bertelsmann Stiftung) präsentierte neun Regeln zur Regulierung für algorithmische Systeme. In einem online organisierten Prozess wurden sie als Hilfestellung entwickelt um algorithmische Systeme gesellschaftlich wertvoller zu machen. Die Regeln an sich sind wertneutral und beurteilen keine Systeme. Ihr Ziel ist nicht zwangsläufig das technisch Machbare, sondern das sozial Erwünschte. Die Regeln sollen bei algorithmischen Systemen angewandt werden, die die gesellschaftliche Teilhabe von Personen beschränken könnten.

Die 9 Regeln

Workshop zum Review des Thesenpapiers zum Thema Transparenz und Nachvollziehbarkeit

Anschließend stellte Sebastian Thieme von KPMG das Thesenpapier zum Thema Transparenz und Nachvollziehbarkeit algorithmischer Systeme vor. Die Fragestellungen rund um das Thema sind in den virtuellen Treffen kontrovers diskutiert worden. Um das Thema vielschichtig und multiperspektivisch zu begreifen, wird es in den interdisziplinären Expert*innengruppen aus sozioökonomischer, technologischer und ethisch-rechtlicher Perspektive betrachtet.

Kleingruppenarbeit auf bunten Stühlen

Ansprechpartnerin in der Geschäftstelle

Porträt von Dr. Marie Blachetta

Dr. Marie Blachetta, Referentin Digital Responsibility (sie/ihr)