AG-Blog | Wer übernimmt Verantwortung für Algorithmische Systeme?

Nach zwei virtuellen Sitzungen zum Thema Verantwortung für Algorithmische Systeme stieg die UAG Algorithmen-Monitoring detaillierter in Fragestellungen zum Thema Verantwortung ein.

Berlin. Spannend und kontrovers wurde es beim Präsenztreffen der UAG Algorithmen-Monitoring. Es ging um die mögliche Einführung einer ePerson, und die juristischen Schwierigkeiten, Sicherheitsbestimmungen für Algorithmische Systeme und Regeln für die Abwägung zwischen Einfluss auf und Verantwortung für die Gestaltung algorithmischer Systeme. Zunächst begrüßte Lena-Sophie Müller (Geschäftsführerin Initiative D21) die Anwesenden und erläuterten die Arbeitsweise der Arbeitsgruppe. Hervorgehoben wurden die beiden in der Arbeitsgruppe entwickelten Denkimpulse: Bias in algorithmischen Systemen und Transparenz und Nachvollziehbarkeit.

Was heute technisch schon möglich ist und in Zukunft noch kommen könnte, führt zu neuen Fragestellungen und ethischen Zielkonflikten. So wird der zunehmende Einsatz von algorithmischen Systemen auch ganz neue Herausforderungen an Regulierung stellen. Welche Akteure sind an algorithmischen Systemen beteiligt? Welchen Einfluss können oder müssen sie geltend machen? Wer haftet bei Schadensfällen?

ePerson – innovativ oder problematisch?

Die Teilnehmenden der UAG Algorithmenmonitoring sitzen an einem Tisch in einer Arbeitsgruppe
Die Teilnehmenden der UAG Algorithmenmonitoring

Das fragte die Rechtsanwältin Claudia Otto (COT Legal & RechtInnovativ.online) in ihrem Impuls-Vortrag zum Auftakt des Treffens der UAG. Das juristische Konstrukt der ePerson ist für die Schaffung eines eigenen Rechtsstatus für weitgehend autonom agierende Maschinen angedacht. Im geltenden Haftungsrecht sind ePersonen aktuell nicht anerkannt, angesichts der technischen Entwicklungen steht jedoch die Frage danach im Raum. Mit einer Anerkennung als Rechtssubjekt stünden ePersonen gleichberechtigt neben natürlichen sowie juristischen Personen, hätten aber dementsprechend auch dieselben Pflichten. Bekommen damit Sachen Persönlichkeitsrechte? Geht es dabei um Haftung oder vielmehr um Enthaftung? Handelt es sich dabei lediglich um alten Wein in neuen Schläuchen? All diese Fragen wurden im Anschluss an den Impuls zwischen den Teilnehmenden und Otto diskutiert. Sie vertrat dabei den Standpunkt, dass das bestehende Rechtssystem bei transparenter Auslegung ausreiche und forderte im Umgang mit autonom agierenden Maschinen Aufklärung, Konkretisierung und Dokumentation.

Regulatorische Umsetzung der technischen KI-Sicherheit

Einige der Teilnehmenden sitzen zusammen an einem Tisch und disktutieren.
Die Teilnehmenden der UAG im Austausch

Mit Negativbeispielen rund um den Einsatz von Chatrobotern, Gesichtserkennung und autonomen Fahrzeugen begann der Vortrag von Jonas Schütt (KPMG Law). Schütt sprach in diesem Zuge von „negative side effects“ und fragte ebenfalls: „Wie sicher können wir uns sein, dass Techniker*innen die entwickelten Sicherheitssysteme auch einsetzen?“ Er forderte daher stärkere und spezifischere Regulierungen und machte auf das Problem einer fehlenden trennscharfen Definition von KI für juristische Zwecke aufmerksam. In der daran anschließenden Diskussionsrunde formte sich hinsichtlich des Trade-offs von Sicherheit und Effizienz der Ruf nach einem allgemeinen Kulturwandel im Bereich der Informatik.

Die Ergebnisse des Workshops
Die Ergebnisse des Workshops

Diskussion zur Verantwortung für algorithmische Systeme bleibt kontrovers

Anschließend stellte Sebastian Thieme von KPMG das Thesenpapier zum Thema Verantwortung für algorithmische Systeme vor. Die Fragestellungen rund um das Thema sind in den virtuellen Treffen kontrovers diskutiert worden. Um das Thema vielschichtig und multiperspektivisch zu begreifen, wird es in den interdisziplinären Expertengruppen aus sozioökonomischer, technologischer und ethisch-rechtlicher Perspektive betrachtet.

Ansprechpartnerin in der Geschäftsstelle

Porträt von Dr. Marie Blachetta

Dr. Marie Blachetta, Referentin Digital Responsibility (sie/ihr)