Berlin, 17. Juli 2018. Mit dem Kick-Off für die neue Unterarbeitsgruppe „Algorithmen-Monitoring“ startete ein neues Kapitel zum intensiven Austausch über die mögliche Kontrolle algorithmischer Systeme. Da diese in den vergangenen Jahren immer komplexer wurden und zunehmend selbst Entscheidungen treffen, steigt auch die Notwendigkeit, diese zu diskutieren. Das große Interesse und die Breite des Teilnehmerfeldes zeigten die Aktualität des Themas für viele unterschiedliche gesellschaftliche Bereiche. Das komplexe Themenfeld machte eine längerfristige und intensive Betrachtung notwendig, weswegen sich aus der AG Ethik heraus diese neue Unterarbeitsgruppe gründete.
Impuls und Diskurs
Als Ausgangspunkt für die nachfolgenden Impulsvorträge eröffnete Michael Niederée als Gastgeber seitens KPMG. Menschen würden Fehler machen, inwieweit aber würden wir das auch Algorithmen zugestehen? Per se seien sie weder gut noch böse, richtig eingesetzt könnten sie aber dabei helfen, die Welt besser zu machen. Der Mensch würde zunehmend aus der Gleichung verschwinden. Einige Äußerungen prominenter Persönlichkeiten zum Für und Wider:
Was spricht für, was gegen ein mögliches Monitoring von Algorithmen? Dazu stellten Michael Dirnberger, Sebastian Thieme, Nicolai Andersen (D21-Präsidium), Dr. Irina Eckardt (D21-Vorstand), Dr. Mathias Bauer und Sebastian Hoegl ihre Thesen aus unterschiedlichen Perspektiven vor und diskutierten sie mit dem Publikum.
Die enorme Komplexität von Algorithmen, insbesondere in Kombination mit „Machine Learning“ würde ein Monitoring sehr schwierig, wenn nicht gar unmöglich machen, so Dirnberger. Man dürfe sich davon nicht abhalten lassen und deswegen nicht untätig bleiben, entgegnete Bauer. Dr. Irina Eckhardt zog als Vergleich andere Wissenschaftsdisziplinen heran, die dabei helfen könnten zu lernen und den Blick zu weiten. Bei Algorithmen ginge es vor allem um unternehmerische Verantwortung, betonte Nicolai Andersen, denn am Ende zähle vor allem, wie man diese konkret einsetzen würde. Aus der rechtlichen Perspektive argumentierte Sebastian Hoegl, man müsse dafür sorgen, dass geltendes Recht auch konsequent zur Anwendung käme – denn vieles sei bereits heute geregelt. Zudem müsse man die richtigen Rahmenbedingungen schaffen, damit das Recht mit der Technik Schritt halten könne.
Breakout-Sessions und Fazit
In der „Breakout-Session“ diskutierten alle Teilnehmerinnen und Teilnehmer in kleineren Gruppen verschiedene Kontexte zu Algorithmen. Eine Session behandelte den sozio-technischen Kontext, eine zweite die Frage nach ethischen Leitplanken und Richtlinien und eine dritte blickte auf die verschiedenen Arten von Algorithmen und ihre Ökosysteme. Es entstand eine wertvolle Sammlung unterschiedlichster Gedanken aus den diversen fachlichen Perspektiven. Gleichzeitig verdeutlichten die Ergebnisse aber auch, dass die Themen weiterer Eingrenzung bedürfen und sehr viele offene Fragen bleiben:
- Betrachten wir Algorithmen, Künstliche Intelligenz oder Machine Learning? Können wir alles gleichzeitig leisten?
- Sollte man Algortihmen deskriptiv oder normativ betrachten?
- Bedarf es „Sandbox“-Experimentierräumen?
- Sollte man Richtlinien global oder indiviudell denken? Müssen wir an einer umfassenden Charta arbeiten?
- Wie kann eine Professionsethik entwickelt werden und gibt diese auch Sicherheiten?
- Welches sind die Werte, an denen wir uns messen wollen? Welches ist der Idealzustand und entfernt man sich mit dem Einatz von Maschinen eher von diesem oder kann man ihnen näher kommen?
Im Ergebnis stehen viele neue Fragen, bei denen es sich lohnt, tiefer einzusteigen. Der Termin verfestigte die Gewissheit, dass die Diskussionen zu einem Monitoring von Algorithmen dringender denn je sind und weiter vorangetrieben werden müssen. Die Komplexität des Themas erfordert die Zusammenarbeit der unterschiedlichen Disziplinen und eine gesamtgesellschaftliche Betrachtung. Denn – soviel verdeutlichte die Sitzung der neuen Unterarbeitsgruppe – einfache Lösungen liegen nicht auf der Hand.
Es bleibt viel zu tun, wir freuen uns auf die nächsten Termine.
Wie geht es weiter?
Wir werden die Ergebnisse sortieren und auswerten um das weitere Vorgehen zu konkretisieren. Anschließend informieren wir als Initiative D21 die bereits Beteiligten und Interessierten der UAG, wann und wie es weitergeht.
Für weitere Diskussionen, Gedanken und Ideen schreiben Sie uns gerne an AlgoMon@InitiativeD21.de oder nutzen Sie das Hashtag #AlgoMon aus Twitter.
Begriffsklärung: Monitoring oder TÜV?
Ein Algorithmen-Monitoring oder -TÜV, oder sogar -Führerschein? Die Beteiligten diskutierten verschiedene Begriffe rund um das Thema. Ein System, das nur in großen Zeitintervallen eine Prüfung durchführt, stieß jedoch überwiegend auf Ablehnung, da sich Code bzw. dessen Bestandteile schnell ändern könnten – gerade bei sich selbst veränderndem Algorithmus durch Machine Learning. Zunächst arbeitet die UAG daher mit dem Begriff Algorithmen-Monitoring weiter.