AG-Blog | Navigation durch die digital-ethische Landschaft der generativen KI
Jeden Tag konsumieren wir neue Informationen zu (generativer) KI – erfreulicherweise auch immer häufiger zu den digital-ethischen Hintergründen. Aber wie kann man den Überblick behalten und eine strukturierte Einordnung und Evaluierung der generativen KI-Landschaft vornehmen? Die AG Digitale Ethik nahm sich in ihrer letzten Sitzung dieser Frage an.
Düsseldorf/virtuell. Es ist das Jahr 2023 und vermutlich haben Sie in diesem Jahr nur wenige Texte gelesen oder Vorträge gehört, in denen das Thema (generative) KI nicht zumindest am Rande vorgekommen ist. Es ist allgegenwärtig und findet auch immer häufiger in unserem Arbeits- und Alltagsleben statt. KI kann verschiedenste Arbeitsprozesse unterstützen und erleichtern, weshalb viele Unternehmen sie bereits für ihre Zwecke nutzen. Gleichzeitig wirft dieser vermehrte Einsatz generativer KI auch viele Fragen und Bedenken hinsichtlich der digital-ethischen Hintergründe auf, z. B. die Entstehungs- und Trainingsbedingungen der Modelle. Um diese Hintergründe genauer zu beleuchten, traf sich die AG Digitale Ethik zu ihrer Sitzung in diesem Quartal in Düsseldorf bei Deloitte.
Ein Modell zur digital-ethischen Evaluierung neuer Technologien am Beispiel von ChatGPT
Prof. Dr. Janina Loh von der Stiftung Liebenau und der Hochschule Bonn-Rhein-Sieg hatte den Teilnehmenden ein Modell zur digital-ethischen Evaluierung von Technologien mitgebracht, das sowohl für Privatpersonen als auch Unternehmen nutzbar sei. Am Beispiel von ChatGPT als aktuell sehr stark genutzte und zitierte generative KI deklinierte Loh dieses Modell einmal durch und führte so seinen Einsatz vor. Letztlich beschränke sich der Einsatz des Modells jedoch nicht nur auf die ethische Beurteilung, man könne es auch für eine politische, rechtliche oder ökonomische Evaluation nutzen. Für Loh stellt ethisches Handeln dabei eine grundlegende Eigenschaft des Menschen dar:
Vier Dimensionen zur ethischen Einschätzung von Technologien
Das Modell arbeitet zur ethischen Einschätzung von Technologien mit vier Dimensionen. Loh betonte, dass diese Dimensionen eng miteinander verknüpft seien und nicht unabhängig voneinander betrachtet werden könnten. Die Dimensionen lauten:
1) Herstellung und Design
Diese Dimension umfasse die Herstellungsbedingungen einer Technologie, die Bedingungen für involvierte Lebewesen und die äußere und innere Gestaltung (Design) einer Technologie.
Bei ChatGPT stelle sich hinsichtlich Herstellung und Design unter anderem die Frage, in welcher Weise Menschen und Nichtmenschen (wie Tiere und Pflanzen) in die Herstellung involviert gewesen seien: Ist es dabei zu Ausbeutung, Unterdrückung und Diskriminierung (Stichwort: „Clickwork“) gekommen? Auch inwiefern ChatGPT nachhaltig hergestellt werde, könne hier eine Rolle spielen. Gleichzeitig müsse man prüfen, ob ChatGPT frei von (diskriminierenden/problematischen) Geschlechtszuschreibungen und Rollenstereotypen sei.
2) Autonomie und Aufgabenbereich
Unter diesen Bereich falle sowohl die autonome Wirkungsweise einer Technologie sowie die Klärung der Frage, was Aufgabe, Wirkungsbereich, Sinn und Zweck einer Technologie sei.
Im Falle von ChatGPT müsse man prüfen, ob und wie sichergestellt werden könne, dass es ausschließlich „die Wahrheit“ wiedergebe (Stichwort: „Halluzination“). Ebenfalls sei es wichtig, zu wissen, inwiefern ChatGPTs Antwortmöglichkeiten durch OpenAI beschränkt seien. Daraus resultiere die Frage, ob ChatGPT in bestimmten Institutionen oder Branchen nicht oder lediglich in bestimmter Weise angewendet werden dürfe.
3) Daten und Sicherheit
In dieser Dimension werde versucht, Fragen hinsichtlich der im Einsatz einer Technologie erhobenen Daten und Sicherheitsfragen zu klären.
Im Rahmen von ChatGPT stehe zunächst zur Diskussion, welche Daten über Nutzer*innen erhoben würden, wer darauf zugreifen könne und wer von den erhobenen Daten profitiere. Ebenso sei die Aktualität der genutzten Daten für das Training von ChatGPT zu klären. Auch die Sicherheit der Daten Dritter, auf die OpenAI beispielsweise für das Training von ChatGPT zugegriffen habe, spiele hier eine wichtige Rolle. Bei der Hardware, auf der ChatGPT installiert bzw. eingesetzt werde (Server etc.) stelle sich die Frage, wie sicher diese jeweils sei.
4) Kontext und Einsatzbereich
Die vierte Dimension setzt sich mit den im Einsatzbereich einer Technologie tätigen Menschen und Tieren auseinander – etwa deren Lebensumstände oder ihre Arbeit.
Im Fall von ChatGPT könne dies konkret Fragen zu Menschenrechten, Chancengleichheit, Gerechtigkeit und Diversität bedeuten.
Dabei mahnte Loh an, dass die aktuell verbreitete Sicht auf ChatGPT zuweilen dualistisch und dadurch unangemessen verkürzt sei. Es sei voreilig, ChatGPT ausschließlich entweder als reine Erleichterung für die Menschen, die diese Technologie nutzen, zu sehen oder als Gefahr für Arbeitsplätze und Menschlichkeit.
Anwendung des Entscheidungstools
Loh zeigte den Teilnehmenden die konkrete Anwendung des Modells. Für den Einsatz des Modells müsse man sich zunächst klar machen, welche Technologie konkret evaluiert werden solle. Ebenfalls müsse man klären, wo der Einsatz der fraglichen Technologie beurteilt werden solle: Soll die Technologie in einer ganzen Branche, einem bestimmten Unternehmen oder bei der privaten Nutzung zum Einsatz kommen? Loh betonte, dass z. B. die ethischen und moralischen Werte eines Unternehmens immer in seine Evaluationen miteinfließen würden. Daher sei die Frage nach den vorliegenden Maßstäben und Prinzipien der jeweiligen Branche oder des jeweiligen Unternehmens so wichtig, da ein Moralkodex oder bestimmte Haltungsleitsätze die Evaluation beeinflussen könnten:
Seien diese Fragen vorab geklärt, könne die jeweilige Technologie die vier Dimensionen „durchlaufen“. Es müsse auch geklärt werden, wie das Ergebnis dargestellt werden soll und durch wen bzw. wie am Ende auf seiner Grundlage entschieden werden soll. Loh rief am Ende des Impulses zu Bedacht und einem kritischen Bewusstsein gegenüber den zahlreichen ethischen Fragen auf, die sich in allen Bereichen der Digitalisierung ergeben: „Ich werde immer wieder in Interviews gefragt, welche für mich die wichtigste Frage zur Ethik der Technik ist. Für mich gibt es aber nicht die eine wichtigste ethische Frage beim Thema Technik, der sich all die anderen Fragen unterordnen.“
Abschließend plädierte Loh für ein kritisches Bewusstsein im Umgang mit Technik und für die Verantwortung auf (mindestens) vier gesellschaftlichen Ebenen:
- im Ethik- und Computerunterricht in den Schulen
- in den Ausbildungsstätten der Technikwissenschaften
- in Form von verpflichtenden Weiterbildungskursen der Unternehmen
- in Form von Ethikgremien und ähnlichen institutionellen Einrichtungen.
Ausflug in die Kreativwirtschaft
Im Anschluss an den Impuls von Janina Loh begaben sich die Teilnehmenden gemeinsam mit AG-Co-Leiter Jens-Rainer Jänig auf eine kurze Exkursion in die Kreativwirtschaft. In dieser Branche sind die Auswirkungen der generativen KI aktuell besonders stark zu spüren. Zunächst nahm Jänig die Teilnehmenden auf eine kurze Zeitreise von den analogen Anfängen der Kreativbranche bis hin zu dem heutigen Stand der Technologie mit. Generative KI wie Midjourney, die Medien in Form von Bildern produzieren, generieren bereits heute beindruckende Ergebnisse und werden ständig weiterentwickelt. Was bedeuten diese Möglichkeiten aus digital-ethischer Perspektive für die Zukunft und die Veränderungen der Branche?
Er betonte aber gleichzeitig, dass die generativen KI zumindest zum jetzigen Zeitpunkt bei weitem noch nicht perfekt seien und die menschliche Arbeit nicht vollständig ersetzen könnten. Dennoch befinde die KI sich in einem permanent fortlaufenden Lernprozess und die Ergebnisse würden immer überzeugender.
Gleichzeitig warnte auch Jänig vor möglichen Gefahren generativer KI. So können KI-Bildgeneratoren (ungewollt) diskriminierende oder problematische Stereotypen reproduzieren. Es sei also auch beim Einsatz von generativer KI in der Kreativwirtschaft wichtig, die Vor- und Nachteile abzuwägen und diese aus digital-ethischer Perspektive zu Hinterfragen. Diesbezüglich plädiert Jänig für die Verantwortung der einzelnen Unternehmen, die solche generative KI einsetzen, aber auch die Verantwortung derjenigen, die diese Technologien entwickeln. Abschließend versuchten die Teilnehmenden, gemeinsam das Modell zur digital-ethischen Evaluierung von Janina Loh auf die Verwendung von Midjourney in der Kreativbranche anzuwenden.
Verantwortungsvoller Umgang mit KI als gesamtgesellschaftliche Aufgabe
Die Impulse und die interaktive Kollaboration sorgten bei den AG-Mitglieder für eine angeregte Diskussion. Dabei wurden verschiedene Standpunkte und Positionierungen hinsichtlich des Einsatzes (generativer) KI und vergleichbarer Technologien in verschiedenen Unternehmen und Branchen ersichtlich. Einigkeit herrschte aber darüber, dass der verantwortungsvolle Umgang mit neuen Technologien eine gesamtgesellschaftliche Aufgabe sei, bei der die Verantwortung der Einzelnen sowie der Unternehmen nicht vergessen werden dürfe. Die Nutzung der (generativen) KI werde sich nicht verhindern lassen und gerade deswegen sei es wichtig, viele noch offene Fragen und Bedenken hinsichtlich Regulationen und Umgang mit dieser Technologie zu klären. Auch die Gesetzgebung müsse wohlmöglich in einigen Punkten angepasst werden, um den Umgang mit neuen Technologien regeln zu können.
#AGEthikOnTour: Digital Ethics Summit
Für den Sitzungsort Düsseldorf gab es diesmal noch einen weiteren Grund: Nach dem Ende des AG-Programms zogen die AG-Gäste weiter zum 3. Digital Ethics Summit der Rheinischen Post dem Schiff MS Rhein Galaxie. Auch dort war das Thema (generative) KI eines der diesjährigen Schwerpunktthemen. D21-Geschäftsführerin Lena-Sophie Müller hielt einen Vortrag zum notwendigen Diskurs über ethische Zielkonflikte beim Einsatz von KI sowie das Abwägen und (Neu-)Definieren von Werten, Interessen und zeitlich nachgelagerten Folgen. So konnte die AG den gemeinsamen Tag auf dem Rhein bei weiteren inspirierenden Gesprächen ausklingen lassen.