Das Potenzial von KI liegt jenseits von Daten und Logik

Interview mit J. Bob Alotta zum Thema „Künstliche Intelligenz“ im D21-Digital-Index 2024/2025

Eine schwarz-weiße Bearbeitung eines Porträts von J. Bob Alotta.

Bevor wir uns mit den Ergebnissen der Studie befassen, eine grundlegende Frage für diejenigen, die mit Technologie weniger vertraut sind: Was ist Künstliche Intelligenz (KI), und was unterscheidet sie von anderen Technologien und Innovationen, die wir bisher gesehen haben?

KI versucht, menschliches Denken und Verhalten in Maschinen nachzubilden. Aber um wessen Denken und Verhalten geht es da? Westliche Systeme idealisieren Logik, Daten und vermeintliche Objektivität als höchste Form von Intelligenz und blenden dabei andere Wissensformen aus.

Sie übersehen Wissen aus erlebter Realität, Resilienz durch Ausgrenzungserfahrungen und intergenerationelle Intelligenz, die außerhalb herrschender Strukturen weitergegeben wird. 

KI, wie sie heute existiert, spiegelt die Werte und Biases ihrer Entwickler*innen wieder. Sie verstärkt so von Natur aus diese engen Perspektiven, aus denen sie lernt. Was wäre, wenn wir KI neu denken – als Werkzeug, das Gerechtigkeit fördert und verschiedene Wissensformen anerkennt? Die Intelligenz einer Großmutter, die den Rhythmus der Pflege über Generationen hinweg perfektioniert hat. Das kollektive Wissen einer Diaspora, die Migration als eine Form des Widerstands und des Überlebens begreift. KI hat die Möglichkeit, Wissenssysteme zu schaffen, die diese Formen des Wissens aufwerten und von ihnen lernen. 

 

Wie wichtig ist es für die Allgemeinheit, die Möglichkeiten und Grenzen von KI zu verstehen, und welche wirksamen Strategien haben Sie kennen gelernt, um KI-Kompetenzen in der Bevölkerung zu erhöhen?

Um die Möglichkeiten und Grenzen von KI zu verstehen, ist mehr als nur technische Expertise nötig. Es geht um kritische Kompetenz. Die Menschen müssen wissen, was KI leisten kann, aber auch, wie sie funktioniert, wessen Interessen sie dient und wie sie sich auf ihr tägliches Leben auswirkt. KI wird oft als neutrale, fast magische Kraft dargestellt – was dann die meisten Menschen davon abhält, sie als etwas zu betrachten, mit dem sie sich sinnvoll beschäftigen können. Das erzeugt bereits ein Gefühl der Ohnmacht. Mit einem sehr grundlegenden Verständnis können die meisten Menschen jedoch einigermaßen kritisch sein. Zum Beispiel ist es wichtig, zu verstehen, dass Gesichtserkennungssysteme bestimmte Gruppen in höherem Maße falsch identifizieren können, und zwar nicht, weil die Technologie defekt ist, sondern weil die Daten und Annahmen, die ihr zugrunde liegen, fehlerhaft sind. Diese Erkenntnisse ermöglichen es Einzelpersonen genauso wie Gesellschaften, die Rolle von KI in Systemen wie der Polizeiarbeit, der Personalbeschaffung oder der Wohnungspolitik zu hinterfragen.

Wenn wir uns KI-Kompetenz aufbauen wollen, müssen wir bei den eigenen Erfahrungen ansetzen. Wirksame Strategien zum Kompetenzaufbau, die ich in den letzten Jahren kennenlernen durfte, erkennen an, dass die Menschen nicht wissen müssen, wie man programmiert, um zu verstehen, wie KI sie beeinflusst. Community-Workshops können beispielsweise Räume schaffen, in denen Menschen darüber sprechen, wie sie KI in ihrem Leben erleben: Sei es bei personalisierter Werbung, automatischer Kreditvergabe oder algorithmischen Inhaltsempfehlungen. In einem solchen Gespräch können sie lernen, diese Erfahrungen mit den größeren Systemen dahinter in Verbindung zu bringen. Storytelling ist ein weiteres mächtiges Instrument. Wenn wir Geschichten über die Auswirkungen von KI in der Praxis erzählen, entmystifizieren wir die Technologie und machen ihre Folgen greifbar. 

Im Mittelpunkt meiner Arbeit steht partizipatives Design, bei dem Gruppen an der Gestaltung der sie betreffenden Technologien beteiligt werden. Wenn die Menschen mitbestimmen können, wie KI eingesetzt wird – im öffentlichen Dienst, im Gesundheitswesen oder im Bildungswesen – gewinnen sie ein tieferes Verständnis für Möglichkeiten und Grenzen der Technologie. Dieser partizipatorische Ansatz fördert nicht nur den Kompetenzaufbau, sondern auch die Umverteilung von Macht, und schafft eine proaktive statt eine passive Öffentlichkeit in Bezug auf KI.

Es bleibt zu hoffen, dass zunehmende KI-Kompetenzen die vorherrschende Sichtweise auf KI verändern. Anstatt KI als unausweichliche Kraft zu sehen, die man fürchten oder akzeptieren muss, müssen wir sie als etwas betrachten, das wir gemeinsam gestalten können. Das beginnt damit, dass wir uns schwierige Fragen stellen: Wer baut diese Systeme? Wer profitiert von ihnen? Und wie können wir sie gegenüber den Menschen, deren Leben durch sie beeinträchtigt werden kann, rechenschaftspflichtig machen? Bei echter KI-Kompetenz geht es darum, diese Systeme nicht als externe, unantastbare Gebilde zu verstehen, sondern als zutiefst menschliche Konstrukte, die unsere Entscheidungen, Werte und Schwächen widerspiegeln. Es geht darum, angesichts des technologischen Wandels unsere Handlungsfähigkeit zurückzugewinnen.

 

Glauben Sie, dass KI im Zuge ihrer Weiterentwicklung sozioökonomische Ungleichheiten eher überbrücken oder vergrößern wird? Welche Faktoren werden das beeinflussen, und welche Strategien könnten den gleichberechtigten Zugang zu KI für verschiedene Bevölkerungsgruppen fördern?

Bei Gleichberechtigung geht es nicht nur darum, den Zugang zu KI zu ermöglichen, sondern auch die Grundlagen zu überdenken, auf denen KI aufgebaut ist. Die derzeitige Landschaft der KI-Entwicklung begünstigt diejenigen, die Zugang zu Wohlstand, formaler Bildung und traditionellen Vorstellungen von Expertise haben. Außerdem sind viele Informatikprogramme traditionell von anderen Disziplinen abgekapselt, anstatt von ihnen beeinflusst zu werden. Ich möchte hier das Responsible-Computing-Programm als positives Beispiel erwähnen. Es war von vornherein interdisziplinär angelegt, sodass zukünftigen Generationen von Technolog*innen mit kritischem Denken und einer Vielfalt von Erfahrungen, aus denen sie Inspiration und Wissen schöpfen können, in die Arbeitswelt gelangen. Wir müssen die grundlegenden Annahmen, die der Technologie und ihrer Entwicklung zugrunde liegen, ändern, sonst wird Gerechtigkeit immer aus einer offensiven Position heraus erfolgen und nur versuchen, Schäden zu mindern, anstatt von einem fröhlichen, kreativen Ort der Möglichkeiten und der tatsächlichen Innovation auszugehen.

Echte Gerechtigkeit in Bezug auf KI beginnt damit, dass die von der Technologie am meisten betroffenen Gruppen in den Mittelpunkt gestellt werden. Dazu gehört, dass neben akademischen oder technischen Qualifikationen auch Erfahrungswissen anerkannt wird. Das bedeutet, ehemals inhaftierte Personen in Gespräche über prädiktive Polizeialgorithmen einzubeziehen, oder bei der Entwicklung digitaler Gesundheitstools die Stimmen von Menschen in ländlichen Gebieten zu berücksichtigen. Gleichberechtigung erfordert auch den Abbau der systemischen Barrieren, die KI-Tools unzugänglich machen – wirtschaftliche, sprachliche oder kulturelle. Es geht darum, Systeme zu entwickeln, die die gesamte Komplexität der menschlichen Intelligenz und Erfahrung widerspiegeln.

  

Welche Rolle sollte die Zivilgesellschaft bei der Gestaltung von KI-Governance und -Politik spielen, um positive Veränderungen zu fördern? Und wie können Gemeinschaften – insbesondere marginalisierte – aktiver in die sie betreffenden AI-Entscheidungsprozesse eingebunden werden?

Die Zivilgesellschaft kann auf jeden Fall eine entscheidende Rolle bei der Etablierung von Verantwortlichkeit für KI-Systeme spielen. Ich könnte hier über die Transparenz von Systemen, die Förderung von Erfahrungswissen und die Berücksichtigung von Stimmen aus den Randgebieten sprechen. 

Aber: Wir brauchen eine Überarbeitung unserer Vorstellung von partizipativer Governance im Allgemeinen. Positive Veränderungen hängen von gemeinsamen analogen Ergebnissen und Entwürfen ab – wir brauchen von Regierungen, Unternehmen und der Zivilgesellschaft gemeinsame Erwartungen, Werte und eine langfristige Perspektive, die das Gemeinwohl fördert, wenn wir erwarten, dass die KI-Governance und die Politik mehr tun als nur um die Konsolidierung von Kontrolle oder Profiten zu ringen. Wir müssen auf eine Zukunft hinarbeiten, die über die Amtszeit einzelner Verwaltungen oder die Interessen der Aktionär*innen hinausgeht. Wie regieren wir im Hinblick auf eine generationenübergreifende Nachhaltigkeit und wie werden Menschenrechte, ökologische Nachhaltigkeit und gegenseitige Rechenschaftspflicht zum Kern unserer Entscheidungsfindung und dauerhaften Politik?

Daher müssen zivilgesellschaftliche Organisationen Forderungen nach Transparenz und Lobbyarbeit in den Vordergrund stellen und auf Regelungen drängen, die Algorithmus-Audits, ethische Richtlinien und öffentliche Rechenschaftspflicht vorschreiben. Aber sie müssen auch für etwas Tiefergehendes kämpfen: eine neue Vorstellung von Technologie, die kollektive Fürsorge, Gerechtigkeit und Solidarität mit den Menschen und dem Planeten in den Mittelpunkt stellt.

  

Wie kann KI zur Stärkung der Demokratie eingesetzt werden, und welche Sicherheitsvorkehrungen sind notwendig, um ihren Missbrauch zu verhindern?

Demokratie beruht auf Vertrauen, Rechenschaftspflicht und Partizipation – Eigenschaften, die in der aktuellen geopolitischen Situation zunehmend bedroht sind. Desinformation verbreitet sich schneller als die Wahrheit. Algorithmische Verzerrungen vertiefen die Ungleichheiten beim Zugang zu Wahlinformationen. Deepfakes lassen die Grenze zwischen Realität und Fiktion verschwimmen. Das sind alles keine kleinen Probleme, sondern existenzielle Bedrohungen für demokratische Systeme.

Damit das „KI-Zeitalter“ Demokratien fördern, aufwerten und – ich wage es kaum zu sagen – erschaffen kann, braucht es einen grundlegenden Wandel in der Art und Weise, wie wir KI entwickeln, regulieren und einsetzen. Es würde bedeuten, dass wir KI nicht auf Profit oder Macht ausrichten, sondern auf die Prinzipien von Gerechtigkeit, Gleichheit und kollektiver Ermächtigung. Zumindest die Folgenden Punkte müssten wir umsetzen:

Die Grundlagen der KI-Entwicklung neu definieren

Die derzeitige KI-Entwicklung wird von Unternehmensinteressen, Wettbewerb und Datenextraktion bestimmt. Damit KI Demokratien wirklich unterstützen kann, muss sie auf demokratischen Werten beruhen: Transparenz, Inklusion, Verantwortlichkeit und Gerechtigkeit. Das beginnt mit einem Umdenken darüber, wer KI entwickelt und zu welchem Zweck.

  • Gemeinschaften in den Mittelpunkt stellen: Gemeinschaften, insbesondere marginalisierte Gruppen, in die Gestaltung und Verwaltung von KI-Systemen einbeziehen. Ihre Erfahrungen und ihr Wissen müssen in die Entwicklung von Tools einfließen, die ihr Leben beeinflussen.
  • Diversifizierung des Fachwissens: Über das herkömmliche technische Fachwissen hinaus sollte das Wissen sozialer Bewegungen, kultureller Praktiker*innen und von Menschen mit tiefem Erfahrungswissen über systemische Ungerechtigkeiten einbezogen werden. So wird sichergestellt, dass KI eine Vielzahl menschlicher Erfahrungen widerspiegeln kann.
  • Dezentralisierte Systeme aufbauen: Bevorzugung von Open Source, dezentralisierten und von der Gesellschaft kontrollierte Technologien gegenüber monolithischen Unternehmensplattformen. Dezentralisierung ist von Natur aus mit demokratischen Werten verbunden, da sie Macht verteilt. Menschen sollten nicht mehr nur Empfänger*innen von KI-Leistungen sein, sondern in einer symbiotischen Beziehung mit dem leben, was die KI erzeugt.

Transparente und rechenschaftspflichtige Systeme schaffen

Demokratie lebt von Vertrauen, was Transparenz und Rechenschaftspflicht voraussetzt. Im Zeitalter der KI bedeutet das:

  • Algorithmen-Überprüfungen: regelmäßige unabhängige Prüfungen von KI-Systemen, um deren Fairness, Genauigkeit und potenziellen Schaden zu bewerten. Diese Ergebnisse müssen öffentlich zugänglich und verständlich sein.
  • Erklärbare KI: KI-Systeme müssen interpretierbar sein, damit Öffentlichkeit und politische Entscheidungsträger*innen verstehen können, wie die Entscheidungen getroffen werden, um sie gegebenenfalls in Frage stellen können.
  • Öffentliche Aufsicht: Einrichtung von Mechanismen für eine partizipative Aufsicht, bei der die Gesellschaft die KI-Entwickler*innen für die Nutzung ihrer Werkzeuge und deren Auswirkungen zur Verantwortung ziehen kann.

Inklusion und Gerechtigkeit global fördern

KI darf die Ungleichheiten zwischen dem globalen Norden und dem globalen Süden oder zwischen privilegierten und marginalisierten Gruppen nicht verstärken. Stattdessen sollte sie ein Instrument zur Überbrückung dieser Klüfte werden:

  • Ressourcen umverteilen: Investitionen in KI-Infrastruktur, Rechenleistung und Bildung in unterversorgten Regionen, um sicherzustellen, dass der Zugang zu Technologie gerecht und umweltverträglich ist.
  • Herausforderung des Datenkolonialismus: Verhindern von Daten-Ausbeutung bei Gruppen und Ländern, die nicht oder kaum von der KI-Entwicklung profitieren. Datensouveränität sollte ein Eckpfeiler der KI-Ethik sein. Hier sollten wir anfangen, über KLEINE Sprachmodelle sowie nuancierte und zweckmäßige Datensätze zu sprechen.
  • Lokale Lösungen unterstützen: Entwicklung von KI-Tools, die auf spezifische kulturelle, soziale und politische Kontexte zugeschnitten sind. Globale Lösungen gehen oft an den lokalen Bedürfnissen vorbei, während lokale Innovationen sie verbessern.

Nutzung von KI zur Vertiefung von bürgerschaftlichem Engagement

KI kann die Demokratie stärken, indem sie eine stärkere Partizipation fördert und Hindernisse für das Engagement der Bürger*innen abbaut:

  • Partizipative Werkzeuge: Entwicklung von KI-Systemen, die ein breiteres bürgerschaftliches Engagement ermöglichen, wie z. B. Werkzeuge für Bürger*innenhaushalte, mehrsprachige Wahlhilfen und KI-gestützte Plattformen, die unterrepräsentierte Stimmen in der Politik verstärken.
  • Desinformation bekämpfen: Einsatz von KI zur Erkennung und Bekämpfung von Fehlinformationen unter Wahrung der Meinungsfreiheit. Um Missbrauch zu vermeiden, ist es wichtig, dass die Art und Weise, wie dies geschieht, transparent ist.
  • Zugänglichkeit stärken: demokratische Prozesse mit KI inklusiver gestalten, zum Beispiel durch die Automatisierung von Übersetzungsdiensten, die Entwicklung von Tools für Menschen mit Behinderungen und die Sicherstellung eines gleichberechtigten Zugangs zu Informationen in der bevorzugten Sprache der Menschen.

Einbettung demokratischer Grundsätze in den Governance-Rahmen

KI-Steuerung muss die Grundsätze der Demokratie selbst widerspiegeln, wobei der Schwerpunkt auf geteilter Macht, Inklusivität und Gerechtigkeit liegen muss:

  • Globale Zusammenarbeit: Internationale Vereinbarungen und Abkommen, die den Menschenrechten, der Gerechtigkeit und der Nachhaltigkeit in der AI-Entwicklung Vorrang einräumen. Diese Vereinbarungen sollten von den Ländern der globalen Mehrheit getragen und nicht von den wohlhabenden Nationen dominiert werden.
  • Partizipative Politikgestaltung: Schaffung von Mechanismen, die es den Bürger*innen ermöglichen, an der Gestaltung der KI-Politik mitzuwirken. Der Input von der Basis muss als wesentlich und nicht als Alibi behandelt werden.
  • Ethische Leitlinien mit Biss: Weg von erstrebenswerten reinen Ethikrahmen hin zu durchsetzbaren Vorschriften, die das Gemeinwohl in den Vordergrund stellen.

Das kulturelle Narrativ rund um KI verschieben

KI wurde als ein Werkzeug der Unvermeidbarkeit und Effizienz vermarktet, oft auf Kosten der Menschlichkeit. Ein demokratisches KI-Zeitalter erfordert eine Neuausrichtung der Rolle von KI in der Gesellschaft:

  • Förderung verschiedener Intelligenz- und Wissenssysteme: Intelligenz in all ihren Formen wertschätzen – nicht nur rechnerische, sondern auch erfahrungsbezogene, emotionale und gemeinschaftliche. Damit verschiebt sich der Fokus von „Was kann KI tun?“ zu „Was sollte KI im Dienste der Menschheit tun?“.
  • Hinterfragen von Technosolutionismus: Die Vorstellung, dass KI ein Allheilmittel für gesellschaftliche Probleme ist, funktioniert nicht. Wir müssen anerkennen, dass die Technologie nur so effektiv ist wie die sie umgebenden Systeme der Fürsorge und Gerechtigkeit.
  • Förderung der kollektiven Vorstellungskraft: Wir müssen in Bildung und Geschichten investieren, die KI als Werkzeug für Befreiung, Solidarität und Vernetzung und nicht für Kontrolle oder Profit sehen.

Gewährleistung der Unterstützung von Menschenrechten und Gerechtigkeit durch AI

Demokratien können nicht gedeihen, wenn sie mit systembedingten Ungerechtigkeiten konfrontiert sind. KI muss Unterdrückung aktiv bekämpfen, statt sie zu verstärken:

  • Vorurteile beseitigen: Proaktive Identifizierung und Beseitigung von Vorurteilen in KI-Systemen, die Rassismus, Sexismus, Behindertenfeindlichkeit oder andere Formen der Diskriminierung begünstigen.
  • Umverteilung der Macht: Entwicklung und Einsatz von KI dürfen nicht in den Händen einiger weniger Unternehmen oder Regierungen konzentriert sein. Demokratische Systeme erfordern eine Umverteilung von Macht auf allen Ebenen.
  • Schutz der Privatsphäre: Strenge Datenschutzgesetze verhindern den Missbrauch von persönlichen Informationen zur Überwachung oder Ausbeutung. Die Privatsphäre ist ein Eckpfeiler der demokratischen Freiheit.

Langfristige Nachhaltigkeit als Priorität setzen

Ein wirklich demokratisches KI-Zeitalter muss auch die Auswirkungen auf künftige Generationen berücksichtigen:

  • Umweltauswirkungen: Sicherstellen, dass die Entwicklung und der Einsatz von KI nicht zu einer Verschlechterung der Umweltbedingungen führen. Demokratisierung von KI bedeutet auch, Technologien zu entwickeln, die mit den globalen Nachhaltigkeitszielen in Einklang stehen.
  • Zukunftssichere Demokratie: KI-Systeme aufbauen, die flexibel genug sind, um sich an künftige Herausforderungen anzupassen, und sicherstellen, dass KI ein Werkzeug zur Befreiung und nicht zur Beherrschung bleibt.

Damit KI ein Zeitalter florierender Demokratien definieren kann, brauchen wir einen radikalen Wandel in unserer Sichtweise von Intelligenz, Macht und Technologie. Demokratie ist nicht nur ein Regierungssystem, sondern ein Wertesystem, das auf gemeinsamer Würde, gegenseitiger Rechenschaftspflicht und kollektiver Fürsorge beruht. Ich glaube nicht, dass dies ein utopischer Traum ist, sondern eine Frage der Wahl. Kein System existiert ohne die aktive oder passive Beteiligung der Menschen an seiner Durchsetzung. Das KI-Zeitalter wird entweder unsere tiefsten Ungerechtigkeiten oder unsere höchsten Bestrebungen widerspiegeln. Es erscheint reduktionistisch, aber es gibt wirklich nur eine Frage: Für welche Zukunft werden wir kämpfen? 

 

Wie können sich demokratische Gesellschaften in einer Welt, in der KI-gesteuerte Fehlinformationen immer geschickter werden, gegen KI-gestützte Manipulation der öffentlichen Meinung wappnen?

Bei der Abwehr von Fehlinformationen geht es nicht nur darum, den Menschen beizubringen, wie man eine gefälschte Schlagzeile erkennt, sondern auch darum, Systeme zu schaffen, die der Wahrheit und der Verantwortlichkeit Vorrang vor Klicks und Profit einräumen. Gemeinschaften verfügen bereits über Instrumente zur Stärkung der Widerstandsfähigkeit: Sie tauschen Informationen über vertrauenswürdige Netzwerke aus, verlassen sich auf kollektive Weisheit und haben gelernt, sich in einem Umfeld der Unsicherheit zurechtzufinden. Diese Praktiken sollten unterstützt und nicht abgetan werden.

Resilienz aufzubauen bedeutet, solche Gemeinschaftsstrategien zu verstärken und gleichzeitig die systemischen Wurzeln von Fehlinformationen anzugehen. Dazu gehört, Plattformen für ihre Rolle bei der Verbreitung falscher Informationen zur Rechenschaft zu ziehen und in öffentliche Bildung zu investieren, die Medienkompetenz und kritisches Denken in den Vordergrund stellt. Es bedeutet auch, öffentliche Räume für den Dialog zu schaffen, die bewusst inklusiv, mehrsprachig und kultursensibel sind. Bei der Widerstandsfähigkeit geht es nicht darum, zu einer imaginären „Vergangenheit der Wahrheit“ zurückzukehren; es geht darum, Systeme zu schaffen, die Gerechtigkeit, Nuancen und kollektive Verantwortlichkeit schätzen. 

 

Welche proaktiven Maßnahmen sollte die Gesellschaft Ihrer Meinung nach angesichts der zunehmenden Automatisierung ergreifen, um Arbeitnehmer*innen zu schützen und die Schaffung neuer Arbeitsplätze zu fördern?

Automatisierung und KI werden zweifellos die Arbeitsmärkte umgestalten, aber die Auswirkungen müssen nicht zwangsläufig schädlich sein. Das Problem ist nicht die Technologie selbst. Die Arbeitnehmer wissen bereits, was sie brauchen – Würde, Stabilität und Chancen. Die Frage ist nur, ob wir bereit sind, Systeme zu schaffen, die ihnen diese Dinge bieten.

Proaktive Maßnahmen zum Schutz von Arbeitnehmer*innen müssen universelle Schutzmaßnahmen wie garantierte Einkommen, Zugang zu lebenslanger Bildung und starke Arbeitnehmer*innenrechte umfassen. Aber es bedeutet auch, den Wert der Arbeit zu überdenken. Warum stellen wir die Produktivität in den Mittelpunkt, während wir Sorgfalt, Kreativität und Ruhe unterbewerten? Die Automatisierung könnte uns von ausbeuterischer Arbeit befreien, aber nur, wenn wir fordern, dass die Vorteile der KI gerecht verteilt werden. Dazu gehört auch, dass die Arbeitnehmer*innen Zugang zu den Daten und Datensystemen haben, mit denen sie interagieren. Ich denke da an Gruppen wie die Worker's Info Exchange oder die Driver's Coop, die Uber- oder Lieferfahrer*innen dabei unterstützen, Daten zu bündeln oder sich für den Datenzugang einzusetzen. 

 

Welche Hoffnungen und Bedenken haben Sie im Hinblick auf die sich entwickelnde Beziehung zwischen KI und gesellschaftlichem Well-Being? Wie kann KI im Kontext Ihres Engagements für Gleichberechtigung und Gleichstellung in den nächsten Jahren die Probleme der Ungleichheit in der Gesellschaft mildern?

KI hat das Potenzial, systemische Ungleichheiten zu beseitigen, aber nur, wenn wir sie bewusst so entwickeln. Derzeit verschlimmern viele KI-Systeme den Schaden, weil sie ohne Rücksicht auf die Lebenswirklichkeit der Menschen, die sie betreffen, entwickelt werden. Das gesellschaftliche Wohlergehen darf kein nachträglicher Gedanke sein; es muss die Grundlage für die Entwicklung von Technologien sein.

Stellen Sie sich KI-Tools vor, die der Heilung Vorrang vor dem Schaden geben – Systeme, die Ressourcen gerecht umverteilen, die marginalisierte Stimmen verstärken, die reparieren, statt auszunehmen. Aber diese Vision erfordert Wachsamkeit. Es bedeutet, zu fordern, dass KI dem öffentlichen Wohl und nicht dem privaten Profit dient. Es bedeutet, Systeme zu schaffen, die die Komplexität menschlicher Erfahrungen widerspiegeln: Werkzeuge, die nuanciert, flexibel und rechenschaftspflichtig gegenüber den Gemeinschaften sind, denen sie dienen. 

 

Was ist Ihre Vision von einer besseren (digitalen) Zukunft?

Eine wünschenswerte digitale Zukunft ist eine, in der die Technologie die gesamte Bandbreite menschlicher Erfahrungen widerspiegelt. Es ist eine Zukunft, in der Unterschiede gefeiert und nicht ausgelöscht werden und in der die von uns entwickelten Werkzeuge dazu dienen, Verbindungen zu vertiefen und nicht zu spalten. Diese Zukunft ist dezentralisiert, in Gemeinschaftsbesitz und in der Fürsorge verwurzelt.

Diese Vision erfordert den Abbau der in die heutigen Systeme eingebetteten Hierarchien und den Aufbau von Alternativen, die Gerechtigkeit, Gleichheit und kollektive Befreiung in den Vordergrund stellen. Diese Zukunft können wir nicht allein durch Technologie erreichen, sondern sie erfordert einen kulturellen und politischen Wandel. Dieser Gedanke ist noch nicht ganz ausgereift, aber ich habe über lokales Wissen, Gemeinschaftspflege und Intimität nachgedacht. Intimität erfordert ein hohes Maß an Verletzlichkeit und Vertrauen, um zu existieren. Ohne Vertrauen und Verwundbarkeit wird Intimität nur zu Nähe. Aber wenn wir die Bedingungen für die Koexistenz von Vertrauen und Verletzlichkeit schaffen müssten, für eine intime KI, die auf voneinander abhängigen Datensätzen aufbaut, dann würden wir wirklich über eine ganz andere digitale Koexistenz sprechen. Es fühlt sich weit weg an, es nur zu schreiben – aber es ist möglich, es ist absolut in Reichweite. Wenn wir uns verpflichten, Systeme zu entwerfen, die unsere Vernetzung und die vielen Formen von Intelligenz und Wissen, die wir besitzen, würdigen. 

 

Gibt es noch etwas, das Sie zum Thema KI und ihren Auswirkungen auf die Gesellschaft sagen möchten?

KI ist nicht unvermeidlich – sie ist eine Reihe von Entscheidungen, die wir jeden Tag treffen. Die Frage ist nicht, ob KI die Gesellschaft verändern wird, sondern wie und in wessen Interesse. Wir haben jetzt die Chance, Systeme zu schaffen, die unsere wichtigsten Werte widerspiegeln: Fürsorge, Gerechtigkeit und Solidarität. Doch dazu braucht es Mut – den Mut, sich Alternativen vorzustellen, schädliche Systeme abzubauen und gemeinsam etwas aufzubauen.

Bei dieser Arbeit geht es um mehr als nur um Technologie; es geht um Menschlichkeit. Es geht darum, wer wir angesichts des Wandels sein wollen. Entscheiden wir uns für eine Zukunft, in der Intelligenz als etwas verstanden wird, das uns zusammenhält und uns über Generationen, Geografien und Identitäten hinweg verbindet.

Das Interview führte

Porträt von Sandy Jahn

Sandy Jahn, Referentin Strategic Insights & Analytics (sie/ihr)

AI’s Greatest Potential Lies Beyond Data and Logic

Interview with J. Bob Alotta on the chapter „Artificial Intelligence“ in the D21-Digital-Index 2024/2025
Eine schwarz-weiße Bearbeitung eines Porträts von J. Bob Alotta.

Before we dive into the study’s findings, let’s start with a basic question for those less familiar with technology: What is Artificial Intelligence, and what makes it distinct from other technologies and innovations we’ve seen so far?

Artificial Intelligence is, at its core, an attempt to replicate patterns of human thought and behavior in machines. But it’s worth asking: whose patterns? Whose intelligence? Traditionally, Western understandings of intelligence have long been shaped by systems of power that privilege certain ways of knowing--e.g. data, logic, and so-called objectivity--over others. These definitions, and the subsequent canons they produce, ignore so many other forms of intelligence like the intelligence embedded and valued in myriad other lived experiences, the knowledge passed down through generations existing outside of dominant power structures, and the resilience learned from navigating systems designed to exclude, to name a few.

AI, as it exists now, reflects the values and biases of those who build it. It inherently amplifies views of intelligence drawn from the data from which it learns. But what if we reframed AI as a tool for honoring and amplifying diverse ways of knowing? The intelligence of a grandmother who has perfected the rhythm of care across generations. The collective knowledge of a diaspora that understands migration as a form of resistance and survival. The possibility exists for AI to create knowledge systems that honor, uplift, and learn from them.

 

How important is it for the general public to understand the capabilities and limitations of AI, and what effective strategies have you seen to increase AI literacy?

Understanding AI’s capabilities and limitations is about more than technical literacy, it’s about critical literacy. People need to know not only what AI can do but also how it works, whose interests it serves, and how it impacts their daily lives. AI is often presented as a neutral, almost magical force, which then precludes most people from thinking of it as anything with which they can meaningfully engage. That’s already creating a sense of powerlessness. However, with very baseline understandings, most people can be reasonably critical and offer valuable input. For example, it’s important to understand that facial recognition systems can misidentify certain groups at higher rates not because the technology is broken but because the data and assumptions behind it are flawed. These insights allow individuals and communities to question the role of AI in systems like policing, hiring, or housing.

To build AI literacy, we must start with lived experience. Effective strategies recognize that people don’t need to know how to code to understand how AI affects them. Community workshops, for instance, can create spaces for people to share how they experience AI in their lives: whether that’s through targeted ads, automated loan approvals, or content recommendations - and connect those experiences to the larger systems behind them. Storytelling is another powerful tool. When we share stories about AI’s real-world impacts, we demystify the technology and make its consequences tangible.

Core to a lot of my own work is participatory design, where communities are involved in shaping the technologies that affect them. When people have a say in how AI is used--whether in public services, healthcare, education, or the ways our communities are being represented--they gain a deeper understanding of its limitations and possibilities. This participatory approach not only builds literacy but also redistributes power, creating a proactive rather than a passive public in relation to AI.

Hopefully, increasing AI literacy shifts the predominant narrative around AI. Instead of seeing AI as an inevitable force to be feared or accepted, we need to frame it as something we can shape together. That starts with asking hard questions: who is building these systems? Who benefits from them? And how can we make them accountable to the communities they impact? True AI literacy is about understanding these systems not as external, untouchable entities but as deeply human constructs that reflect our choices, values, and flaws. It’s about reclaiming agency in the face of technological change.

 

As AI continues to develop, do you think it will primarily bridge or widen socioeconomic inequalities? What factors will influence this outcome, and what strategies could promote equitable access to AI across different demographics?

Equity isn’t just about providing access to AI; it’s about rethinking the foundations on which AI is built. The current landscape of AI development privileges those with access to wealth, formal education, and traditional notions of expertise. Further, so many Computer Science programs are traditionally siloed from rather than being informed by other disciplines. I’m going to insert a big plug for Mozilla’s Responsible Computing program, which is interdisciplinary by design so that our future generations of technologists arrive on the scene with critical thinking and a diversity of experiences from which to draw inspiration and knowledge. We must shift the baseline assumptions underpinning the technology as it’s being built, otherwise “equity” will always come in from an offensive position, just trying to mitigate harms, instead of starting from a joyful creative place of possibility and actual innovation.

True equity in AI starts with centering the communities most impacted by the technology. It involves valuing the expertise of lived experience alongside academic or technical credentials. This means inviting formerly incarcerated individuals into conversations about predictive policing algorithms or prioritizing the voices of those in rural areas when designing digital health tools. Equity also requires dismantling the systemic barriers that make AI tools inaccessible—whether those barriers are economic, linguistic, or cultural. It’s about building systems that reflect the full complexity of human intelligence and experience.

 

What role should civil society play in shaping AI governance and policies to promote positive changes? How can communities—especially marginalized ones—be more actively engaged in AI decision-making processes that affect them?

There are two kinds of answers I can give you here. Absolutely, civil society can play a crucial role in creating accountability for AI systems. I can talk about transparency in systems, uplifting experiential expertise, and centering voices from the margins. But I think we need an overhaul in how we envision participatory governance broadly. Positive changes are contingent on shared analogue outcomes and design--we need governments, corporations, and civil society to hold some shared expectations, values, and a long view that uplifts a common good if we expect AI governance and policies to do more than wrestle with consolidating control or profits. We need to build toward futures that extend past individual administrations’ terms in office or shareholders’ interests. How are we governing with generational sustainability in mind, and how are human rights, environmental viability, and mutual accountability core to our decision making and enduring policies?

So, yes, civil society organizations must prioritize transparency and advocacy, pushing for regulations that require algorithmic audits, ethical guidelines, and public accountability. But they also have to fight for something deeper: a reimagining of technology that centers collective care, justice, and solidarity with people and planet.

 

How can AI be leveraged to strengthen democracy, and what safeguards are necessary to prevent its misuse?

Democracy relies on trust, accountability, and participation, qualities that are increasingly under threat in this geo-political moment. Disinformation spreads faster than truth. Algorithmic biases deepen inequalities in voting access. Deepfakes blur the line between reality and fiction. These are not minor issues; they are existential threats to democratic systems.

For the "age of AI" to foster, uplift, and dare I say create democracies, it would require a transformative shift in how we design, govern, and deploy AI. This would mean centering AI not on profit or power but on principles of justice, equity, and collective empowerment. At the very least we’d have to:

Redefine the Foundations of AI Development

The current trajectory of AI is driven by corporate interests, competition, and data extraction. For AI to truly support democracies, it must be rooted in democratic values: transparency, inclusivity, accountability, and equity. This starts with rethinking who builds AI and for what purpose.

  • Center Communities: Involve communities, especially marginalized groups, into the design and governance of AI systems. Their lived experiences and knowledge must shape the development of tools that affect their lives.
  • Diversify Expertise: Move beyond traditional technical expertise to include wisdom from social movements, cultural practitioners, and those with deep experiential knowledge of systemic injustices. This ensures AI reflects a plurality of human experiences.
  • Build Decentralized Systems: Prioritize open-source, decentralized, and community-controlled technologies over monolithic corporate platforms. Decentralization inherently aligns with democratic values by dispersing power. Ostensibly, I’m suggesting people stop solely being recipients of AI outputs but live in symbiotic relationship with what AI draws from and what it generates.

Create Transparent and Accountable Systems

Democracy thrives on trust, which requires transparency and accountability. In the age of AI, this means:

  • Algorithmic Audits: Mandate regular, independent audits of AI systems to evaluate their fairness, accuracy, and potential harms. Make these findings publicly available and understandable.
  • Explainable AI: Require systems to be interpretable so that the public and policymakers can understand how decisions are made and challenge them when necessary.
  • Public Oversight: Establish mechanisms for participatory oversight, where communities can hold AI developers accountable for how their tools are used and the impact they have.

Uplift Global Inclusion and Equity

AI must not reinforce the inequities between the Global North and Global South or between privileged and marginalized communities. Instead, it should become a tool for bridging these divides:

  • Redistribute Resources: Invest in AI infrastructure, computational power, and literacy in under-resourced regions, ensuring access to technology is equitable, culturally relevant, and environmentally sound.
  • Challenge Data Colonialism: Resist the exploitation of data from communities and nations that don’t reap the benefits of AI development. Data sovereignty should be a cornerstone of AI ethics. We need to start talking about small language models, nuanced data sets fit for a specific purpose.
  • Support Local Solutions: Encourage the development of AI tools tailored to specific cultural, social, and political contexts. Global solutions often erase local needs, while local innovations uplift them.

Harness AI to Deepen Civic Engagement

AI can enhance democracy by fostering greater participation and reducing barriers to engagement:

  • Participatory Tools: Develop AI systems that enable broader civic engagement, such as participatory budgeting tools, multilingual voting assistance, and AI-driven platforms that amplify underrepresented voices in policymaking.
  • Combat Disinformation: Deploy AI to identify and counteract misinformation while preserving free speech. Transparency in how this is done is critical to avoid misuse.
  • Expand Accessibility: Use AI to make democratic processes more inclusive. For example, by automating translation services, creating tools for people with disabilities, and ensuring equitable access to information in people’s preferred tongue..

Embed Democratic Principles into Governance Frameworks

The governance of AI must reflect the principles of democracy itself, with a focus on shared power, inclusivity, and justice:

  • Global Cooperation: Develop international agreements that prioritize human rights, equity, and sustainability in AI development. These agreements should be informed by countries across the Global Majority, not dominated by wealthy nations.
  • Participatory Policymaking: Create mechanisms for citizens to contribute to the creation of AI-related policies. Grassroots input must be treated as essential, not tokenistic.
  • Ethical Guidelines with Teeth: Move beyond aspirational ethics frameworks to enforceable regulations that prioritize the public good.

Shift the Cultural Narrative Around AI

AI has been marketed as a tool of inevitability and efficiency, often at the expense of humanity. A democratic age of AI requires reframing its role in society:

  • Uplift Diverse Intelligences: Value intelligence in all its forms—not just computational but also experiential, emotional, ancestral, and communal. This shifts the focus from “what AI can do” to “what AI should do in service of humanity.”
  • Challenge Technosolutionism: Push back against the idea that AI is a cure-all for societal problems. Recognize that technology is only as effective as the systems of care and justice that surround it.
  • Foster Collective Imagination: Invest in education and storytelling that envision AI as a tool for liberation, solidarity, and interconnectedness rather than control or profit.

Ensure AI Supports Human Rights and Justice

Democracies cannot thrive in the face of systemic injustices. AI must actively challenge oppression rather than reinforce it:

  • Address Biases: Proactively identify and eliminate biases in AI systems that perpetuate racism, sexism, ableism, or other forms of discrimination.
  • Redistribute Power: Ensure AI development and deployment are not concentrated in the hands of a few corporations or governments. Democratic systems require a redistribution of power at every level.
  • Protect Privacy: Establish strong data privacy laws that prevent the misuse of personal information for surveillance or exploitation. Privacy is a cornerstone of democratic freedom.

Prioritize Long-Term Sustainability

A truly democratic age of AI must also consider its impact on future generations:

  • Address Environmental Impacts: Ensure that AI development and deployment do not exacerbate environmental degradation. Democratizing AI also means creating technologies that align with global sustainability goals.
  • Future-Proof Democracy: Build systems flexible enough to adapt to future challenges, ensuring that AI remains a tool for liberation, not domination.

For AI to define an era of flourishing democracies, we need a radical shift in how we view intelligence, power, and technology. Democracy isn’t just a system of government; it’s a set of values rooted in shared dignity, mutual accountability, and collective care. I don’t think this is a utopian dream but a matter of choice. No system exists without the active or passive participation of people in its enforcement. The age of AI will either reflect our deepest inequities or our highest aspirations. It feels reductive, but there really is only one question: which future will we fight for?

 

In a world where AI-driven misinformation is increasingly sophisticated, how can democratic societies build resilience against AI-fueled manipulation of public opinion?

Resilience against misinformation isn’t just about teaching people to spot a fake headline; it’s about creating systems that prioritize truth and accountability over clicks and profit. Communities already have tools for resilience: they share information through trusted networks, they rely on collective wisdom, and they’ve learned to navigate environments of uncertainty. These practices should be supported, not dismissed.

Building resilience means amplifying these community strategies while also addressing the systemic roots of misinformation. This includes holding platforms accountable for their role in spreading false information and investing in public education that prioritizes media literacy and critical thinking. It also means creating public spaces for dialogue that are intentionally inclusive, multilingual, and culturally responsive. Resilience isn’t about returning to an imagined past of “truth”; it’s about creating systems that value justice, nuance, and collective accountability.

 

As automation grows, what proactive measures do you believe society should take to protect workers and support new job creation?

Automation and AI will undoubtedly reshape labor markets, but the impact doesn’t have to mean harm. The problem isn’t the technology itself; it’s the systems that use it to extract rather than support. Workers already know what they need: dignity, stability, and opportunity. The question is whether we’re willing to build systems that provide those things.

Proactive measures for protecting workers must include universal protections like guaranteed income, access to lifelong education, and strong labor rights. But it also means rethinking the value of work. Why do we center productivity while undervaluing care, creativity, and rest? Automation could liberate us from the drudgery of exploitative labor, but only if we demand that the benefits of AI are shared equitably. That also includes workers having access to the data and data systems with which they interact. We need groups like the Worker’s Info Exchange or the Driver’s Coop who help Uber or delivery drivers pool data or advocate for data access. This requires structural change driven by workers themselves.

 

Looking forward, what are your hopes and concerns regarding the evolving relationship between AI and societal well-being? Specifically, in the context of your commitment to equity and equality, how can AI mitigate issues of inequality in society over the next few years?

AI has the potential to address systemic inequalities, but only if we design it with intention. Right now, many AI systems exacerbate harm because they’re built without consideration of the lived realities of the people they affect. Societal well-being can’t be an afterthought; it must be the foundation of technological design.

Imagine AI tools that prioritize healing over harm: systems that redistribute resources equitably, that amplify marginalized voices, that repair instead of extract. But this vision requires vigilance. It means demanding that AI serves the public good, not private profit. It means creating systems that reflect the complexity of human experience: tools that are nuanced, flexible, and accountable to the communities they serve.

 

What is your vision of a better (digital) future?

A desirable digital future is one where technology reflects the full range of human experience. It’s a future where difference is celebrated, not erased, and where the tools we build serve to deepen connection, not division. This future is decentralized, community-owned, and rooted in care.

This vision requires dismantling the hierarchies embedded in today’s systems and building alternatives that prioritize justice, equity, and collective liberation. It’s not a future we can achieve through technology alone; it demands cultural and political transformation. It requires consideration about the interconnectedness of local knowledge, community care, and intimacy. Intimacy requires vulnerability and trust to exist. Without trust and vulnerability, intimacy becomes proximity without community. If we create the conditions where trust and vulnerability co-exist, intimate AI built on interdependent data sets would create an entirely different digital co-existence. This sort of paradigm shift is absolutely within reach, if we commit to designing systems that honor our interconnectedness and the many forms of intelligence we hold.

 

Is there anything else you would like to share on the topic of AI and its impact on society?

AI is not inevitable—it’s a series of choices we make every day. The question is not whether AI will shape society but how and in whose interests. We have an opportunity right now to build systems that reflect our highest values: care, justice, and solidarity. But doing so requires courage: the courage to imagine alternatives, to dismantle harmful systems, and to build collectively.

This work is about more than technology; it’s about humanity. It’s about who we choose to be in the face of change. It is paramount we choose a future where intelligence is understood as something we hold together, something that connects us across generations, geographies, and lived experiences.

The interview was conducted by

Porträt von Sandy Jahn

Sandy Jahn, Referentin Strategic Insights & Analytics (sie/ihr)