AG-Blog | Zukunft gestalten durch Bildung: Superwahljahr, Künstliche Intelligenz und die Herausforderungen für Demokratie
Der freie Zugang zu immer ausgefeilteren Technologien und das schwindende Vertrauen in Informationen und Institutionen haben Desinformation zu einem neuen Spitzenreiter unter den globalen Risiken gemacht. Als Initiative D21 möchten wir dieser Herausforderung proaktiv begegnen. Bei dieser Sitzung der AG Bildung stand daher die Frage, wie Bildung als zentraler Hebel zur Befähigung im Umgang mit Desinformation dienen kann, im Mittelpunkt.
Berlin. Das Weltwirtschaftsforum warnt vor dem zunehmenden zerstörerischen Potenzial manipulierter Informationen, die gesellschaftliche Spaltungen, ideologische Gewalt und politische Unterdrückung noch weiter verstärken können. In einer Ära, in der synthetische Inhalte von Stimmimitationen bis zu gefälschten Videos durch die einfache Bedienung von KI-Modellen rasant zunehmen, sehen wir uns mit einer bisher nicht dagewesenen Flut von Desinformation konfrontiert.
Die Initiative D21 versteht Bildung als einen zentralen Hebel, um Menschen für den Umgang damit fit zu machen. Gerade in einem Superwahljahr gilt es, die Legitimität neu gewählter Regierungen zu stärken und einen Beitrag zur Förderung politischer Stabilität zu leisten. Unter der Moderation von der AG-Leitung Tim Lutter (Cornelsen) und Cornelia Zielke (PD – Berater der öffentlichen Hand) diskutierten die Teilnehmenden über die Rolle der Bildung und der Politik im Umgang mit Desinformation und Stärkung der Medienkompetenzen der Bevölkerung.
KI als Gamechanger: Desinformation wird zur zentralen Bedrohung demokratischer Regierungen und Gesellschaften 2024
Sebastian Buckup, Head of Network and Partnerships, Member of the Executive Commitee beim Weltwirtschaftsforum, nahm die Gefahren, aber auch den Nutzen von KI in Bezug auf Desinformation in den Fokus. Es sei dafür wichtig, zwischen Desinformation und Fehlinformation zu unterscheiden. Während man unter Desinformation die bewusste Verbreitung von falschen Informationen (meist mit der Absicht der Manipulation anderer) verstehe, entstehe Fehlinformation unbewusst. Gleichzeitig betonte Buckup, dass Desinformationen als Bedrohung der Demokratie keine neue Entwicklung sei und auch schon vor dem Aufkommen von KI ein großes Problem dargestellt habe:
Jedoch lasse sich gerade aktuell ein „regelrechter Boom“ in Bezug auf synthetische Inhalte beobachten. Hier lägen die größten Gefahren: KI-Systeme wie Midjourney können genutzt werden, um Deep Fakes zu erstellen. Diese teils täuschend echt wirkenden synthetisch generierten Videos könnten für manipulative, politische Kampagnen genutzt werden. Desinformation stehe außerdem immer im Zusammenhang mit politischer Polarisierung. Und schließlich könne sie zum Vertrauensverlust in öffentliche Medien und Institutionen führen.
Die Verbreitung von Desinformation und der Kampf dagegen
Grundsätzlich gebe es laut Buckup drei wichtige Faktoren im Umgang mit Desinformation:
- Politische Ansätze bzw. Regulierungen: Ein großer Teil der Verantwortung im Umgang mit Desinformation liege bei der Politik. Gleichzeitig beziehe sich der Großteil der aktuellen Regulierungen vor allem auf „Desinformation 1.0“ (organische Inhalte), da sie noch aus einer Zeit vor dem verstärkten Aufkommen von KI stammen.
- Technologie: KI könne zwar zur Verbreitung von Desinformation genutzt werden, aber ebenso gut zu ihrer Bekämpfung.
- Kooperationen: (Internationaler) Austausch über das Thema Desinformation sei immens wichtig. Buckup plädierte hier für eine stärkere Zusammenarbeit der Politik mit den großen Tech-Konzernen.
Des Weiteren könne auch gesellschaftliche Resilienz einen wichtigen Schlüssel im Umgang mit Desinformation darstellen. Deswegen sei es wichtig, auch beim Umgang mit Informationen und dem kritischen Denken der Bürger*innen anzusetzen – beispielsweise durch das Stärken der Medienkompetenzen der Bevölkerung. Dennoch seien von der Politik auch generelle Regulierungen dieser Technologien notwendig:
New Year, New Skills? KI und die Informations- und Nachrichtenkompetenz der Bürger*innen
Alexander Sängerlaub, Direktor des Think Tanks futur eins und Mitautor der Studie „Quelle: Internet?“, griff diesen Faden auf uns sprach über Informations- und Nachrichtenkompetenz als Grundlage der gesellschaftlichen Resilienz gegenüber Desinformation. Bei vielen aktuellen Themen wie dem Klimawandel oder dem Ukraine-Krieg spiele Desinformation eine große Rolle. Gerade bei der Weiterentwicklung der Resilienz gegenüber Desinformation in der Gesellschaft und im Journalismus sehe er noch viel Potenzial, so Sängerlaub. Jetzt sei es wichtig, den Weg hin zu einer „informierten Gesellschaft“ zu gehen.
Darunter verstehe er eine demokratische Gesellschaft, die den technologischen Neuerungen gegenüber offen sei, eine gewisse Medienkompetenz vorweise sowie öffentlichen Medien und Journalismus Vertrauen schenke. Er betonte die Notwendigkeit funktionierender Informationsökosysteme und einer effektiven Regulierung sozialer Netzwerke. In einigen skandinavischen Ländern lasse sich beispielsweise ein höheres Vertrauen in die Medien und Institutionen beobachten. Als weitere Faktoren für die Resilienz einer demokratischen, informierten Gesellschaft gegenüber Desinformation nannte er die Stabilität und Integrität des politischen Systems, Verantwortung und Regeldurchsetzung der Plattformen und digitale Informations- und Nachrichtenkompetenzen (Medienkompetenzen) in der Gesellschaft.
Eine Möglichkeit zum Messen der eigenen Medienkompetenzen bietet zum Beispiel „Der Newstest“, der auf die Studie „Quelle: Internet“? der Stiftung Neue Verantwortung (heute: Interfae) basiert. Der fragt die eigenen Fähigkeiten in insgesamt fünf Bereichen (Navigieren, Beurteilen, Fakten checken, Mitreden sowie Wissen und Verstehen) ab. Die Ergebnisse der Studie zeigen: Der Durchschnitt bei deutschen Bürger*innen liege bei 13,3 von 30 möglichen Punkten. Daraus lasse sich schließen, dass die Mehrheit der Befragten kaum bzw. keine Nachrichten- und Informationskompetenz vorweise. Die pädagogische Vermittlung von Kompetenzen und Wissen über Informationen und Medien finde an staatlichen Schulen oft nur sehr sporadisch oder eben überhaupt nicht statt, so Sängerlaub. Auch die jüngere Generation erreiche im Durchschnitt lediglich 15,2 von 30 möglichen Punkten.
Jedoch zeichne sich die fehlenden Grundlagen für Medienkompetenzen in jeglichen Alters- und Gesellschaftsklassen ab. Die Vermittlung von Informations- und Nachrichtenkompetenzen sei somit auch außerhalb der Schulen und für alle Altersklassen äußerst wichtig:
Das Swiss Cheese Model: Capacity Building ist Käse, aber funktioniert
In diesem Punkt machte im Anschluss Sandy Jahn, Referentin Strategic Insights & Analytics der Initiative D21, der den AG-Teilnehmenden Hoffnung: Sie stellte das sogenannte Swiss Cheese Model vor. Das Schweizer-Käse-Modell, entwickelt vom britischen Psychologen James Reason, vergleicht verschiedene Sicherheitsebenen mit hintereinanderliegenden Käsescheiben. Die Löcher im Käse stehen dabei für die Unvollkommenheit von Sicherheits- und Schutzmaßnahmen in einem Sicherheitssystem. Solche Systeme seien inhärent fehleranfällig und die Fehler liegen dabei nicht (nur) beim Menschen. Somit erhöhen möglichst viele verschiedene Kombinationen von Schutzmaßnahmen die Effektivität des Systems.
Beim Kampf gegen die Desinformation könnte das Swiss Cheese Model hilfreich sein:
So seien Punkte wie demokratische Strukturen und Prinzipien, verantwortungsvoller Journalismus und vertrauenswürdige politische Kommunikation sowie Aktivismus und (ehrenamtliches) Engagement nur einige der Schutzmaßnahmen für die Bevölkerung vor Desinformation. „Politische Käsescheiben“ würden ebenso benötigt. So müsse es klare Regulationen seitens der Politik und mehr Unternehmensverantwortung seitens der Wirtschaft geben.
Resiliente Demokratien gestalten
In der anschließenden Paneldiskussion diskutierten Sebastian Buckup und Alexander Sängerlaub zusammen mit Annemieke Akkermans, Lehrerin und Senior Advisor Development bei LIE DETECTORS, und Prof. Dr. Andreas Jungherr, Professor für Politikwissenschaft und digitale Transformation an der Universität Bamberg, über den Kampf gegen Desinformation über den Bildungshorizont hinaus. Akkermans erklärte, dass Regulierungen alleine nicht ausreichend seien, und sprach sich deutlich für Aufklärung und Kompetenzvermittlung aus. Sie berichtete von ihren persönlichen Erfahrungen als Lehrkraft an der Nelson-Mandela-Schule in Berlin, wo das Schulfach Mediastudies als unbenotetes Pflichtfach mit abschließendem Projekt angeboten werde. Desinformation in den sozialen Medien würde hier für die jungen Menschen eine große Rolle. Allerdings gestalte sich die Umsetzung solcher Vorhaben an Schulen oft schwierig – beispielsweise aufgrund fehlender Kompetenzen oder Selbstvertrauen seitens der Lehrkräfte. Gleichzeitig betont sie auch die Vorteile, die Schulen haben – wie eine bildungsnahe Elternschaft.
Akkermans berichtete ebenfalls von ihrer Arbeit für LIE DETECTORS, eine gemeinnützige Organisation, die Kindern und Jugendlichen dabei hilft, manipulative Informationen, die deren Social-Media-Konten zunehmend bevölkern, besser zu erkennen und einzuschätzen. LIE DECETORS arbeitet europaweit mit Schulen zusammen und schickt Journalist*innen in diese, um dort mit den Schüler*innen über ihre Arbeit zu sprechen. Anhand möglichst nicht-politischer Beispiele sollen die Schüler*innen wichtige Kompetenzen und Methoden für den Umgang mit und den Schutz vor Desinformation erlernen. Gleichzeitig setzt sich die Organisation für die entsprechende Ausbildung der Journalist*innen ein, damit diese Lehrkräfte und Schüler*innen weiterbilden können.
Warnungen vor Desinformation zu alarmistisch?
Prof. Dr. Andreas Jungherr appellierte hingegen zur Gelassenheit im Umgang mit Desinformation:
Gleichzeitig sei es schwer, an aussagekräftige Zahlen zu Desinformation zu kommen, da große Plattformen dahingehend sehr intransparent agieren würden. Jungherr sprach sich gegen alarmistische Warnungen aus, die zu Demokratieunzufriedenheit in der Bevölkerung führen könnten und befürwortete eine sachliche, transparente Kommunikationsweise, die sich auf wissenschaftliche Ergebnisse stützt. Sebastian Buckup erläuterte, dass eine auf Selbsteinschätzung beruhende Umfrage, wie die des Weltwirtschaftsforums zum Global Risk Report immer nur die Meinungen der Befragten widerspiegele und die Kontextualisierung der Ergebnisse deswegen wichtig sei. Er betonte, dass es ihnen nicht um eine Doomsday-Mentalität oder Alarmismus gehe, sondern um das realistische Aufbauen von Resilienz und Schutzmaßnahmen. Gemeinsam mit einem Zusammenschluss aus verschiedenen Medienhäusern arbeite das WEF deshalb an (freiwillige) Leitfäden für den Umgang mit KI und Desinformation für die Medien.
Auch Jungherr betonte die Bedeutung von Medienkompetenz im Umgang mit Desinformationen in digitalen Kommunikationsräumen: Nicht alle synthetischen Inhalte seien automatisch Lügen oder Desinformation. Dennoch können diese Inhalte ebenso problematisch sein – beispielsweise sogenannte „Face Filter“ auf TikTok, die unrealistische Schönheitsstandards verbreiten und verstärken. Daher befürworte er die aktive Einbindung von Schüler*innen in die Aufklärung vor Desinformation, um Produktionslogiken und Selektionsmechanismen solcher Inhalte aufzuzeigen und die Selbstwirksamkeit der Schüler*innen (und generell in der Gesellschaft) zu fördern.
Alex Sängerlaub sprach sich zusammenfassend nochmal für einen holistischen statt einem monokausalen Ansatz aus. Generell habe er das Gefühl, dass man zu stark auf die Desinformationsseite und nicht genug auf die Informationsseite schaue. Er befürwortete beispielsweise den konstruktiven Journalismus in Skandinavien, der lösungsorientiert und perspektivenreich arbeite und das große Ganze besser vermittele.