
Interview mit Lars Gräßer, Wissenschaftlicher Mitarbeiter und Pressesprecher, Grimme-Institut:
„Desinformation ist kein neues Phänomen – aber ihre Dynamik hat sich dramatisch verändert“
Lieber Lars,
Desinformation scheint heute allgegenwärtig zu sein – in sozialen Netzwerken, in der politischen Debatte, sogar im privaten Umfeld. Was ist unter Desinformation eigentlich zu verstehen?
Desinformation bezeichnet die gezielte Verbreitung von falschen oder irreführenden Informationen, um eine bestimmte Wirkung zu erzielen – politisch, wirtschaftlich oder ideologisch. Im Gegensatz zu Fehl- oder auch Misinformationen[AS1] , die aus Unwissenheit oder Unachtsamkeit entstehen, ist Desinformation mal mehr, mal weniger geplant. Das Ziel ist aber immer das Gleiche: Manipulation.

Trickreich ist, dass Desinformation im Netz nicht immer „pure Falschinformation“ ist. Immer können Teile auch richtig sein, sie werden aber so verkürzt oder aus dem Zusammenhang gerissen, dass eine Information oder Nachricht falsch oder irreführend wird. Teils ist das Problem aber auch die verzerrende Kombination aus Bild und Text. Es ist kompliziert mit der Desinformation. Lange Zeit war daher von „Fake News“ die Rede, was im Grunde „gefälschte Nachrichten“ meint, nicht Falschnachrichten.
Wie wirkt sich Desinformation konkret aus?
Sie führt zu einer Erosion des Vertrauens – vor allem in Medien, aber auch in Wissenschaft und politische Institutionen. Die Polarisierung nimmt zu, Debatten eskalieren schneller, Fakten werden immer häufiger angezweifelt – bis hin zum Verlust des Gefühls, so etwas wie eine gemeinsame Realität zu teilen. In extremen Fällen gefährdet Desinformation sogar Leben – etwa bei medizinischen Themen wie Impfungen oder Pandemien.
Na ja, aber hat es so etwas wie Desinformation nicht immer gegeben?
Durchaus, aber wir leben jetzt in einer digitalen Gesellschaft, ein Strukturwandel der Öffentlichkeit kommt hinzu, plus künstliche Intelligenz (KI). Die Rahmenbedingungen haben sich einfach massiv verändert für Desinformation: Früher waren Informationskanäle klarer reguliert – man denke hier an Zeitungen, Fernsehen und Radio. Im Netz kann heute jede*r Inhalte veröffentlichen, oft ohne redaktionelle Prüfung. Was nicht heißen soll, dass das Netz immer noch der rechtsfreie Raum sei von ehedem.
Welche Rolle spielen dabei soziale Medien?
Sie pendeln zwischen Brandbeschleuniger und Aufklärungsmedium und sind ganz sicher das wichtigste Verbreitungsmedium für Desinformation. Plattformen wie Facebook, X oder Telegram können dabei Reichweiten erzielen, die klassische Medien (teils) übertreffen.
Aber vor allem unterscheidet sich die Schnelligkeit: Inhalte können sich lawinenartig verbreiten – unabhängig von ihrem Wahrheitsgehalt. Gleichzeitig fehlen oft wirksame Mechanismen zur Verifikation und Moderation. Am wichtigsten sind aber vielleicht die Algorithmen, die Inhalte begünstigen, welche emotionalisieren und polarisieren. Desinformation gedeiht in diesem Umfeld hervorragend. Und von den Möglichkeiten von KI habe ich da noch gar nicht gesprochen.
Die wären?
KI kann authentisch wirkende Inhalte quasi auf Knopfdruck erzeugen, das eröffnet natürlich unglaubliche Möglichkeiten zur Desinformation. So gibt es KI-generierte Influencerinnen, die in den Netzwerken rechte Meinungsmache betreiben. Mitte März war mehrfach zu lesen, dass Russland gezielt Dialogsysteme wie „ChatGPT“ mit Prawda Nachrichten flutet. So konnte belegt werden, dass russische Propaganda erfolgreich in führende westliche KI-Tools integriert wurde – neben OpenAIs „ChatGPT“ auch Anthropics „Claude“, Googles „Gemini“ und Microsofts „Copilot“.
Was können wir dem entgegensetzen?
Da muss unterschieden werden, auf welcher Ebene: Menschen müssen lernen, Informationen zu prüfen und Quellen einordnen zu können, aber auch (technische) Funktionsweisen besser zu bestehen. Im Rahmen der Grimme-Akademie und beauftragt durch die Staatskanzlei NRW haben wir zu diesem Zweck beispielsweise DINA entwickelt. Dahinter verbergen sich kostenlos zugängliche Lehr-/Lernmaterialien, die helfen sollen, die individuelle, digitale Informations- und Nachrichtenkompetenz zu aktivieren. Aber natürlich ist hier nicht nur der oder die Einzelne gefragt: Plattformen tragen ebenso Verantwortung – ihre Strukturen sind nicht neutral, sondern beeinflussen, was wir für wahr halten und was nicht. Das Gleiche gilt für Anbieter von KI-Anwendungen. Und natürlich ist hier die Regulierung gefragt …
Gleichzeitig ist festzustellen: Der Digital Services Act greift (auf EU-Ebene), zudem gibt es eine ordnungspolitische Landschaft, die das Thema auf der Agenda hat. Und auf der gesellschaftlichen Ebene müssen wir unsere Sensibilität für das Thema schärfen. Dabei muss klar sein: Wir bewegen uns im Spannungsfeld zwischen Meinungsfreiheit, Schutz der öffentlichen Ordnung und Verteidigung demokratischer Strukturen.
Gibt es auch positive Entwicklungen?
Auf jeden Fall! Beispielsweise verstehen wir die Wirkungsweise von Desinformation immer besser. Die Studie „Vorsicht #Desinformation“ (Landesanstalt für Medien NRW, 2023) analysiert etwa, wie sich wiederholte Konfrontation mit Desinformation auf Social Media auf die Meinungsbildung auswirkt. Besonders interessant sind die getesteten Interventionen wie Prebunking (präventive Aufklärung), Nudging (Warnhinweise) und Debunking (nachträgliche Recherche). Die Ergebnisse zeigen, dass gezielte Hinweise und Aufklärungstexte die Wirkung von Desinformation deutlich abschwächen können.
Und wie bereits gesagt: Bestimmte Gesetze greifen und auch die ordnungspolitische Landschaft entwickelt immer wirkungsvollere Mechanismen. Zudem gibt es mittlerweile viele Initiativen, die Faktenchecks betreiben, journalistische Qualität sichtbar machen oder digitale Bildung an Schulen fördern. Auch Forschungsprojekte wie das EU-Programm EDMO arbeiten daran, die Infrastruktur der Aufklärung zu verbessern.
Zum Schluss: Wird Desinformation uns dauerhaft begleiten?
Ich fürchte: Ja, denn sie ist Ausdruck gesellschaftlicher Konflikte und Interessen. Entscheidend ist, wie wir damit umgehen. Mit einem aufgeklärten, kritischen Publikum und verantwortungsvollen Institutionen können wir ihre Wirkung begrenzen.
Quellen
- „Übermedien“ berichtet über einen Exklusiv-Deal zwischen einem deutschen Verlagshaus mit OpenAI und wirft kritische Fragen dazu auf
- Im OECD-Bericht zu Künstlicher Intelligenz in Deutschland (11. Juni 2024) heißt es: „Angesichts der immer schnelleren Entwicklung von KI besteht jedoch die Gefahr, dass sie Desinformation, wirtschaftliche Ungleichheit oder Biases fördert und dadurch das Vertrauen der Öffentlichkeit gefährdet.“
- https://www.tagesschau.de/ausland/amerika/us-archive-loeschaktion-100.html
- Rechte KI-Influencerinnen: https://www.tagesschau.de/faktenfinder/kontext/rechte-ki-influencer-100.html
- Russische Desinformation flutet KI Modelle: https://www.newsguardtech.com/de/press/russische-desinformation-infiltriert-westliche-ki-modelle-newsguard-startet-neuen-schutzservice-fuer-llms-vor-auslaendischen-einflussoperationen/).
- Hinweise und Aufklärungstexte können Desinformation abschwächen: https://www.medienanstalt-nrw.de/fileadmin/user_upload/Bericht__Studie_Vorsicht_Desinformation
- Europäische Beobachtungsstelle für digitale Medien: https://digital-strategy.ec.europa.eu/de/policies/european-digital-media-observatory
[AS1]Sollte man hier ergänzen „auch als Misinformation bezeichnet“?