Mittlerweile wird jeder Internetnutzer mit einer unaufhörlichen Flut an Informationen überschwemmt. Und oft genug verschwimmen hier die Grenzen zwischen Wahrheit und Fiktion. Es fällt uns zunehmend schwerer, unter all den Nachrichten, Bildern und Videos, mit denen wir konfrontiert werden, zu unterscheiden, welche Inhalte echt und wahr sind. Die fortschreitende Entwicklung von künstlicher Intelligenz beschleunigt den Trend zu immer mehr hochgradig realistischem, aber gefälschtem Content.
Was in einigen Fällen echten Unterhaltungswert mit sich bringt, stellt an anderer Stelle eine ernsthafte Bedrohung für unser Vertrauen, unsere Gesellschaft und unsere demokratischen Prozesse dar. Dieser Beitrag soll als Leitfaden dienen, die Komplexität von Desinformation und Deepfakes besser zu verstehen, damit verbundenen Risiken zu erkennen. Außerdem stellen wir einige Methoden vor, mit denen Du Fälschungen sicher entlarvst.
Eine neue Realität: Die Gefahr von Desinformation & Deepfakes
Laut einer WDR-Umfrage im Mai 2025 halten 61 % der Bürger in Deutschland Informationen aus den etablierten Medien für glaubwürdig. Aber was ist mit all den alternativen Kanälen, welchen wir uns täglich zuwenden? Reicht es, sich hier auf den „gesunden Menschenverstand“ zu verlassen? Die bewusste Manipulation von Informationen ist mittlerweile zu einem mächtigen Werkzeug geworden, um die öffentliche Meinung zu formen und zu spalten. Insbesondere in den sozialen Medien lässt sich diese Form von Meinungsmache viel zu oft gut beobachten. Dabei zeigen Studien, dass selbst trainierte Beobachter Deepfakes kaum besser als durch Zufall erkennen können.
Wachsende Bedrohung durch Desinformation & Deep Fakes im Internet
Manipulierte Inhalte in Form von gefälschten Nachrichtenartikeln bis hin zu täuschend echten Video- und Audioaufnahmen (sogenannter Deepfakes) sind inzwischen allgegenwärtig. Im Nu werden diese über Social Media und Messenger-Dienste unter einem Millionenpublikum verbreitet. Faktenprüfer können hier kaum rechtzeitig reagieren, da die sich rasant entwickelnden Technologien es immer schwieriger machen, zwischen authentischem und künstlich erzeugtem Material zu unterscheiden.
Wachsende Anzahl an unwahren, manipulativen Inhalten im Internet
Dabei ist die Fähigkeit, Falschinformationen als solche zu erkennen, eine grundlegende Säule der digitalen Mündigkeit. Laut dem Statistischen Bundesamt gaben 2023 bereits 48 % der deutschen Internetnutzer an, im ersten Quartal 2023 auf unwahre oder unglaubwürdige Informationen gestoßen zu sein. Mehr als Viertel der Befragten gab an, auch auf Hassrede gestoßen zu sein. Diese Zahlen verdeutlichen die Dringlichkeit des Themas.
Wer die Mechanismen der Desinformation versteht, kann sich selbst und sein Umfeld schützen, informierte Entscheidungen treffen und aktiv zur Stärkung eines gesunden Informationsökosystems beitragen. Was benötigt es also, um Desinformation und Deep Fakes zu entlarven? Allem voran bedarf es einem klaren Verständnisses über zentrale Begriffe. Oft werden Bezeichnungen wie Fake News, Desinformation und Falschinformation synonym verwendet, doch es gibt wichtige Unterschiede.
Abgrenzung von Falschinformation, Desinformation & Fake News
Als Falschinformation (Misinformation) bezeichnet man unrichtige Informationen, welche verbreitet werden, ohne dass eine Absicht zur Täuschung besteht. Ein Beispiel hierfür ist das Teilen einer veralteten Nachricht, die nicht mehr aktuell ist. Solche falschen Information sind zwar ebenso ärgerlich, beabsichtigen jedoch diese keine Schädigung, Irreführung oder Beeinflussung des Empfängers.
Desinformation (Disinformation) hingegen zielt bewusst auf die Verbreitung von falschen Inhalten ab. Sie verfolgt dabei die Absicht, zu täuschen, zu schaden oder politische bzw. finanzielle Ziele zu erreichen. Entsprechend steckt hier eine klare Manipulationsabsicht dahinter.
Fake News ist ein umgangssprachlicher Begriff, der oft genutzt wird, um Desinformation in Form von vermeintlichen Nachrichtenartikeln zu beschreiben. Gemeint sind hier also Inhalte, die bewusst falsche Behauptungen aufstellen und dabei das Format seriöser Nachrichtenquellen imitieren, um Glaubwürdigkeit zu erzielen.
Deep Fakes: Wenn Künstliche Intelligenz unsere Realität verzerrt
Wird ein Medieninhalt durch künstliche Intelligenz (wie Machine Learning oder Large Language Models) erzeugt oder verändert, dann spricht man von einem Deep Fake. Diese Technologie ermöglicht es, Gesichter in Videos auszutauschen, Stimmen zu klonen oder persönliche Aussagen und Handlungen vorzutäuschen, die nie stattgefunden haben. Ursprünglich für die Filmindustrie entwickelt, wird diese Technologie leider zunehmend für bösartige Zwecke wie Propaganda, Betrug oder Rufschädigung missbraucht.
Die weitreichenden Risiken von manipulierten Inhalten
Die Folgen von Desinformation und Deepfakes gehen weit über simple Verwirrung hinaus. Sie untergraben das Fundament unserer Gesellschaft und stellen eine ernsthafte Bedrohung für Individuen und Institutionen dar. Wenn Menschen nicht mehr unterscheiden können, was echt und was gefälscht ist, erodiert das Vertrauen in grundlegende Pfeiler der Gesellschaft. Medienhäuser, Regierungen, wissenschaftliche Einrichtungen und sogar das Justizsystem verlieren an Glaubwürdigkeit.
Gesellschaftliche Polarisierung und die Bedrohung von Demokratie
Desinformation wird oft gezielt eingesetzt, um gesellschaftliche Gräben zu vertiefen und die konstruktiven Dialog einzudämmen. Dies fördert die Polarisierung, befeuert Hassrede im Internet und schwächt den sozialen Zusammenhalt. Die gezielte Manipulation der öffentlichen Meinung stellt jedoch auch eine direkte Gefahr für demokratische Prozesse dar, wenn Desinformationskampagnen eingesetzt werden, um Wahlen zu beeinflussen, politische Unruhen zu schüren oder die nationale Sicherheit zu gefährden.
Persönliche Rufschädigung und psychische Belastung
Und auch auf persönlicher Ebene können Deepfakes und Falschinformationen verheerende Folgen haben. Gefälschte Videos können den Ruf einer Person zerstören, während geklonte Stimmen für Betrugsanrufe (Enkeltrick) genutzt werden können. Die ständige Konfrontation mit widersprüchlichen und beunruhigenden Informationen kann zudem zu erheblichem psychologischem Stress, Angst und einem Gefühl der Ohnmacht führen.
Die Rolle von Social Media bei der Verbreitung
Soziale Netzwerke sind dabei der primäre Motor für die Verbreitung von Desinformation. Ihre Algorithmen sind darauf optimiert, Inhalte zu fördern, die starke emotionale Reaktionen hervorrufen. Der tatsächliche Wahrheitsgehalt bleibt dabei weitgehend ungeprüft. Wie eine Umfrage von Bitkom Research 2023 ergab, stoßen 48 % der Social-Media-Nutzer in Deutschland auf Fake News. Netzwerkeffekte sorgen dabei dafür, dass sich Fake Content oft schneller viral verbreitet, als dass dieser erkannt und entfernt/korrigiert werden kann.
Kognitive Verzerrungen und die Macht der Emotionen
Da emotional aufgeladene Inhalte unser rationales Denken umgehen, appellieren Desinformationen oft gezielt an starke Emotionen wie Wut, Angst oder Empörung. Sensationelle, überraschende oder schockierende Nachrichten ziehen nahezu magisch unsere Aufmerksamkeit auf sich. Kein Wunder also, dass sich Fake News oft dieser Mechanismen bedienen. Und weil wir uns in der schnelllebigen, reizüberfluteten Online-Welt kaum noch die Zeit für ein kritisches Hinterfragen nehmen, sondern viel zu oft lediglich Schlagzeilen überfliegen und Inhalte impulsiv teilen, wird die Verbreitung von Falschinformationen begünstigt.
Darüber hinaus trägt unsere Tendenz, Informationen zu bevorzugen, die unsere bestehenden Überzeugungen bestätigen (Confirmation Bias) dazu bei, dass wir uns Echokammern und Filterblasen bewegen statt aktiv alternative Perspektiven zu suchen. Social-Media-Algorithmen verstärken diesen Effekt, indem sie uns vor allem Inhalte zeigen, die unserer bisherigen Meinung entsprechen.
Deine persönliche Toolbox: So lassen sich Fakes entlarven
Hintergrundwissen, Achtsamkeit und kritisches Denken sind die besten Hilfsmittel, um gegen Fake-Inhalte immun zu bleiben. Bevor Du einem Inhalt Glauben schenkst oder diesen teilst, solltest Du immer kurz innehalten und Dir folgende Fragen stellen:
- Quelle – Wer ist der Absender? Handelt es sich um eine bekannte, vertrauenswürdige Quelle? Gibt es für die besuchte Website ein Impressum? Fehlende oder anonymisierte Daten können hier ein Warnsignal sein. Bei Social Media Accounts lässt sich prüfen, seit wann dieser existiert, wie oft zu welchen Themen gepostet wird und wie viele (echte) Follower der Account zählt.
- Absicht – Was soll dieser Inhalt beim Empfänger auslösen? Soll dieser wütend oder ängstlich werden? Ein Übermaß an Sensationswörtern und Emotionalität sollte bei Dir alle Alarmglocken schrillen lassen, dass hier wohl ein Inhalt gezielt manipulieren soll, statt sachlich zu informieren.
- Kontext – Findet sich die Information auch bei anderen seriösen Medien? Oder existiert sie nur auf dieser einen Website bzw. diesem einen Social Media Account? Inzwischen gibt es eine ganze Reihe an offizielle Faktencheck-Portale, die Dir im Zweifelsfall weiterhelfen können, darunter Correctiv.org, Mimikama.org, Tagesschau Faktenfinder, AFP Faktencheck sowie PolitiFact für die Prüfung internationaler Quellen.
Auffälligkeiten in Texten und Schlagzeilen
Um Desinformation zu erkennen, erfordert es, sowohl menschliche, psychologische als auch technische Faktoren zu beleuchten. Achte bei Texten auf eine reißerische Sprache, eine übermäßige Verwendung von Großbuchstaben oder Ausrufezeichen. Auch eine einseitige, stark wertende Darstellung. Grammatik- und Rechtschreibfehler können Warnsignale sein. Eine Studie von Bynder aus dem Jahr 2024 zeigt, dass immerhin 50 % der Verbraucher KI-generierte Texte korrekt erkennen können, was (zumindest noch für den Moment) auf subtile, aber wahrnehmbare Unterschiede hindeutet.
Visuelle Manipulation von Bildern und Grafiken
Bei Bildern solltest Du auf Details achten: Findest Du unlogische Schatten, seltsam geformte Gliedmaßen, verzerrte Hintergründe oder Unstimmigkeiten bei Reflexionen, z. B. in Brillen oder Fenstern? Dann könnte hier nachgeholfen worden sein. Auch durch eine umgekehrte Bildersuche via Google Lens oder TinEye lässt sich herausfinden, wann ein Bild das erste Mal veröffentlicht wurde und ob dieses in seinem ursprünglichen Kontext verwendet wurde.
Auch lohnt es sich, die Metadaten von Bildern zu prüfen. Tools wie ExifTool oder FotoForensics helfen dabei, nach Widersprüchlichkeiten beim Aufnahmedatum, dem Kameramodell oder der Bearbeitungssoftware aufzuspüren. Darüber hinaus können Bildanalyse-Tools wie AI or Not oder Hive Moderation anhand von Texturen und Farbmustern erkennen, ob Bilder KI-generiert sind.
Manipulierte Video- & Audio-Inhalte
Deep Fakes werden dank rasanter technologischer Fortschritte immer besser. Dennoch gibt es einige verräterische Anzeichen für Audio- und Videoinhalte, welche mithilfe von KI erstellt oder verfälscht wurden. Bei Audioaufnahmen können monotone oder roboterhafte Stimme, seltsame Betonungen, fehlende Hintergrundgeräusche oder eine unpassende emotionale Tonlage Aufschluss geben, dass die Aufzeichnung nicht von einer echten Person stammt. Beobachtest Du in einem Video ein starres oder unnatürliches Blinzeln, unpassende Lippensynchronisation, flackernde Kanten um das Gesicht oder den Kopf oder vielleicht eine unnatürliche Hauttextur, dann könnte hier ein Deep Fake vorliegen.
Die Erkennung ist jedoch schwierig. So berichtet Eftsure US, dass menschliche Probanden hochwertige Deepfake-Videos nur in 24,5 % der Fälle korrekt identifizierten. Und jeder Fortschritt bei Erkennungssoftware wird von den Entwicklern von Fälschungs-Tools analysiert und genutzt, um die nächste Generation von Deepfakes noch überzeugender zu machen.
Was kannst Du tun? Aufklärung und aktives Engagement
Die Auseinandersetzung mit Desinformation und Deepfakes ist kein temporäres Phänomen, sondern eine dauerhafte Aufgabe für uns alle, denn Technologien werden sich weiterentwickeln und noch überzeugendere Fälschungen hervorbringen. So bestätigt auch eine Studie des CISPA Helmholtz Center, dass Menschen schon heute zunehmend Schwierigkeiten haben, KI-generierte Inhalte von echten zu unterscheiden. Angesichts dieser Realität liegt die wirksamste Verteidigung vielleicht nicht allein in neuen technologischen Lösungen und rechtlichen Rahmenbedingungen wie der Digital Service Act (DSA) und der EU AI Act.
Vielmehr liegt ein wichtiger Schlüssel auch in der Stärkung unserer menschlichen Fähigkeiten. Medienkompetenz, kritisches Denken und eine gesunde Portion Skepsis sind unsere wichtigsten Werkzeuge. Anstatt passiv Inhalte zu konsumieren, müssen wir wieder zu aktiven und bewussten Nutzern des Internets werden. Neben dem Faktencheck und der Prüfung von Quellen gehört dabei auch die Sensibilisierung des eigenen Umfelds. Also, sprich mit Freunden, Familie und Kollegen über die Gefahren von Desinformation und Methoden zur Erkennung. So schaffen wir gemeinsam Bewusstsein für die Mechanismen der Manipulation und stärken unsere Resilienz gegenüber gezielter Täuschung.
Schreibe einen Kommentar