Im Forschungsprojekt Kimono untersuchen Wissenschaftler, wie sich Fake News und Desinformationskampagnen schnell und zuverlässig erkennen lassen.
Foto: Jakub Jirsák - stock.adobe.com
Im Forschungsprojekt Kimono untersuchen Wissenschaftler, wie sich Fake News und Desinformationskampagnen schnell und zuverlässig erkennen lassen.

Öffentliche Sicherheit

Kimono: Gemeinsam gegen Desinformation und Fake News

Im Forschungsprojekt Kimono untersuchen Wissenschaftler, wie sich Fake News und Desinformationskampagnen schnell und zuverlässig erkennen lassen.

Beeinflussungs- und Desinformationskampagnen, Fake News, können Menschen manipulieren und dazu führen, dass das Vertrauen in die Demokratie und ihre rechtsstaatlichen Prinzipien sowie in die Meinungsfreiheit geschwächt wird. Zudem besteht die Gefahr, dass staatliche Akteure Beeinflussungskampagnen in sozialen Medien gezielt zur Destabilisierung gegnerischer Staaten einsetzen. Diese Art der hybriden Kriegsführung wurde durch den russischen Angriffskrieg gegen die Ukraine zwischenzeitlich auch zum gesellschaftspolitischen Spitzenthema. Nicht nur die Bundesrepublik Deutschland möchte irreführende Berichterstattung frühestmöglich erkennen und ihre Verbreitung verfolgen. Auch verbündete Staaten, darunter Israel, forschen an Themen wie Kampagnenidentifikation, -monitoring und -klassifikation in Sozialen Medien (kurz Kimono).

Forschungsprojekt Kimono – Kräfte bündeln

Im Bereich Cybersicherheit wurden die ersten Forschungs- und Entwicklungsvorhaben mit Israel bereits von 2018 bis 2020 vom Forschungsinstitut Cyber Defence und Smart Data (Code) an der Universität der Bundeswehr München durchgeführt. Aufgrund der erfolgreichen bilateralen Zusammenarbeit wurden weitere Projekte initiiert, die nun bis 2024 umgesetzt werden – eines davon ist Kimono. An der Kollaboration sind außerdem noch Wissenschaftler des Fraunhofer-Instituts für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE) sowie der Ben-Gurion-Universität (BGU) federführend beteiligt. Unter Leitung von Professor Dr. Ulrich Schade (FKIE), Professor Dr. Oren Tsur (BGU) und mir arbeitet das internationale Forschungsteam daran, solche Desinformationskampagnen und Propaganda-Narrative zu erkennen, um die Erstellung eines Software-Prototyps voranzutreiben.

Schwerpunkt: Gefälschte Texte

Bei Kimono liegt der Fokus auf der Identifikation von gezielt manipulativen Falschmeldungen. Diese „Fake News“ können ihre negative Wirkung besonders dann entfalten, wenn sie sich mithilfe der Sozialen Medien rasend schnell ausbreiten. Um eine möglichst große Menschenmenge zu erreichen, finden sich in solchen Meldungen oft sehr provokante Formulierungen, die zum Teilen und Liken der Beiträge verleiten sollen. Beeinflussungskampagnen verlaufen heutzutage multimodal: So können Text, Bild und Ton manipuliert werden, um Menschen in die Irre zu führen. Darum werden Desinformationen auch durch gefälschte Bilder oder Videos, die täuschend echt aussehen, sogenannte Deep Fakes, verbreitet. Kimono konzentriert sich dagegen ausschließlich auf die Erkennung von Falschmeldungen in Textform.

Deep Fakes: Neue Herausforderungen für Unternehmen

Künstliche Intelligenz und Machine Learning gewinnen immer mehr an Bedeutung. Durch „Deep Fakes“ allerdings entstehen den Unternehmen neue Herausforderungen.
Artikel lesen

Auf Datenqualität setzen

Die Forscher entlarven im Projekt zunächst deutsch-, englisch- und französischsprachige Fake News, die von Plattformen wie Twitter, Facebook und Instagram stammen, mithilfe von „Faktencheckern“ wie Correctiv.Faktencheck, Politifact oder AFP Factuel. Allerdings ist der Datenbestand dieser Dienste nicht vollständig und veraltet: Für die Seiten überprüfen unabhängige Journalisten ausgewählte Nachrichten, bewerten diese hinsichtlich ihres Wahrheitsgehalts und schreiben eine Richtigstellung, was mitunter sehr aufwendig ist und Tage dauern kann. Das bedeutet, dass Kimono von der hohen Qualität investigativ recherchierter Fakten profitieren kann – aber nicht in Echtzeit. Auch wird nicht jede potenzielle Falschmeldung von Faktencheckern untersucht, sodass eine Vielzahl immer noch im Netz kursiert. Für das Projekt soll darum künftig auch Maschinelles Lernen unterstützend eingesetzt werden.

Typische Muster von Desinformationskampagnen erkennen

Mithilfe der Meldungen, die Faktenchecker bereits als wahr oder falsch gekennzeichnet haben, kann nun eine Künstliche Intelligenz angelernt werden. Dabei geht es darum, Gesetzmäßigkeiten in den Lerndaten zu erkennen, um später Falschmeldungen in einer Menge von neuen Social-Media-Posts computergestützt aufspüren zu können. Ein typisches Muster für eine offensichtliche Desinformationskampagne ist zum Beispiel die Diskreditierung von Mitwettbewerbern: Der Profiteur erhält (unverdienterweise) ausschließlich Lob, während der Konkurrent nur unfaire oder bösartige Kommentare bekommt. Dies war beispielsweise bei einer Kampagne gegen die Impfstoffe von Biontech und anderer Hersteller zu beobachten, worüber die „Zeit“ am 6. Mai 2021 unter dem Titel „Der großartigste Impfstoff der Welt ist Sputnik V.“ berichtete. Diese Schlagzeile greift ein Stilmittel auf, das sich häufig in Propaganda-Sprache wiederfindet: maßlose Übertreibung.

Was tun mit Fake News?

Wahrheit oder Lüge? Wer kann das in unseren digitalen Zeiten noch beantworten? Umso wichtiger sind klare Parameter und ein methodisch sauberes Vorgehen, um Fake News zu enttarnen. Dafür plädiert Risikomanagementexperte Frank Romeike im Interview mit PROTECTOR & WIK.
Artikel lesen

Auf Indiziensuche: Sprache von Fake News und Statistiken

Erfahrungsgemäß dominieren in Kampagnen-Beiträgen oft starke Meinungsäußerungen, sensationsheischende oder emotionale Formulierungen. Diese und weitere sprachliche Eigenheiten sind beitragsbezogene Merkmale. Aber auch die Social-Media-Profile der Beitragsverfasser sind aufschlussreich. In diesem Zusammenhang wird berücksichtigt, wie lange ein Account existiert, wie viele Posts gemacht wurden, wie viele Follower das Profil hat und wie vielen gefolgt wird. Diese Statistiken sind insbesondere für die Erkennung von Social Bots hilfreich. Um diese Programme, die menschliche Verhaltensmuster simulieren, von realen Personen zu unterscheiden, analysieren die Forschenden außerdem das Beziehungsnetz der User: Wer interagiert wie oft mit wem? Hierbei geht es darum, atypisches Verhalten aufzudecken. Meist lässt nur das Zusammenspiel aller Indizien vermuten, dass ein Social Bot am Werk ist. Wenn beispielsweise in mehreren Ländern fast zeitgleich inhaltsgleiche Meldungen in verschiedenen Sprachen kursieren, steckt häufig eine Software dahinter, die mittels maschineller Übersetzung den Originaltext in Windeseile verbreitet.

Der Weg zur Anwendung

Bisher mangelt es noch an geeigneter Softwareunterstützung, um Kampagnen verlässlich zu erkennen und außerdem noch eingängige Erläuterungen bereitzustellen, warum gewisse Social-Media-Beiträge als irreführend eingestuft wurden. Um letztendlich Gegenmaßnahmen einleiten zu können, die zur Eindämmung der Verbreitung von Desinformationen beitragen, arbeitet das Kimono-Team mit Hochdruck daran, automatisiert Falschmeldungen bei entsprechender Indizienlast aufzudecken. Allerdings kann auch der beste Software-Prototyp keine 100-prozentige Sicherheit vor Fake News liefern – aber zumindest deren Verbreitung aufdecken.

Prof. Dr. Michaela Geierhos, Leiterin des Projekts Kimono an der Universität der Bundeswehr München und Technische Direktorin des Forschungsinstituts Code

Logistiker können Analysedaten flächendeckend in der erforderlichen Qualität erfassen – mit einer minimalen Anzahl an Kameras.
Foto: Dallmeier

Videosicherheit

Transparente Logistik-Prozesse dank Videotechnik

Warum Videotechnik gerade in der Logistik weit mehr als nur ein Garant für Sicherheit ist. 

 Illegal erwirtschaftete Gewinne aus dem Schattenhandel finden ihren Weg über die Geldwäsche in die legale Wirtschaft.
Foto: fuxart – Fotolia.com

Wirtschaftskriminalität

Schattenhandel schwächt die Wirtschaft

Schattenhandel ist unerlaubter Handel mit illegalen Produkten, Produktfälschungen oder auch unversteuerten Produkten. Alle zusammen schädigen die Wirtschaft.

Dateneingabe per Tastatur.
Foto: sebra - stock.adobe.com

IT-Sicherheit

KI lauscht beim Tippen: Seitenkanalangriff auf Tastenanschläge vorgestellt

Ein Forscherteam trainiert ein KI-Modell mit Tastenanschlägen eines Laptops, aufgezeichnet per Mikrofon. Die Trefferquote liegt anschließend bei 95 Prozent.

Die Bandbreite an Polykrisen im globalen Maßstab nimmt zu, beispielsweise durch Piraterie und Angriffe auf Handelsschiffe im Roten Meer. 
Foto: lom742 - stock.adobe.com

Riskmanagement

Mit Risikomanagement auf Polykrisen vorbereitet

Die Bandbreite an Polykrisen im globalen Maßstab nimmt zu. Wie können sich Unternehmen mithilfe ihres Risikomanagements darauf vorbereiten?