Zum Hauptinhalt

Chancen von KI nutzen: Wie wir Desinformation in Zukunft leichter erkennen können

von Kathrin Legermann

Herr Dr. Fegert, was ist das Ziel des Projekts DeFaktS?

Es geht in unserem Projekt darum, mithilfe einer Künstlichen Intelligenz Desinformationen aufzuspüren. Dafür trainieren wir ein Modell, das natürliche Sprache maschinell verarbeitet. Das Ziel: Es soll Desinformationen in Texten erkennen. Gleichzeitig soll das System auch als Schnittstelle auf verschiedenen Plattformen eingesetzt werden. Die KI soll anspringen und dem Nutzenden melden, warum es sich vermutlich um nicht vertrauenswürdige Informationen handelt.

Wie lässt sich eine Künstliche Intelligenz so trainieren, dass sie Falschinformationen erkennt?

Dafür haben wir, unter der Leitung der Projektkoordinatorin Isabel Bezzaoui, eine wissenschaftliche Taxonomie erstellt. Sie beschreibt, welche Muster – zum Beispiel bestimmte stilistische Mittel – bei Falschinformationen immer wieder auftreten und diese ausmachen. Auf dieser Basis haben wir Labels entwickelt, mit deren Hilfe wir Falschinformationen in sehr vielen Datensätzen markiert haben. Und wir haben mit diesen Labels eben auch benannt, warum es sich bei bestimmten Inhalten um Desinformationen handelt. Um hier die Gefahr von menschlichen Fehlern oder Interpretationen möglichst gering zu halten, haben verschiedene Personen unabhängig voneinander die gleichen Datensätze gelabelt. Dies kann dann anschließend für die Erkennung der KI nutzbar gemacht werden. Die nächste Frage ist aber, wie sie, wenn sie dann eingesetzt wird, die Nutzenden auch effektiv warnen kann.

Gibt es da schon Ideen?

Ja, wir hatten gerade mit unserem House of Participation einen Round Table. Unter anderem mit unseren Projektpartnern diskutierten wir dort diese Anbindungsmöglichkeiten und haben auch einen ersten Demonstrator getestet. Darin lässt sich in einem Messaging-Dienst wie beispielsweise Telegram scrollen. Die Posts können angeklickt werden, um weiterführende Informationen zu erhalten, ob Inhalte vertrauenswürdig sind und warum vielleicht nicht. Diese Einbindung steht aber noch am Anfang. Wir führen unsere Arbeiten im letzten Jahr des Projekts jetzt zusammen. Eigentlich wäre für uns auch wichtig, dass die Förderung des Projekts längerfristig weitergeht. Es ist nicht damit getan, eine Lösung zu entwickeln. Sie soll ja auch in die breite Anwendung kommen und muss kontinuierlich weiterentwickelt werden.

Warum ist ein solcher Ansatz, wie Sie ihn mit DeFaktS verfolgen, so wichtig?

Ich glaube, dass unser Ansatz Menschen dabei unterstützen kann, eine größere Kompetenz im Umgang mit Desinformationen zu entwickeln. Vielleicht lässt sich dadurch Content auch einfacher moderieren. Die großen Plattformen haben ja schon entsprechende Systeme, um Inhalte automatisiert zu klassifizieren. Die sind aber nicht frei nutzbar. Wir wissen deswegen nicht, wie sie funktionieren. Ich bin der Meinung, dass es total wichtig ist, solche Tools auch der Zivilgesellschaft, dem Journalismus und dem Individuum bereitzustellen – zum Beispiel als Browser-Plug-in. Trotzdem ist unsere Entwicklung natürlich nicht die Patentlösung für alles, was uns im Kampf gegen Desinformationen begegnet und begegnen wird. Dass generative Künstliche Intelligenz immer besser wird, wirkt sich ja auch im negativen Sinne auf die Verbreitung von Falschinformationen aus – was die Qualität und die Quantität angeht. Außerdem schauen wir uns nur Textinhalte an. Aber es gibt natürlich auch Bild-, Video- und Tonmaterial, das Falschinformationen enthalten kann. Und man muss auch sagen, dass sich ein Feature leider nicht so schnell und effektiv verbreitet wie Informationen.

Was braucht es aus Ihrer Sicht noch, um in Zukunft mit Desinformationen angemessen umgehen zu können?

Mithilfe von Künstlicher Intelligenz erstellte Inhalte sind teilweise so gut, dass wir schnell darauf hereinfallen. Es ist schwer zu erkennen, wann es sich um absichtlich manipulierten Content handelt. Deswegen ist es sehr wichtig, dass Menschen eine Kompetenz oder ein Gefühl dafür entwickeln, was echt ist und was nicht. Es wird immer wichtiger, unterscheiden zu können, ob ich einer Quelle trauen kann. Natürlich haben auch die Gestaltung und die Mechanismen von Plattformen einen großen Einfluss darauf, wie Informationen zirkulieren. Auf X können sich durch die stark verringerte Content-Moderation im Zuge der Übernahme von Elon Musk Desinformationen und Hate Speech viel besser verbreiten. Da wird den Plattformen selbst auch eine wichtige Aufgabe zuteil, denn sie sind keine neutralen Akteure. Das ganze Thema Desinformation ist sicherlich etwas, worüber es eine gesellschaftliche Debatte braucht. Daher bin ich auch froh über Intitiaitven wie den Bürgerrat zu Desinformation „Forum gegen Fakes“ von der Bertelsmann Stiftung oder Factchecking-Angebote wie die von CORRECTIV. Auf verschiedenen Wegen müssen wir uns als Gesellschaft dieser Herausforderung stellen.

Zum Projekt

Gezielt eingesetzte Desinformationen bekämpfen – das ist das Ziel des Forschungsprojekts „Desinformationskampagnen beheben durch Offenlegung der Faktoren und Stilmittel“ (DeFaktS). Förderung erhält es vom Bundesministerium für Bildung und Forschung. Dr. Jonas Fegert leitet das Projekt als Abteilungsleiter am Forschungszentrum Informatik (FZI).

Entdecken

  • Uns folgen