Reden hilft doch: KI lässt Menschen Verschwörungstheorien hinterfragen

Wie schön wäre es, wenn wir die zermürbenden Gespräche mit Menschen, die an Verschwörungstheorien glauben, einer künstlichen Intelligenz (KI) überlassen könnten? Dieser Traum könnte früher als gedacht in Erfüllung gehen.

Ob mit Fremden aus dem Internet, Bekannten, Freunden oder auch Verwandten: Jeder von uns kennt jemanden, der an Verschwörungstheorien glaubt. Diskussionen mit solchen Personen können sehr kräftezehrend sein, weil sie sich scheinbar von keinem Argument der Welt überzeugen lassen, dass die Mondlandung echt war und Corona keine „Plandemie“. Aber diese Gespräche gar nicht zu führen, ist auch nicht die beste Entscheidung, denn so versinkt manch eine Person nur noch tiefer in ihrer Bubble, bis es irgendwann vielleicht wirklich zu spät ist.

Künstliche Intelligenz (KI) taucht in Diskussionen um die Verbreitung von Verschwörungstheorien und Fake News immer wieder auf, allerdings nicht im Positiven: Studien haben gezeigt, dass KIs gerne auch „halluzinieren“, also Falschinformationen generieren können. Das könnte sich aber noch ändern, denn eine Studie sieht in Large Language Models (LLMs) – also Chatbots wie ChatGPT – eine Möglichkeit zur Deradikalisierung.

An dieser Studie waren Forscher*innen der Queensland University of Technology und der American University beteiligt. Falls du der englischen Sprache mächtig bist und dich von Fachjargon nicht abschrecken lässt, kannst du die Studie in ihrer Gesamtheit im Wissenschaftsjournal  Science nachlesen. Die Fachzeitschrift Nature hat über diese Studie ebenfalls bereits berichtet, eine kurze Zusammenfassung und Aufarbeitung bekommst du hier.

Wie ein Dialog mit der KI Meinungen verändern kann

Im Rahmen dieser Studie interagierten über 1.000 Teilnehmer*innen, deren Auswahl die demographische Verteilung des US-Zensus widerspiegelte, mit einem speziell programmierten Chatbot. Dieser wurde auf der Basis von OpenAIs ChatGPT-4 Turbo entwickelt, um möglichst detailliert und überzeugend gegen Verschwörungstheorien zu argumentieren.

Die Teilnehmer*innen wurden gebeten, eine Verschwörungstheorie zu beschreiben und ihre Überzeugung dazu in Prozent anzugeben. Der Chatbot konfrontierte sie daraufhin mit Fakten und Beweisen, die diese Theorien entkräftigten. Laut Thomas Costello, Co-Autor der Studie, sei es naheliegend gewesen, eine KI diese Aufgabe übernehmen zu lassen – immerhin hat die bereits bestens recherchiert.

Sie [LLMs] wurden im Internet geschult, sie kennen alle Verschwörungen und sie kennen alle Widerlegungen, und so schien es eine wirklich natürliche Ergänzung zu sein.

Thomas Costello

Das Ergebnis der Studie macht Hoffnung: Die Gespräche mit dem Chatbot haben zu einer durchschnittlichen Verringerung der Überzeugung um 21 Prozent geführt. Selbst 25 Prozent der Teilnehmer*innen, die zuvor angegeben hatten, von einer Verschwörungstheorie fest überzeugt zu sein, waren sich nach der Interaktion unsicher. Das blieb bei vielen der Befragten auch zwei Monate nach dem Experiment noch so.

Sind Fakten doch noch etwas wert?

In einer Zeit, in der es scheinbar immer unwichtiger wird, was stimmt und was nicht, liefert diese Studie laut Katherine FitzGerald einen Lichtblick. Sie ist als Forscherin ebenfalls an der Studie beteiligt gewesen. Die Studie fordere die Behauptung vieler heraus, wir würden heute in einer postfaktischen Gesellschaft leben. Andernfalls hätte der Chatbot ja nicht so viele Proband*innen dazu überzeugen können, ihre Ansichten zu überdenken.

Eine solche KI wäre ungemein hilfreich, denn sie könnte viel schneller und präziser auf eine Vielzahl von Verschwörungstheorien reagieren, als es durch menschliche Anstrengungen allein möglich wäre. Zudem scheint es nicht so, als bräuchten KI-Modelle regelmäßige Therapiesitzungen, wenn sie sich tagtäglich mit den Abgründen der Menschheit befassen.

Wie geht es weiter?

Es steht uns vermutlich noch ein langer Weg bevor, bis wir eine verlässliche KI gegen Verschwörungstheorien haben.

Die aktuelle Studie ist zwar ein wichtiger Schritt gewesen, aber es bleiben noch viele Fragen offen:

  • Wie geht man mit der allgemeinen Skepsis vieler Menschen gegenüber der KI um?
  • Wie sorgt man dafür, dass diese KI nicht selbst Falschinformationen verbreitet? Während der Studie musste dafür noch ein menschlicher Faktencheck durchgeführt werden – kann man das überhaupt automatisieren?
  • Wann stößt so ein Chatbot an seine Grenzen? Und lassen sich diese überwinden?

Die Autor*innen der Studie planen weitere Experimente und mit der Zeit werden sich Wissenschaftler*innen diesen Fragen widmen müssen. Sollte es eines Tages jedoch so eine KI geben, könnte sie unserer Demokratie einen großen Dienst erweisen und auch zahlreiche Beziehungen kitten, die an Geschwurbel zerbrochen sind.

Gleich weiterlesen:

Folge ZEITjUNG auf FacebookTikTok und Instagram

Bild: © Eden, Janine and Jim via Wikimedia Commons unter CC BY 2.0-Lizenz