Dank des Internets ist es einfacher denn je, Verschwörungstheorien zu entdecken und zu verbreiten. Und während manche davon harmlos sind, können andere zutiefst schädlich sein, Zwietracht säen und sogar zu unnötigen Todesfällen führen.
Nun glauben Forscher, ein neues Werkzeug zur Bekämpfung falscher Verschwörungstheorien entdeckt zu haben: KI-Chatbots. Forscher vom MIT Sloan und der Cornell University fanden heraus, dass das Chatten über eine Verschwörungstheorie mit einem großen Sprachmodell (LLM) den Glauben der Menschen daran um etwa 20 % reduzierte – sogar bei Teilnehmern, die angaben, dass ihre Überzeugungen für ihre Identität wichtig seien. Die Forschungsergebnisse wurden heute in der Zeitschrift Science veröffentlicht.
Wissenschaft: Verschwörungsglauben durch Dialoge mit KI dauerhaft abbauen
Wir haben die Hypothese aufgestellt, dass Interventionen, die auf sachlichen, korrigierenden Informationen basieren, einfach deshalb unwirksam erscheinen, weil ihnen die nötige Tiefe und Personalisierung fehlt. Um diese Hypothese zu testen, haben wir Fortschritte bei großen Sprachmodellen (LLMs) genutzt, einer Form künstlicher Intelligenz (KI), die Zugriff auf riesige Informationsmengen hat und maßgeschneiderte Argumente generieren kann. LLMs können dadurch bestimmte Beweise, die jeder Einzelne zur Unterstützung seiner Verschwörungstheorien anführt, direkt widerlegen.
Zu diesem Zweck haben wir eine Pipeline für die Durchführung verhaltenswissenschaftlicher Forschung entwickelt, die personalisierte Interaktionen in Echtzeit zwischen Forschungssubjekten und KI nutzt. In zwei Experimenten formulierten 2190 Amerikaner in ihren eigenen Worten eine Verschwörungstheorie, an die sie glauben, zusammen mit den Beweisen, die ihrer Meinung nach diese Theorie stützen. Anschließend führten sie ein drei Runden langes Gespräch mit dem LLM GPT-4 Turbo, den wir dazu aufforderten, auf diese spezifischen Beweise zu reagieren und gleichzeitig zu versuchen, den Glauben der Teilnehmer an die Verschwörungstheorie zu verringern (oder, als Kontrollbedingung, mit der KI über ein nicht verwandtes Thema zu sprechen).
Eine andere Quelle: popsci: Wie ein KI-Debunkbot die Meinung eines Verschwörungstheoretikers ändern kann
Und Mr. Bot selbst: DebunkBot: Verschwörungsgespräche
Die Zukunft, so scheint es, liegt in der KI.
technology review: Chatbots can persuade people to stop believing in conspiracy theories
byu/sg_plumber inFuturology
8 Comments
Compounds the problem not removes it. What is true? Today’s truth could be proved false tomorrow. These chatbots can just as easily convince people that things that are not true are. This is a disturbing article, I can think of like 50 examples over the last year alone where people thought they were promoting the truth and it turned out not to be the case.
This is the way people emulate 1984.
This is great!
Now we can finally put an end to anyone questioning the government/popular narrative on things and finally all get in line behind one truth that one political party gets to decide – yay!
1. TVs Spying on You (Snowden’s Revelations): Edward Snowden’s 2013 leaks revealed that various intelligence agencies, including the NSA, were capable of using smart TVs, smartphones, and other internet-connected devices to spy on citizens. This confirmed suspicions that devices with microphones and cameras could be used to monitor people without their knowledge.
2. The Tuskegee Syphilis Experiment: For decades, rumors circulated that the U.S. government was conducting unethical medical experiments on African American men. In 1972, it was revealed that between 1932 and 1972, the U.S. Public Health Service conducted a study in Tuskegee, Alabama, where they deliberately withheld syphilis treatment from African American men to observe the natural progression of the disease, without their informed consent. This sparked outrage and led to major reforms in medical ethics.
3. MKUltra: Once dismissed as paranoia, it was later proven that the CIA ran a secret mind-control program known as MKUltra. Beginning in the 1950s, this project involved unethical human experimentation, including administering drugs like LSD to unsuspecting participants. Documents released in the 1970s confirmed the existence of this program, which was intended to explore methods of mind control and psychological manipulation.
These are just a few examples where so-called “conspiracies” ended up being true once enough evidence came to light.
But with our new technology we can make sure no one ever questions the narratives again!!!
…and who decides what is/n’t a conspiracy? MANY historical “conspiracies” have been proven true. This sounds like a government groupthink/rightthink tool. Just sayin’.
LLMs don’t have a structural ability to discern truth. People applying LLMs to problems that LLMs aren’t suited for is bad and trying to do this outside of a highly controlled environment is just asking for trouble speaking misinfo. Using a method which is heavily prone to misinfo to fight misinfo is just not a good idea.
It’s cool to be able to watch the Ministry of Truth be formed in real time. INGSOC is making good use of the available technology.
I’d wager that the average Joe that believes in conspiracy theories and is a victim to his own refusal of seeking more data is also more likely to be influenced by what an human-like AI chatbot says
And the obvious corollary – getting people to believe false narratives and misinformation
It’s a funny title, I wondr if it’s a bit sensational. AI chatbots can convince a lot of people of anything really because they can argue and present information in a seemingly consistent format making it look like it’s facts (whether it is or it isn’t).
I’m slightly concerned about said ‘research’ as the article at least doesn’t address any specifics at all that would explain whether this is indeed something specific to conspiracy theories, or it’s a generic tactic that could work on anyone. Can it be that the researchers choose a subject and built a tool to prove it? AI can prove anything or its opposite depending on how the model is built and what the input data was. Incidentally I’m just sitting in an AI training and we’re doing endless labs on the topic of how to chose the input data, how to sanitize it (discard what we think is not good for our purpose), what functions to use to get the type of statistical data we want, etc…