Salaliittoteoriaksi kutsutaan sellaisia yleisestä käsityksestä poikkeavia väitteitä, joiden mukaan jonkin asian takana on epädemokraattinen salaliitto, vaikkei tämän tueksi ole kunnollisia perusteita tai tieteellisiä todisteita, vaan korkeintaan jonkinlaisia hämäräperäisiä anekdootteja. Niihin uskovilla ihmisillä on usein muitakin epätavallisia käsityksiä, jotka voivat liittyä esimerkiksi uskomuslääkintään, yliluonnollisiin ilmiöihin tai taikauskoisuuteen.
Vaikka monet näistä salaliitoista ovat usein varsin epäuskottavia, niihin uskotaan silti laajalti. Syyksi on esitetty, että monet ihmiset yksinkertaisesti vain haluavat omaksua salaliittoteorioita tyydyttääkseen piileviä psyykkisiä tarpeitaan tai motiivejaan, minkä vuoksi heitä ei voitaisi saada luopumaan niistä faktoilla tai vastatodisteilla.
Siksi oli mielenkiintoista huomata amerikkalaisen Thomas Costellon ja hänen tutkijatovereidensa julkaisema tutkimusraportti, jossa oli tutkittu voisiko tekoälyllä vaikuttaa sosiaalisessa mediassa salaliittoon uskoviin ihmisiin esittämällä perusteltuja tosiasioita, jotka osoittavat näiden käsitykset vääriksi. Tekijät nimittäin olettivat faktapohjaiseen korjaavaan tietoon perustuvien väliintulojen vaikuttavan tehottomilta yksinkertaisesti siksi, että niistä tavallisesti puuttuu riittävä syvyys ja henkilökohtaisuus.
Tutkimuksessa käytettiin kehittyneitä suuria kielimalleja (LLM), jotka ovat yksi tekoälyn muoto ja joilla on pääsy valtaviin tietomääriin sekä kyky luoda yksilöllisiä argumentteja. LLM-mallit voivat näin ollen kumota tai kyseenalaistaa suoraan jokaisen henkilön mainitsemat todisteet, joita he pitävät salaliittouskomuksiaan tukevina.
Kahdessa kokeessa 2190 amerikkalaista esitti omilla sanoillaan salaliittoteorian, johon he uskoivat, sekä todisteet, joiden he arvelivat tukevan näkemystään. Tämän jälkeen he osallistuivat kolmen kierroksen keskusteluun GPT-4 Turbo -kielimallin kanssa, jota ohjeistettiin vastaamaan näihin erityisiin todisteisiin ja yrittämään vähentää osallistujien uskoa kyseiseen salaliittoteoriaan. Verrokkiryhmän kanssa tekoäly keskusteli salaliittoon uskovien ihmisten kanssa jostain muusta aiheesta.
Tekoälyn kanssa keskustelu vähensi osallistujien uskoa valitsemaansa salaliittoteoriaan keskimäärin viidenneksellä. Tämä vaikutus säilyi vähintään kahden kuukauden ajan ja havaittiin johdonmukaisesti monenlaisissa salaliittoteorioissa John F. Kennedyn murhasta, avaruusolennoista ja illuminatista aina koronapandemiaan ja vuoden 2020 Yhdysvaltain presidentinvaaleihin.
Vähennystä tapahtui myös niiden osallistujien kohdalla, joiden salaliittouskomukset olivat syvään juurtuneita ja identiteetille tärkeitä. Samalla tekoälyn kanssa käydyt keskustelut vähensivät myös uskoa muihin - keskustelunaiheeseen liittymättömiin - salaliittoihin, minkä voi tulkita salaliittoteorioiden uskottavuuden vähentyneen näiden henkilöiden maailmankuvassa yleisestikin.
Tutkijat tekivät tästä kaikesta sen johtopäätöksen, että monet ihmiset, jotka vahvasti uskovat tosiasioiden vastaisiin salaliittoteorioihin, voivat muuttaa mielensä, kun heille vain esitetään riittävän vakuuttavia todisteita niiden virheellisyydestä. Samalla se osoittaa, etteivät näiden ihmisten aiemmat käsitykset, mahdolliset psykologiset tarpeet tai motivaatiot estä heitä ymmärtämästä tosiasioiden ja salaliittoteorioiden välisiä ristiriitoja, kunhan ne vain tuodaan riittävän selkeästi heidän nähtäväkseen.
Aiempia ajatuksia samasta aihepiiristä:
Helsingin sanomat sepitti salaliittoteorian
Purra paljasti älyllistä epärehellisyyttä
Nobelistin ja salaliittogurun elämä: Luc Montagnierin tarina