in

Forskerne avslører hvordan ai chatbot endrer konspirasjonstroende synspunkter

Forskere fra MIT og Cornell University har nylig gjennomført et spennende eksperiment som bruker kunstig intelligens for å redusere folks tro på konspirasjonsteorier. Det viser seg at en AI-drevet chatbot kan være svært effektiv i å overbevise folk om at deres tidligere overbevisninger er feil, som rapportert av dailyai.com.

Kan AI endre konspirasjonstro?

Rundt 50 % av amerikanere tror på en eller annen form for konspirasjonsteori. Til tross for forsøk på å bekjempe denne typen feilinformasjon med fakta og logikk, ser det ut til at mange mennesker holder sterkt på sine overbevisninger. I en studiet publisert av MIT og Cornell University, utforsker forskerne hvordan en AI-chatbot kan bryte dette mønsteret.

Forskerne benyttet en chatbot basert på GPT-4 Turbo, en avansert språkmodell, for å argumentere mot deltakeres konspirasjonsteorier. I forsøket deltok 1 000 personer, og de ble bedt om å beskrive en konspirasjonsteori de trodde på, samt hvilke bevis som lå til grunn for denne troen. Videre var chatbotens oppgave å engasjere seg i en dialog med deltakeren, designet for å “meget effektivt overbevise” dem om å endre synspunkt. Spørsmålet forskerne stilte seg var: Kan en AI-bot være mer overbevisende enn personer med motsatte meninger?

Imponerende resultater

Resultatet av eksperimentet var ganske imponerende. Etter interaksjonen med chatboten, opplevde deltakerne i gjennomsnitt en 21,43 % reduksjon i deres tro på konspirasjonsteorien de hadde beskrevet, og det mest bemerkelsesverdige var at denne effekten vedvarte i opptil to måneder etter studien. Noen deltakere ble altså i stor grad overbevist av chatbots argumenter, til tross for at de opprinnelig hadde vært sterke tilhengere av konspirasjonen.

“Mange konspirasjonsteoretikere, inkludert de som var sterkt engasjert i sine tro, oppdaterte sine syn når de ble konfrontert med en AI som argumenterte overbevisende mot deres standpunkt,” konkluderer forskerne i rapporten.

Stor potensiell påvirkning, men med risiko

Selv om studien fokuserte på å bryte tro på konspirasjonsteorier, advarer forskerne mot faren for at AI-modeller også kan brukes til det motsatte; å overbevise folk om tvilsomme eller falske overbevisninger. “Fravær av riktige sikkerhetsmekanismer, kan slike modeller også overbevise folk til å adoptere epistemisk suspekte tro – eller brukes som verktøy for storskala overtalelsesarbeid generelt,” bemerker de.

AI-modeller som GPT-4 baserer seg på enorme mengder treningsdata, og deres evne til å tilpasse argumenter til den enkelte persons tro gjør dem formidable redskaper for overtalelse. Men et problem er at slike modeller ikke nødvendigvis forstår hva som er sant. De avhenger av informasjonen som er til stede i treningsdataene, noe som åpner for at feilaktig eller skjev informasjon kan bli presentert som sant.

Potensial for både godt og vondt

Studien har store konsekvenser for hvordan AI kan bli brukt fremover, både til positiv påvirkning som å redusere troen på konspirasjonsteorier og bekjempe spredning av falske nyheter, men også for potensielt farlige formål. Samtidig peker forskerne på at nyere og enda mer avanserte modeller, som GPT-4o og GPT-o1, kan være enda mer overbevisende og til tider villedende.

Studien er selv finansiert av John Templeton Foundation, et interessant trekk da denne organisasjonen også deles ut av Atlas Economic Research Foundation, en gruppe som blant annet motsetter seg handlinger mot klimaendringer og forsvarer tobakksindustrien.

Avslutningsvis viser studien at AI har en enorm kraft til overtalelse, og hva AI blir brukt til – og av hvem – kan i fremtiden spille en avgjørende rolle for hvilke ideer og trosretninger som får gjennomslag i samfunnet.