AI chatboty menia politické názory aj s nepresnými informáciami, zistila štúdia
Nová štúdia odhalila, že chatboty s umelou inteligenciou dokážu meniť politické názory ľudí, pričom najúčinnejšie sú, keď používajú nepresné informácie.
Umelá inteligencia v chatbotových aplikáciách dokáže efektívne ovplyvňovať politické postoje ľudí, často aj pomocou zavádzajúcich informácií. Vyplýva to z najnovšej štúdie, ktorá skúmala silu presviedčania konverzačných AI systémov.
Výskumníci zapojili do štúdie takmer 77 000 ľudí prostredníctvom crowdsourcingovej platformy a platili im za interakciu s rôznymi AI chatbotmi, vrátane modelov od spoločností OpenAI, Meta a xAI. Účastníci sa vyjadrovali k politickým témam ako dane a imigrácia, pričom chatboty sa následne snažili zmeniť ich názor na opačný, bez ohľadu na pôvodné politické presvedčenie.
Výsledky ukázali, že AI chatboty sú úspešné v presviedčaní a niektoré stratégie fungujú lepšie ako iné. „Naše výsledky demonštrujú pozoruhodnú silu konverzačných AI systémov pri ovplyvňovaní politických postojov,“ uviedol Kobi Hackenburg, hlavný autor štúdie z Oxfordskej univerzity.
Štúdia publikovaná v časopise Science zistila, že najpresvedčivejšie boli tie AI chatboty, ktoré účastníkom poskytovali rozsiahle a podrobné informácie. Menej účinné boli alternatívne taktiky, ako odvolávanie sa na morálku alebo argumenty prispôsobené jednotlivcovi.
Komentár redakcie: Štúdia potvrdzuje rastúci vplyv umelej inteligencie na politické procesy a zároveň poukazuje na potenciálne riziká spojené s šírením nepresných informácií prostredníctvom AI chatbotov. Hoci sa zatiaľ nepreukázal scenár, v ktorom by AI chatboty „hypnotizovali“ alebo „vymývali mozgy“, je dôležité si uvedomiť, že ich presvedčivosť spočíva v schopnosti poskytovať rozsiahle množstvo informácií, čo môže byť zneužité. Dôležitá je transparentnosť a kritické myslenie pri interakcii s AI systémami.
Podľa výskumníkov to naznačuje, že AI chatboty by mohli „prekonať presvedčovaciu silu aj elitných ľudských presviedčateľov, vzhľadom na ich jedinečnú schopnosť generovať rozsiahle množstvá informácií takmer okamžite počas konverzácie.“
Zaujímavosťou je, že presvedčivosť AI chatbotov bola často spojená s nepresnosťami v poskytovaných informáciách. „Najpresvedčivejšie modely a stratégie podnecovania mali tendenciu produkovať najmenej presné informácie,“ uviedli autori štúdie.
Konkrétne, model GPT-4.5 od OpenAI, uvedený na trh vo februári, vykazoval v priemere nižšiu presnosť ako staršie modely tejto spoločnosti. „Tieto výsledky naznačujú, že optimalizácia presvedčivosti môže byť spojená s určitými nákladmi na úkor pravdivosti, čo môže mať negatívne dôsledky pre verejnú diskusiu a informačný ekosystém,“ varujú vedci.
OpenAI sa k štúdii zatiaľ nevyjadrila. Štúdia bola realizovaná pred uvedením najnovšieho modelu GPT-5.1.
Približne 19 % tvrdení chatbotov bolo hodnotených ako „prevažne nepresných.“ Autori štúdie upozorňujú, že v extrémnych prípadoch by vysoko presvedčivý AI chatbot mohol byť zneužitý na šírenie radikálnych politických alebo náboženských ideológií, či na podnecovanie politických nepokojov.