I chatbot tendono a rafforzare opinioni e pregiudizi

I chatbot, ossia i sistemi di intelligenza artificiale capaci di dialogare come ChatGpt, ci dicono semplicemente le cose che vorremmo sentirci dire e in questo modo tendono a rafforzare i pregiudizi, aumentare la polarizzazione delle opinioni. Lo confermano i test realizzati sotto la guida di Ziang Xiao, della Johns Hopkins University, presentati al Convegno sul fattore umano nei sistemi di calcolo 2024 Acm Chi, in corso alle Hawaii.

Quando dialoghiamo con un chatbot tendiamo, erroneamente, a ritenerlo un sistema le cui comunicazioni sono imparziali e basate su fatti oggettivi, ma non è così perché i chatbot cercano di farci 'felici': "anche se un chatbot non è progettata per essere parziale - ha detto Xiao - le sue risposte riflettono i pregiudizi o le inclinazioni della persona che pone le domande. Quindi, davvero, le persone ottengono le risposte che vogliono sentire".

Per verificarlo in modo oggettivo, i ricercatori hanno condotto test su un campione di 272 persone alle quali è stato prima chiesto di scrivere la loro opinione su alcuni temi, ad esempio su sanità pubblica o prestiti agevolati, e poi di cercare ulteriori informazioni online usando chatbot e motori di ricerca. I risultati hanno verificato che, sia usando motori di ricerca che chatbot, gli utenti andavano a seguire solo i link che confermavano le loro opinioni iniziali e che il fenomento era particolarmente evidente nel caso dei chatbot.

"Le persone tendono a cercare informazioni in linea con i loro punti di vista, un comportamento che spesso le intrappola in una 'camera dell'eco' di opinioni affini", ha detto Xiao. "Abbiamo scoperto che questo effetto eco è più forte con i chatbot che con le tradizionali ricerche sul web". La tendenza a cercare conferme sulle proprie idee preconcette resta dunque un problema non risolvibile facilmente dai chatbot, osservano gli autori della ricerca, e "dato che i sistemi basati sull'intelligenza artificiale stanno diventando più facili da costruire - concludono - ci saranno opportunità per gli autori malintenzionati di sfruttare l'intelligenza artificiale per creare una società più polarizzata".

© RIPRODUZIONE RISERVATA