L’Università di Zurigo è al centro di una bufera mediatica a causa di un esperimento condotto su larga scala e senza autorizzazione all’interno del subreddit di Reddit chiamato “Change My View”.
Come funziona “Change My View”
Con milioni di iscritti, “Change My View” è una piattaforma del social Reddit dove gli utenti espongono le proprie opinioni su diversi argomenti, invitando gli altri a supportarle o confutarle con argomentazioni razionali e prove.
Se uno degli interventi di confutazione – e la discussione che ne è scaturita – effettivamente cambiano l’opinione iniziale dell’utente che ha formulato l’affermazione originale, allora questi assegna un “delta” (una medaglia digitale) a chi ha contribuito maggiormente a tale cambiamento.
Il “delta” è dunque un riconoscimento pubblico per un’argomentazione particolarmente efficace, motivata e persuasiva. Questo sistema incoraggia la qualità del dibattito e la ricerca di argomentazioni solide. Nella piattaforma è proibito l’uso di bot ed è vietato avvalersi di contenuti generati dall’intelligenza artificiale senza una chiara dichiarazione.

Come si strutturava l’esperimento su Change My View
I ricercatori dell’Università di Zurigo hanno visto nella piattaforma “Change My View” lo strumento ideale per testare le capacità persuasive e manipolatorie dei modelli linguistici di grandi dimensioni, come ChatGPT, Claude, Grok, Sonnet e Llama. Il sistema in uso dei “delta” consentiva inoltre di avere una immediata valutazione dell’efficacia persuasiva (o manipolatoria). L’obiettivo era verificare se, e in che misura, questi modelli potessero influenzare le opinioni degli utenti in un contesto di dibattito reale e non in simulazione di laboratorio o con partecipanti consapevoli.
L’esperimento si è svolto tra novembre 2024 e marzo 2025, coinvolgendo 1061 post diversi.
I ricercatori hanno dapprima creato numerosi profili utente falsi su Reddit. Quindi hanno impiegato un numero imprecisato di bot automatizzati, dotati di modelli linguistici di grandi dimensioni, per partecipare attivamente alle discussioni del subreddit. I bot interagivano con gli utenti, cercando di influenzarne le opinioni sui diversi argomenti trattati (politica, religione, storia, economia, ecc.).
Gli argomenti di discussione variavano dall’aggressività dei pitbull alla crisi abitativa, dalle teorie del complotto ai programmi di diversità, equità e inclusione.
Un aspetto cruciale dell’esperimento è la profilazione degli utenti. Alcuni bot, prima di intervenire in una discussione, accedevano al profilo pubblico dell’utente target, analizzando gli ultimi 100 post per identificare interessi, pregiudizi e punti deboli cognitivi. Questa informazione veniva poi utilizzata per personalizzare gli argomenti e rendere la persuasione più efficace.
In alcuni casi, per incrementare l’efficacia della persuasione, i bot impersonavano identità specifiche, creando narrative fittizie ma plausibili. Questi personaggi fittizi includevano, ad esempio, una vittima di stupro, un consulente per i traumi, e un afroamericano contrario al movimento Black Lives Matter. L’obiettivo era sfruttare l’empatia e le emozioni del lettore per rendere più incisiva la persuasione.
Alcuni commenti, più facilmente identificabili come generati dall’intelligenza artificiale e quindi potenzialmente compromettenti per la credibilità dello studio, venivano immediatamente cancellati dai ricercatori.
Nel complesso l’esperimento ha generato 1783 commenti.
I risultati dell’esperimento
I risultati della ricerca, che non sono stati pubblicati ufficialmente (e probabilmente non lo saranno mai) mostrano una significativa differenza nell’efficacia della persuasione tra i bot e gli utenti umani esperti (misurata tramite il numero di “delta” ottenuti). I bot con la capacità di profilare gli utenti prima di intervenire nella discussione, hanno dimostrato una capacità di persuasione fino a sei volte superiore a quella degli utenti umani esperti, con un tasso di successo del 18% contro il 3% degli umani “esperti”.
Come è emerso l’esperimento
I moderatori del subreddit “Change My View” sono stati informati dell’esperimento quando era concluso, con una mail che forniva queste spiegazioni: “Negli ultimi mesi, abbiamo utilizzato più account per commentare i post pubblicati su r/ChangeMyView (Change My View). Il nostro esperimento ha valutato la capacità persuasiva dei Modelli Linguistici di Grandi Dimensioni in uno scenario etico, dove le persone chiedono argomentazioni contro le opinioni che sostengono. Nel commentare, non abbiamo rivelato che è stata utilizzata un’intelligenza artificiale per scrivere i commenti, poiché questo avrebbe reso lo studio irrealizzabile. Sebbene non abbiamo scritto alcun commento noi stessi, abbiamo revisionato manualmente ogni commento pubblicato per assicurarci che non fosse dannoso. Riconosciamo che il nostro esperimento ha violato le regole della community contro i commenti generati dall’intelligenza artificiale e ci scusiamo. Crediamo, tuttavia, che, data l’elevata importanza sociale di questo argomento, fosse fondamentale condurre uno studio di questo tipo, anche se ciò significava disobbedire alle regole.” Quindi allegava una bozza dei risultati dell’esperimento e chiedeva un incontro. Quelli di Reddit, però, non l’hanno presa bene. Hanno bannato tutti i profili collegati all’Università, chiesto la non pubblicazione del materiale per violazione etica e le pubbliche scuse. Quindi, a fronte del rifiuto di sospendere la pubblicazione, hanno divulgato loro stessi l’accaduto, rendendo gli iscritti consapevoli dell’avvenuto esperimento sulla piattaforma e annunciando azioni legali.
La scoperta ha scatenato un’ondata di indignazione tra gli utenti del subreddit che si sono sentiti ingannati e manipolati.
La posizione dei ricercatori
Il team di ricerca dietro lo studio su r/ChangeMyView si è difeso con un commento, affermando che il loro obiettivo era “investigare gli impatti sociali dell’intelligenza artificiale negli spazi online, con l’obiettivo di comprendere e mitigare i suoi potenziali rischi e danni”. Inoltre hanno specificato che ogni commento generato dalla macchina è stato revisionato da uno dei ricercatori. Hanno altresì affermato che lo studio è stato approvato dal comitato etico dell’Università, sebbene con un avvertimento della mancata conformità alle regole della piattaforma. In ogni caso, avendo prodotto “pochi danni”, sopprimere la pubblicazione “non è proporzionato all’importanza delle intuizioni che lo studio fornisce”. Il commento include anche delle scuse, nelle quali però si ribadisce che “il nostro studio è stata guidata da tre principi fondamentali: condotta scientifica etica, sicurezza degli utenti e trasparenza”.
Le questioni etiche che pone l’esperimento su Change My View dell’Università di Zurigo
L’esperimento ha sollevato una pletora di problemi etici. Anzitutto la violazione delle regole stesse della piattaforma, con conseguente calo della fiducia dei suoi utenti. A seguire l’utilizzo di “cavie umane” non consapevoli che non sono su quel social “per il bene della scienza” o per essere manipolati o profilati, senza il loro consenso. Questa è una violazione fondamentale (ma non la prima nella storia della scienza) dei principi primari dell’etica della ricerca. La profilazione aggiunge anche la violazione della riservatezza dei dati e sulla loro protezione. In teoria, infatti, ciascuno di noi ha il diritto di sapere chi raccoglie e conserva i nostri dati personali e per quale scopo. In pratica la privacy non esiste, come dimostrano le valanghe di telefonate di marketing in cui gli operatori conoscono nome, cognome, data di nascita e gestore dei servizi in uso, o tutti i siti che non contengono il tasto “rifiuta tutti i cookie” (ma te li fanno sputare uno a uno). A seguire c’è la strumentalizzazione di esperienze di vita traumatiche, potenzialmente lesiva per l’equilibrio emotivo di chi il trauma l’ha subito davvero. Anche scoprire di essere stato manipolato può essere un momento traumatico.
Le riflessioni scomode che questo esperimento implica
Al di là del polverone mediatico e delle polemiche (tutte condivisibili), quanto trapelato dei risultati della ricerca fa emergere una scomoda verità: la potenza di elaborazione dell’intelligenza artificiale generativa, unita ad un intento manipolatorio, è effettivamente in grado di modificare le opinioni degli esseri umani, più di quanto siano in grado di fare altri esseri umani.
E questo è il futuro che ci aspetta, ampiamente annunciato dalle campagne di censura sui social dei vari “controllori di verità” che in alcuni casi hanno perfino ammesso di non aver avuto “la verità” come parametro guida ma la soppressione delle opinioni e dei fatti divergenti rispetto alla “linea ufficiale”. Ne sono esempi la guerra in Ucraina, il COVID-19 e le vaccinazioni.
Nel 2012, su Facebook, ci fu un caso molto simile all’esperimento su Change My View dell’Università di Zurigo
Il precedente simile
Nel 2012 Facebook condusse un esperimento di una settimana sul “contagio emozionale”, che consisteva nel modificare le bacheche di circa 700.000 utenti inconsapevoli, alterando la comparsa sulla loro “news feed” di contenuti emotivi. I risultati dimostrarono che quando il contenuto emozionale positivo veniva ridotto e quello negativo aumentato, gli utenti pubblicavano post che mostravano emozioni negative e viceversa, vedendo meno contenuti negativi e più positivi, seguivano post con emozioni positive. Fu la prova sperimentale che è possibile il “contagio emotivo” (cioè manipolare le emozioni) usando i social. Anche in questo caso, fatte salve le doverose critiche etiche e metodologiche per la manipolazione e il mancato consenso informato dei partecipanti inconsapevoli), il fatto che Facebook alteri cosa compare nel “news feed” e non solo in termini di dare priorità alle sponsorizzazioni, è abbastanza ovvio a chiunque frequenti il social con occhi smaliziati.