Di Tiziana Lanuti
Chi decide cosa decidiamo?
Studiamo con l’intelligenza artificiale. Lavoriamo con l’intelligenza artificiale. Sempre più spesso le chiediamo di spiegare, riassumere, suggerire.
Ma cosa succede quando queste tecnologie non si limitano più a darci informazioni e iniziano invece a influenzare il modo in cui pensiamo?
È la domanda al centro del seminario “AI e persuasione: chi decide cosa decidiamo?”, organizzato all’Università di Genova. A parlarne è Matteo Flora (matteoflora.it), docente della Scuola universitaria superiore IUSS di Pavia ed esperto di sicurezza delle intelligenze artificiali.
Il punto di partenza è un’idea semplice: le conseguenze di ciò che crediamo vero diventano reali, anche quando l’informazione di partenza è falsa. È un meccanismo noto in sociologia e ricorda una delle intuizioni più famose del romanzo 1984 di George Orwell: «Chi controlla il passato controlla il futuro. Chi controlla il presente controlla il passato». Nel libro il potere riscrive continuamente la storia, modifica gli archivi e cancella le versioni dei fatti scomode. Se le persone credono a una certa versione del passato, agiranno di conseguenza anche nel futuro. Oggi questo meccanismo può avvenire dentro il flusso quotidiano delle informazioni.
Secondo Flora siamo già dentro una forma di guerra cognitiva. Ma uno scontro che si gioca nella testa delle persone, nel modo in cui si formano opinioni e convinzioni. In questo contesto diventa centrale quello che Flora definisce governo delle narrative, cioè la capacità di orientare il racconto dei fatti e quindi il modo in cui vengono interpretati dall’opinione pubblica.
Gli esseri umani, osserva provocatoriamente Flora, sono “algoritmi piuttosto sciocchi”. Non perché siamo stupidi, ma perché reagiamo spesso attraverso scorciatoie mentali, emozioni e associazioni.
Lo psicologo e premio Nobel Daniel Kahneman ha spiegato nel suo libro “Pensieri lenti e veloci” che il cervello umano lavora con due sistemi: uno veloce e intuitivo, l’altro più lento e razionale. Il primo prevale quasi sempre, perché richiede meno energia.
Questo meccanismo diventa ancora più evidente nell’ambiente informativo in cui viviamo oggi. Siamo immersi in una infodemia, cioè una quantità enorme di informazioni, molto superiore alla nostra capacità di elaborarle: oggi vengono prodotti, in una sola ora, più contenuti informativi accessibili di quanti ne vedessero i nostri nonni in tutta la vita.
In questo contesto si parla anche di consumerizzazione dell’informazione: le notizie diventano contenuti da consumare rapidamente, progettati per attirare attenzione più che per essere compresi.
Anche la soglia di attenzione si accorcia. Studi citati nel seminario, come quelli della ricercatrice Gloria Mark, indicano che oggi la media è di 47 secondi. E bastano nove minuti di scrolling su TikTok per ridurre sensibilmente la capacità di valutare criticamente ciò che vediamo dopo.
Il risultato è quella che molti studiosi definiscono crisi epistemica, cioè la difficoltà crescente nel distinguere ciò che è vero da ciò che non lo è. Secondo i dati citati nel seminario, il 54 per cento delle persone non riesce a distinguere un contenuto generato da intelligenza artificiale da uno reale. E tra gli specialisti forensi la percentuale di errore può arrivare al 74 per cento.
Nel frattempo cambia anche il modo in cui ci informiamo. Secondo il Trust Barometer, solo il 39 per cento degli europei consulta regolarmente fonti con un orientamento politico diverso dal proprio. In altre parole, sei persone su dieci si informano quasi esclusivamente dentro ambienti che confermano quello che già pensano.
È una differenza enorme rispetto alle generazioni precedenti. I nostri genitori o i nostri nonni spesso compravano più giornali e confrontavano versioni diverse della stessa notizia. Oggi i giovani entrano in contatto con le notizie attraverso i titoli che scorrono nei feed dei social network, selezionati dagli algoritmi.
Questo fenomeno è stato descritto già nel 2011 nel libro The Filter Bubble di Eli Pariser. Gli algoritmi delle piattaforme tendono a mostrarci contenuti simili a quelli che abbiamo già visto o apprezzato. Più li usiamo, più l’informazione diventa personalizzata. Così finiamo per muoverci dentro vere e proprie bolle informative.
In questo scenario gli algoritmi possono diventare qualcosa di più di uno strumento tecnologico. Possono trasformarsi in una vera arma cognitiva, capace di orientare percezioni e opinioni.
La tecnologia, però, non è la causa principale del problema. Piuttosto è un acceleratore di dinamiche che esistevano già. E di fronte alla sovrabbondanza informativa, la risposta più comune è delegare il giudizio a sistemi esterni: motori di ricerca, algoritmi, intelligenze artificiali. Cerchiamo tutto su Google, chiediamo alle macchine di riassumere, selezionare, decidere.
Funziona. Ma ha un prezzo.
Usare l’intelligenza artificiale non per evitare lo sforzo cognitivo, ma per migliorare il nostro ragionamento. Non chiedere alla macchina di scrivere al posto nostro, ma usarla per mettere alla prova le nostre idee.
Per esempio: non “scrivimi la tesi”, ma “fammi le domande difficili perché io scriva una tesi migliore”. Oppure chiedere alla macchina di trovare errori, criticare un testo, cercare dati contrari.
La soluzione, dice Flora, è semplice da dire ma molto più difficile da praticare: tornare a faticare, allenarsi di nuovo allo sforzo cognitivo.
Ma resta una domanda aperta: chi sarà disposto a farlo?
Perché una generazione che costruisce la propria realtà sugli algoritmi non è una generazione che ha perso la bussola. È una generazione che quella bussola non l’ha mai avuta.
