Sezioni
Edizioni locali
14/03/2025 ore 11.12
Attualità

Dal video di Trump su Gaza al deepfake ad Acri, i pericoli dell’Intelligenza artificiale che mescola vero e falso

Esiste un regolamento per fare in modo che l’IA venga usata in modo sicuro ed etico. Eppure non sempre accade e quanto realizzato con le moderne tecnologie può incidere profondamente nella vita quotidiana di tutti noi

di Mario Saccomanno

Nella prima traccia del suo ultimo disco intitolato “Io non mi sento italiano” Giorgio Gaber cantava «il tutto è falso / il falso è tutto». Aggiungeva, nella parte conclusiva del brano: «Il falso è misterioso / e assai più oscuro / se è mescolato / insieme a un po’ di vero». Si tratta di un asserto che può richiamare alla mente una corposa produzione apocrifa (fatta, tra l’altro, di documenti, dipinti, testamenti e denaro) capace di rappresentare nei secoli una sorta di fil rouge in grado finanche di modificare lo scorrere degli eventi più importanti. Su tutti, si pensi alla Donazione di Costantino, editto col quale l’imperatore romano attribuiva specifiche concessioni e privilegi al pontefice Silvestro I. Il falso, dimostrato dal filologo Lorenzo Valla, venne utilizzato, specialmente nel contesto medievale, sia per rivendicare determinati possedimenti, sia per avvalorare il potere temporale della Chiesa. Un altro arcinoto rimando sono i 24 Protocolli dei Savi di Sion, creati nei primi anni del XX secolo, il cui obiettivo era l’alimentazione dell’antisemitismo.

Le parole di Gaber assumono un tono pressoché profetico se si legano a stretto giro all’attualità e all’Intelligenza Artificiale (IA in sigla italiana oppure AI, com’è più abituale, se l’acronimo si ricava dal corrispettivo inglese Artificial Intelligence). Qui di seguito si citeranno tre ricorrenze completamente differenti dimodoché si possa mostrare proprio l’incidenza che ormai ricopre l’AI nella sfera quotidiana.

Intanto, vale senz’altro la pena riferire che esiste un regolamento, l’AI Act. Lo scopo è avere a disposizione un quadro normativo uniforme che faccia sì che l’AI venga usata in modo sicuro ed etico. Non è questo il contesto per affrontare in dettaglio i vari punti contenuti nella legge e la sua applicazione, ma basta riferire che, nella regolamentazione, conformata sul rischio, è indicato che i contenuti manipolati o completamente frutto dell’AI debbano essere resi noti. Dunque, va sempre rilevata l’identità digitale.

Tale modalità d’azione non è accaduta in “Sono solo canzonette”, documentario RAI sul noto cantautore Edoardo Bennato andato in onda il 19 febbraio scorso. Infatti, diversi filmati b-roll (cioè, scene che vanno a integrare le riprese fondamentali) presenti nel racconto scritto e diretto da Stefano Salvati fanno uso dell’AI generativa. Nel telespettatore, la realtà e la finzione digitale si sono frammiste e non hanno coinvolto solo il protagonista, il “pirata del rock”, ma anche figure e ricorrenze storiche. Come unico esempio, basti riferire che nella visione appare pure il segretario del Partito Comunista Italiano Enrico Berlinguer. In dettaglio, sembra che il politico italiano, intento nel documentario a salutare la folla, prenda vita sullo schermo a partire da una foto. Dunque, l’AI può a tutti gli effetti intervenire nel passato e, volendolo, modificarlo. Certo, non è in alcun modo questo il caso specifico a destare particolare preoccupazione. L’esempio del documentario su Bennato, in cui l’AI generativa è semplicemente un gradevole corollario, serve soltanto a porre l’accento sulla possibilità di partire da un’immagine per creare le azioni più disparate. Questi atti, immessi in altri contesti, sorretti dai miglioramenti tecnologici che si verificano in modo vertiginoso, possono giungere già oggi stesso al non far dubitare della loro veridicità. Da qui, non sorprende che le immagini e i video di cui ognuno fruisce giornalmente nei modi più disparati siano accompagnati da un dubbio divenuto ormai abituale e che gravita attorno a una specifica domanda: «È vero?».

Eppure, a ben vedere, non si tratta solo di far vivere il passato nei modi che si vuole; a essere coinvolto è anche il futuro, che può essere preveduto e, soprattutto, mostrato. L’esempio più semplice (e rilevante) che si può addurre in merito è il video pubblicato il 26 febbraio scorso dal presidente degli Stati Uniti d’America Donald Trump sull’account ufficiale della sua piattaforma Truth. Intrecciata saldamente a un’insulsa canzone, le macerie della Gaza odierna mutano in una sorta di nuova Dubai. Così, la vita futura scorre ai lati di una statua d’oro 2di Trump, con Musk festante tra una poggia di banconote e con Netanyahu e lo stesso Trump sdraiati a bere un drink e a prendere il sole ai bordi di una piscina. Ora, quanto importa comprendere non è tanto la veridicità dei contenuti del video. Difatti, in questo caso va da sé che una dicitura sulle immagini non inciderebbe sulla sostanza (in quanto collocate nel futuro e, da qui, inevitabilmente, non veritiere). A dover essere messi in risalto sono almeno due aspetti. Il primo è quello di agire utilizzando la generazione del filmato come distrazione per distogliere lo sguardo dal presente, dagli innumerevoli morti e dalle atroci sofferenze. Così facendo, si sposta il dibattito e l’interesse dalla Cisgiordania e dalla Gaza odierna, laddove non è cessata affatto la tensione e non si è dissolto in alcun modo l’incubo della guerra, alla Gaza del futuro, alla “Trump Gaza”. Già questo potrebbe bastare, ma ai fini di tale contributo è ancora più rilevante far notare un altro aspetto: le oscene immagini del video trumpiano, così distanti dalla realtà odierna, col solo fatto di essere state immesse nella rete ed essere già state fruite da un numero impressionante di persone, esistono a tutti gli effetti nelle menti di chi le ha visionate.

Sono questo tipo di azioni, compiute grazie al sostegno dell’AI, che diventano delle vere e proprie scorrerie quotidiane che si compiono con sempre più regolarità nell’intimità di chiunque. Dunque, ecco il crearsi di un orizzonte “altro” che invade sia il passato, sia il futuro, incidendo, per forza di cose, nel presente. Da qui, il bisogno di adeguate riflessioni, della necessità di costruire i modi per arginare questo processo in atto già da tempo che può segnare profondamente le esistenze. È possibile presentare quest’ultimo aspetto col terzo esempio che si vuole analizzare. In tal caso non c’è un futuro da paventare. La generazione di un contenuto sostenuto dell’AI non mira neppure alla riformulazione esplicativa del passato, ma ha come unico obiettivo quello di incidere fortemente nel presente con conseguenze denigratorie percepibili sin da subito.

Deepfake ad Acri, centinaia di foto sexy realizzate “rubando” il viso a minorenni e diffuse su Telegram: scattano le denunce

Il riferimento è all’episodio accaduto giorni fa ad Acri, in provincia di Cosenza, dove oltre 200 minori sono state vittime di deepfake. A essere diffuse sono state all’incirca 1.200 immagini manipolate con l’ausilio dell’AI. Si tratta di finti nudi che coinvolgono ragazze adolescenti. A originare e a diffondere le immagini sarebbero stati alcuni coetanei, compagni di scuola. Dal furto dei volti si è costruita una realtà mai esistita e quelle immagini, anche se generate, non hanno alleviato in alcun modo l’entità del danno psicologico e sociale delle persone coinvolte. Non si è trattato sicuramente del primo episodio avente questa portata. Quanto ne consegue è che, restando in balìa dell’AI, osservando inermi il falso mescolarsi al vero e farsi oscuro e misterioso, parafrasando nuovamente Gaber, nessuno può essere più testimone del proprio vissuto. Di conseguenza, senza porre i dovuti argini, ecco irrimediabilmente il falso diventare tutto, ecco il tutto diventare falso.