Sezioni
Edizioni locali
10/02/2026 ore 08.03
Opinioni

Torino, la foto falsa e il cortocircuito istituzionale: quando l’IA mette in crisi la fiducia nello Stato

Il caso dello scatto ritoccato diffuso dopo gli scontri al corteo per Askatasuna apre un problema che va oltre l’episodio: nell’era dell’intelligenza artificiale, un errore può minare la fiducia pubblica e rafforzare la sfiducia

di Raffaele Florio

Negli scontri di Torino dello scorso 31 gennaio, durante la manifestazione contro lo sgombero del centro sociale Askatasuna, non c’è stata soltanto la consueta e drammatica sequenza di violenze, feriti, tensioni e accuse incrociate. A distanza di giorni, quello che resta non è più solo il bilancio degli agenti e dei manifestanti contusi, ma un cortocircuito istituzionale che apre interrogativi molto più profondi sul rapporto tra Stato, comunicazione e verità nell’epoca dell’intelligenza artificiale.

La diffusione, da parte di canali riconducibili alla Polizia di Stato, di un’immagine poi rivelatasi falsa – generata o alterata con l’uso dell’IA – ha finito per produrre un effetto opposto rispetto a quello probabilmente ricercato. L’intento apparente era rafforzare, attraverso un’immagine emotivamente potente, la rappresentazione della violenza subita dagli agenti e suscitare solidarietà nei loro confronti. Ma proprio quella scelta ha alimentato sospetti, polemiche e una spirale di diffidenza che oggi rischia di travolgere non soltanto l’episodio specifico, bensì l’affidabilità complessiva delle fonti istituzionali.

La foto falsa, l’IA e il corto circuito istituzionale: così la Polizia ha alimentato il complotto dopo gli scontri di Torino

Il punto, ed è bene chiarirlo subito, non è mettere sotto accusa il corpo della Polizia, né negare la gravità degli scontri o le responsabilità di chi ha praticato la violenza. I fatti documentati, i video e i referti medici parlano già con sufficiente chiarezza. Il nodo politico e culturale sta altrove: nell’uso disinvolto, o quantomeno superficiale, di strumenti capaci di alterare la percezione della realtà senza che venga dichiarato esplicitamente.

Quando un’istituzione dello Stato diffonde un’immagine, quella immagine non è mai neutra. Viene percepita come una testimonianza, come un documento, come una prova. Se quella prova si rivela artificiale, anche solo in parte, il danno non è limitato alla singola comunicazione sbagliata: il danno investe la credibilità dell’istituzione che l’ha veicolata. Ed è un danno che si amplifica in un contesto già segnato da una profonda sfiducia verso tutto ciò che è ufficiale.

Qui si innesta il vero paradosso. Nel tentativo di rafforzare una verità – la violenza contro le forze dell’ordine – si è offerto involontariamente un appiglio a chi quella verità vuole negarla. Le stesse immagini che dovevano chiudere il dibattito hanno finito per riaprirlo in modo tossico, alimentando teorie di manipolazione, sospetti di costruzione artificiale dei fatti e un generale clima di delegittimazione.

Questo episodio racconta molto del tempo in cui viviamo. L’intelligenza artificiale ha reso sempre più sottile il confine tra reale e verosimile. Ciò che appare autentico non è più necessariamente autentico. In questo contesto, la responsabilità di chi comunica da una posizione istituzionale diventa enorme. Non basta più “prendere un’immagine dal web”, né affidarsi alla buona fede. Servono filtri, controlli, competenze, ma soprattutto una cultura della trasparenza che oggi sembra ancora insufficiente.

C’è poi un secondo livello di riflessione, più politico. La comunicazione istituzionale non è mai solo informazione: è anche costruzione di senso, indirizzo emotivo, orientamento del discorso pubblico. In un Paese attraversato da tensioni sociali, polarizzazione e sfiducia, ogni scelta comunicativa contribuisce a modellare il clima generale. Un errore come quello di Torino non è quindi un semplice incidente tecnico, ma un segnale di fragilità sistemica.

Fragilità che rischia di essere sfruttata. Perché se le istituzioni appaiono imprecise, opache o contraddittorie, si rafforza l’idea che nulla sia davvero verificabile. È il terreno ideale per il complottismo, per la radicalizzazione, per la delegittimazione di qualunque autorità. Un terreno che finisce per danneggiare tutti, a partire proprio da chi indossa una divisa e opera quotidianamente in condizioni difficili.

La questione centrale diventa allora una: esistono regole chiare sull’uso dell’intelligenza artificiale nella comunicazione pubblica? E se non esistono, perché? Perché un’immagine generata artificialmente non viene segnalata come tale? Perché non esiste un protocollo pubblico e vincolante che stabilisca cosa può essere diffuso e in che modo?

Non sono domande tecniche, ma democratiche. Riguardano il rapporto tra cittadini e Stato, tra potere e informazione, tra autorità e verità. Ed è proprio per questo che il caso di Torino merita di essere analizzato oltre l’emotività del momento, oltre la tifoseria, oltre lo scontro ideologico.

Difendere la credibilità delle istituzioni significa anche pretendere che esse adottino standard più alti di rigore, non più bassi. Significa riconoscere che, nell’era dell’intelligenza artificiale, la trasparenza non è un optional, ma una condizione di sopravvivenza della fiducia pubblica.

Se da questa vicenda non nascerà una riflessione seria e strutturata, il rischio è che episodi simili si ripetano, con effetti sempre più corrosivi. E allora sì, il problema non sarà una foto falsa, ma un Paese che non riesce più a distinguere con certezza tra realtà e rappresentazione.

?>