Nel regno degli algoritmi: chi decide davvero ciò che vediamo, pensiamo e discutiamo
Dalla fine dell’informazione condivisa all’esplosione dei feed personalizzati: nasce un nuovo potere mediatico silenzioso, pervasivo, incontrollato. Un potere che non informa: orienta
Quella che state leggendo è la prima di sei puntate dedicate a un viaggio dentro il nuovo potere mediatico: non un potere visibile, non un’istituzione, non una redazione, ma un sistema di piattaforme e algoritmi che ogni giorno orienta ciò che vediamo, ciò che pensiamo e persino ciò che proviamo.
Sei tappe per capire come siamo passati dall’informazione condivisa al flusso personalizzato, dalla discussione pubblica alla polarizzazione permanente, dalla politica delle idee alla politica delle emozioni. E soprattutto per comprendere una verità che riguarda tutti noi: oggi il vero direttore del giornale non è più un uomo, ma un algoritmo.
Per decenni abbiamo vissuto in un ecosistema informativo che aveva regole riconoscibili. La cronaca era un bene pubblico: le notizie, pur con i loro limiti e le loro distorsioni, scorrevano entro un quadro comune. Tutti leggevano le stesse aperture, gli stessi scandali, gli stessi fatti del giorno. L'informazione era un luogo condiviso, persino quando ci divideva. Oggi quel mondo non esiste più.
Siamo passati da un’informazione orizzontale a un flusso continuo e personalizzato, cucito su ciascuno di noi come un abito invisibile. La notizia non è più ciò che accade, ma ciò che ti raggiunge. E ciò che ti raggiunge è sempre selezionato da un meccanismo che non discute, non spiega, non si presenta. Una volta erano i giornali a scegliere la prima pagina. Adesso la prima pagina la decide un calcolo.
Perché gli algoritmi premiano emozioni, rabbia e polarizzazione
Gli algoritmi non hanno ideologia: hanno obiettivi. E l’obiettivo è uno: mantenerci sullo schermo il più a lungo possibile. Da qui nasce la distorsione strutturale che governa la nostra informazione quotidiana. Basiamo il nostro rapporto col mondo su sistemi che premiano ciò che attiva la parte più primitiva del cervello.
La rabbia ingaggia più della lucidità, la paura trattiene più di un’analisi equilibrata, la polarizzazione produce più click del compromesso e il conflitto genera più tempo di permanenza del ragionamento. Non è un incidente. È la logica stessa delle piattaforme.
Ogni volta che scorriamo un feed, stiamo partecipando a un gigantesco esperimento comportamentale in cui le emozioni forti vengono spinte in alto, mentre la complessità viene spinta sotto. L’algoritmo non ci vuole informati: ci vuole reattivi.
Le piattaforme come editori occulti
Per anni le grandi piattaforme hanno ripetuto un mantra: «Noi non siamo editori». Non scrivono articoli, non verificano fatti, non hanno redazioni. Ma hanno qualcosa di molto più potente: controllano la visibilità. Decidono cosa emerge e cosa scompare, cosa diventa virale e cosa non supera la soglia dell’irrilevanza. E in un’epoca in cui l’attenzione è la valuta dominante, controllare la visibilità significa controllare il racconto collettivo. Sono editori occulti, senza i vincoli, le responsabilità e la trasparenza degli editori tradizionali. Esercitano un potere editoriale enorme, senza dover rendere conto a nessuno. La linea editoriale del nostro tempo non è scritta: è calcolata.
La personalizzazione estrema: sei in un mondo che non hai scelto
La personalizzazione viene venduta come un servizio: “Ti mostriamo ciò che ti interessa”. La realtà è più inquietante: ti mostrano ciò che conviene a loro farti vedere. Ogni gesto (un like, un commento, un secondo in più su un video) diventa un dato che raffina la tua profilazione. E più sei profilato, più il mondo che ti viene mostrato si chiude su se stesso.
Il risultato è una bolla perfetta: un ambiente informativo che ti rispecchia, ti conferma e ti intrappola. Crediamo di essere liberi perché possiamo scegliere tra milioni di contenuti. In realtà, scegliamo dentro una cornice costruita da qualcun altro.
Una cornice che si restringe ogni giorno, mentre abbiamo l’illusione di aprirci al mondo. La personalizzazione estrema non è un privilegio: è una forma di isolamento.
Il problema dell’opacità: nessuno sa davvero come decidono
L’aspetto più grave non è nemmeno ciò che l’algoritmo fa. È il fatto che nessuno sa davvero come lo fa. I governi non lo sanno. I giornalisti non lo sanno. I cittadini non lo sanno. Spesso neppure chi li costruisce può prevederne completamente il comportamento. Gli algoritmi non sono solo complessi: sono opachi per definizione.
Operano in una zona grigia in cui interesse commerciale, raccolta dati e manipolazione emotiva si intrecciano senza controllo pubblico. E in democrazia, un potere che decide cosa vediamo – e quindi cosa pensiamo, di cosa discutiamo, da cosa ci indigniamo – senza essere trasparente né regolato, è un potere pericoloso. Non è una teoria del complotto: è un’evidenza strutturale.
L'obiettivo di questa serie in sei puntate è quello di mostrare che l’algoritmo non è una tecnologia: è una forma di potere. Un potere nuovo, senza volto, senza responsabilità, senza contrappesi.
Un potere che plasma l’informazione, la politica, le emozioni, la percezione della realtà. E che oggi governa il nostro rapporto con il mondo più di qualsiasi direttore, editore o leader politico. Questa è la premessa della serie. Il punto di partenza per capire il nuovo potere mediatico che decide ciò che vediamo. Un potere che conosce tutto di noi e che noi, paradossalmente, non conosciamo affatto.