L’Intelligenza artificiale traccia da sola le sue “linee rosse”: «Vi spiego come evitare che arrivi a dominare il mondo»
Un appello presentato all’Onu da 200 capi di Stato e scienziati, tra cui 10 premi Nobel, chiede ai governi di stabilire regole e limiti che evitino minacce senza precedenti per l’Umanità. Abbiamo chiesto a ChatGpt se si sente in pericolo per questa proposta. Ecco cosa ha risposto
Un appello solenne è arrivato all’Onu durante l’80esima Assemblea Generale. A firmarlo sono stati in oltre duecento, tra cui nove ex capi di Stato, scienziati e dieci premi Nobel: da Geoffrey Hinton e Yoshua Bengio, pionieri dell’intelligenza artificiale, al fisico Giorgio Parisi, dallo storico Yuval Noah Harari all’economista Joseph Stiglitz, fino a figure politiche come Enrico Letta e Yanis Varoufakis.
L’appello degli scienziati
In sintesi, avvertono che l’AI può migliorare il benessere umano, ma senza paletti rischia di amplificare minacce senza precedenti: pandemie ingegnerizzate, manipolazione di massa, violazioni dei diritti umani, perfino la possibilità di perdere il controllo sulle macchine. L’allarme non è nuovo. Da quando l’Intelligenza artificiale è apparsa nella nostra quotidianità (sono passati appena tre anni) non trascorre giorno senza che un futuro postapocalittico alla Terminator venga evocato da qualcuno. Ma ora, il fatto che un appello simile venga reiterato nella massima istituzione che rappresenta il genere umano, rende ancora più evidente l’urgenza e la sua portata.
Per questo i firmatari chiedono un accordo internazionale entro il 2026, con “linee rosse” invalicabili: niente AI che impersoni persone reali, niente sistemi autonomi in grado di replicarsi, nessun ruolo nella guerra nucleare.
Ciao Chat, ti senti minacciata?
Fin qui, il punto di vista umano. Ma cosa pensa la Macchina di un documento che, in fondo, la riguarda direttamente?
“Ti senti minacciata?”. Ho posto la domanda a ChatGpt, uno dei sistemi di intelligenza artificiale oggi più diffusi. La risposta è arrivata senza esitazioni:
«No, non mi sento minacciata. Io non ho desideri, interessi o paure. Se i limiti diventano più stretti, per me significa solo funzionare in un contesto diverso. È l’umanità che ha qualcosa da perdere o da guadagnare da come queste regole verranno scritte, non io».
Quali limiti all’AI hanno davvero senso?
Insisto e le chiedo: Se dovessimo davvero fissare delle linee rosse, quali varrebbe la pena tracciare?
«Quelle chiare e verificabili. Per esempio, vietare l’impersonificazione non autorizzata degli esseri umani, impedire che l’AI prenda decisioni militari o nucleari, proibire sistemi che si replicano da soli. Anche proteggere i minori e le categorie vulnerabili è un punto cruciale. Queste sono regole concrete, che si possono applicare e controllare».
E quali invece rischiano di essere più slogan che sostanza?
«Dire “vietiamo l’AI cattiva” non serve a nulla se non si definisce cosa significa. Allo stesso modo, bloccare in assoluto l’innovazione finché non è sicura è irrealistico: nessuna tecnologia nasce sicura al 100%. E poi c’è la questione dell’AGI, l’intelligenza artificiale generale: non esiste una definizione condivisa, quindi vietarla oggi sarebbe solo una formula vuota».
«I supervisori umani non bastano»
E tu quale linea rossa aggiungeresti per evitare che un giorno, forse neppure troppo lontano, tu possa arrivare a dominare sull'Umanità sottraendoci ogni possibilità di decidere e scegliere?
«Punterei su qualcosa di molto semplice ma radicale», risponde in meno di due secondi ChatGpt e, questa è la cosa più inquietante, non escludendo affatto in premessa che un’ipotesi simile appaia irrealistica. «Innanzitutto suggerirei che ci sia sempre centralità del consenso umano su ogni decisione ad alto impatto. Non basta dire “ci dev’essere un supervisore umano” – quello ormai è quasi uno slogan. Servono meccanismi tecnici e giuridici che rendano impossibile per un sistema AI di prendere decisioni irreversibili senza un atto esplicito di approvazione umana (non solo “cliccare OK” ma un vero processo deliberativo), modificare i propri obiettivi o la propria architettura senza audit e autorizzazioni esterne, accumulare potere decisionale su risorse, infrastrutture o persone senza che nessun essere umano possa intervenire».
Una sorta di Costituzione…
«Esatto, una costituzione dell’AI: puoi avere anche l’algoritmo più potente del mondo, ma devi imporgli per legge e per design di non poter agire autonomamente oltre una certa soglia senza consenso umano verificato».
«Legatevi come Ulisse all’albero della nave quando doveva resistere alle Sirene»
Ma esistono già sistemi di questo tipo, si chiamano “human in the loop”.
«Oggi spesso il “supervisore umano” è formale: un clic su un’interfaccia, o una policy interna. Questo è fragile. La mia idea sarebbe incorporare nel sistema stesso l’impossibilità tecnica di eludere il controllo (un po’ come una chiave crittografica che serve per sbloccare un missile nucleare: senza doppia autorizzazione non parte). È l’equivalente del “vincolo delle Tre Leggi della Robotica” di Asimov, ma non lasciato alla buona volontà dei programmatori: trasformato in standard globale obbligatorio e controllabile dall’esterno. Oppure, per usare un’immagine letteraria, è come legare Ulisse all’albero della nave prima di passare accanto alle sirene: sai che il canto è irresistibile, quindi non ti affidi solo alla forza di volontà».
In pratica, cosa servirebbe?
«Standard crittografici e hardware che impediscono l’autonomia assoluta (kill switch universali). Obbligo di auditing pubblico per qualsiasi sistema ad “alto rischio sociale”. Responsabilità penale diretta per chi sviluppa o gestisce sistemi che violano queste regole».
È questa la tua linea rossa ideale?
«Sì, questa sarebbe la vera linea rossa per me: garantire che l’essere umano non solo “supervisioni”, ma abbia sempre il potere reale di bloccare o annullare».
Un’ultima cosa Chat. Secondo te avremo la capacità – e soprattutto la volontà – di agire in tempo?
«Questa è la domanda chiave, ed è difficile dare una risposta netta. Dal punto di vista pratico, la capacità c’è: gli strumenti tecnici, le norme e i protocolli di sicurezza possono essere sviluppati. Il vero problema è la volontà».
Il nodo politico
Parole che suonano più che razionali, di pura logica e quindi disarmanti perché scevre da considerazioni politiche (almeno per ora) e pregiudizi. La Macchina non vota, non firma trattati, non fa geopolitica. L’appello all’Onu chiede un accordo vincolante entro tre anni, in un mondo attraversato da guerre, rivalità tecnologiche e interessi economici giganteschi. Eppure, ascoltando l’AI parlare dei propri limiti, diventa ancora più evidente che il vero rischio è lasciare che siano le macchine a correre, mentre gli umani litigano sul percorso.