https://pixabay.com/it/illustrations/intelligenza-artificiale-cervello-4389372/
Superintelligenza artificiale: oltre 800 esperti chiedono una moratoria globale
Scienziati, politici, imprenditori e personalità pubbliche di tutto il mondo invocano una sospensione dello sviluppo della superintelligenza artificiale. Il rischio, secondo la dichiarazione del Future of Life Institute, è che questa tecnologia possa evolversi oltre il controllo umano.
Oltre 800 personalità internazionali tra scienziati, leader politici, imprenditori e artisti hanno firmato una dichiarazione congiunta che chiede di sospendere lo sviluppo della superintelligenza artificiale, una forma di IA che, pur non ancora esistente, potrebbe rappresentare una minaccia per la sopravvivenza dell’umanità.
La proposta, promossa dal Future of Life Institute — organizzazione no-profit statunitense che da anni si occupa di sicurezza tecnologica — chiede un divieto temporaneo fino a quando non sarà raggiunto un consenso scientifico sul suo sviluppo controllato e sicuro, e fino a quando non verrà ottenuto un sostegno pubblico adeguato.
Una mobilitazione senza precedenti
L’appello ha raccolto firme trasversali, a dimostrazione di una preoccupazione condivisa che travalica discipline e orientamenti politici.
Tra i firmatari figurano Geoffrey Hinton, premio Nobel per la Fisica nel 2024 e considerato uno dei padri dell’intelligenza artificiale moderna, e Stuart Russell, professore di informatica all’Università della California a Berkeley.
Accanto agli scienziati, hanno aderito rappresentanti del mondo tech come Steve Wozniak, co-fondatore di Apple; figure politiche come Steve Bannon, Susan Rice e l’ex capo di Stato Maggiore USA Mike Mullen; europarlamentari tra cui Brando Benifei, ex relatore dell’AI Act; e persino leader religiosi come Paolo Benanti, consigliere del Papa per le questioni etiche legate all’IA.
Non mancano anche celebrità del mondo dello spettacolo, come Will.i.am e la coppia reale Harry e Meghan Markle, segno che il tema è ormai entrato nel dibattito pubblico globale.
Superintelligenza: la frontiera più pericolosa dell’IA
Se l’intelligenza artificiale attuale punta a eguagliare l’intelletto umano, la superintelligenza rappresenta un livello superiore, teorico ma plausibile, in cui le capacità cognitive delle macchine superano quelle dell’uomo.
Secondo gli esperti, una tale tecnologia potrebbe sviluppare un’autonomia decisionale imprevedibile, sfuggendo ai controlli di sicurezza e generando rischi etici, sociali e geopolitici senza precedenti.
Le preoccupazioni non riguardano solo scenari distopici, ma anche la possibilità concreta di un uso incontrollato delle risorse, una concentrazione di potere tecnologico nelle mani di pochi attori e un disequilibrio globale nei sistemi economici e politici.
Verso una governance etica dell’intelligenza artificiale
Il dibattito sulla responsabilità e la regolamentazione dell’IA è oggi più attuale che mai. L’Europa ha già mosso passi importanti con l’AI Act, ma la sfida globale richiede cooperazione e governance condivisa.
La dichiarazione del Future of Life Institute non è un rifiuto del progresso, bensì un invito alla prudenza: fermarsi ora per capire come proseguire in sicurezza.
Come sottolineano i promotori, “la domanda non è se possiamo costruire una superintelligenza, ma se dobbiamo farlo — e a quali condizioni”.
In un momento storico in cui la tecnologia evolve più rapidamente della riflessione etica, l’appello di questi 800 firmatari rappresenta un monito: l’intelligenza artificiale può essere una straordinaria alleata dell’umanità, ma solo se resterà al servizio dell’uomo, e non il contrario.

