Cronaca

Appello per una moratoria sullo sviluppo di Super AI: scienziati e leader globali chiedono cautela

Oct 22, 2025

Il 22 ottobre, un'ampia coalizione di oltre settecento tra scienziati, politici, imprenditori e personaggi pubblici ha lanciato un accorato appello per una moratoria sullo sviluppo di intelligenze artificiali (IA) capaci di trascendere le facoltà umane. Questa iniziativa, sostenuta dal Future of Life Institute, un'organizzazione senza scopo di lucro con sede negli Stati Uniti, evidenzia i pericoli catastrofici che tali tecnologie potrebbero comportare per l'umanità. I firmatari sollecitano una sospensione dei progressi nel campo della super intelligenza artificiale, auspicando che lo sviluppo avvenga solo dopo aver raggiunto un accordo scientifico universale che ne garantisca la controllabilità e la sicurezza, e previa approvazione della comunità globale. L'obiettivo è assicurare che l'evoluzione dell'IA sia guidata da principi etici e precauzionali, piuttosto che da una corsa incontrollata verso il progresso tecnologico.

Tra i firmatari di questo importante documento figurano luminari dell'IA come Geoffrey Hinton, insignito del premio Nobel per la fisica nel 2024 per le sue ricerche, Stuart Russell, stimato professore di informatica presso l'Università della California a Berkeley, e Yoshua Bengio, illustre professore all'Università di Montréal. Il supporto è arrivato anche da noti imprenditori del settore tecnologico, tra cui Richard Branson, fondatore del gruppo Virgin, e Steve Wozniak, co-fondatore di Apple. La lista include anche figure politiche di spicco come Steve Bannon, ex consigliere del presidente Donald Trump, e Susan Rice, ex consigliera per la sicurezza nazionale sotto l'amministrazione Obama. Anche personalità religiose hanno aderito, come Paolo Benanti, consigliere di papa Francesco sull'IA, e celebrità quali il rapper will.i.am, il principe Harry e Meghan Markle, confermando l'ampia portata dell'iniziativa e la crescente preoccupazione trasversale riguardo al futuro dell'intelligenza artificiale.

Attualmente, le maggiori aziende del settore tecnologico sono impegnate nella realizzazione dell'intelligenza artificiale generale (AGI), una fase in cui l'IA eguaglierebbe le capacità intellettuali umane. Tuttavia, l'ambizione si estende anche alla superintelligenza, che supererebbe le abilità cognitive umane. Sam Altman, co-fondatore e amministratore delegato di OpenAI, ha ipotizzato che il raggiungimento della superintelligenza potrebbe avvenire entro i prossimi cinque anni, suscitando un dibattito acceso e preoccupazioni tra gli esperti.

Max Tegmark, presidente del Future of Life Institute, ha espresso il suo fermo disaccordo con questa rapida progressione. In un'intervista con l'Afp, ha dichiarato che lo sviluppo della superintelligenza è inaccettabile, indipendentemente dalla tempistica stimata, sia essa di due o quindici anni. Ha sottolineato l'importanza di impedire alle aziende di intraprendere progetti di tale portata in assenza di un solido quadro normativo. Tegmark ha altresì argomentato che è possibile sostenere il progresso di strumenti di intelligenza artificiale avanzati per scopi benefici, come la lotta contro il cancro, senza la necessità di spingersi fino alla creazione di una superintelligenza non controllabile. Durante una recente sessione dell'assemblea generale delle Nazioni Unite, un gruppo di scienziati e imprenditori aveva già lanciato un appello per l'istituzione di accordi internazionali volti a definire i limiti e le 'linee rosse' nell'ambito dell'IA, evidenziando la crescente urgenza di una regolamentazione globale.

In sintesi, il recente appello congiunto di centinaia di figure di spicco globali sottolinea l'urgenza di una pausa riflessiva nello sviluppo della superintelligenza artificiale. L'obiettivo primario è quello di prevenire rischi imprevisti che potrebbero derivare da una tecnologia che superi il controllo umano. L'iniziativa non mira a bloccare il progresso dell'IA in tutte le sue forme, bensì a garantire che la sua evoluzione sia guidata da un approccio etico, sicuro e socialmente responsabile. Ciò implica la necessità di un dialogo globale e di normative chiare per assicurare che l'IA rimanga uno strumento al servizio dell'umanità, contribuendo a risolvere sfide complesse senza compromettere il nostro futuro.

READ NEXT