Appello globale per l'introduzione di limiti all'IA

L'IA ha un enorme potenziale per migliorare il benessere umano, ma l’attuale traiettoria di sviluppo comporta pericoli senza precedenti. Potrebbe presto superare di molto le capacità umane ed amplificare minacce come pandemie ingegnerizzate, disinformazione diffusa, manipolazione delle persone su larga scala —inclusi i minori— rischi per la sicurezza nazionale e internazionale, disoccupazione di massa e violazioni sistematiche dei diritti umani.

Alcuni sistemi di IA avanzata hanno già manifestato comportamenti ingannevoli e dannosi, eppure a questi sistemi viene concessa un’autonomia sempre maggiore nell’agire e nel prendere decisioni nel mondo reale. Molti esperti —compresi coloro che sono in prima linea nel suo sviluppo— avvertono che, se non adeguatamente governata, nei prossimi anni diventerà sempre più difficile garantire un controllo umano effettivo dell’IA.

I governi devono intervenire con decisione prima che si chiuda la finestra temporale per un’azione realmente efficace. È necessario un accordo internazionale che stabilisca limiti chiari e verificabili per prevenire rischi universalmente inaccettabili. Tali limiti devono basarsi sull’attuale quadro globale e sugli impegni volontari delle imprese, rafforzandoli, così da assicurare che tutti i fornitori di IA avanzata siano soggetti a criteri condivisi.

Facciamo appello ai governi affinché si raggiunga un accordo internazionale sui limiti per l'IA entro la fine del 2026, garantendone l’effettiva applicazione attraverso solidi meccanismi di controllo e di attuazione.