

Scienziati sollecitano i Paesi Onu, 'limiti a usi pericolosi IA'
'Agire entro 2026 o difficile controllo umano significativo'
Oltre 200 personalità di spicco tra cui premi Nobel e ricercatori che lavorano presso giganti dell'Intelligenza artificiale come Anthropic, Google, Microsoft e OpenAI, hanno firmato il documento 'Global Call for AI Red Lines' rivolto ai Paesi presenti all'Assemblea Generale delle Nazioni Unite in cui invitano a stabilire rapidamente, entro il 2026, 'linee rosse' da non oltrepassare per l'IA e gli usi pericolosi. "L'Intelligenza artificiale ha un immenso potenziale per migliorare il benessere umano, ma la sua attuale traiettoria presenta pericoli senza precedenti - si legge nel documento che tra i firmati vede Geoffrey Hinton e Yoshua Bengio, considerati tra i padri dell'IA -. I governi devono agire con decisione prima che si chiuda la finestra per un intervento significativo". Secondo gli autori della lettera, le 'linee rosse' per l'IA sarebbero divieti concordati a livello internazionale su usi considerati troppo rischiosi tra cui l'affidamento all'intelligenza artificiale del comando di arsenali nucleari o di qualsiasi tipo di sistema d'arma autonomo letale. Oppure l'uso dell'IA per la sorveglianza di massa, gli attacchi informatici e i deepfake. I firmatari del messaggio hanno esortato i governi a stabilire limiti all'IA entro la fine del prossimo anno dato il ritmo a cui avanza la tecnologia. "L'Intelligenza artificiale potrebbe presto superare di gran lunga le capacità umane e aumentare rischi come pandemie ingegnerizzate, disinformazione diffusa, manipolazione su larga scala di individui, compresi i bambini, problemi di sicurezza nazionale e internazionale, disoccupazione di massa e sistematiche violazioni dei diritti umani", si legge nella lettera. "Se non si interviene, molti esperti compresi quelli in prima linea nello sviluppo, avvertono che diventerà sempre più difficile esercitare un controllo umano significativo nei prossimi anni".
R.Deshmukh--MT