Google firma il Codice di Condotta UE per l’IA ma lancia un allarme sulla competitività

Google firma il Codice di Condotta UE per l’IA ma lancia un allarme sulla competitività

Google ha ufficialmente deciso di aderire al Codice di Condotta per l’IA dell’Unione Europea, un passo importante verso una maggiore trasparenza e responsabilità nello sviluppo dell’intelligenza artificiale. Ma la firma non è arrivata senza riserve.

In un post ufficiale pubblicato da Kent Walker, Presidente delle Relazioni Globali di Google, l’azienda ha confermato il proprio impegno a rispettare il codice. Allo stesso tempo, Walker ha espresso preoccupazioni per le conseguenze di questa regolamentazione sulla competitività dell’Europa nel campo dell’AI.

“Siamo preoccupati che l’AI Act e il Codice possano rallentare lo sviluppo e l’adozione dell’IA in Europa”, ha dichiarato Walker.

Secondo Google, requisiti troppo rigidi su copyright, trasparenza dei dati e condivisione di segreti industriali potrebbero frenare l’innovazione e penalizzare l’Europa rispetto ad altri mercati globali.

Un codice per rendere l’AI più trasparente e sicura

Il Codice di Condotta UE per l’IA è stato pensato per colmare il divario tra lo sviluppo industriale dell’intelligenza artificiale e i requisiti normativi imposti dalla nuova legislazione europea. Il suo scopo principale è aumentare la trasparenza, obbligando le aziende a documentare i processi di addestramento dei modelli.

Le aziende dovranno:

  • Spiegare come sono stati raccolti i dati
  • Dimostrare che le fonti utilizzate rispettano il diritto d’autore
  • Adottare politiche di mitigazione dei rischi
  • Valutare potenziali impatti negativi sull’utenza

Uno degli obiettivi è impedire che contenuti creati da autori o aziende vengano usati nei dataset senza consenso, pratica già fortemente criticata in passato da editori, illustratori e sviluppatori di contenuti digitali.

Un equilibrio difficile tra innovazione e controllo

Mentre alcune aziende tech spingono per una regolamentazione più severa, molte temono che l’eccessiva burocrazia possa soffocare la creatività e il progresso. Le critiche non mancano neppure da parte di sviluppatori e ricercatori.

Le ragioni sono molteplici. Da un lato, si teme che i ritardi nei processi di approvazione possano rallentare la release di nuovi modelli. Dall’altro, esiste il timore che dover documentare pubblicamente le metodologie di addestramento possa mettere a rischio segreti commerciali e know-how proprietari.

Nel frattempo, il mondo assiste a uno sviluppo accelerato dell’AI, con modelli sempre più avanzati e rischi crescenti: dai deepfake sempre più convincenti, ai consumi energetici crescenti dei data center, fino agli errori ancora frequenti nei risultati generati.

Altri firmatari e il futuro della regolamentazione europea

Google non è sola. Tra i firmatari del Codice di Condotta UE per l’IA c’è anche Anthropic, azienda nota per lo sviluppo di Claude, uno dei modelli linguistici più avanzati.

La firma di questi attori mostra una volontà comune di collaborare con le istituzioni europee, ma lascia emergere anche tensioni non trascurabili. La sfida, ora, è creare un sistema di regole flessibile ma efficace, capace di proteggere gli utenti senza bloccare lo sviluppo tecnologico.

Serve davvero un freno allo sviluppo per garantire responsabilità?

Il dibattito sul Codice di Condotta UE per l’IA è emblematico del momento storico che viviamo. Da un lato, il bisogno crescente di regole etiche e trasparenti; dall’altro, la pressione globale per innovare a ritmo serrato.

Google, pur aderendo ufficialmente, ha alzato un segnale d’allarme. Forse non tanto contro il codice in sé, quanto contro una visione troppo rigida della regolazione. Se l’Europa vuole davvero competere con Stati Uniti e Asia, deve trovare un equilibrio tra sicurezza e ambizione. E deve farlo in fretta.

Lascia un commento