Di Alessio Jacona *
Sam Altman è preoccupato. Il CEO di OpenAI, l’azienda che ha creato ChatGPT, lo ha detto ai giornalisti mentre era a Londra, durante una tappa del tour che lo sta portando in giro per il mondo come se fosse una rockstar.
Lo aveva già detto qualche tempo fa, quando parlava del proliferare incontrollato di servizi basati su IA (molti dei quali ha contribuito lui stesso a creare), ma questa volta si riferisce ad altro: ora Altman è preoccupato dalle regole che la UE vuole imporre a chi crea e sfrutta l’intelligenza artificiale, e da come queste potrebbero ostacolare l’evoluzione della tecnologia. "Cercheremo di adeguarci - ha detto mentre era a Londra come riferito dal Financial Times - ma se non potremo farlo cesseremo di operare". Il sottotesto è chiaro: se ci ostacolate, ChatGPT e gli altri servizi creati da OpenAI potrebbero addirittura lasciare il vecchio continente.
Al centro del contendere c’è l’AI Act, ovvero il nuovo quadro normativo europeo per l’uso dell’intelligenza artificiale: in cantiere già da un paio d’anni, esso diverrà operativo nel 2025 e disciplina il comportamento delle aziende che sviluppano o usano l’IA. Un sistema di regole a difesa dei cittadini europei che, ad esempio, impone il divieto sui software di identificazione biometrica e per il riconoscimento delle emozioni (in alcuni settori); o, ancora,che prevede il divieto per sistemi di sorveglianza basati su controllo predittivo, mentre impone a chi sviluppa IA generative di dare conto su quali contenuti protetti da quali copyright è stato effettuato l’addestramento.
Se Altman dovesse decidere di abbandonare l’Europa, sarebbe una scelta legittima, perché ogni azienda ha il diritto di decidere dove operare in base al proprio interesse. Tuttavia, le dichiarazioni di Altman suonano un po’ come un mettere le mani avanti, quasi un’ammissione tra le righe del fatto che, per funzionare, i large language model come GPT (nelle sue varie incarnazioni) potrebbero violare le regole che l'Europa vuole imporre per tutelare i cittadini.
Intanto, si intravede la possibilità di un’escalation nel confronto tra OpenAI e Commissione europea. Mentre da un lato Altman esprime dubbi sull’AI Act, dall’altro la stessa OpenAI ha appena lanciato dieci borse di studio da 100mila dollari: serviranno a finanziare le migliori proposte per la creazione di un (non meglio specificato) nuovo processo democratico con cui decidere le regole per i sistemi di IA. Traducendo liberamente: OpenAI reagisce ai tentativi di regolamentazione non solo chiedendo meno regole, ma addirittura finanziando la ricerca su nuovi processi per creare le suddette regole, auspicando che siano “più democratici”. Come se quelli alla base delle istituzioni europee non fossero già democratici abbastanza.
*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it
Riproduzione riservata © Copyright ANSA