La Casa Bianca accelera dopo i recenti allarmi sui rischi dell'intelligenza artificiale (ultimo quello di Geoffrey Hinton, padre dell'AI di Google) e lancia un piano per dettare le regole di uno sviluppo responsabile, sulle orme di quanto sta facendo anche l'Ue.
Tre le mosse annuciate oggi. La prima è un incontro della vicepresidente Kamala Harris con i ceo di due colossi come Microsoft e Alphabet (che controlla Google), Satya Nardella e Sundar Pichai, e di due start-up come Open-Ai e Anthropic, Sam Altman e l'italoamericano Dario Amodei: si tratta delle quattro maggiori società che stanno sviluppando l'intelligenza artificiale. Escluso il controverso Elon Musk, che ha condiviso l'appello per una moratoria dello sviluppo dell'AI, di cui però non è ancora uno dei principali protagonisti. Presenti invece altri alti dirigenti della Casa Bianca, dal chief of staff Jeff Zients al consigliere per la sicurezza nazionale Jake Sullivan, dalla direttrice del Consiglio economico Lael Brainard alla ministra del Commercio Gina Raimondo. Ma a condurre le danze è Harris, in un dossier che potrebbe rilanciare la sua immagine da tempo offuscata nel rinnovato ticket con Biden. Il messaggio a Big Tech è che deve avere un ruolo nel ridurre i rischi e che può lavorare insieme al governo, in un approccio quindi collaborativo. Una sfida comunque non facile, visto che finora alcune di queste società sono state poco trasparenti, ad esempio sui dati che usano per allenare l'AI.
La seconda mossa è lo stanziamento di 140 milioni di dollari per creare sette nuove istituti di ricerca nazionali sull'intelligenza artificiale, che si concentreranno in particolare su clima, agricoltura, energia, sanità pubblica, educazione e cybersicurezza. Infine l'ufficio management e budget della Casa Bianca, che ha annunciato per i prossimi mesi una bozza di linee guida su come le agenzie federali possono usare gli strumenti della AI, da sottoporre ai commenti pubblici prima della sua finalizzazione. Previsto anche un impegno indipendente da parte dei migliori sviluppatori di intelligenza artificiale a partecipare ad una valutazione pubblica dei loro sistemi in agosto alla Def CON di Las Vegas, considerata una della conferenze più importanti e note al mondo sulla sicurezza informatica.
Per Joe Biden, quando si tratta di questa nuova tecnologia, "bisogna mettere al centro le persone e le comunità, sostenendo un'innovazione responsabile che serva il bene pubblico, proteggendo al contempo la nostra società, la sicurezza e l'economia". Per questo, è necessario che "le aziende si assumano la responsabilità di garantire che i loro prodotti siano sicuri prima che vengano implementati o resi pubblici", ha spiegato il presidente, che può vantare altre misure già prese in passato: dalla guida per un 'AI bill of right' all'ordine esecutivo dello scorso febbraio per sradicare i pregiudizi nella progettazione e nell'uso delle nuove tecnologie e proteggere i cittadini dalla discriminazione degli algoritmi.
Gli Usa non sono i soli a muoversi: le autorità britanniche hanno acceso un faro sul settore, concentrandosi sulla tecnologia alla base dei chatbot come ChatGPT (sviluppato da OpenAI), mentre l'Ue sta aggiornando la regolamentazione proposta due anni fa, quando i chatbot erano ancora in gestazione.