Ha preso ufficialmente il via il processo di elaborazione del primo Codice di condotta che dettaglierà le regole dell'AI Act per i fornitori di modelli di intelligenza artificiale di uso generale (Gpai), inclusi quelli con rischi sistemici. Questa settimana si è tenuta la plenaria di avvio dei lavori convocata dall'Ufficio europeo per l'Ia cui hanno preso parte quasi mille partecipanti, tra fornitori di modelli di Ia per scopi generali, fornitori a valle, rappresentanti dell'industria, della società civile, dell'università ed esperti indipendenti.
La riunione online, di carattere operativo, era aperta solo alle parti interessate che si sono iscritte entro il 25 agosto 2024.
Prima della loro pubblicazione in autunno, l'Ufficio Ia presenterà anche i primi risultati della consultazione tra le parti interessate sul Codice di condotta, su cui sono stati ricevuti quasi 430 contributi. Con il Codice di condotta, si punta a facilitare la corretta applicazione delle regole prevista nell'AI Act in relazione ai modelli Ia di uso generale, comprese quelle sulla trasparenza e sul copyright, la tassonomia del rischio sistemico, la valutazione del rischio e le misure di mitigazione.
Il processo di elaborazione del Codice di condotta prevede che quattro gruppi di lavoro si riuniscano tre volte per discutere le bozze.
Questo processo sarà guidato da presidenti e vicepresidenti, tra cui Marta Ziosi, ricercatrice post-dottorato presso l'Oxford Martin AI Governance Initiative, e Daniel Privitera, fondatore e direttore esecutivo del Kira Center, organizzazione no-profit indipendente con sede a Berlino che si occupa di Ia. I due italiani saranno vice presidenti rispettivamente del gruppo di lavoro 'identificazione e valutazione del rischio' e di quello 'mitigazione del rischio tecnico'. La versione finale del Codice di condotta sarà pubblicata e presentata in una plenaria di chiusura, prevista per aprile 2025.
Riproduzione riservata © Copyright ANSA