Un disegno di legge che mira a ridurre i potenziali rischi dell'intelligenza artificiale e chiede ai big della tecnologia test sui loro modelli e la divulgazione pubblica dei protocolli di sicurezza. Sono i contenuti di uno dei provvedimenti in discussione in California, patria della Silicon Valley, che se approvato definitivamente apporterebbe le prime regole nel settore sulla falsa riga di quanto già accaduto in Europa con l'AI Act. Nei giorni scorsi inaspettatamente anche Elon Musk si è detto favorevole alla proposta denominata 'SB 1047 bill'.
La norma è stata approvata di misura mercoledì scorso dall'assemblea californiana, ora andrà sulla scrivania del governatore Gavin Newsom che ha un mese di tempo per la firma. E' tra le decine di quelle sull'intelligenza artificiale presentate negli ultimi mesi in California soprattutto per contrastare le manipolazioni dei contenuti come i deepfake in vista delle elezioni di novembre. Lo stato è il luogo simbolo dell'innovazione essendo la sede di 35 delle 50 principali aziende di IA al mondo.
Al momento la norma scritta da Wiener ha incontrato una forte opposizione da parte di società di venture capital e aziende tecnologiche tra cui OpenAI, Google e Meta, la società madre di Facebook e Instagram. Inaspettatamente Elon Musk, proprietario di Twitter/X e fondatore di xAI, ha espresso il suo sostegno alla proposta di legge pur defindendo la sua una "scelta difficile". La misura è supportata anche da Anthropic, una startup di intelligenza artificiale sostenuta da Amazon e Google.
Intanto, qualche giorno fa Mark Zuckerberg e Daniel Ek, fondatori e ceo di Meta e Spotify, hanno lanciato un monito all'Europa sul suo ruolo negli sviluppi della tecnologia. In un articolo scritto a quattro mani sull'Economist sostengono che nell'Ue "la struttura normativa frammentata ostacola l'innovazione e frena gli sviluppatori".
Riproduzione riservata © Copyright ANSA