L’IA generativa: a cosa credere e come scegliere?
Al via il progetto europeo SOLARIS - di cui fa parte anche ANSA - che studia come gestire le minacce e opportunità che le intelligenze artificiali generative rappresentano per la democrazia, l'impegno politico e la cittadinanza digitale
Di Alessio Jacona*
«Il rischio non è solo quello di finire con il credere a cose non vere, ma anche e soprattutto quello di non poter più credere a niente». Federica Russo, coordinatrice del progetto SOLARIS, riassume così quella che forse è la più grave minaccia rappresentata dall’infodemia - la circolazione incontrollata di grandi quantità di informazioni non verificate e spesso false - quando questa viene potenziata dalle intelligenze artificiali generative: rendere vero e falso quasi (se non del tutto) indistinguibili.
SOLARIS è un progetto di ricerca europeo, di cui fa parte anche ANSA, che nei prossimi tre anni punta e definire metodi e strategie per gestire i rischi, le minacce ma anche le opportunità che le intelligenze artificiali generative portano alla democrazia, all'impegno politico e alla cittadinanza digitale. Concepito esattamente un anno fa con focus sulle reti generative avversarie (GAN) e sulla loro capacità di generare deepfake di immagini e video sempre più realistici, Solaris parte ora, dopo essersi aggiudicato il bando europeo, estendendo la sua attenzione anche ad altre tecnologie di IA generative, come Midjourney o ChatGPT.
«Negli ultimi mesi abbiamo assistito all'esplosione del fenomeno IA generativa - conferma Russo, che è filosofa della scienza, tecnologia e informazione presso l'università di Amsterdam e University College London - una sorta di democratizzazione che ne ha drasticamente abbassato la soglia di accesso», di fatto moltiplicando gli strumenti che possono essere utilizzati per generare contenuti falsi ma credibili. «Tra gli obiettivi di SOLARIS - continua - c’è anche capire perché alcuni contenuti risultino più credibili di altri, indipendentemente da quali siano gli strumenti con cui sono stati prodotti. I nostri studi ci dicono già ora che non è solo una questione di qualità dell’immagine, ma anche di sistema: a fare la differenza - aggiunge - è anche su quale piattaforma viene condiviso il video, da dove e da chi arriva, così come quali sono le caratteristiche di chi lo fruisce».
Un problema di ecosistema
Insomma, comprendere a fondo le dinamiche e il funzionamento di un ecosistema digitale in cui un deepfake ha successo è fondamentale per contrastare il fenomeno. Per riuscirvi «è necessaria l'analisi non solo dell'artefatto, ma dell’intero sistema di cui l’artefatto fa parte: un approccio sistemico, con il quale puntiamo a rimettere l’utente al centro, per renderlo infine in grado di valutare da sé i contenuti che fruisce, distinguere il vero dal falso». E quindi creare un modello di fruizione “sicura” dei contenuti che sia esportabile anche in altri contesti
«Ci tengo a precisare che con il nostro lavoro non intendiamo demonizzare la tecnologia in sé - spiega ancora Federica Russo - ma vogliamo piuttosto affermare il principio che essa debba essere governata, non subita. E la mia posizione personale - continua - è che la tecnologia debba anche essere pianificata a breve e a medio termine, ragion per cui è urgentissimo lavorare sulla formazione degli sviluppatori, oltre che sulla regolamentazione».
I membri del progetto SOLARIS
ANSA ha il compito di documentare e divulgare attività e progressi del progetto SOLARIS lungo i suoi tre anni di attività, cosa che farà (a partire da questo articolo) con notizie e approfondimenti pubblicate sulle pagine dell’Osservatorio Intelligenza Artificiale. Gli altri membri del progetto sono l’Università di Amsterdam (che guida il progetto), il Consorzio Interuniversitario Nazionale per l'Informatica (CINI), l’Università di Maribor in Slovenia, la Libera Università LUMSA, l’Università di Exeter in Gran Bretagna, l’azienda italiana specializzata in human-centered AI DEXAI, l’Università Carlos III in Spagna, l’Albanian Institute for International Studies, l’editore Brand Media Bulgaria, il Ministero dell’Interno Albanese e la European Citizen Science Association.
Cosa sono I GAN
Le Reti generative avversarie (GAN - Generative Adversarial Networks) - focus principale della ricerca nel progetto SOLARIS - sono una classe di modelli di intelligenza artificiale in grado di creare contenuti multimediali - audio e video - simili alla realtà. Sebbene esistano diverse promettenti aree di applicazione delle GAN, dalle produzioni audio-grafiche all’espressione creativa artistica, i loro usi ingannevoli attuali e previsti sono altrettanto numerosi e preoccupanti. È il caso dei cosiddetti “deepfake”, immagini o video falsi che simulano eventi reali con estrema precisione. Se addestrato su una faccia, ad esempio, una GAN può farla muovere e parlare in modo iperrealistico, e quindi non è difficile immaginare perché questa tecnologia potrebbe essere utilizzata (e forse lo è già stata) per diffondere fake news e disinformazione. Di qui l’urgenza di sviluppare pratiche che consentano a governi e legislatori di migliorare l’attendibilità, la trasparenza e l'affidabilità delle GAN.
Il tre obiettivi principali di SOLARIS
SOLARIS raccoglie la sfida dandosi tre obiettivi principali: acquisire una chiara comprensione di quanto siano potenti le GAN e le altre IA generative dal punto di vista tecnico e a quali condizioni i contenuti generati da questi sistemi siano percepiti come affidabili. Definire le innovazioni normative e le opzioni politiche per affrontare i rischi politici derivanti dalla diffusione di queste tecnologie. Co-progettare con la citizen science delle "Generative AI for good", ovvero sistemi basati sul valore per migliorare l'impegno democratico e la cittadinanza digitale.
*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it
Riproduzione riservata © Copyright ANSA