Di Alessio Jacona*
Creare una piattaforma hardware che consenta di sviluppare un’intelligenza artificiale molto più potente ed efficiente di quella attuale. È questo l’obiettivo con cui il colosso Intel ha realizzato e presenta oggi Hala Point, il più grande sistema neuromorfico al mondo con 1,15 miliardi di neuroni in silicio.
Semplificando molto, un sistema neuromorfico è un computer sperimentale la cui struttura hardware oltre che software è ispirata al funzionamento del cervello umano, dove al posto dei transistor troviamo neuroni in silicio, e che risulta molto più efficiente dei processori tradizionali nel far funzionare ad esempio i Large Language Model come ChatGPT. Anzi, secondo Intel macchine di questo genere presto consentiranno di utilizzare meglio l’intelligenza artificiale nei campi più diversi: dalla risoluzione dei problemi scientifici e ingegneristici alla logistica alla gestione delle infrastrutture delle città intelligenti e altro ancora
Hala Point è un sistema su larga scala che migliora in ogni aspetto il suo predecessore Pohoiki Springs, e nel quale viene utilizzato il nuovo processore Intel Loihi 2 con un milione di neuroni. Per dare un’idea, la versione precedente, chiamata semplicemente Loihi e presentata nel 2018, di neuroni ne aveva solo 131.000. Il risultato è una capacità neuronale oltre dieci volte più elevata e prestazioni fino a 12 volte superiori in un sistema «che combina l’efficienza del deep learning con nuove funzionalità di apprendimento e ottimizzazione ispirate al cervello», come spiega Mike Davies, direttore del Neuromorphic Computing Lab di Intel Labs.
Diamo un po’ di numeri: il sistema neuromorfico Hala Point è costituito da 1.152 processori Loihi 2 in uno chassis per data center da sei unità rack che alla fine non è neanche tanto grande, visto che ha dimensioni paragonabili a quelle di un forno a microonde. Il sistema supporta fino a 1,15 miliardi di neuroni e 128 miliardi di sinapsi distribuiti su 140.544 nuclei di elaborazione neuromorfica che consumano un massimo di 2.600 Watt di potenza. Il sistema include inoltre oltre 2.300 processori x86 per calcoli ausiliari.
Lo sviluppo del sistema fa capo a Intel Labs, il che conferma che - per quanto avanzato - il progetto è ancora in piena fase di ricerca e sviluppo. Intanto Intel ci dice che è la sua capacità è pari a ben 30 milioni di miliardi (quadrillion) di operazioni al secondo, o 30 petaops, con un'efficienza che supera i 15mila miliardi di operazioni al secondo per Watt (TOPS/W) durante l'esecuzione di reti neurali profonde convenzionali. Un risultato che sulla carta rende il sistema competitivo se non addirittura superiore alle architetture basate su GPU e CPU.
Come già accennato, Hala Point è ancora un prototipo destinato alla ricerca: nei prossimi mesi verrà utilizzato dai ricercatori dei Sandia National Laboratories per lavorare alla risoluzione di problemi di calcolo scientifico relativi alla fisica dei dispositivi, all'architettura dei computer e all'informatica.
«Condurre ricerche con un sistema di queste dimensioni - ha infatti spiegato Craig Vineyard, Hala Point Team Lead presso i Sandia National Laboratories - ci consentirà di studiare capacità di calcolo, di modellazione, simulazione e analisi dei dati per tenere il passo con l’evoluzione dell’intelligenza artificiale».
In un settore a rapidissimo sviluppo come quello dell’IA, la crescita dei modelli di deep learning a migliaia di miliardi (trillion) di parametri sta mettendo in discussione la sostenibilità nell’intelligenza artificiale, mentre evidenzia la necessità di innovare ai livelli più bassi dell’architettura hardware. Il calcolo neuromorfico è un approccio fondamentalmente nuovo che nasce proprio per risolvere questo problema. Esso si basa sulle intuizioni delle neuroscienze, che integrano memoria e calcolo con un parallelismo altamente granulare per ridurre al minimo lo spostamento dei dati. Il risultato è che i sistemi basati su Loihi 2 possono eseguire l’inferenza AI (cioè il processo con cui un modello di IA prende decisioni basate su nuovi dati) e risolvere problemi di ottimizzazione utilizzando 100 volte meno energia, a velocità fino a 50 volte superiori, rispetto alle architetture CPU e GPU convenzionali.
*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it
Riproduzione riservata © Copyright ANSA