Si è aperta ieri a Ginevra la
seconda sessione del Gruppo di esperti governativi sui sistemi
di arma letali autonomi (in inglese "LAWS", acronimo di "Lethal
Autonomous Weapon Systems").
Nell'intervento a nome dell'Italia, l'Ambasciatore Leonardo
Bencini, Rappresentante Permanente presso la Conferenza del
Disarmo, ha indicato come Intelligenza artificiale (AI) e
automazione, oltre a fornire opportunità e benefici, possono
implicare rischi, alcuni al momento imprevedibili, nelle loro
applicazioni militari.
"L'Italia ritiene che il futuro strumento debba essere un
Protocollo addizionale alla Convenzione su certe armi
convenzionali" ha precisato l'Ambasciatore Bencini, "secondo
l'approccio su due livelli", il cosiddetto "two-tier approach"
che mira a mettere al bando i sistemi di arma letali
completamente autonomi e quelli con caratteristiche tali da non
rispettare il diritto umanitario, e regolamentare tutti gli
altri.
Il mandato del Gruppo di esperti - spiega un comunicato della
Rappresentanza dell'Italia presso la Conferenza del disarmo - è
quello di elaborare elementi entro fine 2025 per uno strumento
internazionale su questi sistemi d'arma, al fine di assicurarne
l'uso nel pieno rispetto del diritto internazionale umanitario
nei contesti bellici. La riunione del Gruppo di esperti si
chiuderà venerdì prossimo.
Riproduzione riservata © Copyright ANSA