L'ultima generazione di droni-killer è una realtà talmente spaventosa da far sembrare medievale l’avveniristica esecuzione del generale iraniano Soleimani, ucciso da un attacco aereo all’una di notte del 3 gennaio 2020 all’aeroporto di Baghdad. I missili che centrarono il convoglio di auto erano stati lanciati da un “banale” General Atomics MQ-9 Reaper (conosciuto anche come Predator B), aereo privo di pilota ma comandato a distanza. Il raid era l’esito di un processo decisionale tradizionale con Trump a premere il grilletto dopo valutazioni politiche e militari. Sbagliato o giusto che fosse, a decretare la morte di Qassem Soleimani era stato un uomo e non autonomamente la “macchina”.
L’ATTIVITÀ
In Libia – secondo le Nazioni Unite – sarebbe invece in azione un micidiale KARGU-2, un quadricottero da combattimento di fabbricazione turca “istruito” per combattere le unità di Khalifa Haftar. Il suo funzionamento – basato sul ricorso a sofisticate applicazioni di intelligenza artificiale – è pressoché autonomo e ogni azione è determinata dal drone in totale indipendenza nel solo rispetto delle regole che sono state “automatizzate”. Il KARGU-2, il cui nome significa letteralmente “torre di osservazione in cima alla montagna”, è un minuscolo drone kamikaze prodotto da Savunma Teknolojileri Mühendislik ve Ticaret A.Ş. (STM) per essere impiegato in operazioni a contrasto delle insurrezioni contro bersagli statici e in movimento. È capace di osservare (tra i suoi nomignoli quello di “sparviero euroasiatico”), acquisire immagini, elaborarne il contenuto e stabilire in tempo reale le iniziative da adottare sulla base di algoritmi di apprendimento automatico incorporati nella sua piattaforma software. In termini pratici vede, si fa una sua idea dell’atteggiamento di un determinato soggetto, ne stabilisce il livello di potenziale pericolosità e decide in piena autonomia il da farsi.
LA MEMORIA
La base di metaconoscenze inserite nella sua “memoria” all’entrata in servizio è arricchita dall’esperienza che matura ad ogni sorvolo, acquisendo nuovi dati, classificando espressioni dei volti, movimenti e gesti, stabilendone il grado di aggressività, prevedendo ipotetiche azioni che ancora non sono avvenute. È “lui” a stabilire la necessità di un eventuale intervento, in modo completamente automatico e in assoluta assenza di interferenze umane. La libera interpretazione delle condotte cui assiste può portare il drone ad innescare attività sconsiderate. La sua capacità di intervento “preventivo” evoca angoscianti sequenze cinematografiche e prospetta i peggiori scenari distopici. Il punto è che i sistemi di intelligenza artificiale, anche i più sofisticati, non sanno distinguere lo scherzo dal vero. Un domani – se simili arnesi trovassero diffusione ai fini di polizia – guai a lasciarsi scappare un faceto “ti ammazzerei…” perché il robot-sbirro non darebbe il tempo di completare la frase. Il 24 marzo 2014 l’Assemblea Generale Onu aveva approvato la risoluzione A/HRC/25/L.32 volta a «garantire l’uso di velivoli a pilotaggio remoto o droni armati in operazioni antiterrorismo e militari in conformità con il diritto internazionale, compresi i diritti umani internazionali e il diritto umanitario». Poiché pare che oltre alla Turchia altri Paesi, a cominciare da Russia e Stati Uniti, dispongano di simili armi letali (persino più avanzate), forse è il caso che le Nazioni Unite rispolverino quella risoluzione.
© RIPRODUZIONE RISERVATA