sabato 1 agosto 2015

No ai robot-soldato!

di Alberto Carrara, L.C.

La risposta al rapporto Visualizing the Tactical Ground Battlefield in the Year 2050 di 60 pagine pubblicato e promosso del Pentagono relativo agli scenari del campo di battaglia del 2050 non è tardata. In una lettera aperta pubblicata il 27 luglio, cioè pochi giorni fa, e letta all’ International Joint Conference on Artificial Intelligence (IJCAI) a Buenos Aires, centinaia di ricercatori ed esperti di intelligenza artificiale, hanno chiesto alle nazioni del mondo di bandire l’utilizzo bellico dell’intelligenza artificiale.

L’ Open letter petitions UN to banthe development on weaponized AI, così si intitola il testo, è stata fermata da nomi illustri: Stephen Hawking; Stuart Russell, direttore del Center for Intelligent Systems di Berkeley e tra i massimi esperti mondiali di AI; Steve Wozniak, cofondatore di Apple; Noam Chomsky, il prestigioso linguista; Daniel Dennett, il filosofo cognitivista; Peter Norvig, direttore delle ricerche di Google; Eric Horvitz, capo delle ricerche di Microsoft; Elon Musk, il milionario capo di Tesla Motors e della società spaziale Space X che poco fa ha donato ben 10 milioni di dollari al Future of Life Institute per studi che si occupino di far convergere le ricerche nel campo della AI verso valori umani condivisi e condivisibili, insomma, per umanizzare l’AI e non lasciare che l’AI, umanizzandosi, ci sostituisca per sempre.

Questa lettera è frutto di una riflessione che gli esperti giudicano essenziale per impedire un’escalation militare paragonabile a quelle avvenute con lo sviluppo delle armi da fuoco e l’avvento delle bombe atomiche.

I firmatari del testo spiegano che le autonomous weapons, o “armi autonome” sono dispositivi bellici in grado di scegliere e ingaggiare i propri bersagli senza la guida di un operatore umano. Non parliamo quindi di missili o droni teleguidati, ma di apparecchi che possono prendere decisioni autonomamente, e che potrebbero essere utilizzati per esempio per pattugliare una determinata area, e attaccare qualunque obiettivo (parliamo di persone ovviamente) che risponda a determinati criteri prestabiliti (abbigliamento, gruppo etnico di appartenenza, ecc…) che lo identifichino come nemico. Grazie ai recenti sviluppi nel campo dell’intelligenza artificiale, assicurano gli esperti nella lettera, dispositivi di questo tipo potrebbero ormai essere prodotti nel giro di pochi anni. In effetti, anche se queste macchine prospettate dal Visualizing the Tactical Ground Battlefield in the Year 2050: Workshop Report non esistono al momento, tuttavia la tecnologia è ormai tale che il loro sviluppo non è più questione di decenni, ma, sostengono gli scienziati, di pochi anni!

Armi di questo tipo ovviamente porterebbero notevoli benefici in campo bellico, riducendo fortemente le perdite umane negli eserciti che le impieghino, e con una minore necessità di personale rispetto a missili e droni controllati in remoto. Al contempo, riflettono gli autori della lettera, un minor costo umano potrebbe spingere le potenze mondiali a muovere guerra più facilmente, e l’utilizzo di queste nuove armami da parte di una delle super potenze porterebbe inevitabilmente ad una corsa agli armamenti mondiale.

Se anche una sola delle principali potenze militari portasse avanti lo sviluppo dell’intelligenza artificiale a scopo bellico, una corsa agli armamenti è virtualmente inevitabile, e il punto di arrivo di questo percorso tecnologico è ovvio: gli armamenti autonomi diventerebbero il Kalashnikov del futuro”, scrivono i firmatari della lettera.

Gli studi nel campo dell’intelligenza artificiale potrebbero, invece, avere un impatto formidabile in campi strategici come la medicina, la lotta alla povertà e lo sviluppo di tecnologie per intervenire in caso di disastri naturali, ma la possibilità che vengano utilizzate in campo bellico, avvertono gli esperti, potrebbe rallentare fortemente gli sviluppi futuri perché molti ricercatori sono consapevoli dei rischi che rappresenterebbero per l’umanità.


Per questi motivi, gli esperti chiedono a tutte le potenze mondiali di firmare un trattato che vieti la ricerca e lo sviluppo di tecnologie belliche che impieghino l’intelligenza artificiale, come è avvenuto in campi come la chimica, con il trattato sull’utilizzo delle armi chimiche, e nella fisica, con i trattati internazionali sull’utilizzo delle testate atomiche.

Nessun commento:

Posta un commento