di
Alberto Carrara, L.C.
La risposta al rapporto Visualizing the Tactical Ground Battlefield
in the Year 2050 di 60 pagine pubblicato e promosso del Pentagono relativo agli scenari del campo di battaglia del 2050
non è tardata. In una lettera aperta pubblicata il 27 luglio,
cioè pochi giorni fa, e letta all’ International Joint Conference on Artificial Intelligence (IJCAI) a Buenos Aires, centinaia di ricercatori ed esperti di intelligenza artificiale, hanno chiesto alle nazioni del mondo di bandire l’utilizzo bellico
dell’intelligenza artificiale.
L’ Open letter petitions UN to banthe development on weaponized AI, così si intitola il testo, è stata fermata
da nomi illustri: Stephen Hawking; Stuart
Russell, direttore del Center for
Intelligent Systems di Berkeley e tra i massimi esperti mondiali di AI; Steve Wozniak, cofondatore di Apple; Noam Chomsky, il prestigioso linguista; Daniel Dennett, il filosofo
cognitivista; Peter Norvig, direttore delle ricerche di Google; Eric
Horvitz, capo delle ricerche di Microsoft; Elon Musk, il milionario capo di Tesla Motors e della società spaziale Space X che
poco fa ha donato ben 10 milioni di dollari al Future of Life Institute
per studi che si occupino di far convergere le ricerche nel campo della AI
verso valori umani condivisi e condivisibili, insomma, per umanizzare l’AI e
non lasciare che l’AI, umanizzandosi, ci sostituisca per sempre.
Questa lettera è
frutto di una riflessione che gli esperti giudicano essenziale per impedire un’escalation militare paragonabile a
quelle avvenute con lo sviluppo delle armi
da fuoco e l’avvento delle bombe atomiche.
I firmatari del testo
spiegano che le autonomous
weapons, o “armi autonome” sono dispositivi bellici in
grado di scegliere e ingaggiare i propri bersagli senza la guida di un
operatore umano. Non parliamo quindi di missili o droni teleguidati, ma di apparecchi che possono prendere decisioni
autonomamente, e che potrebbero essere utilizzati per esempio per pattugliare
una determinata area, e attaccare qualunque obiettivo (parliamo di persone
ovviamente) che risponda a determinati criteri prestabiliti (abbigliamento,
gruppo etnico di appartenenza, ecc…) che lo identifichino come nemico. Grazie
ai recenti sviluppi nel campo dell’intelligenza artificiale, assicurano
gli esperti nella lettera, dispositivi di questo tipo potrebbero ormai essere
prodotti nel giro di pochi anni. In effetti, anche se queste macchine prospettate dal Visualizing the Tactical Ground Battlefield in the
Year 2050: Workshop Report non esistono al momento, tuttavia la tecnologia è ormai tale che il loro
sviluppo non è più questione di decenni, ma, sostengono gli scienziati, di
pochi anni!
Armi di questo tipo
ovviamente porterebbero notevoli benefici in campo bellico, riducendo
fortemente le perdite umane negli eserciti che le impieghino, e
con una minore necessità di personale rispetto a missili e droni controllati in remoto. Al contempo,
riflettono gli autori della lettera, un minor costo umano potrebbe spingere le
potenze mondiali a muovere guerra più facilmente, e l’utilizzo di queste nuove
armami da parte di una delle super potenze porterebbe inevitabilmente ad una
corsa agli armamenti mondiale.
“Se anche una sola delle
principali potenze militari portasse avanti lo sviluppo dell’intelligenza artificiale a scopo bellico, una corsa
agli armamenti è virtualmente inevitabile, e il punto di arrivo di questo
percorso tecnologico è ovvio: gli armamenti autonomi diventerebbero il
Kalashnikov del futuro”, scrivono i firmatari della lettera.
Gli studi nel campo dell’intelligenza
artificiale potrebbero, invece, avere un impatto formidabile in
campi strategici come la medicina,
la lotta alla povertà e lo
sviluppo di tecnologie per intervenire in caso di disastri naturali, ma la possibilità che
vengano utilizzate in campo bellico, avvertono gli esperti, potrebbe rallentare
fortemente gli sviluppi futuri perché molti ricercatori sono consapevoli dei
rischi che rappresenterebbero per l’umanità.
Per questi motivi, gli
esperti chiedono a tutte le potenze mondiali di firmare un trattato che vieti la ricerca e lo sviluppo di tecnologie belliche che impieghino l’intelligenza
artificiale, come è avvenuto in campi come la chimica, con il trattato
sull’utilizzo delle armi chimiche, e nella fisica, con i trattati
internazionali sull’utilizzo delle testate atomiche.


Nessun commento:
Posta un commento