mercoledì 1 ottobre 2014

Robot, indecisione, rischi ed etica

Cosa succederebbe se un robot fosse indeciso su quale azione compiere e a causa di questa indecisione lasciasse morire qualcuno? Può essere responsabile di questa "indecisione"? Può un automa arrivare a capire qual è la scelta giusta da fare tra due opzioni che gli si presentano?

La Prima Legge della Robotica di Isaac Asimov sancisce che "un robot non può danneggiare un essere umano e nemmeno attraverso l'inazione può permettere che un essere umano riceva un danno" eppure in un esperimento condotto da Alan Winfield del Briston Robotics Laboratory, un robot è rimasto letteralmente paralizzato di fronte alla scelta "chi salvare?".


In un esperimento, Alan e collaboratori hanno programmato un robot affinché evitasse che altri automi (che avrebbero dovuto simulare essere umani) cadessero in un buco. Doveva salvarli dal precipizio. 
Secondo Winfiled questa situazione poteva essere una prima semplificazione della suddetta legge di Asimov: il robot doveva evitare che all'essere umano (nell'esperimento l'automa) fosse procurato un danno (precipitare ne buco).

Il robot si è dimostrato subito capace di rispondere alla perfezione alla prima legge di Asimov e ogni volta è riuscito a salvare l'automa dalla caduta nel buco, sposandolo e spingendolo fuori dal percorso pericoloso. Un compito eseguito alla perfezione! 
Fin qui tutto bene.


Il problema è sorto quando all'esperimento è stato inserito un secondo automa. 14 volte su 33 il robot ha sprecato così tanto tempo prima di entrare in azione da non riuscire a salvare nemmeno uno dei due automi. Ha esitato, l'indecisione ha preso il sopravvento.

In un'intervista, Winfield si riferisce a questo robot chiamandolo "zombie etico", perché non capisce il ragionamento che ci sta dietro alla scelta di chi salvare e per questo rimane interdetto, fermo e non agisce e si mette in azione in ritardo.

I risultati dell'esperimento, pubblicati sulla rivista Advances in Autonomous Robotics Systems, sollevano il quesito sulla possibilità di scelte etica da parte di un robot. Lo stesso Alan Winfiled era certo che un robot non sarebbe mai stato capace di fare scelte etiche autonomamente, ma davanti ai risultati ottenuti, sta mettendo in dubbio questa sua certezza.

L'esperimento rivela, sicuramente, quanto sia difficile infondere ad una macchina, sia esso un robot umanoide oppure un'automobile che guida da sola, un certo senso etico. Potranno mai capire cosa è giusto e cosa è sbagliato e agire di conseguenza? Avranno quindi una responsabilità in quello che fanno?

Tali domande assumono una pregnanza ancora più drammatica se si pensa che dal George Institute Technology di Atlanta, Ronald Atkin ha elaborato un insieme di algoritmi per i robot militari con lo scopo di aiutarli a prendere decisioni "intelligenti" durante un'azione militare e la cosa è già stata simulata con dei droni che si sono dimostrati capaci di "scegliere" quando non sparare e di minimizzare le perdite durante una battaglia.

Tutte queste novità aprono sicuramente diversi scenari nel campo della neuroetica. Quali possono essere le riflessioni che si possono trarre per quanto riguarda il libero arbitrio, la scelta etica? Capire come il cervello influenza tutto questo, potrà essere utile per creare dei robot sempre più efficienti e che possano rispondere al 100% alla Prima Legge della Robotica?

Nel frattempo, proprio per cercare di rispondere giuridicamente ad alcuni di questi interrogativi, diversi esperti hanno presentato le linee giuda europee del diritto dei robot.

A quali leggi obbedisce un robot?
La risposta non è unica e sembra avere dei margini abbastanza ampi in modo da permettere diverse regole in base al tipo di robot e alla sua funzione.
Gli esperti del consorzio universitario RoboLaw, giudati dalla Scuola Superiore Sant'Anna a Pisa ci stanno lavorando da un anno e mezzo e hanno presentato un documento alla Commissione e al Parlamento Europeo a Bruxelles pochi giorni fa.

Guidelines on Regulating Robotics è un documento di 215 pagine che dovrebbe servire a sancire le leggi per la regolamentazione dei robot che ormai svolgono diverse funzioni e stanno entrando in diversi istituti e case private. I temi da prendere in considerazione sono cinque: sicurezza ed ambiente - responsabilità - proprietà intellettuale - privacy e protezione dei dati - capacità dei robot di completare transazioni con valore legale.

Se a qualcuno tutto ciò può sembrare esagerato, basterebbe considerare, oltre al fattore economico (secondo uno studio McKinsey il settore della robotica potrebbe arrivare nel giro di dieci anni a valere più di 4,5 trilioni di dollari all'anno), un semplice esempio. Stanno ormai crescendo i veicoli a guida assistita, ma quando si arriverà ad avere a disposizione sistemi ben più integrati dell'auto che si guida da sola... chi pagherà in caso di un incidente? Di chi sarà la colpa? Chi potrà garantire la sicurezza della persona a bordo, non essendoci più un "guidatore fisico"?

Altro interessante punto del documento presentato a Bruxelles riguarda i robot umanoidi e il trovare loro una collocazione nella società. Questi nuovi "individui" cibernetici chi saranno? Potranno avere una certa personalità giuridica? I loro atti saranno effettivamente carichi di una valenza giuridica? Potranno "essere responsabili" delle azioni che svolgono?

Queste e altre domande non posso rimanere ancora a lungo senza una risposta.

Nessun commento:

Posta un commento