Marketing e intelligenza artificiale: pubblicità aggressiva o reale.

Una giornata trascorsa in una grande città consente di prender nota di numerosi richiami pubblicitari all’intelligenza artificiale che sarebbe integrata nei più recenti dispositivi elettronici in circolazione, inclusi alcuni smartphone a funzionamento parzialmente automatico, in grado di modificare sensibilmente l’esperienza dell’utente nella comunicazione interpersonale. Leggi tutto

Robotica e sicurezza

Nel corso degli ultimi anni si sono verificati degli incidenti che hanno fatto riflettere sulla sicurezza e sulle possibili evoluzioni della robotica. Marco Simoncelli, talentuoso pilota della Moto GP, approdato alla serie iridata dopo una carriera strepitosa nelle competizioni minori, perse la vita durante il Gran Premio di Malesia, a Sepang, il 23 ottobre 2011, anche a causa del funzionamento del controllo di trazione.
Il dispositivo elettronico, intervenendo sull’erogazione di potenza che aveva determinato la scivolata, consentì alla ruota di riacquistare quel minimo di aderenza che determinò il rientro in pista della moto proprio nel momento in cui sopraggiungevano a forte velocità Colin Edwards e Valentino Rossi, che, impotenti, investirono in pieno l’amico e collega, determinandone la morte. Senza l’elettronica, probabilmente, Marco Simoncelli sarebbe finito nella sabbia e sarebbe ancora tra i pretendenti al titolo di campione del mondo.
L’incidente è avvenuto in pista, durante una competizione sportiva, e richiama alla memoria (sebbene per problemi legati alla sicurezza meccanica) l’incidente in cui perse la vita Ayrton Senna, e al quale fece seguito un lungo procedimento per l’accertamento di eventuali responsabilità nelle modifiche apportate alla sua monoposto.
Se la responsabilità del costruttore di auto e moto da corsa è discutibile, trattandosi di mezzi sui quali la sperimentazione è portata all’estremo e per i quali, ovviamente, anche da parte del pilota c’è l’accettazione di un rischio superiore a quello di un normale conducente, ben più complessa è la vicenda che ha visto protagonista in negativo una supercar del costruttore Tesla, la quale, procedendo con guida autonoma, il 7 maggio 2016, ha provocato la morte del conducente nell’impatto con un autoarticolato.
L’incidente, avvenuto in Florida, è stato determinato, secondo le spiegazioni rese dal costruttore dopo l’analisi delle centraline elettroniche della vettura, dal colore bianco dell’autoarticolato, che ha confuso i sensori a causa della forte luminosità dell’ambiente circostante. Il computer di bordo, in sostanza, non ha rilevato l’ostacolo e non ha frenato, né eseguito manovre di emergenza.
Se le statistiche sembrano comunque sancire la maggior sicurezza dell’auto a guida autonoma rispetto a quella gestita dal conducente (130 milioni di miglia percorse senza incidenti, contro i 90 milioni di miglia del traffico americano e i 60 milioni di miglia del traffico europea), non è altrettanto chiara la responsabilità del costruttore rispetto ad un simile errore di valutazione da parte del computer di bordo dell’autovettura, né quali conseguenze potrebbe avere una eventuale valutazione positiva o negativa applicata al mondo della robotica.
Il costruttore è teoricamente responsabile della sicurezza dell’autovettura e, pertanto, un errore di questo tipo, che determina la morte del conducente (e che, ragionevolmente, senza un intervento di riprogrammazione ed eventuale aggiunta di sensori, potrebbe ripetersi), dovrebbe essere assimilato al difetto strutturale. Se l’autovettura perde la ruota per un difetto dei bulloni utilizzati per il serraggio, il costruttore è tenuto al risarcimento dei danni cagionati. Tale apparentemente semplice considerazione, tuttavia, non trova piena condivisione in ambito dottrinale, poiché è stato dimostrato scientificamente che non è possibile produrre un software perfetto, a causa delle variabili che intervengono nella sua realizzazione e delle innumerevoli scelte decisionali che anche poche righe di codice devono prendere in considerazione, sicchè c’è sempre la remota possibilità che un programma si trovi ad analizzare una situazione non prevista dal programmatore che può determinarne il blocco o una reazione errata (e ciò senza contare l’interazione con l’hardware e gli eventuali malfunzionamenti di quest’ultimo, che potrebbe indurre il software ad eseguire scelte errate).
Appare evidente come il problema non sia di poco conto dal punto di vista giuridico.
Un interessante articolo della rivista “Le Scienze” n. 293, a firma di Bev Littlewood e Lorenzo Strigini, evidenzia come sia impossibile garantire la perfezione del codice, formulando una considerazione che sembra scritta 23 anni fa per quanto avvenuto alla Tesla oggi: “Un programma di poche righe può contenere decine di decisioni… Può darsi che la situazione che causa una determinata configurazione di ingressi non fosse stata capita o magari nemmeno prevista: il progettista ha programmato correttamente la reazione sbagliata oppure non ha minimamente considerato quella situazione”.
Questo è il motivo per cui la decisione sull’implementazione di un software in un sistema, nell’industria (e in quella bellica in particolare) viene assunta non sulla base del potenziale lesivo del programma ma di quello benefico. In sostanza, viene eseguito un bilanciamento di interessi tra i danni che potrebbe generare l’intervento di un software e i vantaggi che darebbe in termini di sicurezza.
Tali principi di natura scientifica interferiscono ovviamente con la dimostrazione che il danneggiato deve dare del nesso di causalità, ossia della relazione tra un fatto e l’evento che ne discende. Se nonostante l’impegno del produttore non è possibile creare un software perfetto, occorre determinare quale sia la linea di discriminazione tra la casualità inevitabile e la negligenza del produttore, seppure in termini statistici.
In base all’art. 2043 del Codice Civile, che regola il principio della responsabilità civile, spetta al danneggiato dimostrare il nesso di causalità, prova tutt’altro che facile da produrre in giudizio nel momento in cui l’evento viene determinato da un software a causa di un errore che, ad esempio, potrebbe non essere riproducibile perchè determinato dall’occasionale malfunzionamento di un sensore. Ogni memoria elettronica, se non predisposta per registrare l’evento, si resetta al termine della sollecitazione che l’ha attivata e perde ogni informazione contenuta al suo interno. E’ questa la ragione per cui un difetto non previsto dal progettista non sarà mai rilevato dal sistema di diagnosi di un’autovettura, costringendo il meccanico (come sempre più spesso avviene) alla ricerca del guasto con metodo empirico, sostituendo singoli componenti e procedendo per tentativi.
Nel caso della Tesla, la condizione non prevista che ha determinato la morte del conducente potrebbe essere addebitata al costruttore o dovrebbe essere considerata un caso fortuito inevitabile seguendo la normale diligenza? E che rilievo avrebbe in tal caso l’avvertenza di mantenere comunque una condotta vigile, prevista dalle clausole contrattuali di vendita dell’autovettura e relative all’uso dell’assistente di guida (non pilota automatico, come evidenziato dall’azienda in occasione dell’incidente)?
A tale quesito occorre dare particolare rilevanza nell’ipotesi di attività robotica, intesa come completa sostituzione dell’essere umano nella realizzazione di operazioni complesse.
Le tre leggi della robotica ipotizzate da Isaac Asimov e gradualmente riportate nei propri romanzi, fino ad elaborarne una quarta di completamento, non sembrano poter dare garanzia di risoluzione del problema legato alla causalità dell’evento e alla gradazione delle connesse responsabilità .
La prima legge della robotica, infatti, stabilisce che un robot non deve arrecare danno ad un essere umano né permettere che un essere umano subisca un danno a causa del proprio mancato intervento.
La seconda legge prevede l’obbligo di eseguire gli ordini degli esseri umani salvo che tali ordini non contrastino con la prima legge.
La terza legge sancisce che il robot tuteli la propria esistenza purchè ciò non contrasti con le prime due leggi.
Asimov elaborò successivamente la legge zero, classificata in tal modo affinchè, dal punto di vista algebrico, precedesse le altre, in base alla quale l’interesse dell’umanità avrebbe comunque dovuto prevalere su quello del singolo. L’esistenza della quarta legge non incide sul ragionamento logico giuridico sotteso all’individuazione delle responsabilità civili, per cui non è necessario tenerne conto in questa sede.
Come è agevole rilevare, i contrasti tra le tre leggi della robotica potrebbero determinare il blocco del sistema: una violenta rissa tra diversi esseri umani potrebbe far decidere al robot di non intervenire per il rischio di fare del male ad alcuni dei partecipanti
In tal caso risulterebbe difficile ipotizzare la responsabilità del produttore, poiché il funzionamento (o malfunzionamento) avrebbe rispettato le tre leggi della robotica e quindi, teoricamente, i criteri di costruzione.
Allo stesso tempo, l’intervento di un robot in una situazione di pericolo, nel tentativo di salvaguardare la vita umana, potrebbe tuttavia determinarne la fine, ad esempio nell’ipotesi in cui l’intervento di soccorso determinasse il crollo della piattaforma sulla quale si trovassero i soggetti da salvare, a causa del peso del robot.
Tecnicamente non potrebbe neppure parlarsi di omicidio, non essendo stato l’evento determinato da un essere umano e non essendo direttamente riconducibile ad una negligenza del costruttore.
Sorvolando sull’ipotesi di droni militari costruiti senza l’assoggettamento alle tre leggi già menzionate, occorre rilevare come Satya Nadella, CEO di Microsoft, abbia recentemente individuato diversi punti su cui basare l’intelligenza artificiale, senza preoccuparsi troppo dei rischi connessi alla produzione di robot senzienti: la tecnologia robotica deve nascere per assistere l’umanità, con trasparenza ed efficienza, rispettando la dignità delle persone e dell’ambiente che le ospita, tutelando la riservatezza dei dati dei soggetti coinvolti, senza operare alcuna discriminazione. Di diverso avviso lo scienziato Stephen Hawking, secondo il quale l’intelligenza artificiale potrebbe portare alla scomparsa dell’umanità a causa della fredda logica matematica dei robot e della potenza che potrebbero acquisire.
La questione è talmente dibattuta da aver determinato la presentazione di una proposta di risoluzione al Parlamento Europeo 2015/2103(INL) sulle norme di diritto civile concernenti la robotica, che avrebbero implicazioni anche sulle regole di produzione e programmazione.
Tale proposta di legge, prendendo spunto dalla crescita di richieste di brevetti per tecnologie robotiche, triplicate nell’ultimo decennio, e dalla vendita di apparecchi basati su tecnologia robotica, che ha subito un incremento dal 17% del 2010 al 29% del 2014, ritiene necessaria l’adozione di regole certe e condivise per tutti gli stati membri dell’Unione Europea
Tra i vari “considerando” del testo sottoposto all’attenzione della Commissione, viene posta particolare attenzione alla sicurezza dei sistemi robotici, sotto molteplici aspetti. Innanzitutto il rischio che i sistemi informatici che sovrintendono al controllo dei robot siano fallibili o oggetto di attacco informatico, sotto forma di virus o intrusione, con ogni possibile conseguenza. In secondo luogo il rischio che i dati comunque acquisiti dai sistemi robotici non siano adeguatamente conservati e trattati, sia sotto il profilo della tutela della riservatezza che sotto quello della tutela della proprietà intellettuale ed industriale. Infine, che l’intelligenza artificiale possa superare la capacità intellettuale umana, con conseguente rischio di non poter più controllare ciò che è stato creato, aprendo ad uno scenario, già peraltro delineato dalla saga di Terminator, tutt’altro che remoto.
Dal punto di vista giuridico, tali riflessioni impongono di valutare la responsabilità del produttore di tali apparati ed anche quella dello stesso apparato, posto che, come indicato dalla relazione, l’autonomia dei robot potrebbe raggiungere livelli tali da non poter essere più considerati oggetti controllati, direttamente o indirettamente, ma nuovi soggetti di diritto la cui responsabilità dev’essere scissa da quella del costruttore.
Per questi motivi la proposta di legge invita la Commissione a proporre una definizione europea comune di “robot autonomi”, istituendo un sistema di registrazione nel quale tener conto anche del grado di complessità costruttiva e stabilendo un quadro etico di orientamento per la progettazione, la produzione e l’uso dei robot, che tenga conto dei problemi legati all’interazione con gli esseri umani, della sicurezza, del trattamento dei dati personali, dello status giuridico del robot stesso.
A tal fine ipotizza anche la creazione di una “Agenzia europea per la robotica e l’intelligenza artificiale”, per fornire le competenze tecniche, etiche e normative ai soggetti pubblici e privati impegnati nella progettazione e produzione dei robot
In particolare, con riguardo alla sicurezza e alla responsabilità civile, la proposta di legge ipotizza che il futuro strumento legislativo preveda una regime semplificato di prova del danno e di
individuazione del nesso di causalità tra il comportamento lesivo del robot e il danno arrecato alla parte lesa. Suggerisce, altresì, di considerare la responsabilità del produttore inversamente proporzionale alla capacità di apprendimento del robot (aprendo così la strada al riconoscimento di una soggettività giuridica e di una responsabilità del robot stesso) e di prevedere, in ogni caso, un regime di assicurazione obbligatorio, a carico del produttore, per i danni eventualmente arrecati dai robot autonomi che immetterà sul mercato, prevedendo contestualmente un fondo di garanzia statale, sul modello di quello delle vittime della strada.
In conclusione, l’evoluzione tecnologica in tale settore sta stimolando una connessa attività di riflessione giuridica che merita attenzione e che non mancherà di dare impulso ad ulteriori approfondimenti. Senza contare le opportunità di business connesse a tali nuovi settori produttivi.

Fonte: Sicurezza magazine