Quale sarà il futuro dei processori Intel, Amd e Arm con l’ingresso del GDPR?

Mentre i produttori di hardware e di software cercano la miglior soluzione alle vulnerabilità chiamate Spectre e Meltdown, che affliggono i processori Intel, Amd e Arm costruiti negli ultimi vent’anni (il problema non riguarda i processori della classe 486 e precedenti), gli utenti si interrogano sul futuro dei sistemi che stanno utilizzando, non solo per i problemi di sicurezza individuati (per i quali sono già disponibili alcune soluzioni e certamente ne saranno rilasciate altre nelle prossime settimane) ma per l’annunciata perdita di prestazioni (tra il 20 ed il 30%) che metterà fuori gioco tutti gli apparati che le aziende avrebbero mantenuto in funzione ancora per un anno o due e che dovranno invece sostituire quasi immediatamente per il drastico calo di prestazioni che li renderà inutilizzabili. Leggi tutto

GDPR 679/2016. Il sistema di gestione delle informazioni ISO 27001

Il sistema di gestione delle informazioni secondo la disciplina ISO 27001 è uno standard internazionale per la gestione della sicurezza informatica, applicabile a qualsiasi organizzazione, che definisce i requisiti per una corretta gestione della sicurezza delle informazioni in ambito aziendale.

Si tratta di un metodo che permette di garantire una sicurezza adeguata ai documenti in formato elettronico e alle banche dati aziendali, attraverso la gestione corretta delle reti e degli strumenti di comunicazione, assicurando anche la formazione del personale su rischi specifici come il phishing, i virus informatici, le frodi e il danneggiamento di programmi ed archivi.

La ISO 27001 è finalizzata a garantire una maggiore riservatezza delle informazioni, attraverso profili di autorizzazione che consentono di disciplinare gli accessi ai dati in base alle mansioni assegnate a singolo dipendente o a gruppi di dipendenti. Integrità e disponibilità delle informazioni sono gli ulteriori obiettivi perseguiti dalla norma, che tende a garantire la business continuity e ad evitare ripercussioni sull’attività dell’azienda in caso di incidente informatico.

Tecnologia inutile senza prevenzione

Nel posto sbagliato, nel momento sbagliato, come in un film catastrofista. Sta accadendo in questo momento in Abruzzo e nelle Marche, dove ai disagi del terremoto di agosto e ottobre si è aggiunta una abbondante nevicata, che dura da giorni e che ha provocato l’interruzione dei servizi essenziali come l’erogazione di energia elettrica ed acqua potabile. Leggi tutto

Caso Occhionero. Le email istituzionali sono protette?

L’ordinanza di custodia cautelare emessa dal Giudice per le Indagini Preliminari presso il Tribunale di Roma, a carico dei fratelli Occhionero, ritenuti responsabili di aver violato decine di sistemi informatici italiani e stranieri, privati e pubblici, incluse alcune infrastrutture critiche, ha improvvisamente portato all’attenzione dei media il problema della sicurezza informatica contro attacchi che fanno leva sull’elemento debole di ogni strategia: l’essere umano. Leggi tutto

Droni per Google Maps: a rischio sicurezza e privacy.

La notizia di Google che vorrebbe introdurre i droni per ottimizzare Google Maps e migliorare le prestazioni di Street View e del sistema di navigazione apre scenari interessanti, affascinanti ed inquietanti al tempo stesso.

I droni sono già un problema rilevante per la riservatezza dei dati personali degli utenti e stanno mettendo in crisi le ordinarie politiche di gestione della privacy da parte delle aziende, poiché la vecchia regola di individuare i trattamenti operati e le funzioni previste dal mansionario si scontra con una realtà che vede, ad esempio, il giardiniere (tipicamente soggetto privo di rilevanza per la privacy aziendale) utilizzare un drone per controllare vasi sui terrazzi e giardini pensili aziendali, con ogni prevedibile conseguenza per quello che potrà rilevare con microfoni e telecamere.

Immaginiamo ora i droni di Google che sfrecciano per le vie della città, analizzando cartelli stradali, segnaletica orizzontale, insegne, ecc., e quello che potranno rilevare con sensori, telecamere, microfoni, antenna GPS, antenna WiFi, ecc.

Il drone, per quanto sofisticato, potrebbe incappare in interferenze, ostacoli fissi (cavi del telefono o dell’illuminazione), ostacoli occasionali (una gru in manovra), volatili distratti o curiosi, ed ogni altro elemento in grado di comprometterne la stabilità ed il volo.

Potrebbe semplicemente avere un guasto o perdere il contatto con la centrale che lo gestisce.

Quello stesso drone, sulle strade extraurbane, potrebbe essere abbattuto da un cacciatore infastidito dalla sua presenza.

Qualunque sia la ragione dell’incidente aereo, se dovesse avere memorie residenti potrebbero essere sottratte, assieme ai dati rilevati. Senza contare il rischio di attacco informatico durante il volo, di duplicazione dei dati, di corruzione dei dati, di assunzione del controllo del drone stesso.

Ed infine, come non pensare ad una situazione comica, del ragioniere che si affaccia alla finestra, di buon mattino, e prende un drone in fronte, cadendo a pelle d’orso all’interno della propria abitazione.

Interessante, affascinante, inquietante, giuridicamente complesso e finanche imbarazzante. Nessun limite alla fantasia.

Fonte: Key4biz

Robotica e sicurezza

Nel corso degli ultimi anni si sono verificati degli incidenti che hanno fatto riflettere sulla sicurezza e sulle possibili evoluzioni della robotica. Marco Simoncelli, talentuoso pilota della Moto GP, approdato alla serie iridata dopo una carriera strepitosa nelle competizioni minori, perse la vita durante il Gran Premio di Malesia, a Sepang, il 23 ottobre 2011, anche a causa del funzionamento del controllo di trazione.
Il dispositivo elettronico, intervenendo sull’erogazione di potenza che aveva determinato la scivolata, consentì alla ruota di riacquistare quel minimo di aderenza che determinò il rientro in pista della moto proprio nel momento in cui sopraggiungevano a forte velocità Colin Edwards e Valentino Rossi, che, impotenti, investirono in pieno l’amico e collega, determinandone la morte. Senza l’elettronica, probabilmente, Marco Simoncelli sarebbe finito nella sabbia e sarebbe ancora tra i pretendenti al titolo di campione del mondo.
L’incidente è avvenuto in pista, durante una competizione sportiva, e richiama alla memoria (sebbene per problemi legati alla sicurezza meccanica) l’incidente in cui perse la vita Ayrton Senna, e al quale fece seguito un lungo procedimento per l’accertamento di eventuali responsabilità nelle modifiche apportate alla sua monoposto.
Se la responsabilità del costruttore di auto e moto da corsa è discutibile, trattandosi di mezzi sui quali la sperimentazione è portata all’estremo e per i quali, ovviamente, anche da parte del pilota c’è l’accettazione di un rischio superiore a quello di un normale conducente, ben più complessa è la vicenda che ha visto protagonista in negativo una supercar del costruttore Tesla, la quale, procedendo con guida autonoma, il 7 maggio 2016, ha provocato la morte del conducente nell’impatto con un autoarticolato.
L’incidente, avvenuto in Florida, è stato determinato, secondo le spiegazioni rese dal costruttore dopo l’analisi delle centraline elettroniche della vettura, dal colore bianco dell’autoarticolato, che ha confuso i sensori a causa della forte luminosità dell’ambiente circostante. Il computer di bordo, in sostanza, non ha rilevato l’ostacolo e non ha frenato, né eseguito manovre di emergenza.
Se le statistiche sembrano comunque sancire la maggior sicurezza dell’auto a guida autonoma rispetto a quella gestita dal conducente (130 milioni di miglia percorse senza incidenti, contro i 90 milioni di miglia del traffico americano e i 60 milioni di miglia del traffico europea), non è altrettanto chiara la responsabilità del costruttore rispetto ad un simile errore di valutazione da parte del computer di bordo dell’autovettura, né quali conseguenze potrebbe avere una eventuale valutazione positiva o negativa applicata al mondo della robotica.
Il costruttore è teoricamente responsabile della sicurezza dell’autovettura e, pertanto, un errore di questo tipo, che determina la morte del conducente (e che, ragionevolmente, senza un intervento di riprogrammazione ed eventuale aggiunta di sensori, potrebbe ripetersi), dovrebbe essere assimilato al difetto strutturale. Se l’autovettura perde la ruota per un difetto dei bulloni utilizzati per il serraggio, il costruttore è tenuto al risarcimento dei danni cagionati. Tale apparentemente semplice considerazione, tuttavia, non trova piena condivisione in ambito dottrinale, poiché è stato dimostrato scientificamente che non è possibile produrre un software perfetto, a causa delle variabili che intervengono nella sua realizzazione e delle innumerevoli scelte decisionali che anche poche righe di codice devono prendere in considerazione, sicchè c’è sempre la remota possibilità che un programma si trovi ad analizzare una situazione non prevista dal programmatore che può determinarne il blocco o una reazione errata (e ciò senza contare l’interazione con l’hardware e gli eventuali malfunzionamenti di quest’ultimo, che potrebbe indurre il software ad eseguire scelte errate).
Appare evidente come il problema non sia di poco conto dal punto di vista giuridico.
Un interessante articolo della rivista “Le Scienze” n. 293, a firma di Bev Littlewood e Lorenzo Strigini, evidenzia come sia impossibile garantire la perfezione del codice, formulando una considerazione che sembra scritta 23 anni fa per quanto avvenuto alla Tesla oggi: “Un programma di poche righe può contenere decine di decisioni… Può darsi che la situazione che causa una determinata configurazione di ingressi non fosse stata capita o magari nemmeno prevista: il progettista ha programmato correttamente la reazione sbagliata oppure non ha minimamente considerato quella situazione”.
Questo è il motivo per cui la decisione sull’implementazione di un software in un sistema, nell’industria (e in quella bellica in particolare) viene assunta non sulla base del potenziale lesivo del programma ma di quello benefico. In sostanza, viene eseguito un bilanciamento di interessi tra i danni che potrebbe generare l’intervento di un software e i vantaggi che darebbe in termini di sicurezza.
Tali principi di natura scientifica interferiscono ovviamente con la dimostrazione che il danneggiato deve dare del nesso di causalità, ossia della relazione tra un fatto e l’evento che ne discende. Se nonostante l’impegno del produttore non è possibile creare un software perfetto, occorre determinare quale sia la linea di discriminazione tra la casualità inevitabile e la negligenza del produttore, seppure in termini statistici.
In base all’art. 2043 del Codice Civile, che regola il principio della responsabilità civile, spetta al danneggiato dimostrare il nesso di causalità, prova tutt’altro che facile da produrre in giudizio nel momento in cui l’evento viene determinato da un software a causa di un errore che, ad esempio, potrebbe non essere riproducibile perchè determinato dall’occasionale malfunzionamento di un sensore. Ogni memoria elettronica, se non predisposta per registrare l’evento, si resetta al termine della sollecitazione che l’ha attivata e perde ogni informazione contenuta al suo interno. E’ questa la ragione per cui un difetto non previsto dal progettista non sarà mai rilevato dal sistema di diagnosi di un’autovettura, costringendo il meccanico (come sempre più spesso avviene) alla ricerca del guasto con metodo empirico, sostituendo singoli componenti e procedendo per tentativi.
Nel caso della Tesla, la condizione non prevista che ha determinato la morte del conducente potrebbe essere addebitata al costruttore o dovrebbe essere considerata un caso fortuito inevitabile seguendo la normale diligenza? E che rilievo avrebbe in tal caso l’avvertenza di mantenere comunque una condotta vigile, prevista dalle clausole contrattuali di vendita dell’autovettura e relative all’uso dell’assistente di guida (non pilota automatico, come evidenziato dall’azienda in occasione dell’incidente)?
A tale quesito occorre dare particolare rilevanza nell’ipotesi di attività robotica, intesa come completa sostituzione dell’essere umano nella realizzazione di operazioni complesse.
Le tre leggi della robotica ipotizzate da Isaac Asimov e gradualmente riportate nei propri romanzi, fino ad elaborarne una quarta di completamento, non sembrano poter dare garanzia di risoluzione del problema legato alla causalità dell’evento e alla gradazione delle connesse responsabilità .
La prima legge della robotica, infatti, stabilisce che un robot non deve arrecare danno ad un essere umano né permettere che un essere umano subisca un danno a causa del proprio mancato intervento.
La seconda legge prevede l’obbligo di eseguire gli ordini degli esseri umani salvo che tali ordini non contrastino con la prima legge.
La terza legge sancisce che il robot tuteli la propria esistenza purchè ciò non contrasti con le prime due leggi.
Asimov elaborò successivamente la legge zero, classificata in tal modo affinchè, dal punto di vista algebrico, precedesse le altre, in base alla quale l’interesse dell’umanità avrebbe comunque dovuto prevalere su quello del singolo. L’esistenza della quarta legge non incide sul ragionamento logico giuridico sotteso all’individuazione delle responsabilità civili, per cui non è necessario tenerne conto in questa sede.
Come è agevole rilevare, i contrasti tra le tre leggi della robotica potrebbero determinare il blocco del sistema: una violenta rissa tra diversi esseri umani potrebbe far decidere al robot di non intervenire per il rischio di fare del male ad alcuni dei partecipanti
In tal caso risulterebbe difficile ipotizzare la responsabilità del produttore, poiché il funzionamento (o malfunzionamento) avrebbe rispettato le tre leggi della robotica e quindi, teoricamente, i criteri di costruzione.
Allo stesso tempo, l’intervento di un robot in una situazione di pericolo, nel tentativo di salvaguardare la vita umana, potrebbe tuttavia determinarne la fine, ad esempio nell’ipotesi in cui l’intervento di soccorso determinasse il crollo della piattaforma sulla quale si trovassero i soggetti da salvare, a causa del peso del robot.
Tecnicamente non potrebbe neppure parlarsi di omicidio, non essendo stato l’evento determinato da un essere umano e non essendo direttamente riconducibile ad una negligenza del costruttore.
Sorvolando sull’ipotesi di droni militari costruiti senza l’assoggettamento alle tre leggi già menzionate, occorre rilevare come Satya Nadella, CEO di Microsoft, abbia recentemente individuato diversi punti su cui basare l’intelligenza artificiale, senza preoccuparsi troppo dei rischi connessi alla produzione di robot senzienti: la tecnologia robotica deve nascere per assistere l’umanità, con trasparenza ed efficienza, rispettando la dignità delle persone e dell’ambiente che le ospita, tutelando la riservatezza dei dati dei soggetti coinvolti, senza operare alcuna discriminazione. Di diverso avviso lo scienziato Stephen Hawking, secondo il quale l’intelligenza artificiale potrebbe portare alla scomparsa dell’umanità a causa della fredda logica matematica dei robot e della potenza che potrebbero acquisire.
La questione è talmente dibattuta da aver determinato la presentazione di una proposta di risoluzione al Parlamento Europeo 2015/2103(INL) sulle norme di diritto civile concernenti la robotica, che avrebbero implicazioni anche sulle regole di produzione e programmazione.
Tale proposta di legge, prendendo spunto dalla crescita di richieste di brevetti per tecnologie robotiche, triplicate nell’ultimo decennio, e dalla vendita di apparecchi basati su tecnologia robotica, che ha subito un incremento dal 17% del 2010 al 29% del 2014, ritiene necessaria l’adozione di regole certe e condivise per tutti gli stati membri dell’Unione Europea
Tra i vari “considerando” del testo sottoposto all’attenzione della Commissione, viene posta particolare attenzione alla sicurezza dei sistemi robotici, sotto molteplici aspetti. Innanzitutto il rischio che i sistemi informatici che sovrintendono al controllo dei robot siano fallibili o oggetto di attacco informatico, sotto forma di virus o intrusione, con ogni possibile conseguenza. In secondo luogo il rischio che i dati comunque acquisiti dai sistemi robotici non siano adeguatamente conservati e trattati, sia sotto il profilo della tutela della riservatezza che sotto quello della tutela della proprietà intellettuale ed industriale. Infine, che l’intelligenza artificiale possa superare la capacità intellettuale umana, con conseguente rischio di non poter più controllare ciò che è stato creato, aprendo ad uno scenario, già peraltro delineato dalla saga di Terminator, tutt’altro che remoto.
Dal punto di vista giuridico, tali riflessioni impongono di valutare la responsabilità del produttore di tali apparati ed anche quella dello stesso apparato, posto che, come indicato dalla relazione, l’autonomia dei robot potrebbe raggiungere livelli tali da non poter essere più considerati oggetti controllati, direttamente o indirettamente, ma nuovi soggetti di diritto la cui responsabilità dev’essere scissa da quella del costruttore.
Per questi motivi la proposta di legge invita la Commissione a proporre una definizione europea comune di “robot autonomi”, istituendo un sistema di registrazione nel quale tener conto anche del grado di complessità costruttiva e stabilendo un quadro etico di orientamento per la progettazione, la produzione e l’uso dei robot, che tenga conto dei problemi legati all’interazione con gli esseri umani, della sicurezza, del trattamento dei dati personali, dello status giuridico del robot stesso.
A tal fine ipotizza anche la creazione di una “Agenzia europea per la robotica e l’intelligenza artificiale”, per fornire le competenze tecniche, etiche e normative ai soggetti pubblici e privati impegnati nella progettazione e produzione dei robot
In particolare, con riguardo alla sicurezza e alla responsabilità civile, la proposta di legge ipotizza che il futuro strumento legislativo preveda una regime semplificato di prova del danno e di
individuazione del nesso di causalità tra il comportamento lesivo del robot e il danno arrecato alla parte lesa. Suggerisce, altresì, di considerare la responsabilità del produttore inversamente proporzionale alla capacità di apprendimento del robot (aprendo così la strada al riconoscimento di una soggettività giuridica e di una responsabilità del robot stesso) e di prevedere, in ogni caso, un regime di assicurazione obbligatorio, a carico del produttore, per i danni eventualmente arrecati dai robot autonomi che immetterà sul mercato, prevedendo contestualmente un fondo di garanzia statale, sul modello di quello delle vittime della strada.
In conclusione, l’evoluzione tecnologica in tale settore sta stimolando una connessa attività di riflessione giuridica che merita attenzione e che non mancherà di dare impulso ad ulteriori approfondimenti. Senza contare le opportunità di business connesse a tali nuovi settori produttivi.

Fonte: Sicurezza magazine