Artificiale. Intelligenza o stupidità?

un mondo che vira rapidamente verso il digitale e nel quale inizia a parlarsi sempre più frequentemente di intelligenza artificiale e sistemi esperti, cioè capaci di apprendere e rielaborare le informazioni per trarne soluzioni più efficaci, accade spesso, tuttavia, di trovarsi di fronte a soluzioni che lasciano propendere per una intelligenza solo supposta e non reale.

Lo scenario è Milano in occasione dell’ultimo sciopero dei mezzi pubblici, criticità alla quale si è sommata una pioggia incessante che ha ulteriormente complicato le cose. Traffico caotico e grovigli di auto un po’ ovunque sulle strade principali. Tutti hanno attivato il navigatore satellitare alla ricerca di possibili alternative, chi il veicolare, chi il portatile, chi quello installato come app sul telefono.

Tutti hanno lo stesso difetto: ricalcolano il miglior percorso possibile sulla base di una serie di variabili che sono, a seconda dei casi e dei parametri impostati dall’utente, il percorso più veloce, il più breve, quello ecologico, quello senza pedaggi, sovrapponendo le informazioni sul traffico se disponibili.

Il traffico è come un corso d’acqua, per evitare che possa esondare è necessario disperderlo e non convogliarlo su un solo percorso. Esattamente il contrario di quello che fanno i navigatori satellitari. Avendo logiche simili, tutti reindirizzano le autovetture verso lo stesso percorso ritenuto più libero e rispondente ai parametri da applicare, con il risultato che ci si ritrova da un ingorgo all’altro con gli stessi compagni di viaggio.

Basta spostarsi di un isolato e appaiono interi viali liberi dal traffico ma taggati come percorsi secondari e quindi scartati dal navigatore. Un vero sistema “intelligente” non reindirizzerebbe tutti gli automobilisti verso il medesimo percorso ma li redistribuirebbe verso i diversi percorsi possibili, applicando la logica della ripartizione del carico di lavoro che viene utilizzata, ad esempio, tra i sistemi multiprocessore.

Se si comportasse in tal modo anche solo Google Maps, già si avrebbe una notevole fluidificazione del traffico ed anche chi non ha un navigatore ne trarrebbe giovamento. E sarebbe un inizio di intelligenza artificiale o, quantomeno, di uso intelligente della tecnologia.

Fonte: Key4biz

Robotica e sicurezza

Nel corso degli ultimi anni si sono verificati degli incidenti che hanno fatto riflettere sulla sicurezza e sulle possibili evoluzioni della robotica. Marco Simoncelli, talentuoso pilota della Moto GP, approdato alla serie iridata dopo una carriera strepitosa nelle competizioni minori, perse la vita durante il Gran Premio di Malesia, a Sepang, il 23 ottobre 2011, anche a causa del funzionamento del controllo di trazione.
Il dispositivo elettronico, intervenendo sull’erogazione di potenza che aveva determinato la scivolata, consentì alla ruota di riacquistare quel minimo di aderenza che determinò il rientro in pista della moto proprio nel momento in cui sopraggiungevano a forte velocità Colin Edwards e Valentino Rossi, che, impotenti, investirono in pieno l’amico e collega, determinandone la morte. Senza l’elettronica, probabilmente, Marco Simoncelli sarebbe finito nella sabbia e sarebbe ancora tra i pretendenti al titolo di campione del mondo.
L’incidente è avvenuto in pista, durante una competizione sportiva, e richiama alla memoria (sebbene per problemi legati alla sicurezza meccanica) l’incidente in cui perse la vita Ayrton Senna, e al quale fece seguito un lungo procedimento per l’accertamento di eventuali responsabilità nelle modifiche apportate alla sua monoposto.
Se la responsabilità del costruttore di auto e moto da corsa è discutibile, trattandosi di mezzi sui quali la sperimentazione è portata all’estremo e per i quali, ovviamente, anche da parte del pilota c’è l’accettazione di un rischio superiore a quello di un normale conducente, ben più complessa è la vicenda che ha visto protagonista in negativo una supercar del costruttore Tesla, la quale, procedendo con guida autonoma, il 7 maggio 2016, ha provocato la morte del conducente nell’impatto con un autoarticolato.
L’incidente, avvenuto in Florida, è stato determinato, secondo le spiegazioni rese dal costruttore dopo l’analisi delle centraline elettroniche della vettura, dal colore bianco dell’autoarticolato, che ha confuso i sensori a causa della forte luminosità dell’ambiente circostante. Il computer di bordo, in sostanza, non ha rilevato l’ostacolo e non ha frenato, né eseguito manovre di emergenza.
Se le statistiche sembrano comunque sancire la maggior sicurezza dell’auto a guida autonoma rispetto a quella gestita dal conducente (130 milioni di miglia percorse senza incidenti, contro i 90 milioni di miglia del traffico americano e i 60 milioni di miglia del traffico europea), non è altrettanto chiara la responsabilità del costruttore rispetto ad un simile errore di valutazione da parte del computer di bordo dell’autovettura, né quali conseguenze potrebbe avere una eventuale valutazione positiva o negativa applicata al mondo della robotica.
Il costruttore è teoricamente responsabile della sicurezza dell’autovettura e, pertanto, un errore di questo tipo, che determina la morte del conducente (e che, ragionevolmente, senza un intervento di riprogrammazione ed eventuale aggiunta di sensori, potrebbe ripetersi), dovrebbe essere assimilato al difetto strutturale. Se l’autovettura perde la ruota per un difetto dei bulloni utilizzati per il serraggio, il costruttore è tenuto al risarcimento dei danni cagionati. Tale apparentemente semplice considerazione, tuttavia, non trova piena condivisione in ambito dottrinale, poiché è stato dimostrato scientificamente che non è possibile produrre un software perfetto, a causa delle variabili che intervengono nella sua realizzazione e delle innumerevoli scelte decisionali che anche poche righe di codice devono prendere in considerazione, sicchè c’è sempre la remota possibilità che un programma si trovi ad analizzare una situazione non prevista dal programmatore che può determinarne il blocco o una reazione errata (e ciò senza contare l’interazione con l’hardware e gli eventuali malfunzionamenti di quest’ultimo, che potrebbe indurre il software ad eseguire scelte errate).
Appare evidente come il problema non sia di poco conto dal punto di vista giuridico.
Un interessante articolo della rivista “Le Scienze” n. 293, a firma di Bev Littlewood e Lorenzo Strigini, evidenzia come sia impossibile garantire la perfezione del codice, formulando una considerazione che sembra scritta 23 anni fa per quanto avvenuto alla Tesla oggi: “Un programma di poche righe può contenere decine di decisioni… Può darsi che la situazione che causa una determinata configurazione di ingressi non fosse stata capita o magari nemmeno prevista: il progettista ha programmato correttamente la reazione sbagliata oppure non ha minimamente considerato quella situazione”.
Questo è il motivo per cui la decisione sull’implementazione di un software in un sistema, nell’industria (e in quella bellica in particolare) viene assunta non sulla base del potenziale lesivo del programma ma di quello benefico. In sostanza, viene eseguito un bilanciamento di interessi tra i danni che potrebbe generare l’intervento di un software e i vantaggi che darebbe in termini di sicurezza.
Tali principi di natura scientifica interferiscono ovviamente con la dimostrazione che il danneggiato deve dare del nesso di causalità, ossia della relazione tra un fatto e l’evento che ne discende. Se nonostante l’impegno del produttore non è possibile creare un software perfetto, occorre determinare quale sia la linea di discriminazione tra la casualità inevitabile e la negligenza del produttore, seppure in termini statistici.
In base all’art. 2043 del Codice Civile, che regola il principio della responsabilità civile, spetta al danneggiato dimostrare il nesso di causalità, prova tutt’altro che facile da produrre in giudizio nel momento in cui l’evento viene determinato da un software a causa di un errore che, ad esempio, potrebbe non essere riproducibile perchè determinato dall’occasionale malfunzionamento di un sensore. Ogni memoria elettronica, se non predisposta per registrare l’evento, si resetta al termine della sollecitazione che l’ha attivata e perde ogni informazione contenuta al suo interno. E’ questa la ragione per cui un difetto non previsto dal progettista non sarà mai rilevato dal sistema di diagnosi di un’autovettura, costringendo il meccanico (come sempre più spesso avviene) alla ricerca del guasto con metodo empirico, sostituendo singoli componenti e procedendo per tentativi.
Nel caso della Tesla, la condizione non prevista che ha determinato la morte del conducente potrebbe essere addebitata al costruttore o dovrebbe essere considerata un caso fortuito inevitabile seguendo la normale diligenza? E che rilievo avrebbe in tal caso l’avvertenza di mantenere comunque una condotta vigile, prevista dalle clausole contrattuali di vendita dell’autovettura e relative all’uso dell’assistente di guida (non pilota automatico, come evidenziato dall’azienda in occasione dell’incidente)?
A tale quesito occorre dare particolare rilevanza nell’ipotesi di attività robotica, intesa come completa sostituzione dell’essere umano nella realizzazione di operazioni complesse.
Le tre leggi della robotica ipotizzate da Isaac Asimov e gradualmente riportate nei propri romanzi, fino ad elaborarne una quarta di completamento, non sembrano poter dare garanzia di risoluzione del problema legato alla causalità dell’evento e alla gradazione delle connesse responsabilità .
La prima legge della robotica, infatti, stabilisce che un robot non deve arrecare danno ad un essere umano né permettere che un essere umano subisca un danno a causa del proprio mancato intervento.
La seconda legge prevede l’obbligo di eseguire gli ordini degli esseri umani salvo che tali ordini non contrastino con la prima legge.
La terza legge sancisce che il robot tuteli la propria esistenza purchè ciò non contrasti con le prime due leggi.
Asimov elaborò successivamente la legge zero, classificata in tal modo affinchè, dal punto di vista algebrico, precedesse le altre, in base alla quale l’interesse dell’umanità avrebbe comunque dovuto prevalere su quello del singolo. L’esistenza della quarta legge non incide sul ragionamento logico giuridico sotteso all’individuazione delle responsabilità civili, per cui non è necessario tenerne conto in questa sede.
Come è agevole rilevare, i contrasti tra le tre leggi della robotica potrebbero determinare il blocco del sistema: una violenta rissa tra diversi esseri umani potrebbe far decidere al robot di non intervenire per il rischio di fare del male ad alcuni dei partecipanti
In tal caso risulterebbe difficile ipotizzare la responsabilità del produttore, poiché il funzionamento (o malfunzionamento) avrebbe rispettato le tre leggi della robotica e quindi, teoricamente, i criteri di costruzione.
Allo stesso tempo, l’intervento di un robot in una situazione di pericolo, nel tentativo di salvaguardare la vita umana, potrebbe tuttavia determinarne la fine, ad esempio nell’ipotesi in cui l’intervento di soccorso determinasse il crollo della piattaforma sulla quale si trovassero i soggetti da salvare, a causa del peso del robot.
Tecnicamente non potrebbe neppure parlarsi di omicidio, non essendo stato l’evento determinato da un essere umano e non essendo direttamente riconducibile ad una negligenza del costruttore.
Sorvolando sull’ipotesi di droni militari costruiti senza l’assoggettamento alle tre leggi già menzionate, occorre rilevare come Satya Nadella, CEO di Microsoft, abbia recentemente individuato diversi punti su cui basare l’intelligenza artificiale, senza preoccuparsi troppo dei rischi connessi alla produzione di robot senzienti: la tecnologia robotica deve nascere per assistere l’umanità, con trasparenza ed efficienza, rispettando la dignità delle persone e dell’ambiente che le ospita, tutelando la riservatezza dei dati dei soggetti coinvolti, senza operare alcuna discriminazione. Di diverso avviso lo scienziato Stephen Hawking, secondo il quale l’intelligenza artificiale potrebbe portare alla scomparsa dell’umanità a causa della fredda logica matematica dei robot e della potenza che potrebbero acquisire.
La questione è talmente dibattuta da aver determinato la presentazione di una proposta di risoluzione al Parlamento Europeo 2015/2103(INL) sulle norme di diritto civile concernenti la robotica, che avrebbero implicazioni anche sulle regole di produzione e programmazione.
Tale proposta di legge, prendendo spunto dalla crescita di richieste di brevetti per tecnologie robotiche, triplicate nell’ultimo decennio, e dalla vendita di apparecchi basati su tecnologia robotica, che ha subito un incremento dal 17% del 2010 al 29% del 2014, ritiene necessaria l’adozione di regole certe e condivise per tutti gli stati membri dell’Unione Europea
Tra i vari “considerando” del testo sottoposto all’attenzione della Commissione, viene posta particolare attenzione alla sicurezza dei sistemi robotici, sotto molteplici aspetti. Innanzitutto il rischio che i sistemi informatici che sovrintendono al controllo dei robot siano fallibili o oggetto di attacco informatico, sotto forma di virus o intrusione, con ogni possibile conseguenza. In secondo luogo il rischio che i dati comunque acquisiti dai sistemi robotici non siano adeguatamente conservati e trattati, sia sotto il profilo della tutela della riservatezza che sotto quello della tutela della proprietà intellettuale ed industriale. Infine, che l’intelligenza artificiale possa superare la capacità intellettuale umana, con conseguente rischio di non poter più controllare ciò che è stato creato, aprendo ad uno scenario, già peraltro delineato dalla saga di Terminator, tutt’altro che remoto.
Dal punto di vista giuridico, tali riflessioni impongono di valutare la responsabilità del produttore di tali apparati ed anche quella dello stesso apparato, posto che, come indicato dalla relazione, l’autonomia dei robot potrebbe raggiungere livelli tali da non poter essere più considerati oggetti controllati, direttamente o indirettamente, ma nuovi soggetti di diritto la cui responsabilità dev’essere scissa da quella del costruttore.
Per questi motivi la proposta di legge invita la Commissione a proporre una definizione europea comune di “robot autonomi”, istituendo un sistema di registrazione nel quale tener conto anche del grado di complessità costruttiva e stabilendo un quadro etico di orientamento per la progettazione, la produzione e l’uso dei robot, che tenga conto dei problemi legati all’interazione con gli esseri umani, della sicurezza, del trattamento dei dati personali, dello status giuridico del robot stesso.
A tal fine ipotizza anche la creazione di una “Agenzia europea per la robotica e l’intelligenza artificiale”, per fornire le competenze tecniche, etiche e normative ai soggetti pubblici e privati impegnati nella progettazione e produzione dei robot
In particolare, con riguardo alla sicurezza e alla responsabilità civile, la proposta di legge ipotizza che il futuro strumento legislativo preveda una regime semplificato di prova del danno e di
individuazione del nesso di causalità tra il comportamento lesivo del robot e il danno arrecato alla parte lesa. Suggerisce, altresì, di considerare la responsabilità del produttore inversamente proporzionale alla capacità di apprendimento del robot (aprendo così la strada al riconoscimento di una soggettività giuridica e di una responsabilità del robot stesso) e di prevedere, in ogni caso, un regime di assicurazione obbligatorio, a carico del produttore, per i danni eventualmente arrecati dai robot autonomi che immetterà sul mercato, prevedendo contestualmente un fondo di garanzia statale, sul modello di quello delle vittime della strada.
In conclusione, l’evoluzione tecnologica in tale settore sta stimolando una connessa attività di riflessione giuridica che merita attenzione e che non mancherà di dare impulso ad ulteriori approfondimenti. Senza contare le opportunità di business connesse a tali nuovi settori produttivi.

Fonte: Sicurezza magazine

Snowden e la tela di PRISM

In principio fu Echelon, un sistema di intercettazione globale delle comunicazioni pubbliche e private sviluppato nell’ambito dell’alleanza meglio nota come UKUSA (Australia, Canada, Regno Unito, Nuova Zelanda e Stati Uniti).
L’installazione del sistema ebbe inizio negli anni sessanta a opera della NSA – National Security Agency degli Stati Uniti d’America – attraverso il lancio di una serie di satelliti spia, in grado di raccogliere le informazioni disponibili sulle reti di comunicazione elettronica terrestri.
I centri di elaborazione dati a terra – Menwith Hill (Gran Bretagna), a Pine Gap (Australia) e a Misawa Air Base (Honshū, Giappone) – erano/sono in grado di controllare e intercettare i cavi sottomarini per le telecomunicazioni di classe Aquacade e Magnum, attraverso l’analisi dei flussi di dati e la rilevazione di parole chiave, idonee a segnalare agli operatori i messaggi sospetti.
Il sistema sarebbe in grado di tracciare anche l’impronta vocale di un individuo, per associare i messaggi vocali a quelli riconducibili alle sue utenze telematiche e fornire, pertanto, un profilo relativamente completo della persona in oggetto.
Secondo indiscrezioni trapelate nel corso dei processi che hanno visto coinvolte alcune compagnie telefoniche occidentali, queste ultime sarebbero state obbligate dai rispettivi Governi, in accordo con NSA, ad assegnare la sicurezza a uomini graditi ai servizi segreti, al fine di agevolare le attività di intercettazione e controspionaggio.
In Italia, per esempio, Marco Bernardini, testimone chiave dell’inchiesta sui dossier illegali raccolti dal Team di Sicurezza del gruppo Pirelli-Telecom, dichiarò di aver effettuato intercettazioni per conto di Echelon sull’Autorità Antitrust, accedendo ai dati di Vodafone e Wind.
Il sistema potrebbe essere stato, quindi, utilizzato anche per scopi diversi da quelli relativi alla sicurezza nazionale e internazionale, non potendosi escludere un’attività di spionaggio industriale, da parte dei Paesi controllanti il sistema di intercettazione, ai danni delle altre nazioni, per quanto alleate o legate da accordi internazionali.
Secondo le informazioni assunte dalla Commissione Europea, appositamente costituita nel 2001 per valutarne l’effettiva pericolosità e le eventuali contromisure da adottare, Echelon era/è in grado di intercettare diverse tipologie di comunicazioni, in base al mezzo sottoposto a controllo (radio, satellite, microonde, cavo telefonico, fibra ottica).
Tecnicamente il sistema di intercettazioni trova il suo limite soltanto nella mole di dati che deve elaborare, in quanto l’eccesso di informazione costituisce un mare magnum di notizie nel quale risulta difficile reperire quelle effettivamente rilevanti per i fini perseguiti dai governi interessati ed aderenti al progetto.

Le rivelazioni di Snowden
Il sistema PRISM – del quale si parla con insistenza dallo scorso giugno, a seguito delle rivelazioni fatte al The Guardian da Mark Snowden, contractor esterno della NSA venuto in possesso di informazioni assolutamente riservate sul funzionamento di tale apparato – è la naturale evoluzione di Echelon, essendo basato sulla gestione di dati e informazioni provenienti dalla rete Internet e acquisite grazie agli accordi intrapresi da NSA con le grandi compagnie di servizi e comunicazioni del Web.
Le rivelazioni di Snowden hanno permesso di accertare che il sistema PRISM non si limita a intercettare ogni sorta di informazione veicolata attraverso la Rete, utilizzando prevalentemente i server statunitensi, ma agevola tale intercettazione mediante attacchi mirati ai principali nodi internazionali, sfruttando la caratteristica per la quale ogni pacchetto in transito su Internet non sceglie il percorso più diretto ma quello più libero, meno trafficato.
Ostacolando il funzionamento dei server poco controllabili, NSA riesce a veicolare un flusso maggiore di informazioni verso i server statunitensi, grazie ai quali il filtraggio dei dati è più agevole.
Tale attività tecnica, associata a un’analisi del traffico dei social network e dei motori di ricerca, consente un controllo globale dell’informazione che lascia ben pochi spazi alla riservatezza e ai diritti costituzionali dei cittadini di ogni paese civilizzato.
Del resto, la politica espansionistica di Google e di Microsoft, come di altre aziende nei rispettivi settori, non poteva passare inosservata (ammesso che non vi sia stato addirittura un diretto intervento, anche economico, della potentissima agenzia governativa USA) alla NSA, fortemente interessata alle potenzialità investigative e gestionali delle piattaforme realizzate o acquisite dai suddetti operatori.
Era, quindi, prevedibile un’evoluzione in tal senso dei sistemi di intercettazione precedenti.

Lascia perplessi l’indignazione del mondo occidentale
Il volume di informazioni che è possibile acquisire grazie al controllo e al filtraggio del traffico generato dai più diffusi social network, dai server di posta elettronica, dai portali per le ricerche, dal VOIP e da ogni altro servizio del Web, rende evidentemente qualsiasi cittadino digitale un pesce rosso nella boccia dell’intercettazione globale di NSA, per la quale non ha più segreti.
Anzi, tecnicamente, dall’analisi dei flussi di dati relativi a ogni cittadino è possibile ricavare un profilo psicologico e comportamentale in grado di definirne le potenzialità e i difetti, sotto ogni punto di vista, con un’accuratezza tale che perfino il diretto interessato, sfogliando il dossier che lo riguarda, potrebbe scoprire lati positivi e negativi di se stesso che neppure immaginava, derivanti, per l’appunto, dall’indagine accurata svolta nei suoi confronti.
Se non stupisce che la NSA abbia potenziato le proprie capacità di intercettazione globale (è anche comprensibile, visto il ruolo strategico degli Stati Uniti dopo il crollo dell’Unione Sovietica), ciò che invece lascia perplessi (rendendola poco credibile) è l’indignazione del mondo occidentale, che sembra sconcertato dalle dichiarazioni di Snowden, come se non sospettasse l’esistenza di un simile apparato.
Una circostanza quantomeno discutibile, che lascia dubitare della reale capacità di molti politici di assolvere correttamente la loro funzione istituzionale, ovvero permette di propendere per un’ipocrisia diffusa, volta a mascherare l’imbarazzo per la consapevole e volontaria intrusione nella vita privata dei loro connazionali.
Chi si occupa di informatica era in grado già dieci anni fa di ipotizzare l’esistenza di un sistema di intercettazione globale di tale potenza, sia per la ormai infinita capacità di calcolo degli elaboratori che per il crescente ricorso dell’uomo medio alle nuove tecnologie e la progressiva trasposizione del proprio domicilio reale verso quello informatico. Trasposizione completata dai social network, oggi vero alter ego telematico delle faccende private di qualsiasi cittadino.
Parlare di sicurezza dei dati con il cittadino qualunque è come interloquire di fisica nucleare con il lattaio.
L’indignazione, pertanto, è fuori luogo da parte del politico quanto da parte del cittadino medio, che mette i suoi dati felicemente e tranquillamente su Facebook, Google Plus, My Space e Twitter, per tacer d’altri social network e servizi meno noti, con una gara alla pubblicazione delle informazioni personali senza alcun ritegno o riservatezza, senza alcun freno inibitore per quanto riguarda pensieri più o meno pubblicabili, improperi e volgarità di vario genere, foto e filmati personali, di amici e parenti, di feste improbabili e di esperienze improponibili, che se tornasse Darwin dovrebbe riscrivere la teoria dell’evoluzione, per quanti nuovi soggetti avrebbe da classificare.
Per non citare gli innumerevoli siti di annunci per adulti nei quali praticamente non passa giorno che non si trovi il vicino di casa, piuttosto che la signora del palazzo accanto, che ha ceduto alla solitudine e alla sottile passione per la trasgressione che caratterizza il navigatore medio.
Le aziende del marketing profilano ogni comportamento in rete dell’utente medio, registrandone le ricerche, gli acquisti, le visualizzazioni e perfino i singoli “mi piace” che egli associa a foto e commenti sui social network, per organizzare le scorte, orientare le prossime campagne pubblicitarie e crearci quei bisogni che non sapevamo di avere.
Parlare di sicurezza dei dati e delle reti con il cittadino qualunque è come cercare di interloquire di fisica nucleare con il lattaio.

La metà delle reti wireless europee è priva dei criteri minimi di sicurezza
Ma se Atene piange, di certo Sparta non ride, dato che nelle aziende, per ragioni legate soprattutto ai costi, la sicurezza informatica è tutt’altro che eccezionale.
Da anni, ormai, i professionisti dello spionaggio industriale hanno sostituito le spie con gli informatici in grado di bucare i server della concorrenza, per intercettarne la corrispondenza o trafugarne gli archivi, i codici, i brevetti e ogni altra informazione utile.
La metà delle reti wireless dell’Europa è priva di criteri minimi di sicurezza e permette ai ragazzi di ogni età di giocare alla guerra elettronica, utilizzando antenne da qualche decina di Euro, tant’è che perfino Google ha ceduto alla tentazione di “farsi i fatti nostri” (e non è dato conoscere quanto abbia influito NSA nella decisione), utilizzando l’autovettura che gira per le città, per le rilevazioni geografiche, appositamente modificata per acquisire ogni sorta di informazione disponibile nell’etere, cifrata o meno che fosse.
Ad abundantiam, si tenga presente che le Forze dell’Ordine intercettano quotidianamente centinaia di cittadini ignari e inconsapevoli, solo perché hanno la sfortuna di avere, nella rubrica telefonica, qualcuno che è sottoposto a indagine per aver commesso un reato, ascoltandone vizi privati e pubbliche virtù che nulla hanno a che fare con il processo.
Ebbene, tutto ciò premesso – e in assenza di una cultura diffusa della sicurezza che induca, ad esempio, le aziende e i privati a utilizzare firewall ben configurati, sistemi di cifratura come TOR e GnuGP, software opensource per escludere – o, quantomeno, ridurre – il rischio che contengano procedimenti di key escrow e key recovery, ovvero vere e proprie backdoor in grado di consentire l’accesso dall’esterno a chiunque, in barba a qualsiasi sistema di protezione, non si comprende la ragione per la quale una realtà come NSA dovrebbe restare al palo e segnare il passo, rinunciando ad approfittare della situazione.

Fonte: Sicurezza magazine