La guerra alla crittografia - alcune questioni tecniche

/ Articolo / La guerra alla crittografia - alcune questioni tecniche
  • Condividi

[Nota della Redazione. Pubblichiamo oggi questo stimolante contributo di Giorgio Gilestro pur avendo, come redazione, sostanziali dubbi sul suo contenuto. Non tanto sul sul contenuto tecnico (punti 1-4 e, parzialmente, 5) ma sulla parte politico-valutativa finale (parte del punto 5 e seguenti). Ci eravamo ripromessi di accompagnarlo con un contributo redazionale che intendeva rendere evidente perche', una volta chiariti i dettagli tecnici, la questione politica e giuridica rimanga e non abbia l'univoca interpretazione che GG offre e sia invece molto complessa e per nulla risolta. Ne', forse, facilmente risolvibile. Gli impegni di lavoro ce lo hanno impedito e, visto che ce lo impediranno per i prossimi giorni a venire, non ci e' sembrato opportuno ritardare ulteriomente la pubblicazione del contributo di Giorgio. Apriamo quindi la discussione consapevoli che esiste spazio sostanziale per ulteriori interventi e chiarificazioni, che sono benvenuti e ripromettendoci di intervenire appena gli impegni professionali ce lo permettono. Grazie a Giorgio Gilestro per la pazienza dimostrata. ]

Negli ulitmi mesi si è parlato molto di crittografia, a vari livelli. In particolare, si è parlato dell'uso criminale di sistemi crittografici e di cosa uno stato dovrebbe fare per difedendersi. Provo a dare un po' di strumenti tecnici sulla questione, sperando di aiutare a capire la portata del problema – e anche le intenzioni politiche più o meno esplicite.

1. A cosa serve la crittografia?

La crittografia, come dice la parola stessa, serve a nascondere un messaggio. In sostanza, a rendere un'informazione accessibile soltanto a chi è in grado di decifrare il crittogramma. Nella vita di tutti i giorni, questo si traduce in una miriade di operazioni informatiche che vanno dall'uso del bancomat al commercio online, alle comunicazioni cifrate di forze dell'ordine e militari.

2. Esistono tanti tipi di crittografia?

All'atto pratico, la crittografia moderna si divide in sostanzialmente solo due tipi di algoritmi: crittografia a chiave unica o simmetrica e crittografia a chiave pubblica. Nel primo caso, come è facile intuire, la stessa chiave deve essere usata per cifrare e decifrare il messaggio. Quando cifriamo i files su un computer o uno smartphone, è questa che usiamo il più delle volte. Si basa su algoritmi di sostituzione progressiva che sono tanto complessi quanto più è complessa la chiave: per fare un paragone un po' azzardato ma comprensibile, pensate a quei "quadrati magici" che si trovavano una volta nelle patatine, numerati da 1 a 15 o figuranti una immagine. Scombinare il quadrato equivale a cifrare il messaggio: più caselle si spostano, più è lunga la chiave e più è difficile tornare alla situazione di partenza.

Il gioco del 15 - Un esempio concettuale di crittografia di sostituzione.

Il secondo tipo di crittografia, invece, si usa quasi esclusivamente per passare messaggi da un mittente ad un recipiente oppure per "firmare" digitalmente un messaggio e richiede quattro chiavi: due private, che sono note soltanto al mittente e al ricevente rispettivamente e due pubbliche che sono note al mondo intero – così pubbliche, che sono pubblicizzate attraverso database: ad esempio la mia chiave pubblica si trova qui. Per mandarmi un messaggio sicuro, avrete bisogno della vostra chiave privata e della mia chiave pubblica. Per decifrare il messaggio cifrato, io userò la mia chiave privata e la vostra pubblica. Il sistema a chiave pubblica è molto ingegnoso ed affascinante perché si basa su moltiplicazioni di numeri primi molto grandi e su concetti anarchici di "web of trust"; entrambi concetti molto cari ai techies (se un vostro amico vi confida di essere stato a un "key signing party", sappiate che può vestire il badge di nerd con grandissimo orgoglio). In sostanza la crittografia a chiave pubblica, che è stata inventata negli anni 60, è quello che la PEC avrebbe dovuto essere se i nostri politici non avessero per qualche motivo deciso di reinventare la ruota.

3. Quando una crittografia è “sicura”?

Una crittografia è sicura quando si verificano tre condizioni:

  1. La chiave usata per cifrare il messaggio è tenuta sicura
  2. La chiave usata per cifrare il messaggio è complessa abbastanza da non poter essere indovinata
  3. L'algoritmo usato per cifrare il messaggio è ben implementato

Il primo caso è semplice da capire. La chiave può essere il pin del vostro bancomat o la password della casella di posta elettronica. Possono essere complicatissime, ma se rimangono scritte su un post-it attaccato al monitor o dentro il portafogli, allora la chiave non è molto sicura. Un esempio un pochino più tecnologico – e all'atto pratico più utile - riguarda come i siti Internet con cui normalmente interagite salvano la vostra password. Per loggarvi a nFA, voi userete un username e una password, che il server di nFA dovrà salvare da qualche parte per potervi riconoscere ogni volta. Lo username è di solito salvato in chiaro. La password, invece, dovrebbe essere salvata crittata, con un algoritmo così detto di "hashing". L'hashing è quella che in inglese si chiama trapdoor function, cioé una funzione matematica asimettrica che permette di andare facilmente da A -> B ma molto difficilmente da B -> A. Diffidate sempre dei siti web che sono in grado di ricordarvi via email quale è la vostra password perché se lo fanno, vuol dire che la salvano nel loro database senza farne un hash – il che significa che chiunque riesca a impossessarsi di quel database in maniera fraudolenta avrà accesso alla vostra username e alla vostra password. Può sembrare un problema innocuo, ma non lo è perché la maggiorparte degli utenti commette l'errore fatale di usare sempre le stesse credenziali per tutti i siti web (vedi alla voce password reuse).

Il caso 2 è anche semplice da intuire: più è complicata la password, meno facile sarà indovinarla. Il livello di sicurezza di una password si chiama entropia e si misura in bit. Usando un sito come questo, potete avere una idea di quale sia l'entropia della vostra password preferita. Questo sito invece genera passwords di diversa entropia ogni volta che viene caricato.

La terza condizione riguarda l'implementazione dell'algortimo – di solito si parla di implementazione informatica. Gli algoritmi più usati sono una manciata e si basano tutti su librerie di codice aperto, che vengono continuamente scrutinate. Ogni tanto capita che un bug venga inserito nel codice e che renda l'implementazione dell'algoritmo più debole di quanto non debba esserlo (uno dei casi più gravi e più recenti è quello di heartbleed di cui si è parlato tanto l'anno scorso). Bug di questo tipo vengono scoperti periodicamente e non è mai davvero possibile capire se sono stati inseriti per errore o per malizia. Nel secondo caso, si possono anche chiamare backdoors.

4. Come si fa a decifrare un messaggio in maniera illegittima?

Per decifrare un messaggio non indirizzato a noi, bisogna necessariamente colpire una delle tre condizioni di sopra: cioé bisogna scoprire quale è la password (1) oppure indovinare quale è la password (2) oppure identificare delle falle nell'implementazione dell'algoritmo (3). Non esistono alternative. Tutti e tre i tentativi vengono usati con successo e continuamente. Il modo più semplice per colpire il punto (1) è usare quello che si chiama "social engineering". In sostanza, si tratta di contattare la persona e convincerla in qualche modo a rivelarvi la password. Funziona quasi sempre se fatto bene. Per colpire la condizione (2), invece, si ricorre alla forza bruta (brute forcing) che consiste semplicemente nel provare passwords a ripetizione. Prendete un lucchetto a combinazione numerica da armadietto delle piscina e provate ad aprirlo inserendo tutte le combinazioni possibili: avrete fatto brute forcing. Ovviamente brute forcing dipende largamente dall'entropia della password ma anche dalla sua unicità. Una password ad entropia molto alta ma poco unica, è comunque abbastanza facile da indovinare. Infine, il caso (3). Esiste una rete di professionisti del crimine atta a trovare debolezze in codice informatico. Queste debolezze vengono poi vendute sul mercato nero sotto nome di zero-days. Ogni zero-day viene venduto su forum internet nascosti ad un prezzo che va dai 30 mila dollari al milione di dollari l'uno.

5. Che tattica usano i governi per intercettare i messaggi criptati?

Essenzialmente tutti e tre i sistemi di cui ho appena parlato. La tattica (1), per un governo, è ancora più semplice da attuare. Un governo non è costretto a rubarti la password con l'inganno, può semplicemente obbligarti a rivelarla. Molti Stati utilizzano quella che si chiama "Key Disclosure Law", ovvero posono domandare a chiunque venga trovato in possesso di materiale cifrato di comunicare la chiave, pena la reclusione. Negli USA, la key disclosure law sarebbe di per sé incostituzionale perché non compatibile con il quinto emendamento – è stata però raggirata col Patriot Act. Del resto Guantanamo è un po' come Las Vegas.

La tattica (2) viene usata ogni qual volta la prima non funzioni o perché il soggetto che detiene la chiave sia morto (come nel caso recente di San Bernardino) o perché si vuole avere accesso ai dati senza che il soggetto se ne accorga. Qui giace un concetto della crittografia molto importante da capire: indovinare una password con brute force non è MAI matematicamente impossibile. È però matematicamente inattuabile. Cerco di spiegare perché. Esiste una proprietà fisica che deriva dal secondo principio della termodinamica e nota come "limite di Landauer". In sostanza, questo dice che cambiare uno stato di informazione di un bit deve avere un costo fisico che è calcolabile come kT * ln2 dove k è la costante di Boltzman e T la temperatura del sistema in gradi Kelvin. Notare che il limite di Landauer è un limite minimo teorico che si applica al computer perfetto. Le macchine di cui disponiamo oggigiorno, sono milioni di volte meno efficienti del limite di Landauer. Ma immaginiamo di riuscire, un giorno, a costruire il computer perfetto e immaginiamo di riuscire a farlo operare alla temperatura più vicina allo zero assoluto. Dato che k=1.38⋅10−16erg/∘Kelvin e data la temperatura dell'universo di 3.2K, questo computer perfetto consumerebbe 4.4⋅10−16 ergs ogni volta che deve spostare un bit. L'energia rilasciata dal Sole, in un anno è di 1.21⋅1041 ergs e se riuscissimo a raccoglierla tutta costruendo una sfera di Dyson che ruoti intorno al sole, riusciremmo a far fare al nostro computer perfetto 2.7⋅1056 operazioni, cioé potremmo risolvere per brute force una chiave ad entropia 187 bit. Se riuscissimo a raccogliere tutta l'energia del Sole, con una macchina perfetta nello spazio profondo per 32 anni, riusciremmo a decifrare un messaggio criptato con chiave a 192 bit. Se riuscissimo a incanalare tutta l'energia di una Supernova nel computer perfetto, riusciremmo a risolvere una chiave di 219 bit. La chiave usata da software di criptografia comuni è a 256bit.
Insomma, spero di aver reso l'idea che la tattica numero 2, cioé di brute forcing, non è utilizzabile né mai lo sarà, fintato che la password è abbastanza sicura. Vale anche la pena considerare che una password di 256 bit non è poì così complicata. La password "Finche la barca va, lasciala andare" è facile da memorizzare e ha un'entropia di circa 150 bit che richiederebbe 9.26 trillion trillion trillion trillion di secoli per essere decifrata con un supercomputer moderno.
Rimane la tattica (3): identificare – o inserire – bugs nell'implementazione dell'algoritmo, anche noti come backdoors.

5. Ok, allora quali sono le nostre opzioni se vogliamo "leggere i messaggi crittografati" dei terroristi e delle persone cattive?

Abbiamo chiarito che la tattica 1) è la più semplice da utilizzare per uno Stato sovrano. La tattica 2) è impraticabile se ben implementata ma relativamente semplice se la chiave è a bassa entropia. La tattica 3) richiede la complicità di chi costruisce il software. In sostanza, non esiste una soluzione universale. Se il cattivo della situazione è morto o distante; se la chiave ha alta entropia e se l'algoritmo usato non ha debolezze è impossibile per chiunque decifrare il messaggio. Hillary Clinton ha proposto, nel dibattito di Dicembre, di costruire un "Manhatthan-like project" dove scienziati e politici lavorino insieme per trovare una soluzione che non richieda l'uso estremo di backdoors.

 

Question: [...] Apple CEO Tim Cook said removing encryption tools from our products altogether would only hurt law-abiding citizens who rely on us to protect their data. So would you force him to give law enforcement a key to encrypted technology by making it law?

CLINTON: I would not want to go to that point. I would hope that, given the extraordinary capacities that the tech community has and the legitimate needs and questions from law enforcement, that there could be a Manhattan-like project, something that would bring the government and the tech communities together to see they're not adversaries, they've got to be partners. It doesn't do anybody any good if terrorists can move toward encrypted communication that no law enforcement agency can break into before or after. There must be some way. I don't know enough about the technology,Martha, to be able to say what it is, but I have a lot of confidence in our tech experts.

 

Barack Obama, pochi giorni fa, è intervenuto in una conferenza molto nerd per lanciare un messaggio simile alla comunità tecnologica: non bisogna prendere posizioni troppo assolutiste, bisogna trovare una mediazione che permetta al governo – quando necessario – di avere accesso a contenuti cifrati, similmente a quanto accade quando il governo entra in casa di un sospetto per perquisirla.

 

And the question we now have to ask is if technologically it is possible to make an impenetrable device or system where the encryption is so strong that there is no key there, there’s no door at all? And how do we apprehend the child pornographer? How do we solve or disrupt a terrorist plot? What mechanisms do we have available that even do simple things like tax enforcement? Because if you can’t crack that at all, and government can’t get in, then everybody’s walking around with a Swiss bank account in their pocket. So there has to be some some concession to the need to be able to get to that information somehow.”

 

Di cosa parlano Clinton e Obama allora? Di sfruttare il caso 1? No, il Patriot Act già da loro tutti i diritti che vogliono di estorcere passwords a chiunque senza neanche una ingiunzione del tribunale. Del caso 2? No, è matematicamente impossibile decifrare un messaggio criptato con le tecnologie umane, presenti o future. Non c'è "Manhattan-like project" che tenga. Del caso 3 allora? Direi che, nonostante entrambi lo neghino, non esiste alternativa. Del resto sappiamo dai documenti di Snowden che NSA non ha fatto altro che introdurre backdoors negli scorsi anni, in virtualmente qualsiasi prodotto hardware o software americano di largo consumo (nota per i pedanti che sanno di cosa parliamo: faccio rientrare MITM attacks nella categoria backdoors, perche' alla fine sono possibili sono con implementazioni imperfette). E cosa ora vuole FBI lo sappiamo tutti. Assodato che si tratta quindi di indebolire la crittografia, rimane quindi l'ultima domanda. Anzi, le ultime tre.

6. È possibile inserire una backdoor a cui solo il Governo abbia accesso?

È legalmente possibile che il Governo Americano regoli che ogni componente elettronico cifrato venduto negli USA abbia una backdoor a cui le autorità abbiano accesso e che metta fuori legge qualsiasi software che non abbia questa backdoor. Il che, di fatto, sarebbe l'equivalente del rendere la crittografia perfetta illegale (notare che nessun paese al mondo ha reso la crittografia illegale, nemmeno la Cina o l'Iran).

7. Sarebbe utile?

No. All'atto pratico vorrebbe dire che ogni iPhone venduto negli USA dovrebbe avere la backdoor e qualsiasi software che fa uso di crittografia perfetta generato all'estero dovrebbe essere bloccato negli USA. Si può fare, tecnicamente, ma è un po' naive pensare che il terrorista cattivo non riesca a procurarsi un telefono comprato in Europa o che non riesca a procurarsi un software "vietato". Da questo punto di vista è interessante notare che tutte le obiezioni che i pro-guns hanno usato e usano in America, si applicano perfettamente all'argomento pro-Crittografia (la differenza chiave è che se do un programma di crittografia armato in mano a mio figlio, la cosa peggiore che possa succedere è che produca un messaggio criptato...). Inoltre, procurarsi una pistola sul mercato nero non è banale. Bisogna conoscere le persone giuste e bisogna fisicamente ricevere l'arma. Scaricare un programmino da internet in maniera illegale, invece, è incredibilmente facile. Se non sapete come si fa, chiedete al vostro nipotino di 9 anni che vi ha appena masterizzato l'ultimo CD di Albano per Natale.

8. Sarebbe pericoloso per la comunità?

Sarebbe un rischio enorme. Come dicevo prima, il commercio di zero-day è un mercato da miliardi di dollari l'anno. Il Regno Unito da solo spende 4 miliardi di sterline l'anno solo per combattere questa rete di zero-days. Sarebbe solo questione di tempo prima che qualcuno trovasse un modo per accedere alla backdoor (modo 1 o modo 3, ricordate?). Sarebbe anche una grossa botta all'economia Americana perché quale grande azienda comprerebbe un sistema informatico creato negli USA sapendo che ha una backdoor che potrebbe essere aperta da chiunque, da un giorno all'altro?

Indietro

Commenti

Ci sono 179 commenti

Vorrei introdurre un altro aspetto: quello dei criptovirus. E cioè dell'uso che bande di malavitosi fanno della crittografia per rendere illeggibile i tuoi dati, chiedendo poi in cambio un riscatto in bitcoin che cresce più il tempo passa. Il fenomeno è recente (2013) e ne ho sempre sentito parlare come di una cosa che capita agli altri. Nell'ultimo mese però mi sono passati sotto mano ben due computer infetti (di miei clienti) e quindi sono passato da una conoscenzea indiretta di un fenemeno che sta in Internet a quache cosa di concreto che puo' capitare a chiunque. Non solo ricevendo mail ma anche visitando siti ed avendo per esempio una versione non aggiornata di Flash Player. Non ho ancora letto stime sui danni economici provocati. Chiaro che se esistesse una back door utilizzabile dai governi, un simile crimine perderebbe di significato.

Non credo che esistano risposte univoche pro o contro la soluzione 3. Per certi versi sarebbe auspicabile, per altri no.

Non sono così sicuro che 

 

se esistesse una back door utilizzabile dai governi, un simile crimine [criptolocker n.d.a.] perderebbe di significato.

 

Allo stesso modo, se questo vulnerabilità cadesse in mani sbagliate potrebbe essere utilizzata proprio per un'attacco di criptolocking su larga scala.

Probabilmente, più che per scopi criminali (chiedere una riscatto), questo potrebbe essere utilizato per scopi terroristici. Ad esempio rendere illeggibili documenti bancari/finanziari, cartelle cliniche... oppure tutto quello che solo una mente criminale potrebbe immaginare.

Va contemperato rispetto ad altri valori, individuali e collettivi.

Quindi, mettere una backdoor nei device, magari no. Ma se un giudice ordina di aprire il telefonino, Apple ha il dovere di farlo. Nel segreto più segreto del suo laboratorio segreto, ma deve farlo. Può sempre distruggere quel SO che glielo ha permesso subito dopo.

Qui siamo di fronte alla solita diatriba fra diritti del singolo e diritti della collettività. Un conflitto che va risolto politicamente nell'ambito di norme democratiche, le stesse, in principio, che regolano la questione fin da prima dell'era informatica.

Quel che è cambiato ora, credo, è il sentire dell'uomo comune di fronte a possibilità tecnologiche inattese e inquietanti. Un pò come la globalizzazzione che ha creato come reazione un florilegio di localismi. Per cui il problema privacy viene vissuto con sentimenti più complessi e genera reazioni più apodittiche-

Oltrechè di marketing di Apple e company

...e se partiamo dal non condividere questo principio di base del rispetto tra esseri umani, direi che trovare un accordo soddisfacente per tutte le parti, in merito alla riservatezza dei pensieri e delle comunicazioni (ma non solo), sara' oggettivamente impossibile.

 

per fortuna, "perderanno" quelli che vogliono vivere, in potenza, nella "gabbia di vetro" stile "panopticon"... che un mezzo per impedire agli altri di farsi i fatti di ognuno, la matematica, per mezzo delle tecnologia, ce lo rende disponibile, proprio grazie alla crittografia ("consapevole") ed ancor di piu' alla "steganografia" (l'arte di nascondere un messaggio in mezzo a tante altre informazioni in modo da non sollevare l'interesse).

 

che poi questo sia (in potenza) utilizzabile per fini non "leciti" delle regole del vivere civile in comunità, penso che sia un male "minore" da tollorare.

 

anche perche' il terrorismo per esempio si potrebbe ben affrontare e sconfiggere lavorando sulle radici che lo alimentano piuttosto che sui dettagli tecnici, come le comunicazioni protette, della sua pratica quotidiana.

 

qui, nell'attacco alla crittografia, e' veramente usato solo come foglia di fico, per rendere il cittadino comune sempre piu' indifeso, fragile e succube.

 

ovviamente just my 2 cents..

 

Se Apple cede alla richiesta di aprire un iPhone poi deve farlo tutte le altre volte che un giudice glielo chiede, non e' semplice come dire "lo fa e poi cancella il FBIOS". Inoltre, la produzione dell'OS stesso e' una spesa notevole, non si vede perche' un'azienda privata debba fare qualcosa del genere gratis a comando del governo.

... non sono essi stessi basati su una back door? Viene mandato un sw che automaticamente si installa nella vostra device. P sbaglio?

Sei consapevole del fatto che riceverai automaticamente aggiornamenti e che hai impostato il sistema in modo che essi vengano anche installati in modo automatico. Quindi non è una "porta sul retro" nascosta ma una porta principale, che tu hai deciso di tenere aperta.
Che poi questo possa essere pericoloso è vero. Non sarebbe la prima volta che un produttore di sofware distribuisce un aggiornamento che combina disastri. Ma questo fa parte delle normali attività umane, che notoramente sappiamo essere insicure.

Gli aggiornamenti di sistema sono firmati dal produttore. Non e' possibile aggiornare il tuo iPhone senza avere la chiave privata di Apple, che e' uno dei motivi per cui l'FBI voleva che fosse Apple a modificare il SO sull'iPhone di Farook

Buongiorno, Ho letto l'articolo, e direi che c'è parecchio da eccepire anche dal punto di vista tecnico, contrariamente a quanto reputa la redazione di NfA. Probabilmente ciò che segue potranno sembrare dettagli di poco conto. D'altro canto, credo che se non si divulgano bene i principi alla base di una disciplina scientifica, inevitabilmente si finisce per distorcere il dibattito etico che deriva dalle sue applicazioni e dal suo impatto nel mondo reale (e se al posto di "crittografia" sostituiamo "economia", penso che la maggior parte dei frequentatori e autori di questo blog si troverà d'accordo).

Andando per punti:

- Punto 2: «[La crittografia simmetrica] Si basa su algoritmi di sostituzione progressiva che sono tanto complessi quanto più è complessa la chiave».

Sebbene esistano algoritmi di cifratura che rendono vera questa affermazione, il principio non vale in generale: la complessità di un algoritmo di cifratura (intesa come numero di operazioni per trasformare il messaggio in chiaro in messaggio cifrato) e la complessità della chiave (intesa come lunghezza) sono parametri non strettamente collegati tra loro. Per fare un esempio, l'algoritmo di cifratura Rijndael che è stato adottato come standard AES segue questo principio. In particolare, il numero di operazioni per cifrare un singolo messaggio dipende dal numero di round adottati, che a loro volta in Rijndael dipendono dalla lunghezza della chiave, come di seguito:

#chiave #round

128 bit 10

192 bit 12

256 bit 14

D'altronde, come si può leggere in [2], la decisione di aggiungere 1 round ogni 32 bit aggiuntivi di chiave è un margine precauzionale, ma non ha una giustificazione completamente rigorosa. Infatti, allo stato attuale delle nostre conoscenze si conoscono attacchi pratici per rompere AES solo con un numero di round minore di quelli citati sopra. È inoltre interessante notare che in uno degli attacchi più recenti [1] viene dimostrato che AES con chiavi lunghe 256 bit e 11 round consente un attacco (non attuabile in pratica, va precisato) che invece non può essere applicato su AES con chiavi a 128 bit e 10 round. Questo per evidenziare che l'intuizione

"Chiavi più lunghe/complesse -> Maggior numero di operazioni di cifratura -> Maggior sicurezza"

non è vera in generale. Oltre a ciò, come menzionavo in precedenza, esistono poi algoritmi di cifratura simmetrica in cui il numero di round è fisso e indipendente dalla lunghezza della chiave. Per esempio Twofish [5], anch'esso finalista alla competizione di AES, usa sempre 16 round di cifratura.

- Punto 2: «Il sistema a chiave pubblica è molto ingegnoso ed affascinante perché si basa su moltiplicazioni di numeri primi molto grandi e su concetti anarchici di "web of trust"».

Trascurando la connotazione politica data al web of trust (che è completamente gratuita), i sistemi di cifratura a chiave pubblica non si basano solo su moltiplicazioni di numeri primi. È vero che RSA è uno degli algoritmi a chiave pubblica più diffusi e utilizzati in Internet e sfrutta esattamente questo principio, ma esistono una pletora di altri sistemi basati su assunzioni matematiche diverse. Per esempio, il primo protocollo per lo scambio delle chiavi ideato da Diffie e Hellman [3], che gli è valso il premio Turing di quest'anno, si basa sul logaritmo discreto. Tra l'altro, questo paper viene considerato come quello che ha dato inizio alla ricerca sulla crittografia a chiave pubblica, ed è del 1976. Quindi anche l'affermazione secondo cui «la crittografia a chiave pubblica [...] è stata inventata negli anni 60» è inesatta dal punto di vista storico. Inoltre, il concetto di "Web of Trust" è una conseguenza applicativa della crittografia a chiave pubblica, non uno dei principi su cui essa si basa.

- Punto 3: «La password, invece, dovrebbe essere salvata crittata, con un algoritmo così detto di "hashing". L'hashing è quella che in inglese si chiama trapdoor function, cioé una funzione matematica asimettrica che permette di andare facilmente da A -> B ma molto difficilmente da B -> A.»

Qui l'autore confonde due concetti matematici differenti. Una funzione di hash non è una trapdoor, ma è una funzione che associa un insieme di messaggi di lunghezza arbitraria ad un insieme di messaggi di lunghezza fissa (detti, appunto, gli hash). Considerando il significato di hash in inglese ("polpettone"), una funzione di hash può essere vista metaforicamente come un'operazione che "tritura" o "sminuzza" un messaggio di partenza per ottenere come risultato un'"impronta" più piccola (fingerprint), che sia in qualche modo rappresentativa del messaggio di partenza. Dato che l'insieme di tutti i possibili hash di lunghezza fissa è più piccolo dell'insieme di tutti i possibili messaggi di lunghezza arbitraria, vorrà dire che più messaggi avranno associato lo stesso hash (principio della piccionaia: se rappresentiamo l'insieme dei possibili hash come una piccionaia con m feritoie e l'insieme di messaggi con n piccioni, dove n>m, inevitabilmente almeno due piccioni dovranno condividere la stessa feritoia). Ciò vuol dire che una funzione di hash non è in generale invertibile, ovvero partendo da un hash non è possibile risalire al messaggio originale che l'ha prodotto. Nella pratica, può darsi il caso in cui una funzione di hash sia invertibile per alcuni valori di hash. Per questo motivo, in crittografia si cerca di utilizzare funzioni di hash che siano "One-way", ovvero come dice l'autore dell'articolo facili da calcolare ma difficili da invertire.

Una funzione trapdoor, d'altro canto, è una funzione one-way che è possibile invertire facilmente disponendo di un'informazione aggiuntiva detta trapdoor, o botola, mentre rimane difficile da invertire se non si conosce la trapdoor. Per fare un esempio, nel linguaggio della crittografia a chiave pubblica la trapdoor è la chiave privata con cui si decifra il messaggio. La cosa importante da osservare è che una funzione trapdoor deve essere una permutazione, cioè ad ogni valore di output della funzione deve corrispondendere uno e un solo valore di input. Ciò è necessario per garantire un'invertibilità univoca, e corrisponde al caso della piccionaia in cui abbiamo n piccioni ed n feritoie.

Per riassumere, sia le funzioni di hash sia le funzioni trapdoor sono entrambi esempi di funzioni one-way, ma non sono la stessa cosa: le prime associano qualcosa di più grande a qualcosa di più piccolo (e dovrebbero essere per esempio usate, come scritto giustamente dall'autore, per cifrare le password nei database dei siti web), mentre le seconde associano un oggetto A di una certa dimensione ad un oggetto B della medesima dimensione, con l'obiettivo di recuperare A partendo da B disponendo di una chiave segreta.

- Punti 4 e 5: non credo di aver capito cosa intenda l'autore per "unicità" di una chiave/password, e soprattutto quale sia la sua relazione con l'entropia della stessa e con la facilità di attuare un attacco a forza bruta. Se una chiave ha entropia bassa, allora si possono adottare delle strategie come attacchi basati su dizionario per indovinarla. Ma questi non sono attacchi a forza bruta: per definizione, negli attacchi a forza bruta si provano tutte le possibili combinazioni di una chiave indipendentemente dal fatto che essa possegga una struttura/regolarità o meno.

- Punto 5: «Qui giace un concetto della crittografia molto importante da capire: indovinare una password con brute force non è MAI matematicamente impossibile. È però matematicamente inattuabile.»

No, esiste un particolare algoritmo di cifratura per cui l'attacco a forza bruta è anche impossibile dal punto di vista matematico, ed è la one-time pad [6]. La proprietà di "sicurezza perfetta" di questo algoritmo deriva dal fatto che si utilizza una chiave lunga almeno quanto il messaggio che si vuole cifrare. Se questa chiave è scelta in modo casuale (più tecnicamente, scelta con probabilità uniforme) e viene utilizzata solo una volta, allora un attaccante si ritroverà nella situazione in cui il messaggio cifrato può corrispondere a qualsiasi messaggio in chiaro, e quindi anche passandosi per forza bruta tutte le possibili chiavi non potrà mai sapere qual è il messaggio originale (proprio perché ogni possibile messaggio originale è ugualmente probabile). Ovviamente, questo algoritmo è poco pratico per la lunghezza delle chiavi, anche se trova applicazioni limitate in alcuni algoritmi di crittografia quantistica.

- Punto 5: la parte sui limiti fisici degli attacchi a forza bruta basati sul principio di Landauer è molto interessante e suggestiva, però quando si prendono idee/stralci di testo da altri autori (nel caso specifico, l'"Applied Cryptography" di Bruce Schneier [4]), occorrerebbe citare le fonti.

Per quanto riguarda i punti rimanenti (6-7-8), mi trovo sostanzialmente d'accordo con l'autore, ma l'argomentazione portata a supporto è abbastanza limitata e sproporzionata rispetto alla parte tecnica introduttiva, e andrebbe elaborata meglio. Dato che al momento ho già eretto un wall-of-text sulla parte tecnica (mi scuso per la prolissità), cercherò di tornare sulla parte etica/politica con un altro intervento.

 

Bibliografia

[1] A. Biryukov, O. Dunkelman, N. Keller, D. Khovratovich, A. Shamir: Key Recovery Attacks of Practical Complexity on AES-256 Variants with up to 10 Rounds. In: EUROCRYPT 2010. LNCS, vol. 6110, pp. 299-319. Springer (2010)

[2] J. Daemen, V. Rijmen. The Design of Rijndael. Springer (2002)

[3] W. Diffie, M. Hellman. New directions in cryptography. IEEE Trans. Information Theory 22(6): 644-654 (1976)

[4] B. Schneier. Applied Cryptography. John Wiley & Sons (2007)

[5] B. Schneier, J. Kelsey, D. Whiting, D. Wagner, C. Hall, N. Ferguson. Twofish: A 128-Bit Block Cipher. www.schneier.com/cryptography/paperfiles/paper-twofish-paper.pdf

[6] C. Shannon. Communication Theory of Secrecy Systems. Bell Syst. Tech. J. 28 (4): 656–715 (1949)

 

EDIT: formattazione

Scusa Luca, non so se ti rendi conto dello scopo dell'articolo e del pubblico a cui e' indirizzato. Probabilmente no, perche' altrimenti non avresti impiegato tutto questo tempo a precisare che questo capello non vale in questa eccezione e questo in quest'altra. Lo scopo dell'articolo e' dare un'infarinatura profonda abbastanza da capire le valenze socio-politiche, non di discutere le alternative a AES o cosa e' un raibow table.

E' vero che la spiegazione tecnica non ha soddisfatto neppure me completamente, tuttavia le precisazioni che hai fatto sono completamente fuori luogo per l'audience dell'articolo. Ad esempio vai a fare il pignolo sull'implementazione del sistema a chiave pubblica. Ma dai, visto che ammetti che RSA va per la maggiore ci sta che si parli di numeri primi e moltiplicazioni. Invece ho trovato che spesso l'articolo sia infarcito di inutili dettagli tecnici, che poi tanto per ovvi motivi restano incomprensibili (a meno che non conosci gia' l'argomento).

In Arabia audita nel 2010 bloccarono i blackberry perche' il governo non era in grado di intercettare i messaggi. Poi la RIM concesse l'accesso e tolsero il divieto.
 
I nokia, i samsung e gli apple non ebbero problemi perche' trasmettevano gli sms in chiaro e si potevano intercettare nelle centrali telefoniche.
 

Se è vero, che figura per Apple!!!!

Apple non ha mai detto che il crack fosse impossibile: ha anzi invitato l'FBI a farlo da solo o se non ci riusciva farsi aiutare dall'NSA. Per le ragioni dietro al rifiuto di collaborare, vedi la mia risposta a Michele qui sotto.

e nonostante i propri errori precedenti, FBI ha aperto il telefono senza l'aiuto di Apple. Verremo a sapere presto come abbia ottenuto il risultato MA il puro fatto che ci sia riuscita senza l'aiuto di Apple, a mio avviso dimostra che

EVIDENTEMENTE si può aprire comunque il telefono SENZA la collaborazione del produttore. Tralasciamo,  per amor di brevità, le considerazioni sulle varie teorizzazioni sulla crittografia perfetta e l'impossibilità di questo e quello. Ci ritorno quando ho tempo ma un banale argomento (pseudo) economico le rendeva irrilevanti comunque. Ciò che conta è il fatto che è stato aperto. QUINDI l'argomento:  "SE il produttore coopera ALLORA crea un rischio enorme che prima non esisteva e per evitare di creare questo rischio bisogna rifiutarsi di cooperare con FBI (in questo caso) o altra enforcemente agency" cade. Il rischio, evidentemente, esisteva COMUNQUE.  

Questo fatto è rilevante perché

1) Rende vuote tutte le argomentazioni  sul fatto che esista un insormontabile ostacolo tecnico alla (chiamiamola così per brevità) "proposta Obama" di prendere in considerazione seriamente il tradeoff privacy-sicurezza (con buona pace dei teorici della "privacy valore assoluto" che, banalmente, non vuole dire una beata minchia). Il problema c'e' ed e' bene evitare scappatoie fintamente teoriche (se c'e' riuscita FBI ... puo' riuscirci "chiunque", buoo o cattivo che sia ...): il problema e' "Politico" nel senso pieno della parola.

2) Diventa palese che abbiamo di fronte una questione seria. Facciamo l'ipotesi, non così assurda alla luce  dei fatti franco-belgi,  che il telefono contenesse informazioni di gravi attentati in preparazione nei giorni seguenti. Se gli attentati in preparazione avessero dovuto avvenire entro N giorni e, in assenza della cooperazione di "Apple" fossero stati necessari M > N giorni per scoprire l'informazione gli attentati avrebbero potuto essere portati a termine con X morti, dove X potrebbe essere un numero molto grande. 

Bene, a questo punto qualcuno mi spiega in che senso il "valore assoluto" della privacy del signor Pino (o dei 100mila signori Pini) e' "piu' assoluto" del valore della vita delle X vittime degli attentati in questione? 

Il tradeoff e' tutto li'. Semplice semplice e banale banale. Si fa per dire, ovviamente. Banale per nulla ma far finta di non vederlo nascondendosi dietro argomentazioni  tecniche che, alla luce dei FATTI, risultano vuote mi sembra una pessima idea.

Questo il problema posto da BO, piaccia o meno. Sarebbe necessario fare uno sforzo di umilta' e capirlo. 

No, non ci siamo Michele. Ti stai facendo abbindolare da FBI come un cittadino qualunque. Quando FBI fece la sua richiesta, tutta la comunita' tecnologica capi' subito che sbloccare il telefono non era cio' che FBI voleva realmente. Quello potevano farlo da soli o passarlo a NSA. Lo sapevamo tutti. Vedi ad esempio Snowden o vedi McAfee che, come e' suo stile, addiritura chiamo' il bluff .

edit: se vuoi sapere perche' eravamo tutti consapevoli che FBI poteva sbloccare il telefono, devi leggerti i documenti di snowden che danno un'idea sulle capacita' di NSA.

FBI non ha mai voluto aiuto tecnico da Apple. Voleva solo creare un precedente legale. Quando ha visto che Apple sarebbe andata in appello, ha ritirato per paura di creare il precendente opposto.

 

Bene, a questo punto qualcuno mi spiega in che senso il "valore assoluto" della privacy del signor Pino (o dei 100mila signori Pini) e' "piu' assoluto" del valore della vita delle X vittime degli attentati in questione? 

 

Sei tu l'economista, Michele. Dovresti farlo tu il calcolo del trade off. Prima  pero' dovremmo sapere non cosa vuoi ottenere, ma come - e' li le questioni tecniche non sono affatto vuote. Magari ti interessa riguardarti la letteratura su cryptowa degli anni 90 e clipper chip. http://www.nytimes.com/1994/06/12/magazine/battle-of-the-clipper-chip.html?pagewanted=all

L'FBI non chiedeva a Apple di rivelare il contenuto di quel particolare iPhone, ma di fornirle una versione modificata del firmware che potesse essere caricata in quel telefonino per tentare un bruteforcing del security code (cioe' effettuare fino a un milione di tentativi per provare tutte le combinazioni di cifre decimali, senza l'intervallo di 800 millisecondi tra un tentativo e l'altro, e senza che al terzo tentativo fallito quel particolare iPhone cancellasse tutti i dati in esso contenuti). Questo tipo di modifica non e' difficile anche per un hacker di media capacita' (e infatti ora l'FBI ha trovato qualcuno che l'ha fatto) e per giunta l'NSA, che e' anch'essa un'agenzia del governo federale, ha mezzi ben superiori a qualunque hacker (e infatti Apple aveva invitato l'FBI a rivolgersi ad essa). 

Perche' quindi l'FBI si invece e' fatta rilasciare da un tribunale un'ingiunzione a Apple di collaborare? Per un motivo molto semplice: creare un precedente legale su cui forzare collaborazioni future che ora non sono possibili, e in prospettiva avere tools software che le permettessero accesso arbitrario alle telecomunicazioni. Inizialmente il direttore James Comey lo negava ("The San Bernardino litigation isn’t about trying to set a precedent or send any kind of message. It is about the victims and justice") salvo poi ammetterlo una volta sotto giuramento. Come se non bastasse ha chiesto un'ingiunzione basata su uno statuto, l'"All Writs Act" del 1789, che e' stato seguito da leggi successive piu' specifiche, le quali in base al principio legale "generalia specialibus non derogant"  (scusa il latino, Michele ;-) ) hanno la precedenza su leggi piu' generiche. In particolare, il Communications Assistance for Law Enforcement Act (CALEA) del 1994 nega al governo federale la capacita' di interferire nella progettazione di sistemi di sicurezza per telecomunicazioni (la cosa e' ben spiegata in quest'articolo di Susan Crawford, docente di giurisprudenza ad Harvard e, fino al 2009, assistente al presidente Obama in materia di scienza, tecnologia e innovazione).

Il CALEA contiene quel divieto per ottime ragioni: gli apparati dello stato hanno sempre il desiderio di indagare senza intralci, ma limitazioni e "due process" sono quello che differenzia uno stato di diritto da uno di polizia. Se Apple avesse accettato di collaborare, il precedente cosi' creato sarebbe stato "piu' speciale" del CALEA, permettendo futuri usi del software richiesto non autorizzati individualmente. 

Ci hanno provato lo stesso, gli e' andata male. Ci riproveranno senz'altro. 

Cerco di riassumere in "poche" righe il mio pensiero ma non prometto nulla su quel "poche".

Per me è evidente che in uno stato di diritto un'agenzia governativa (FBI) che si occupa di sicurezza ed incappa nella necessità di accedere a dati riservati chieda come prima cosa la collaborazione dei privati coinvolti. Il tipo è morto e quindi non puo' collaborare. Diamo per scontato che nessun suo familiare conoscesse il PIN e che quindi la richiesta di collaborazione vada indirizzata al produttore del dispositivo. Di solito queste richieste di collaborazione non si fanno la sera davanti ad una pizza ma tramite richieste ufficiali. In questo caso un'ingiunzione di un tribunale. Seccante ma lo stato di diritto è fatto così. Non è la richiesta di un precedente ma la via maestra in uno stato che vuole essere tale.

Naturalmente Apple puo' resistere, come ha fatto, o collaborare. Se non collabora allora lo Stato puo' passare alla classica "forza bruta", in virtù sempre di un mandato, come abbiamo imparato da centinaia di film e migliaia di telefilm.

Ora Apple puo' aver salvato la faccia, sul piano del marketing, con l'argomento "non abbiamo ceduto" ma l'ha comunque persa sul piano della sicurezza (il suo dispositivo è stato violato, sia pur con l'intervento di una "terza figura" che rimane segreta). Buffo che ora Apple chieda di sapere come hanno fatto. Ovviamente lo chiede per irrobustire il codice. Non avete collaborato? Allora la cosa rimane segreta. Intendete collaborare in futuro? Allora ne riparleremo. La sicurezza dei dispositivi iPhone è a rischio lo stesso, senza la collaborazione di Apple. I clienti sono avvisati.

Ma intanto dai fatti di san bernardino, che sono se non erro del 2 dicembre 2015, allo sblocco annunciato adesso ma forse avvenuto giorni o settimane fa, sono passati quasi 4 mesi.

In questi 4 mesi i dati prima inacessibili potevano contenere, come spiegato da Michele, informazioni su attentati imminenti. Non mi dilungo, ha già spiegato lui.

Il problema è se innescare una escalation tra ditte che non collaborano e forza bruta governativa (ad esclusiva protezione dei criminali, anche se per pochi mesi) oppure se trovare una strada intermedia che salvi le libertà ma impedisca gli abusi.

A me questa storia per cui se si cede un solo bit sul tema della "privacy assoluta" allora crolla l'intero universo convince poco. In uno stato di diritto sono possibili soluzioni adeguate che impediscano gli abusi. Una l'ho già indicata e la ripeto. Chiavi di accesso riservate, custodite solo in luogo fisico ben protetto (se non vi basta fort knox dite voi) e non virtuale e di uso singolo. Ogni chiave, una volta utilizzata, non funziona piu'. L'agenzia si rivolge al giudice, il giudice ordina l'accesso alla busta fisica, la chiave viene mandata all'agenzia che la usa. Nemmeno il produttore è in possesso di quelle chiavi (se ne avesse bisogno, chiede al giudice). Per ogni chiave viene scritto chi l'ha chiesta e chi l'ha usata. Il tecnicismo poi si trova ma è chiaro che richiede di innescare una condizione di test (predisposta dal produttore) e l'uso di una serie di chiavi in mano al giudice, all'agenzia + quella secretata a fort knox.

Tutti i sistemi che si basano su crittografia devono accettare quelle chiavi d'emergenza.
Dispositivi che non la accettano non funzionano in USA. Poi gli altri si adegueranno.
Finite le chiavi, se ne producono di nuove, a lotti di 100 oppure 1000.

Insomma se hanno trovato il sistema di proteggere il lancio di missili nucleari da parte del "bulletto di periferia" (e molto peggio) si troverà anche quello per proteggere la privacy dagli abusi e conciliare sicurezza e libertà. 

 

QUINDI l'argomento:  "SE il produttore coopera ALLORA crea un rischio enorme che prima non esisteva e per evitare di creare questo rischio bisogna rifiutarsi di cooperare con FBI (in questo caso) o altra enforcemente agency" cade. Il rischio, evidentemente, esisteva COMUNQUE.  

 

Boldrin, questa premessa e gli argomenti che seguono equivalgono, alla grossa, a dire:

"Siccome non si può immaginare di poter progettare una porta che non possa, dato sufficiente impegno di tempo e mezzi, essere forzata, allora valutiamo se non sia il caso di obbligare ogni azienda che voglia vendere serramenti a consegnare alla Questura una copia della chiave di ogni singola serratura venduta."

 

Ah nel soppesare questa analogia alla buona, tenere a mente che per la Questura è molto più difficile custodire al riparo da malintenzionati interni ed esterni una chiave "digitale" piuttosto che fisica, e che per un cittadino è infinitamente più facile accorgersi di avere un intruso che gira per casa piuttosto che dentro al telefono.

L'articolo è scritto benissimo e per quanto mi riguarda condivisibile dalla prima all'ultima sillaba, commenti compresi.

Credo che la vaghezza del concetto di privacy (come "sfera inaccessibile") e di trade-off privacy-sicurezza sia fonte di molte incomprensioni.

From the Institute for Communitarian Policy Studies.
                        
An Apple—FBI compromise?

 

I asked a list of colleagues the following (their responses follow, all quoted with permission):

Please let me know if in the following way we can have our Apple and eat it too. Seriously—allow the FBI to get the information protecting national security requires—and protect the privacy of other phone users.  Apple argues that if it introduced a backdoor into the high power encryption program it inserted into its new phones, this vulnerability would allow foreign governments, criminals, and hackers to violate the privacy of many millions of phone users around the world.

Let us assume that Apple leaves the phones as they are—but develops a key to unlock them it keeps, protecting it by using Apple's high power encryption. Once a court orders that a given phone must be unlocked, the FBI will bring it to Apple, which will unlock it, and turn over to the FBI  the found information —but not the key. (NY Police Department alone has 300 such phones waiting to be "read')

What is wrong with this approach?

Granted, applying the same methods to phones that is still in the hands of terrorists, drug lords, and human traffickers, raises additional challenges.  But here too, as long as the surveillance is carried out via Apple—the encryption of all other phones is not threatened.

Apple argues that if it did so for the USA—other governments would demand the same access. If Apple feels it cannot resist such demands, what is to prevent China and Russia from demanding access even if US did not get it?

Apple sometimes says that it cannot unlock these phones, but it told the court that this would be expensive—i.e. it can be done. Moreover, the Wall Street Journal pointed out that it would cost merely the same as one engineer for one year.

There are many other reasons Apple and other high-tech corporations  give for objecting to collaborating with the government.

I am asking merely a technical question. Can a key kept by Apple under its high power encryption unlock selected phones without making other phones vulnerable?

Kindly respond to etzioni@gwu.edu and also let me know if I may quote you. For more about this topic, see my paper on "Ultimate Encryption" on SSRN.

James H. Morris, Professor of Computer Science, Carnegie Mellon

What you suggest is certainly possible. In fact, what the government is asking--that Apple install an operating system that will allow the FBI to try millions of passwords--has the same proproperty: only Apple could repeat it. There's no back door here.

Furthermore, it would probably cost Apple 5 minutes on an engineer's time, simply commenting out the code that bricks the phone after ten rapid password guess.

I think this is entirely a battle over the legal precedent. Apple knows, it submits now, it will be very hard to refuse in the future, even for China or Russia. 

Also, the government is after a precedent and chose this case carefully to maximize the public support for their case. They could have chose any of the 300 other cases, but they weren't about terrorism.

Steve Bellovin, Professor, Dept. of Computer Science, Columbia University

You asked "I am asking merely a technical question. Can a key kept by Apple under its high power encryption unlock selected phones without making other phones vulnerable?"

The short answer is "no".

For full details, see http://cybersecurity.oxfordjournals.org/content/early/2015/11/17/cybsec.tyv009 (I'm one of the authors) and Susan Landau's Judiciary Committee testimony at http://judiciary.house.gov/_cache/files/b3af6e9e-b599-4216-b2f9-1aee6a1d90cd/landau-written-testimony.pdf. Briefly, there are several different problems.  First, what you suggest -- encrypting under a key known only to Apple -- sound easy but isn't.  Cryptography is a very subtle technical discipline; it's very hard to get even the simplest things right.  To give one example, see https://www.cert.org/historical/advisories/CA-2000-18.cfm? -- an "additional key" solution that turned out to be fatally flawed in a fashion that is blindingly obvious after the fact.  Nevertheless, the mistake occurred in product from a company whose business was selling cryptographic solutions, i.e., one that you'd think had the competence to avoid such errors.

Second, with the thousands of phones that need to be unlocked in the US alone (if Manhattan alone has 200 and (per an article I read last week) Sacramento County has 80, the nationwide number can't be less than that), protecting this one Apple key and/or its use becomes very difficult.  (See Landau's discussion of "routinization".)  A key can be readily available or it can be secure; it can't be both.

Third, the existence of this key is a magnet for nasty governments.  Maybe Apple is good at resisting ordinary hackers, though they're a sufficiently secretive company that I don't know if we'd know if they were hacked.  For that matter, I don't know if they'd know; most victims never notice.  (Home Depot found out they'd been penetrated for 6 months not by their own technical efforts but because some banks tracked a pattern of credit card fraud to their customers.)  Intelligence agencies, though, are way ahead of ordinary hackers.  China hacked Google 6 years ago, and Google is acknowledged to be one of the best in the business.

By the way, you wrote "protecting it by using Apple's high power encryption".  That's the wrong approach; that just moves the problem to protecting another key.  For this, you need technical, physical, and procedural security measures, probably not more encryption.

John Pike, Director, GlobalSecurity.org

Let us assume that Apple leaves the phones as they are but develops a key to unlock them it keeps, protecting it by using Apple's high power encryption. Once a court orders that a given phone must be unlocked, the FBI will bring it to Apple, which will unlock it, and turn over to the FBI  the found information but not the key.

I have tried not to follow this controversy, since so many other people are following it. But I think that this is what is being proposed.

As long as the surveillance is carried out via Applethe encryption of all other phones is not threatened.

I think that Apple is arguing that they cannot protect the security of their gizmo, which would find its way out of Apple and into the hands of evil-doers.

China and Russia from demanding access

That is, how can Apple resist lawful orders from unsavory governments. Their argument is that the existence of such governments means that no government anywhere can enforce a lawful search warrant. I try to avoid pretending to be a lawyer, but this would seem to make compliance with any search warrant a voluntary affair, or at least allow the subject of the warrant to condition compliance with their assessment of the legitimacy of the issuing authority.

Can a key kept by Apple under its high power encryption unlock selected phones without making other phones vulnerable?

Again, their claim is that the dang thing would escape their premises, and get into the hands of evildoers.

David Bantz, Chief Information Architect, University of Alaska system

Of course Apple could create and selectively apply a version of their OS to phones identified by law.  That is pretty much exactly what they've been asked to do by FBI.

But once you have a special version of the OS that disables protections against guessing password to unlock the phone, how to prevent it from getting abused - for example to unlock your phone or mine?  NYC and FBI have hundreds of phones they want to unlock.

That would entail a process involving many people and loading the OS on many phones. That makes it possible maybe even likely that one of those people entrusted with that power is coerced or bribed or is clumsy enough to put it in the hands of criminals.

At that point the criminals can unlock your phone and mine. They could then read your documents, install their own software to steal your passwords or track your use.

Maybe you trust that even with hundreds of agents and Apple employees use the broke OS on hundreds or thousands of phones their performance will be perfect so that no criminal gets he broken OS. Do you trust that enough that you would very sensitive info to that process?  Many will not, and that lack of confidence means we have lost confidence in the security of our info and opened ourselves up to invasive intrusion via malware installed without our knowledge.

(The even more valuable thing to steal would be the secret key that has to be used to sign the OS so that your phone will accept the OS. With that a criminal can write their own even nastier more broken OS and push it onto your phone. The possibilities are endless.)

Amitai Etzioni:

Dear colleague,

I hear you but do you believe that means the FBI will be blinded? Or do you believe they are bluffing or there are not major costs if they are blinded?

Best, Amitai

David Bantz:

If you mean by "blinded" that the FBI won't be able to break into an arbitrary iPhone by getting Apple to break the phone by pushing the OS that disables the phone's security, then yes, they won't be able to.  In this particular case, apparently the FBI would have been in a better position to get information off the phone if they had not first reset the phone's password (I don't understand the details of that, but I've read semi-technical articles that assert so).

While I would like law enforcement to get information that help gets bad guys, the cost for some ways of getting information may be too high.

Stories about this Apple/FBI conflict usually state the issue in terms of privacy - that if the tool were to escape or be misused, individuals' privacy could be violated. While that's true, said that way it seems the trade-off is possible embarrassment - uncovering a person's unwise email messages, or their viewing of smut. And since those seem venial and even uninteresting, it might seem little is given up (particularly since I bet we all think it's someone else who will be embarrassed - not us).

But security is at stake too: the security of information that is rightly - necessarily - kept secret by law abiding individuals. Financial data is an example: your credit card numbers (with the billing and pin we regularly provide in buying books or socks on line), bank account passwords, and the like. While I can't really imagine serious bad guys going to a lot of trouble to find your or my browsing history or read our emails, it certainly is worth their trouble to capture that financial data and max out our credit cards, get new cards issued in your or my name issued to them, transfer funds from our accounts and so on (I mean of course not one or two, but at scale). If you knew this was possible after many Apple employees had access to broken OS and the means to force that OS onto an iPhone (signing keys that would also work to force a different OS broken in other ways onto phones), would you still trust your financial secrets to be on that iPhone? And of course, even if compromising my words and yours doesn't rise to a serious loss of security broadly speaking, compromising the email and documents of the government officials or CEOs surely would.

Here's a sounder slightly more technical account by information security maven Jeff Schiller: https://jis.qyv.name/home/pages/20160226

Jeffrey A. Eisenach,  Senior Vice President and Co-Chair of NERA's Communications, Media, and Internet Practice

Actually, no..... not according to Apple. The govt has already offered the "you keep it" option -- indeed, not just keep it, but destroy it.  Apple argues that simply the act of hacking the phone makes it more likely they will be asked to do so in the future....  Not a very credible argument I think.

Prof. Roger Bohn, Associate Dean, School of Global Policy and Strategy, UC San Diego

A quick response. Of course nobody knows all the answers in detail to your questions.

First, read up on what a "key" really is in this case. It's not at all analogous to a  physical key.

Second, Apple's real concern is clearly not this case, but the precedent. The USG, in various cases elsewhere, as well as various states, have already made it clear that they plan to use a favorable judicial decision in this case for multiple other phones. So Apple, quite correctly, does not view this as a "one time" thing; it is setting a  precedent. And it fundamentally does not trust the USG  or any other government to act legally and with restraint.

Third, Anything can be reverse engineered. Once Apple creates this tool, and the source code that goes with it, there are numerous ways that other players can end up getting their hands on the core ideas, and implementing their own versions. It's like building the first A-bomb. It's still very hard to build another one, but look at all the security there, and USSR had its own within a few years.

Regarding other countries: You can answer this one yourself. Consider the difference in telling the Chinese government "No" in two scenarios.

1) "We did not do it for our own government, and we won't do it for anyone. That protects everyone who uses Apple products, including Chinese, from American espionage."

2) "We don't like you as much as we like the USG, so although we did it for them, we won't do it for you."

Which position is going to cost less for Apple to maintain, in the face of determined pushback from Chinese government?

Andrew Percy, FRSA, CEO, Justworks, Silicon Valley, and Spokesperson for the LIFE movement

A single key to unlock all doors would be the greatest prize for the devil... and impossible to protect.

The answer is to set up the infrastructure that allows everyone to have their own key, but provide a mechanism to access to an individual's key with a court order.

This system is specified at www.Standardsoflife.org/xID.

Alexandr Burilkov, Research Fellow/Doctoral Student, GIGA Institute of Asian Studies

I'm not strictly speaking a techie, rather a political science grad student, but I work with statistics and programming and have some knowledge of cryptography.

Apple uses the same 256 bit AES standard encryption developed by the US gov't in 2001 and now in use across NATO and the private sector worldwide.  The key is fused into the device at the hardware level, and with a decent password, a brute force attack that looks at all possible password combinations would take years on average to succeed.

What the US government wants is to have access to Apple's records of keys built into its devices.  This can easily be done on a case-by-case basis, when a single device is brought to the court and decrypted by Apple.  So yes, decrypting selected phones can easily be done without compromising others; if that weren't the case, the AES standard would be far worse than what it is, and wouldn't be in use by NATO.

As to the argument that China and Russia would demand access, I know for sure that at least the Russians have a very advanced surveillance network (SORM, active since 1995) analogous and perhaps even superior to the NSA.  The Russians would likely much prefer to find a way to decrypt Apple devices that Apple isn't even aware of, rather than trying to pressure Apple openly, as the Chinese have done with Google.  This would be possible when an user uses their Apple device and the signal carrying passwords and other sensitive information is captured by the Russians (here in Germany there was a similar scandal, when iPhones were hacked by thieves by capturing the signal in order to extract logins and credit card information). 

Furthermore, in extremis the Russians would probably resort to coercion of individuals, and most encryption doesn't survive rubber hose cryptanalysis.  Therefore, Apple's argument on that is rather spurious.

Clay G. Wescott, President, International Public Management Network

In my view, this isn't a tech issue, but a governance one. Countries like China routinely ask tech companies for information about dissidents, and the consequences can be long prison terms. Apple wants to be able to say no.

Philip A. Schrodt, Senior Research Scientist, Parus Analytical Systems LLC

This is in the current issue of Science and is a great example of how a system (BitCoin) that everyone wanted to be secure (even if some of the "everyone" were some nasty characters...) but through just a few people being a little sloppy, got compromised and once compromised (in this case by law enforcement), provides far more information than would have been available had the "secure" system not been used in the first place. Again, the problem is not the technology, it is people getting careless about how they use the technology.

Michael Boylan, Professor of Philosophy, Marymount University

I agree with you about having Apple unlock the phone under its own authority, keeping the phone in their care, custody and control, and turning over the files/information that would be mentioned in a court order.  Apple would be safe.  Foreign governments would only have leverage over Apple if they used economic arguments.  For example, China could say, unlock this phone or we don't let you do business in China.  Of course, in the language of statistics, this is an independent event. China might say this whether or not Apple acted in the U.S. case at hand.  The two sorts of cases demand different sorts of internal standards on the part of Apple.  I remember when Google pulled out of the Chinese market because it did not want to be a party to e-mail surveillance.  Apple might choose to do the same--even though they (Apple) has manufacturing relationships as well with China (which do not adequately recognize employee rights).  It is very interesting which "values" seem dominant within one's shared community worldview.
                            
Bill Loughrey,  former technology executive on two presidential commissions on encryption
                         
This is about a simple thing called security.  Would you live in a house if the terrorists had the key to it?  Terrorists are tough guys.  Do you think they will use technology or live in a house if the police have a key to it?  Would you claim a product is secure if the law enforcement officials have the key to it?  We used to have security built into the public infrastructure so that there was public access.  It is now basically in the ends of the network where the technology companies control it.  They don't build good security into their products, because they can charge more for it later on.  Apple has totally blown it by letting their security be a public spectacle.  They now have for less security than their had before.  By the way, the terrorists are already using another technology - at least for their secure communications.

Brian Forst, PhD, Professor of Justice, Law and Criminology, School of Public Affairs, American University

Thank you for your thoughtful, concise assessment of the Apple vs US controversy.  I think your question, "Can a key kept by Apple under its high power encryption unlock selected phones without making other phones vulnerable?" really extracts the essential question from the considerable clouds of smoke that this case has generated.  I think the answer to this question can be summarized in terms of the slippery slope problem:  Yes they could, but if they break precedent in this case there will be no end of other requests, and they can claim moral high ground by standing on the side of their customers' rights to privacy to avoid the hassle and build goodwill among their mostly liberal, educated customer base.  That may sound cynical, but I've yet to see another explanation that makes more sense.

Vladimir Baranovsky, Russian Academy of Sciences, Centre for Situation Analysis, director

To 'a technical question: Can a key kept by Apple under its high power encryption unlock selected phones without making other phones vulnerable?' there is a strictly technical answer: yes it can! But the problem is by no means a strictly technical one. In so far as there is no 100 (hundred) per cent certitude that unlocking phones is technically impossible, - such unlocking becomes possible due to human factor.

Amitai Etzioni

Many thanks. While I am studying the various documents and reflect on what I learned, here are my thoughts on one key point: The argument that if Apple will help the US government it will have to do the same for other, authoritarian governments.  From all these well-taken responses, there follows:

Apple's Chinese Red Herrings
Far from yielding to the FBI's call to help it gain access to messages stored in a terrorist's cell phone, Apple is doubling down: Apple is working to increase its iCloud encryption, which would inhibit even Apple itself from retrieving password-protected customer data stored in its cloud.

Congress must act soon to stop Apple

If Congress does not act soon to rule that the CALEA act applies to extremely strong encryption inserted into Apple phones, every terrorist, drug dealer, and human trafficker with half a brain will get one. They may have waited a bit to find out if these phones are really as impenetrable as both the FBI and Apple claim, but one must assume they are increasingly convinced

 

Credo che la seguente affermazione di Brian Forst contenuta nell'articolo
postato da Michele Boldrin sia il nodo centrale di tutta la questione del "going
dark debate" (GDD):

«I think the answer to this question can be summarized in terms of the slippery
slope problem: Yes they could, but if they break precedent in this case there
will be no end of other requests, and they can claim moral high ground by
standing on the side of their customers' rights to privacy to avoid the hassle
and build goodwill among their mostly liberal, educated customer base.»

Personalmente, non ho problemi ad ammettere che l'argomentazione proposta da
alcuni "privacy advocates" sia esattamente uno slippery slope, e quindi in linea
di principio un ragionamento fallace. Limitandosi al singolo caso della strage
di San Bernardino, non si può concludere per via deduttiva che qualche altra
enforcement agency in futuro farà richieste via via più "esose" in termini di
violazione della privacy con la scusa di portare avanti le investigazioni.

Questo, però, limitandosi appunto alla situazione contingente di Apple
vs. FBI. Ora, vorrei invitare alla seguente riflessione, che tocca un aspetto
tipicamente trascurato in questo tipo di discussioni:

I dati che vengono recuperati da telefoni o altri device di terroristi/criminali
durante le investigazioni sono utili?

Michele Boldrin ha ipotizzato la situazione in cui il telefono di Farook
contenga dati relativi ad altri attentati terroristici. Sotto questa ipotesi, è
difficile non essere d'accordo sulla necessità da parte delle aziende IT di
collaborare con le autorità (posto chiaramente il trade-off tra sicurezza
nazionale e privacy che uno si pone).

La validità di questa argomentazione, però, a mio avviso si basa sulle due
seguenti assunzioni, chiaramente legate tra loro:

1) La presunzione che un determinato telefono/device contenga informazioni utili
per continuare le indagini o sventare altri attacchi.

2) Il fatto che il telefono/device effettivamente contenga le suddette
informazioni.

Personalmente, credo che per poter prendere una decisione informata sul GDD (o
anche solo farsi un'idea corretta della situazione), sia necessario misurare in
qualche modo l'effettiva utilità di questi dati verificando l'assunzione (2)
ex-post, caso per caso.

Passiamo ora dal particolare al generale: storicamente, FBI, NSA e altre
enforcement agencies non sono nuove a questo tipo di richieste. Negli anni '90,
come osservava Giorgio Gilestro in un commento precedente menzionando le crypto
wars, il governo USA aveva implementato misure di intercettazione ben più palesi
e pesanti per tutti i prodotti crittografici sviluppati negli Stati Uniti (e,
più in generale, anche per le comunicazioni telefoniche).

Le argomentazioni dell'FBI, all'epoca, erano centrate più sul crimine interno
che sul terrorismo, ma la retorica è esattamente la stessa che vediamo nel caso
della strage di San Bernardino in questi giorni. Bruce Schneier osserva in [1]
che il direttore dell'FBI di allora sbandierava il caso di John Gotti per
giustificare la necessità delle intercettazioni telefoniche. Ma, di fatto,
l'investigazione su Gotti è proseguita facendo intercettazione ambientale
(cimici), e non telefonica.

Schneier continua osservando che non c'è evidenza per cui l'"ostacolo
crittografico" abbia mai impedito in modo critico il proseguimento delle
investigazioni. D'accordo, le fonti a supporto di questa affermazione di
Schneier riguardano crimini generici investigati dalla polizia e non il
terrorismo, quindi magari non sono completamente applicabili a questo caso della
strage di San Bernardino. D'altro canto, occorre notare che l'FBI periodicamente
torna sempre a sbandierare il fantoccio del "Going Dark": una volta per i
mobster, un'altra per i pedofili, stavolta per i terroristi. Eppure, non ha mai
dichiarato, che mi risulti, quanto siano stati utili i dati recuperati dai
telefoni/device di criminali (perché lo ha fatto, diverse volte) per proseguire
le investigazioni.

Per questo motivo, sebbene concordo sul fatto che la slippery slope sia in
generale un ragionamento fallace (e quindi probabilmente lo è anche nel
frangente del GDD), personalmente consiglierei prudenza sull'assecondare le
richieste delle enforcement agencies, e di esigere più trasparenza sull'utilità
dei dati che vogliono ai fini delle loro indagini.

Riferimenti

[1] B. Schneier. Stop the Hysteria over Apple
Encryption. www.schneier.com/essays/archives/2014/10/stop_the_hysteria_ov.html

Una cosa che non e' stata mai considerata nel dibattito US-centrico scatenato dall'ingiunzione dell'FBI e' che Apple ha solo circa il 15% del mercato globale degli smartphones:

L'80% circa e' rappresentato da modelli basati su Android, e piu' della meta' di essi sono fabbricati da dozzine di ditte cinesi, spesso in forma OEM per essere venduti sotto altre marche. Anche nell'improbabile ipotesi di convincerle tutte ad adottare le backdoors che un governo americano volesse richiedere, non ci vorrebbe molto a "ri-flashare" i loro telefonini con una versione modificata di Android (che, non dimentichiamolo, e' un sistema operativo sviluppato da Google ma di cui e' possibile ottenere il codice sorgente per modificarlo e ricompilarlo). In effetti, gia' adesso esistono smartphones costruiti in questo modo appositamente per usi in cui la confidenzialita' e' particolarmente importante, come il Blackphone di Silent Circle (una societa' basata in Svizzera).

Ora, i terroristi hanno sinora mostrato di non capirci molto di crittografia e di preferire invece l'uso di telefoni usa-e-getta, ma se un giorno decidessero di diventare tecnologicamente sofisticati, che cosa credete che userebbero: l'iPhone con backdoor governativa, o un economico "IsisPhone" con hardware cinese, firmware custom, e apps (gratuite e open source) per comunicazioni cifrate?

Io penso che ci siano si delle obiezioni certamente valide per la creazione di una backdoor governativa, non metto indubbio ci sono dei rischi e costi e secondo me sono da valutare, fermo restando che il problema non è la privacy, faccio alcune considerazioni , ma credo che l'obbiettivo non è rendere illegale la crittografia, non è impedirene l'uso in assoluto, ma è renderne (se possibile) difficoltoso l' accesso:

  1. 1) alla domanda chi comprerebbe A sapendo che il governo ci puo' guardare dentro? in un modo dove nel 2014 il 30% dei PC connessi ad internet utilizzava windows XP, mi sembra che per i aziende e cittadini il problema non è certamente se il governo ci guarda dentro o meno in un mondo dove le falle di sicurezza vengono corrette settimanalmente alle volte mensilmente, persone usano il telefono sapendo che  potrebbero venire interecettate, non sento lametnarsi AT&T della cosa, la gente compra un iphone non perchè il governo non ci puo' guardare dentro le due cose sono separate, potrebbe farlo sia il governo che un criminale...  
  2. 2) è inutile ?  forse si, forse i buoi hanno già lasciato il recinto, pero'  non si tratta di rendere illegale la crittografia quella è una cosa impossibile, ma nessuno mira a niente del genere. Il chimico si domanda perchè non vendono il tritolo al supermercato dato che vendono già gli  ingredienti per farlo, è un analogia forzata ma è solo per far comprendere il ragionamento, la semplicità è un aspetto importante, la complicazione crea indizi, gli attentatori hanno usato un iphone perchè era semplice, se avessero fermato un sospettato con un balckphone(banalizzo) avrei avuto sospetti più forti piuttosto che un tizio con un iphone no ?
  3. 3) un software illegale è differente da un software legale diffuso illegalmente, soltanto un criminale avrebbe bisogno di un software illegale.

Mi rendo conto che tra P2P, open source e informazioni alla portata ormai di chiunque è forse del tutto inutile, politicamente inattuabile, tuttavia si puo' pensare qualcosa per rendere le cose un po' più complesse... 

A leggere molti commenti pare non si sia capito molto della questione. Apple introdusse la crittografia e il sistema di blocco con 10 tentativi con successivo erase del dispositivo per un semplice motivo: i furti degli smartphone.

Credo ormai che chiunque di voi possegga uno smartphone, sbloccatelo e controllate a quanti servizi siete connessi e loggati: facebook, email, amazon, app per l'homebanking, google maps con eventuale cronologia delle posizioni, calendario degli appuntamenti ecc. Ecco provate per esempio a pensare ad un ladro che ha accesso a tutte queste informazioni. Conoscerà il vostro domicilio, il vostro lavoro, com'è fatta casa vostra, che abitudini avete e magari sul calendario appuntamenti trova anche la data in cui andrete in ferie per una settimana in Spagna.

Ora credo che chiunque di voi, in caso di furto del telefonino, vorrebbe avere un sistema di protezione come quello di Apple, inviolabile. Siccome una soluzione tecnica (allo stato attuale) non esiste per salvare capre e cavoli, ovvero permettere a FBI di accedere al telefono senza comprometterne la sicurezza mi centinaia di milioni di telefoni sparsi nel mondo, Apple ha giustamente deciso di opporsi alla richiesta.

Quindi non è che i "techies" siano dei nerd asociali paranoici col capello di stagnola in testa, semplicemente conoscono bene i rischi e le problematiche del complicato mondo della sicurezza informatica (e di quanto il cybercrimine sia in espansione).

Tornando al problema investigativo è già stato chiarito come i terroristi (come anche i deliquenti comuni) preferiscano l'uso di telefoni semplici usa e getta (quelli da 20€ o meno) e li preferiscono per un motivo semplice: un terminale come lo smartphone lascia nei log dei carrier una mole di tracce incredibile. Ovvero l'FBI puo giungere a informazioni sul terrorista anche per via indiretta ed è questo il punto che rende il vantaggio investigativo molto basso.

ma il sistema di apple non è inviolabile ed è molto rischioso farlo credere... qual' è la differenza tra una backdoor governativa e una falla zero day ?la backdoor governativa non sappiamo nemmeno come potrebbe venire implementata (potrebbe essere necessario l' accesso fisico al telefono e non remoto esempio), seriamente pensiamo che se un ladro ci rubasse il telefono utilizzerebbe una backdoor governativa per accedervi ? perchè non una falla zero day ? entrambe sarebbero complicatissime da ottenere ed utilizzare per il 99,9999% dei ladri iphone, dubito che chi è a conoscenza di una falla zero day  la userebbe per accedere al telefono di Mario Rossi...  E' la falla zero day che mette, in teoria, in pericolo la privacy, non la backdoor governativa (che non abbiamo idea di come verrebe realizzata) come detto dall' autore esiste la Key Disclosure Law, il governo all' onesto ci guarda dentro ugualmente... gli attentatori potevano usare PGP per scambiarsi messaggi perchè non lo hanno fatto ? O perchè è dannatamente scomodo o non ne erano capaci, molto semplicemente ... I mafiosi potrebbero parlare in codice al telefono e lo fanno spesso questo non rende inutile le intercettazioni telefoniche perchè prima o poi commetteranno un errore...

Concordo certamente sul fatto che per ogni riga di codice aggiunta aumenta la possibilità di regressioni e problemi di sicurezza, tuttavia non lo trovo un valido motivo valido per non aggiungere codice. In ogni caso, sinceramente, non mi aspetto un ufficio governativo che inserisca backdoor nei sorgenti di Ios ecc., tutt'altro mi aspetto che manutenzione e accesso sia fatto da Apple con i rischi del caso, quindi dipendenti in malafede  e tutto ciò che anche adesso potrebbe avvenire, mi aspetto che l' intelligence chieda un output ma che non sappia esattamente come venga fornito quell'output è inutile che ne venga a conoscenza non credo sia saggio far modificare i sorgenti di un azienda da un agenzia governativa... Mi aspetto quindi delle l'implementazioni diverse per ogni azienda ma con il medesimo fine... 


P.s. Scusatemi per eventuali errori ma sono con lo smartphone e ho sbagliato il quote

Infatti ho parlato appunto di una specifica, non di codice scritto dal governo che gira sui telefoni.

Ora, se si assume che il governo voglia aver accesso ai dati tramite l'implementazione di una qualche specifica "obbligatoria", ovviamente ci sarà almeno una implementazione usata dal governo per garantire l'accesso a tali dati... altrimenti di cosa stiamo parlando? Se invece si sta pensando ad obbligare le aziende, ciascuna a suo modo, ad implementare un qualche tipo di accesso privilegiato, senza una specifica dettata dal governo... be', sarebbe pure peggio: perché l'accesso non sarebbe garantito (in linea di principio) solo al governo, ma anche all'azienda stessa, e non crederete che l'utente di un iPhone si fidi di Apple più di quanto si fidi dell'FBI! In tal caso apparirebbe probabilmente un qualche tipo di standard di fatto (dissezionato accuratamente dai guru della crittografia), e open source, con la garanzia dell'accesso demadata a un qualche sistema di chiavi private, il che ci porta a una situazione del tutto equivalente al caso iniziale. Ricordo peraltro che sui telefoni girano anche sistemi operativi open source; in realtà sulla maggior parte dei telefoni gira Android, e non c'è nessun problema a scaricare ed installare la versione di Android prodotta in Finlandia, Mongolia o Botswana in cui la libreria di crittografia di Google viene sostituita immediatamente e senza colpo ferire con quella senza accesso garantito al governo (o, nella tua variante, a Google nel caso il giudice USA ordini a Google di accedere). Anzi probabilmente si creerebbero istantaneamente due mercati, uno "indebolito per USA", e uno "sicuro per il resto del mondo", con grande gioia di Putin e di altri "alfieri della libertà"...

 

Mi aspetto di poter discutere delle implicazioni di tutto questo nel thread che si aprirà sotto il contributo politico e giuridico, ammesso che vengano presentate delle possibili implementazioni "almeno in linea di principio" pratiche. Da cui si potrebbe cercare di inferire le conseguenze sia in termini di possibilità di enforcement, sia in termini di pericoli per la sicurezza. Se no possiamo anche aprire una discussione sulle opere letterarie di William Gibson.

A me sembra che l'articolo si focalizzi molto sugli algoritmi di crittografia e relativa backdoor e poco o nulla su quelle che sono le vulnerabilità a livello hardware (come dimostra il caso San Bernardino) o la possibilità di bypassare la crittografia con intercettazioni di tipo ambientale.

Così facendo risulta anche più complesso discutere del tradeoff, perché si mettono in luce solo gli aspetti tecnici che fanno comodo a tirare acqua al proprio mulino. 

Paolo Attivissimo ha pubblicato un'interessante riflessione sull'uso della crittografia per favorire la pubblicazione dei Panama papers. Non concordo interamente con lui sull'intenzionalità dei governi di controllare la crittografia proprio per evitare questo tipo di fuga di notizie, però sono d'accordo sulla sostanza: oltre al bisogno di combattere il terrorismo e il crimine in generale, nel famoso trade-off politico più volte citato nei commenti a questo post occorre tenere presente anche altri aspetti, come in questo caso la protezione dei whistleblower.

La crittografia è uno strumento che, in modo indiretto, permette di garantire trasparenza. E la trasparenza è un elemento fondamentale del rapporto di trust tra  popolazioni e governi. È inutile continuare a dire "sì ma dei governi e delle autorità ci possiamo tendenzialmente fidare". Questa affermazione può essere vera (con i dovuti distinguo) fintanto che ci si limita alla questione del terrorismo/sicurezza nazionale, ma non esaurisce tutti gli aspetti possibili del controllo della crittografia. Nel momento in cui ci si sposta al livello "meta", cioè l'uso della crittografia per favorire il comportamento onesto delle autorità stesse, a me sembra che la valutazione del trade-off inevitabilmente cambi.

www.wired.com/2016/04/forget-apple-vs-fbi-whatsapp-just-switched-encryption-billion-people/

WhatsApp al momento serve più di un miliardo di utenti (e, ovviamente, la maggioranza non sono cittadini USA). Nell'articolo si fanno un po' di considerazioni interessanti... credo che ne vedremo delle belle.

Crittografia end-to-end, protocollo Signal, quindi teoricamente dovrebbe rendere inutili richieste delle autorità a WA stesso.

Però, a differenza dell'applicazione Signal che è open source, l'FBI potrebbe chiedere un intervento sul codice di WA, o magari lo ha gia chiesto, nessuno lo può verificare. Anche in questo caso non si può prescindere dalla fiducia nell'azienda, come per il caso Apple.

www.wired.com/2016/04/senates-draft-encryption-bill-privacy-nightmare/

Va be', davvero stanno preparando una legge stesa in questi termini? Sembra uno strawman preparato dai "techies" per sparare a zero sui politici.

Resistero' alla tentazione di commentare con un Q.E.D.

si' la bill e' stata presentata - la mia personale opinione e' che non andra' molto lontano. Ad ogni modo, credo che la visione tecnologica a tutta questa diatriba sia il classico "eppur si muove". Ovvero, potete fare tutte le leggi che volete ma non serviranno a nulla.

Anche perche' un po' tutti, come dicevo qualche commento piu' su,  stanno davvero reagendo con serieta' e costanza. Oggi e' il turno di microsoft blogs.microsoft.com/on-the-issues/2016/04/14/keeping-secrecy-exception-not-rule-issue-consumers-businesses/

Il dibattito, non semplice, tra privatezza dei dati su supporti elettronici e diritti costituzionali, ha un nuovo caso su cui discutere: California judge orders woman to unlock her phone with fingerprints.

Io vorrei sapere, anche se probabilmente sto abbaiando alla luna, quale sia lo svantaggio e quanto questo svantaggio è quantificabile nel permettere l'accesso ad un dispositivo tramite backdoor (NSA, FBI, hacker comune, vari) quando è già possibile accedervi tramite falle nel sistema (NSA, FBI, hacker comune, vari), e, di contro, quale sarebbe il vantaggio. Perché da questa infinita discussione non sono riuscito a capirlo.

perche' neanche io l'ho capito!

Leggi questo: https://dspace.mit.edu/bitstream/handle/1721.1/97690/MIT-CSAIL-TR-2015-026.pdf?sequence=8

Basta anche solo l'executive summary (pg 2-4).