Ed eccoci su un tema davvero caldo.
Tutti saprete della controversia nata per l'ingiunzione a Apple (a cui è stato opposto rifiuto), di sbloccare un telefonino di potenziali terroristi.
Per essere più precisi la richiesta andava oltre, creare una backdoor (in pratica un varco nascosto), per consentire alle autorità di vedere quanto contenuto in smartphone di terroristi o presunti tali in assenza delle chiavi (che anche Apple non ha). La richiesta poi in seguito è stata di creare un firmware per aggirare la protezione del telefono.
Cosa hanno capito le persone comuni che hanno bisogno di concetti facili?
Lo stato americano chiede dati di un terrorista a Apple, che in nome della privacy si rifiuta di consegnarli.
La vicenda in realtà è davvero intricata e coinvolge tanti problemi tecnici ed etici molto controversi ciascuno da analizzare singolarmente.
Per cercare di fare una sintesi di tutto vedo di dare le mie opinioni su tanti aspetti che emergono da questa vicenda, con una specie di 'autointervista' sui temi generali, la risposta datevela da soli.
La materia è molto controversa per cui so che non tutti la pensano come me in particolare sulla 'controllabilità', mentre sull'impedire le backdoor i tecnici sono praticamente tutti d'accordo.
E' giusto che esistano sistemi a crittografazione forte (praticamente non decriptabili senza chiave?)
A mio parere sì servono per tantissimi aspetti, dai pagamenti on-line all'autenticazione documentale, alla certificazione personale, alla protezione di dati sensibili ed altro.
Paradossalmente sono algoritmi che stanno alla base stessa del concetto di libertà per cui più sono forti meglio è.
Certo questo si porta dietro tanti problemi collaterali, i segreti (oramai sono pochi) ma esistono, anche per le forze dell'ordine (ma anche per i paesi autoritari).
Poi non è sempre detto che ottime serrature siano sempre un bene assoluto.
Chi si è beccato il famigerato cryptolocker ovvero il virus che ti 'sequestra' i dati criptandoli, ha già capito le implicazioni di lucchetti molto forti.
Avere una serratura inviolabile può dare sicurezza ma se si perdono le chiavi vuol dire perdere tutto, quindi usare chiavi forti vuol dire necessità di cautelarsi con backup ben protetti ecc. e tenere le chiavi ben strette (in testa).
Ne consegue che la richiesta di sistemi di 'aggiramento' su algoritmi di criptazione a mio parere è vergognoso e inconcepibile.
E' giusto per le aziende non mostrare a richiesta alle autorità il firmware (software) dei propri prodotti (dallo smartphone al programma della lavatrice)?
Su questo punto penso che le autorità debbano in particolari situazioni poter vedere i software che le aziende mettono nei prodotti per capire cosa fanno (IPhone compreso).
Presso il cliente con tutte le sicurezze del caso.
Giusto per non avere ad esempio nella lavatrice un algoritmo 'all'accensione in un numero casuale compreso tra 2000 a 2500 volte esci con il messaggio ROTTO XY SERVONO 500 EURO'.
Le stampanti oggi ci dicono che l'inchiostro è finito da un punto di vista 'contabile', quindi non siamo molto distanti.
Caso Volkswagen avrà pure insegnato qualcosa?
A dire il vero meglio sarebbe se fosse codice Open-Source (a disposizione di tutti), ma capisco che oggi non sia sempre fattibile.
Comunque è giusto poter vigilare su che certi comportamenti non ci siano (e quindi lecita anche la richiesta di apertura di 'lucchetti' se disponibile).
Ma la criptazione forte (biometrica ad esempio) sull'accesso ad uno smartphone è una cosa giusta?
Ha senso ma si porta dietro enormi potenzialità ed enormi pericoli.
In pratica se entri ad esempio con l'impronta digitale in pratica tu diventi il tuo smartphone.
Comodo magari per accedere all' Home Banking (se non hai uno che ti frega il telefono appena ti sei autenticato).
Ma potenzialmente qualcuno può sapere dove sei, cosa fai, guardare la webcam o attivare il microfono e comunicare tutto.
Dico 'potenzialmente' soprattutto se lo strato software sottostante non è trasparente.
Il fatto che tutte queste informazioni 'delicate' siano sotto criptaggio forte, non solo ha un senso ma è auspicabile.
La domanda da farsi casomai è se l'azienda che ha concepito il dispositivo ha accesso a tali dati, fino a che punto, per farci cosa e come li usa.
Lo stato attuale è che oggi tutti hanno uno smartphone Android o IOS, e quindi tutti sono schedati.
Tornando al caso in esame ritengo sia giusto che Apple dia alle autorità tutti i dati in proprio possesso già accessibili (cosa che dovrebbe avere fatto).
Le esigenze di sicurezza si sono sempre scontrate contro la privacy, ma la sicurezza esige controllo e il controllo (entri certi termini) confligge con la privacy.
Ma questo non vuole assolutamente dire che la Apple debba accettare di creare un software per le autorità con delle backdoor, proprio per i motivi espressi precedentemente.
Quindi la Apple difende i cittadini e l' NSA li attacca?
La Apple tracciava la posizione dei telefonini (senza dirlo) finché qualcuno non se ne è accorto.
Questa la dice lunga sui 'paladini della privacy'.
Comunque che l' NSA si sia spinta nelle indagini sulle comunicazioni molto al di là del tollerabile è sotto gli occhi di tutti.
Penso che NSA debba poter vedere cosa fa la Apple con il suo software, con IClude, come usa i dati ricavati al di là delle dichiarazioni di Apple.
Penso che Apple debba dare tutto il supporto possibile alle richieste NSA anche costruendo al proprio interno un firmware alternativo SOLO per il caso in esame (e si può fare).
La giustificazione che adduce Apple che quella cosa fatta per uno rischia di essere divulgata non sta in piedi, vuol dire che la Apple non ha tecnici di cui fidarsi.
Non è una gran cosa visto che milioni di utenti si fidano ciecamente di Apple, mettendo tutte le proprie cose su IClude nella speranza non vengano divulgate.
Inutile dire che su questo punto ritengo che Apple abbia torto e debba collaborare (nessuno chiede che lo facciano gratis).
E'lecita la richiesta da parte di governi o forze di polizia di inserire una backdoor nel software per poter 'guardare' quanto serve?
Una cosa di cui l' NSA (così come il governo di qualsiasi paese), dovrebbe vergognarsi e qui Apple ha fatto bene a dire di no.
E per il futuro?
Stante il progresso degli algoritmi di crittografazione penso presto avremo sistemi davvero inapribili senza la chiave.
Quindi NSA si rassegnerà a non riuscire ad aprire alcuni files e directory sotto chiave, soprattutto se la stessa è solo nella testa di qualcuno.
Quindi Apple in futuro potrebbe trovarsi il problema risolto.
Ma NSA non si preoccupi, sanno bene che i dati vivono perché comunicati, e a intercettare quelli sono molto bravi ... anche troppo.
Non escludo che i servizi segreti abbiano sistemi anche per estrarre la chiave dalla testa di qualcuno.
Questa vicenda farà bene alla Apple?
Penso proprio di sì nel breve, ne stanno uscendo come i paladini della privacy.
Senza contare che è un modo per dire a tutti i delinquenti di usare i propri dispositivi.
Vi è comunque il rischio che la valutazione 'a pelle' faccia ritenere Apple 'azienda che difende i terroristi', anche perché è un concetto facile da far passare e tanti avranno interesse a farlo pensare.
Android di Google (che non si schiera), al momento è circa il 60% del mercato contro 32% di IOS (fonte NetMarketShare).
Perché Apple non ha accettato certi compromessi non è detto che altri non l'abbiano fatto (dico Google ma potrei dire FaceBook, Microsoft ecc.), ... e questo alla lunga potrebbe portare a Google il sostegno 'disinteressato' di tanti governi ad Android.
Per cui non so se alla lunga la cosa ripagherà.