Attualità

La sorveglianza ai tempi della crisi. Alcune coordinate filosofiche

"La crisi attuale si presenta come una occasione senza precedenti per poter estrarre valore dalla crescente mole di dati (...)."

    La paura e il sovrano

    I periodi di crisi offrono occasioni propizie per il restringimento dei diritti e delle libertà fondamentali. Le crisi causano paura e senso di insicurezza, le premesse ideali per l’espansione del potere e la sperimentazione di nuove tecniche di governo.

    Il filosofo inglese Thomas Hobbes, alla metà del XVII secolo, ha descritto questo nesso attraverso l’incisiva metafora del Leviatano: gli individui che temono costantemente per la propria vita sono ben disposti a cedere la libertà in cambio della sicurezza che un sovrano dotato di poteri assoluti (il Leviatano appunto) promette di garantire.

    La teoria di Hobbes non era intesa come monito critico; egli sosteneva al contrario la necessità di dotare il sovrano di poteri assoluti. Per sua stessa ammissione Hobbes era un uomo timoroso. Al momento della sua nascita, come scrisse, sua madre diede alla luce due gemelli: lui stesso e la paura. Hobbes viveva inoltre in tempi difficili: tempi di interminabili guerre civili, nelle quali ogni individuo veniva percepito dagli altri come una perpetua minaccia. Homo homini lupus: l’uomo come lupo per gli altri uomini – questa l’efficace espressione usata da Hobbes per descrivere il carattere agonistico e minaccioso delle relazioni sociali del suo tempo.

    Per quanto quindi le ragioni personali e strutturali che secondo Hobbes richiedevano di cedere la libertà in cambio di sicurezza possano apparire plausibili, oggi sappiamo anche quali conseguenze possono seguire se si cede al richiamo della sovranità illimitata. Esattamente un secolo fa l’Europa attraversava una crisi profonda: il Vecchio Continente si trovava a fare i conti con le conseguenze economiche e psicologiche della prima guerra mondiale e l’influenza spagnola mieteva vittime su tutto il continente. Arrivarono gli “uomini forti” e si dotarono di poteri assoluti: fascismo, nazismo, genocidi e una seconda guerra mondiale seguirono. Dall’impegno a non permettere mai più un tale sterminio di vite e un tale annichilimento della dignità umana, molti paesi europei hanno costruito alla fine della seconda guerra mondiale il loro ordinamento democratico, in cui i diritti fondamentali e le libertà individuali godono di una protezione particolare e garantita dalla costituzione.

    Attualmente stiamo attraversando una crisi radicale, che ha preso avvio da una minaccia sanitaria (il virus Covid-19) ma che si è allargata progressivamente all’ambito economico, politico e sociale. Le misure di social distancing – per quanto possano essere sensate dal punto di vista medico – ci insegnano a considerare le altre persone come una potenziale minaccia, e noi stessi come potenziale minaccia per gli altri. Ciascuno e ciascuna ci potrebbe infettare – o noi potremmo infettare ogni altra persona con cui entriamo in contatto, con conseguenze potenzialmente mortali. Per proteggere il maggior numero possibile di persone dal contagio sono state introdotte nelle democrazie occidentali le più drastiche restrizioni delle libertà e dei diritti fondamentali dalla fine della seconda guerra mondiale. Da questo punto di vista il meccanismo hobbesiano della cessione della libertà in cambio di una promessa di sicurezza è già all’opera, anche se mitigato dalla promessa che tutto tornerà alla normalità non appena l’emergenza sarà passata.

     

    La sorveglianza digitale, o la nuova spada del leviatano ibrido

    Alcune delle misure di limitazione delle libertà personali che sono state introdotte sono di carattere per così dire “tradizionale”, nel senso che fanno ricorso a strumenti di potere di cui lo Stato dispone da sempre. Ne fanno parte per esempio il divieto di lasciare la propria abitazione o le ulteriori limitazioni della libertà di movimento. Altre limitazioni dei diritti individuali ricorrono invece a strumenti relativamente nuovi e possono essere raggruppati sotto la categoria di “sorveglianza digitale”. A mio avviso questa seconda categoria di misure merita attenzione particolare, perché potrebbe avere conseguenze profonde e durevoli sulla protezione dei diritti e delle libertà fondamentali e potrebbe così giocare un ruolo decisivo nel determinare se la promessa di ritorno alla normalità una volta passata la crisi sarà mantenuta oppure no. Tre sono le ragioni principali che mettono in rilievo il ruolo della sorveglianza digitale in questo momento di crisi.

    Anzitutto l’utilizzo dei social media e delle piattaforme virtuali è aumentato notevolmente in conseguenza delle misure di social distancing. Ormai da anni e con intensità crescente produciamo continuamente e in modo più o meno consapevole dati, che vengono raccolti, salvati, analizzati e trasmessi a terzi. La quantità di questi dati durante la crisi è incrementata in misura straordinaria, così come la nostra dipendenza dagli strumenti digitali per poter svolgere attività che prima venivano condotte, almeno in gran parte, senza supporti digitali. Dal momento che non possiamo più svolgere molte attività di persona, siamo passati a surrogati digitali: Skype ha preso il posto degli incontri reali, Netflix quello del cinema, Zoom quello delle lezioni a scuola e numerosi altri esempi potrebbero seguire. In questo modo si è rafforzata una tendenza che è iniziata già da tempo, ma che ora ha subito un incremento così drastico che Facebook, Amazon & Co. solo alcuni mesi fa non avrebbero osato sperare e che infatti ha provocato loro difficoltà iniziali a tenere passo con l’improvvisa esplosione della domanda.

    In secondo luogo i nostri dati sono estremamente ambiti: come ha mostrato la filosofa statunitense Shoshana Zuboff, dai nostri dati può essere ricavato un valore economico immenso. I provider dei servizi digitali si appropriano di questi dati – che noi con le nostre attività abbiamo prodotto – e li rivendono al migliore offerente traendone profitto. Zuboff chiama questo sistema “Capitalismo della sorveglianza”, ma lo stesso concetto, senza la connotazione critica di Zuboff, è stato espresso anche dalla cancelliera tedesca Angela Merkel, che ha definito i dati “le materie prime del XXI secolo”. È quindi ragionevole aspettarsi che i provider dei servizi digitali che utilizziamo non lasceranno giacere l’aumentata mole di dati improduttivamente, ma anzi cercheranno di ricavarne il più alto guadagno possibile. Sul modo concreto in cui viene ricavato questo guadagno tornerò più sotto.

    La terza ragione ha a che fare con un fenomeno che la giornalista canadese Naomi Klein ha chiamato “shockterapia”. Klein ha mostrato come le crisi economiche o i disastri naturali vengono usati per imporre senza difficoltà misure economiche che in situazioni normali avrebbero incontrato grosse resistenze. Fenomeni analoghi si osservano però anche al di fuori della sfera economica, per esempio nell’ambito della sicurezza, allorquando misure da tempo pianificate ma fortemente contestate dopo un attacco terroristico trovano le condizioni favorevoli per essere approvate e realizzate.

    Un esempio piuttosto recente in Europa è la Direttiva UE 2016/681 sull’uso dei codici di prenotazione aerei (PNR), che è stata adottata dopo gli attacchi di Parigi del 2015. Secondo la direttiva dal maggio 2018 le compagnie aeree e le agenzie di viaggio devono fornire alle autorità degli stati membri i dati di prenotazione dei voli aerei, in base ai quali per ciascuno passeggero viene tracciato un profilo e assegnata una categoria di rischio. Iniziative precedenti della Commissione Europea sull’utilizzo dei codici di prenotazione, risalenti fino al 2007, erano state rigettate dal Parlamento per le riserve sulla compatibilità con la protezione dei diritti fondamentali, che però sulla scia degli attacchi terroristici hanno perso di forza e potere persuasivo. Ciò è avvenuto nonostante gli attentatori di Parigi, molti dei quali erano cittadini europei, non fossero entrati in Europa per via aerea e non avrebbero quindi potuto essere identificati attraverso l’analisi dei codici di prenotazione.

    Le crisi creano dunque le premesse per imporre misure di dubbia legalità ed efficacia, che però vengono introdotte in modo durevole e permangono anche dopo la cessazione delle condizioni emergenziali. L’esempio della direttiva sull’uso dei codici di prenotazione illustra inoltre il connubio tra attori privati (le compagnie aeree e le agenzie di viaggi) e attori pubblici (le autorità di pubblica sicurezza), già avviata da tempo e che ora potrebbe subire un’accelerazione. Il potere non è più nelle mani di un leviatano statale, ma viene in misura sempre maggiore delegato da questo ad attori privati o eroso dall’esterno per azione di questi ultimi.

    In questo contesto sono da considerare anche le misure di contact tracing, già introdotte in alcuni paesi (come l’Austria), o attualmente in discussione (come in Svizzera, Italia o in Germania). La proposta congiunta di Google e Apple per fornire un sistema di tracciamento dei contatti sociali per poter sorvegliare il rischio di contagio è l’apoteosi dei meccanismi sopra descritti. La crisi attuale si presenta come una occasione senza precedenti per poter estrarre valore dalla crescente mole di dati e contemporaneamente per persuadere gli individui ad accettare volontariamente una forma di sorveglianza che in condizioni normali avrebbero rifiutato, ovvero il tracciamento dei contatti, non solo online, ma anche nella vita reale.

    Ora, queste argomentazioni possono apparire piuttosto ciniche. La situazione, infatti, può anche essere vista da un’altra prospettiva: Google e Apple vorrebbero solo fornire il proprio contributo al superamento della crisi e al salvataggio di vite umane. La rinuncia a un po’ di privacy sembrerebbe da questo punto di vista uno svantaggio minimo, se paragonato agli enormi vantaggi che una app di tracciamento potrebbe portare. Non si nasconde forse anche una punta di egoismo nell’insistere sulla protezione dei propri dati quando si tratta di salvare vite umane?

     

    La protezione della privacy non è una questione privata

    Dietro questa rappresentazione, che rispecchia in sintesi la narrativa filantropica con cui le big tech amano parlare di sé, si nasconde l’idea che la privacy abbia valore solo per il singolo individuo. La privacy sarebbe in altre parole un bene individuale, che in caso di dubbio dovrebbe essere sacrificato per il bene comune. Al contrario, come la politologa statunitense Priscilla Regan ha mostrato già negli anni Novanta, la privacy è un bene interpersonale, pubblico e comune. La privacy non designa un bene che ognuno individualmente può decidere se proteggere o meno, ma al contrario un bene di cui ciascuno può realmente godere solo se un certo livello di privacy è garantito per tutti. La protezione della privacy definisce inoltre i rapporti di forza tra l’autonomia individuale e il potere (pubblico) ed è quindi tutt’altro che una questione privata.

    Un paragone con la segretezza del voto può aiutare a chiarire la dimensione collettiva della privacy. Se la segretezza del voto non fosse garantita per legge e al contrario la scelta se votare in modo anonimo fosse lasciata a ciascun elettore, anche la segretezza del voto di coloro che decidono di votare in modo anonimo sarebbe compromessa. Ciò in misura tanto maggiore quanto più alto il numero degli elettori che, volontariamente o per effetto di pressioni, rinunciano alla loro anonimità. Più piccolo diventa il numero di coloro che persistono nel votare in modo anonimo, più cresce la possibilità di inferire ipotesi o trarre conclusioni sulle loro scelte elettorali. Anche la necessità di giustificarsi diviene più pressante per questi ultimi, parallelamente al sospetto che chi vuole votare in modo segreto abbia qualcosa da nascondere.

    Si tratta fortunatamente di un esempio meramente ipotetico, dal momento che a quanto mi risulta nessuno, nelle democrazie contemporanee, abbia seriamente e pubblicamente messo in discussione la segretezza del voto. Le cose stanno però diversamente per quanto riguarda il diritto alla privacy: secondo una convinzione diffusa infatti, chi non ha nulla da nascondere non ha nulla da temere dalla sorveglianza. Contro questa convinzione vorrei ora presentare alcuni argomenti ed esempi che illustrano i rischi della sorveglianza e il valore della privacy per tutti, anche per chi “non ha nulla da nascondere”.

     

    L’individuo trasparente: autonomo o automa?

    Inizio con un esempio che mostra come anche dati apparentemente privi di importanza possano essere usati per ricavarne guadagno. Da dati a prima vista frivoli e non sensibili possono essere dedotte informazioni molto personali, grazie alle quali è possibile influenzare il comportamento in modo opaco e insidioso.

    Molte catene commerciali propongono ai propri clienti le cosiddette fidelity cards, grazie alle quali è possibile tracciare acquisti, resi, metodi di pagamento ecc. In un report sulle reti di sorveglianza, l’informatico austriaco Wolfie Christl e l’esperta di informatica dell’economia Sarah Spiekermann riportano l’esempio della catena statunitense Target, che è stata particolarmente ingegnosa nel mettere a frutto i dati raccolti dalle transazioni dei propri clienti. Target tracciava profili dei propri clienti per poter individuare nella loro vita i momenti in cui potenzialmente si sviluppano nuove abitudini di consumo. Questi momenti sono per esempio la laurea, il matrimonio o, come nell’esempio che segue, la nascita di un figlio. I novelli genitori sono infatti nei casi più fortunati non solo estremamente felici, ma anche sopraffatti dalle nuove responsabilità e dai nuovi compiti. Chi arriva al momento giusto con l’offerta giusta può fare buoni affari, per la gioia e la gratitudine dei neogenitori, che si sentono sollevati dall’onere di doversi orientare tra mille possibili offerte. Per poter identificare i futuri genitori il più precocemente possibile, il reparto marketing di Target aveva sviluppato un „pregnancy prediction score“, per poter riconoscere donne incinte dai loro acquisiti e poter inviare loro offerte pubblicitarie personalizzate.

    Per sviluppare i profili, Target aveva analizzato gli acquisti di clienti nei mesi precedenti la nascita di un figlio ed estratto correlazioni statistiche tra la gravidanza e le abitudini di consumo. Le correlazioni risultanti non si riferivano solo ad articolo tipicamente associati ai neonati o alla gravidanza, ma riguardavano anche prodotti non specifici come lozioni per il corpo, saponi, disinfettanti per la pelle, ovatta e integratori alimentari. Se il comportamento d’acquisto di una donna corrispondeva al profilo di una gestante, Target le inviava offerte speciali e buoni sconto mirati. L’aneddoto secondo cui un padre, vista la pubblicità inviata alla figlia, rimproverò a Target di volerla incitare ad avere un bambino, la dice lunga sulle possibili implicazioni di una tale attività di profilazione. La figlia in questione, infatti, era già incinta, solo che Target lo aveva saputo prima del padre.

    Il punto di questo esempio è il seguente: grazie alla sorveglianza digitale, informazioni molto sensibili possono essere ricavate dal comportamento di una persona ed essere rese accessibili ad altre persone, indipendentemente dalla volontà della persona in questione di rivelare queste informazioni. Informazioni molto personali, come l’esistenza di una gravidanza, inoltre, possono essere inferite da dati apparentemente banali e innocui. In una situazione normale, la persona coinvolta non si aspetterebbe che la cessione di informazioni apparentemente futili come l’acquisto di generici prodotti per il corpo renda possibile trarre conclusioni sull’esistenza di una gravidanza. Queste informazioni e l’anticipo con cui se ne dispone vengono poi usate per influenzare il comportamento delle persone coinvolte, tenendole però all’oscuro degli strumenti che hanno permesso di formulare le offerte personalizzate.

    In ultima istanza, le attività di profilazione compromettono la nostra capacità di prendere decisioni in autonomia. Non siamo in grado né di decidere chi debba disporre di quali informazioni su di noi, né di ricostruirlo a posteriori. Altri però dispongono di informazioni considerevoli su di noi e grazie alle conoscenze di cui dispongono possono influenzare le nostre scelte. La sorveglianza digitale mette in discussione la nostra autonomia: l’autonomia di decidere con chi vogliamo condividere informazioni private e l’autonomia di prendere decisioni in base a ragioni che possiamo ricostruire.

    Questo esempio ha inoltre fornito una risposta alla questione lasciata prima in sospeso di come venga estratto valore dai nostri dati: i dati raccolti vengono usati per influenzare il comportamento in modo lucrativo. Questo può avvenire in modo diretto, come nell’esempio, o attraverso la vendita dei dati al miglior offerente, che li riutilizza poi per scopi commerciali o di governo.

     

    Algoritmi “oggettivi” e procedure discriminatorie

    Il secondo esempio illustra come le procedure matematiche apparentemente neutrali che vengono usate per l’analisi dei dati possono portare a risultati discriminatori. Questo può accadere anche se i dati analizzati sono pseudonomizzati (cioè il collegamento con i soggetti cui si riferiscono è stato reso temporaneamente irriconoscibile) e anche se l’analisi condotta non è particolarmente dettagliata.

    È pratica comune presso imprese e organizzazioni di grandi dimensioni usare procedimenti algoritmici per la preselezione dei candidati più adatti per una determinata posizione. La base per questi procedimenti viene fornita dall’analisi di grandi banche dati allo scopo di identificare i profili dei candidati ideali. Se per esempio la posizione per cui avviene la selezione è un ruolo dirigenziale, vengono identificate le caratteristiche più frequenti delle persone che già ricoprono ruoli dirigenziali. Tra queste caratteristiche e le qualità di un bravo dirigente non devono necessariamente esistere relazioni di tipo causale. Rilevante è piuttosto la frequenza con cui determinate caratteristiche compaiono tra il pool di persone che già ricoprono posizioni dirigenziali. Se per esempio un numero statisticamente rilevante di queste sono sportivi di professione o suonano il violino, le caratteristiche “sportivo di professione” e “suonatore di violino” saranno annoverate tra le caratteristiche che aumentano la probabilità che il candidato in questione sia un bravo dirigente. All’inverso ciò significa però che i candidati che hanno caratteristiche in comune con persone che ricoprono raramente posizioni di dirigenza saranno scartati. Se per esempio in una determinata società poche donne ricoprono ruoli di dirigenza e in una determinata regione il livello medio di istruzione è basso, una candidata di quella regione avrà pochissime chances di essere selezionata per un ruolo dirigenziale. Una candidata con queste caratteristiche sarà probabilmente scartata, e questo indipendentemente dalle sue qualifiche reali. Non solo la candidata in questione non viene assunta, ma il suo caso influenza le statistiche future, nelle quali candidate di quella determinata regione riceveranno un punteggio ancora peggiore e avranno perciò una probabilità ancora inferiore di essere selezionate per ricoprire una posizione dirigenziale.

    Come anche nel primo esempio, a prima vista non c’è in questo procedimento alcuna lesione significativa della privacy: per scartare la candidata in questione è in fin dei conti sufficiente conoscere solo il suo genere e il luogo di residenza o di provenienza, altrimenti il procedimento potrebbe svolgersi in modo quasi anonimo. Nonostante ciò il procedimento ha conseguenze discriminatorie gravi, che vanno oltre il caso singolo. Il sociologo canadese David Lyon ha perciò definito le attuali pratiche di sorveglianza digitale come un procedimento di “social sorting”: la funzione principale della sorveglianza digitale contemporanea sarebbe categorizzare le persone in differenti gruppi, per poi riservare a ogni gruppo un trattamento differenziato.

     

    Sorveglianza apparente e autosorveglianza

    Il terzo esempio infine ha lo scopo di mostrare che la sorveglianza può influenzare il nostro comportamento anche se non viene raccolto e analizzato alcun dato. Perché la sorveglianza abbia effetto è infatti sufficiente sapere che i dati potrebbero essere raccolti.

    Alcune misure di sorveglianza (apparente) vengono intenzionalmente messe in atto a questo scopo, ovvero non per raccogliere informazioni, ma per dare l’impressione che ciò avvenga. Un esempio sono le telecamere fittizie che vengono installate per dissuadere da atti di vandalismo. Le telecamere non devono necessariamente avere nemmeno le dotazioni tecniche per poter registrare. Per espletare la funzione dissuasiva è sufficiente che siano visibili e abbiano l’apparenza di telecamere vere.

    Il filosofo francese Michel Foucault ha descritto questo meccanismo nell’era pre-digitale attraverso il famoso esempio del panopticon. In un tale sistema, i singoli individui possono essere potenzialmente sempre sotto osservazione, ma non hanno mai la possibilità di sapere se l’osservazione in un determinato momento avviene realmente. In queste condizioni si innescano meccanismi di autodisciplina, che producono e rendono continui gli effetti della sorveglianza, anche quando questa non ha luogo effettivamente.

    Un tale meccanismo di autodisciplina può avere a oggetto comportamenti non nocivi, o addirittura comportamenti che sono, da un punto di vista democratico, desiderabili. Quello che oggi va sotto il nome di chilling effect descrive una sorta di deterrenza o inibizione che può far desistere le persone da alcuni comportamenti e talvolta dall’esercizio dei diritti fondamentali, non appena queste sanno o sospettano di essere sotto sorveglianza. Il chilling effect può influenzare soprattutto diritti che costituiscono il nucleo della vita democratica, come le libertà di credo, di espressione, d’informazione, di stampa e di riunione. Tali effetti possono per esempio portare alcune persone a non partecipare a una manifestazione perché sanno che potrebbero essere filmati dalle forze dell’ordine. Analogamente alcune persone potrebbero evitare di cercare in rete alcune parole chiave per paura di poter essere identificati come sospetti e attirare così l’attenzione delle autorità. Studi empirici hanno dimostrato che dopo che le attività di sorveglianza della NSA sono state rese note da Edward Snowden, per esempio, la ricerca di determinate parole sul motore di ricerca Google si è ridotta in modo significativo. Interessante è il fatto che la riduzione non riguardava solo parole che possono essere messe in relazione con attività terroristiche, ma anche parole che sono considerate personalmente sensibili, come per esempio “aborto”. Un altro studio pubblicato nel 2016 dimostra effetti analoghi sull’utilizzo dell’enciclopedia online Wikipedia. Secondo questo studio, in seguito alle rivelazioni sulle attività della NSA, la consultazione di voci considerate sensibili dal punto di vista della privacy si è ridotta.

    Quanto più la sensazione di essere sorvegliati è pervasiva – così può essere riassunto il messaggio di questo esempio – più il grado di autocensura nell’esercizio di diritti di importanza vitale da un punto di vista democratico è elevato. Allo stesso tempo l’effetto di autosorveglianza si innesca anche se l’osservazione e la raccolta di dati non hanno luogo effettivamente, ma sono solo simulate o presunte.

     

    E la filosofia?

    Il filosofo austriaco Ludwig Wittgenstein ha caratterizzato la filosofia come “una raccolta di memorie per uno scopo particolare”. Il compito delle filosofe e dei filosofi sarebbe dunque non quello di presentare soluzioni definitive, ma di raccogliere argomenti noti che possano contribuire alla valutazione di un determinato problema o di una determinata situazione. Analogamente questo contributo ha raccolto alcuni elementi che mi sembrano importanti per la valutazione del ruolo e dei rischi della sorveglianza digitale, soprattutto in tempi di crisi. Lo scopo di questo contributo non è proferire un sì o un no definitivo, pro o contro il social tracing per esempio, ma piuttosto di richiamare alla mente le possibili implicazioni di queste e altre misure di sorveglianza.

    Non esistono misure di sorveglianza che non abbiano ripercussioni sulla privacy o sui diritti fondamentali. Le implicazioni e i rischi della sorveglianza, specialmente in periodi di crisi, sono considerevoli e spesso non immediatamente evidenti. Di questo dobbiamo essere consapevoli nel momento in cui dobbiamo decidere se accettare o meno, e se sì a quali condizioni e fino a che punto, determinate misure.

    Ciononostante: per quanto le implicazioni della sorveglianza possano essere pervasive e insidiose, è nondimeno possibile ridurle al minimo. Ricercatori e ricercatrici lavorano già da tempo allo sviluppo di sistemi alternativi che possano ridurre al minimo i rischi della sorveglianza. Per esempio un gruppo di ricercatrici e ricercatori europei intorno all’ingeniere informatico Carmela Troncoso ha sviluppato un sistema di social tracing chiamato DP^3T. Una delle caratteristiche più importanti di questo sistema è la decentralizzazione: i dati non devono essere raccolti e salvati su un server centralizzato (per esempio di un’autorità statale), ma rimanere il più possibile sui dispositivi individuali ed essere trasmessi centralmente solo nei casi necessari, per esempio nel caso di un test con esito positivo. Per quanto semplice e convincente sia questa idea, è anche chiaro cosa la rende poco attraente per autorità e gestori dei servizi informatici: da dati che rimangono nelle mani degli interessati non si può estrarre guadagno e non si possono tracciare profili. Tuttavia anche una soluzione decentralizzata non eliminerebbe i rischi legati alle occasioni di sorveglianza “collaterale” che vorrebbero offerte a Google e Apple. Le due società infatti occupano una posizione di duopolio sui sistemi operativi degli smartphones su cui verrebbero installate le apps di contact tracing e, almeno nella versione attualmente in discussione in Germania, controllerebbero le chiavi crittografiche delle apps. La ricerca di nuove e migliori soluzioni dunque non è ancora terminata.