Retroscena

NeuralHash di Apple vs privacy: si apre il vaso di Pandora

Dominik Bärlocher
6.8.2021
Traduzione: Martina Russo

Apple sta per lanciare un sistema in grado di identificare gli abusi sui minori sugli smartphone. Dopo un ulteriore controllo manuale, vengono informate le autorità. Sembra un’ottima idea... ma per la privacy è un vero incubo.

Tuttavia Apple si è cacciata in un ginepraio della IT security: sicurezza o privacy? Quale dei due è più importante?

I fatti

Il tuo iPhone – e il tuo Android – analizza già le immagini

Il tuo smartphone analizza già il contenuto delle tue fotografie. Puoi verificarlo in un attimo: apri l’app Galleria e usa la funzione di ricerca. Se cerchi «gatto» appariranno fotografie del tuo gatto. Ma anche di altri gatti.

Questo succede perché l’app Galleria carica sul tuo smartphone le cosiddette impronte digitali, ovvero parametri che definiscono qual è l’aspetto di un gatto. In parte, anche tu puoi definirli. Se visualizzo una foto di Stephanie Tresch, la nostra video producer, Apple non riconosce la donna dell’immagine.

Immagini e numeri

Ogni file di immagini, proprio come qualsiasi altro file, ha un proprio numero che può essere calcolato. Si chiama valore di hash. L’hash è più piccolo del file di immagini quindi è più efficiente a livello di database.

Quando invii un selfie alla tua migliore amica, all’immagine viene assegnato un valore di hash. Se lei la rispedisce a sua volta, l’immagine inviata ha sempre lo stesso hash. Se però l’immagine viene modificata, ad esempio viene convertita da colori in bianco e nero, anche l’hash cambia.

Grazie a questa tecnologia è possibile seguire singole immagini se vengono etichettate come «non buone» da un’autorità centrale. Soprattutto nel caso della pornografia non autorizzata, dove le immagini vengono condivise e fatte girare, il tracciamento dell’hash può favorire un rapido successo nelle ricerche. Se però l’immagine viene continuamente modificata, rintracciarle con l’hash è più difficile.

Gli hash possono essere modificati con metodi molto semplici.

NeuralHash: cos’è?

Il lancio di NeuralHash è già confermato. Questo sistema opera più o meno come la funzione di ricerca dell'app Galleria: indicizza automaticamente le immagini secondo determinati criteri. Nel nostro caso sarebbero immagini di «abusi su minori». Se NeuralHash individua un certo numero di immagini corrispondenti all’impronta digitale di «abusi su minori», le immagini vengono decodificate e inviate ad Apple.

La privacy come diritto umano

Un diritto umano è qualcosa di cui gode o dovrebbe godere qualsiasi persona, dovunque e in qualsiasi momento. È inalienabile, ovvero non può essere ceduto o venduto. I diritti umani sono anche indivisibili: non è possibile difendere il diritto umano A e nel contempo opporsi al diritto umano B.

Nell’articolo 12 della Dichiarazione universale dei diritti umani le Nazioni Unite definiscono chiaramente la privacy come diritto umano:

Apple condivide questi principi e ha dichiarato di considerare la privacy uno dei suoi pilastri:

La privacy è un diritto umano inalienabile. Ed è anche uno dei valori fondanti di Apple.
https://www.apple.com/it/privacy/, 6 agosto 2021

Sull’onda dell’«Apple effect»

Il cosiddetto «Apple effect», ovvero il potere del marchio combinato alla reazione a catena, non deve essere sottovalutato. Quando Apple introduce una nuova funzionalità danneggia in qualche modo le aziende concorrenti che quella funzionalità già la offrivano, mettendole in difficoltà.

I problemi

NeuralHash ha portato molto scompiglio nel campo dell'IT Security e tra i sostenitori della privacy. Le obiezioni sollevate non sono solo di natura tecnologica, ma soprattutto etico-filosofica.

Bypassare la codifica

Se Apple vuole andare alla ricerca di segni di abusi sui minori nelle tue foto, deve prima bypassare il sistema di codifica dei tuoi backup su iCloud. In NeuralHash viene quindi creata un’impronta digitale «abuso su minori», che viene poi integrata nell’app Foto.

NeuralHash è liberamente configurabile

Perché NeuralHash sia efficace contro gli abusi sui minori è necessario che qualcuno definisca che tipo di immagini rappresenta un abuso. E anche a partire da quale livello di abuso deve intervenire il sistema. Per l’impronta digitale «abuso su minori» è sufficiente un «occhio nero»? O il sistema interviene solo quando a un «occhio nero» si aggiunge anche un «labbro insanguinato»?

Chi lo decide? Su che cosa si basano queste decisioni? Come viene definito «sufficientemente grave» un abuso su un minore?

A peggiorare le cose, secondo quanto riportato a pagina 3 del white paper, NeuralHash è invisibile e tu non puoi controllarlo in alcun modo.

Prevenire è meglio che curare

Una volta che NeuralHash sarà liberato tra le persone non potrà più essere fermato. Nel momento in cui l’app Galleria sarà in grado di riconoscere Stephanie Tresch da dietro basandosi sul suo cappotto blu e sul fatto che tiene in mano una videocamera in un determinato luogo, quella stessa funzione di ricerca potrà essere applicata praticamente a tutto e tutti.

Chi può prometterci che Apple non farà un uso improprio di questa funzionalità?

NeuralHash può essere utilizzato per scopi legittimi e illegittimi. È molto plausibile che, dopo gli abusi sui minori, si passerà alla caccia al melanoma. Però è altrettanto possibile che Apple crei un gigantesco archivio di immagini di peni, perché NeuralHash prevede che le immagini possano essere decodificate e trasmesse.

Gli esperti di sicurezza informatica come Matthew Green, docente di crittografia, temono che NeuralHash rappresenti un attacco alla crittografia end-to-end.

Apple verso la sorveglianza di massa

«È un’idea spaventosa che può portare alla sorveglianza di massa dei nostri notebook e smartphone» ha dichiarato al Financial Times Ross Anderson, docente di Security Engineering presso l’università di Cambridge.

La polizia è entusiasta di NeuralHash

Politica e tecnologia vanno di pari passo

Se Apple dovesse opporsi a questa richiesta perderebbe una fetta enorme di mercato. Se invece accettasse, sarebbero in molti a patirne le conseguenze.

Le decisioni di Apple creano sempre reazioni a catena. «Darà la stura a molte altre cose», ha dichiarato al Financial Times Matthew Green, docente di security alla John Hopkins University, «I governi pretenderanno che tutti implementino la funzionalità».

I falsi positivi

Quando NeuralHash cerca immagini di violenza, scansiona elementi che possono presentarsi non soltanto in seguito ad atti di violenza. «Occhio nero», «labbro insanguinato» e altre condizioni simili si ritrovano anche nello sport. Cristiane Justino Venâncio, lottatrice di UFC con il nome d’arte di Cris Cyborg, al termine di ogni incontro e a volte anche mentre combatte, è conciata davvero male.

Se avesse un numero sufficiente di fotografie con il naso sanguinante o un occhio nero, NeuralHash interverrebbe. Un certo numero di immagini verrebbe inviato ad Apple, dove una persona incaricata le esaminerebbe. Una situazione del genere non è rara nella quotidianità di Cris Cyborg. Un dipendente di Apple se ne accorgerebbe e chiuderebbe il ticket. Nel frattempo, però, avrebbe visto le immagini.

Un falso positivo, quindi, non è soltanto una violazione dei diritti umani, ma anche qualcosa che accade senza un valido motivo. Un tizio qualsiasi di Apple si guarda un paio di immagini dall’archivio privato della lottatrice. Senza alcun motivo.

Bisogna chiedersi allora se i cosiddetti «falsi positivi» siano giustificabili. Se sì, quante volte può verificarsi un falso positivo prima che NeuralHash si spinga troppo oltre? Chi decide qual è il numero giusto di volte? Chi controlla questo numero?

A pagina 3 del white paper Apple afferma che il numero di falsi positivi è «estremamente basso». Nella pagina seguente si parla di un falso positivo ogni trilione di casi esaminati. Inoltre tutti i rapporti sarebbero stati controllati prima di essere inviati all’NCMEC.

Una questione di fiducia

Possiamo fidarci di Apple?

Apple deve il proprio buon nome al fatto di considerare la privacy un pilastro portante della propria filosofia aziendale. Ma Apple non è obbligata in alcun modo a conservarlo.

Per le aziende, l’ideologia è sempre uno strumento di marketing. Nonostante quello che dice il CEO, alle aziende non interessa fare del bene in giro per il mondo. Quello che conta davvero sono i soldi. Apple deve vendere iPhone. Definisce degli obiettivi di crescita che deve raggiungere e, non appena i conti smettono di tornare, cambia direzione. Come farebbe qualsiasi altra azienda.

Le case automobilistiche si trovano proprio nel mezzo di un cambio di direzione. Mentre dieci anni fa Tesla veniva liquidata come una stramberia, ora interi marchi stanno passando dalla benzina all’elettrico. Per il bene dell’ambiente, ovviamente. Non perché i legislatori emanano leggi sempre più restrittive per i veicoli a benzina, promettono sgravi fiscali per chi acquista auto elettriche, e perché la gente vuole acquistare veicoli elettrici.

Che cosa garantisce che Apple resterà per sempre la paladina della privacy che è oggi?

Conclusione

La privacy deve restare inviolabile. Non possono esserci eccezioni. Anche i criminali hanno diritti umani.

Anche se un’eccezione potrebbe avere effetti molto positivi, costituirebbe comunque un precedente che non garantisce un risultato positivo.

A 189 persone piace questo articolo


User Avatar
User Avatar

Giornalista. Autore. Hacker. Sono un contastorie e mi piace scovare segreti, tabù, limiti e documentare il mondo, scrivendo nero su bianco. Non perché sappia farlo, ma perché non so fare altro.


Sicurezza
Segui gli argomenti e ricevi gli aggiornamenti settimanali relativi ai tuoi interessi.

Smartphone
Segui gli argomenti e ricevi gli aggiornamenti settimanali relativi ai tuoi interessi.

Famiglia
Segui gli argomenti e ricevi gli aggiornamenti settimanali relativi ai tuoi interessi.

Retroscena

Curiosità dal mondo dei prodotti, uno sguardo dietro le quinte dei produttori e ritratti di persone interessanti.

Visualizza tutti

Potrebbero interessarti anche questi articoli

  • Retroscena

    Update NeuralHash: spiegazioni, hacker e una backdoor che non dovrebbe essere tale

    di Dominik Bärlocher

  • Retroscena

    NeuralHash: Apple risponde alle domande sulla privacy

    di Dominik Bärlocher

  • Retroscena

    Apple iOS 14.5: privacy per l'Internet moderno

    di Dominik Bärlocher