Il prossimo aggiornamento iOS 15.2 di Apple sembra essere l'aggiornamento per iPhone più radicale degli ultimi anni, non perché includa nuove straordinarie funzionalità o servizi, ma perché, nonostante gli innumerevoli avvertimenti, include uno "scioccante" cambio di direzione per Apple e per i tantissimi utenti iPhone dell'azienda.
Molti avranno memoria della controversia che ha segnato il lancio di iPhone 13 e iOS 15 di questa estate su Apple che avrebbe scansionato tutte le foto caricate dai propri utenti in iCloud e salvate sui dispositivi, alla ricerca di immagini pedopornografiche da segnalare alle autorità competenti.
Apple ha poi fatto marcia indietro e la polemica è svanita, anche seha promesso di riflettere sulla valanga di feedback che aveva ricevuto e di tornare, dichiarando la sua intenzione di continuare a prescindere. E infatti eccoci qui a riparlarne. Ma vediamo insieme di cosa si tratta.
Apple: i piani di sicurezza su iPhone
I piani per la sicurezza dei bambini di Apple comprendevano due aggiornamenti separati. In primo luogo, per scansionare le librerie di foto degli utenti sui loro iPhone prima di sincronizzarsi con iCloud, utilizzando l'intelligenza artificiale per abbinare le immagini degli utenti alle watchlist accreditate dal governo, segnalando materiale di abuso sessuale su minori.
E in secondo luogo, per consentire ai genitori di abilitare l'intelligenza artificiale di Apple sugli iPhone dei loro figli per avvisare quando vengono inviate o ricevute immagini di nudo o sessualmente esplicite su iMessage.
Entrambe le proposte hanno suscitato gravi avvertimenti sulle implicazioni sulla privacy e sulla sicurezza. La scansione sul dispositivo (lato client) della tua libreria di foto rompe un patto pericoloso, anche se non scritto, che il tuo stesso telefono non viene monitorato allo stesso modo del tuo cloud storage.
Ma non c'è una vera controversia sulla scansione dell'archiviazione di foto nel cloud alla ricerca di contenuti illegali. Questa è diventata una pratica standard. Il cambiamento di iMessage è probabilmente molto più serio, praticamente se non tecnicamente, violando la stessa sicurezza su cui iMessage ha costruito la sua reputazione.
Apple: i problemi con i due aggiornamenti
Apple ha annunciato in modo confuso entrambi gli aggiornamenti, come hanno riconosciuto loro stessi. Sebbene entrambi abbiano come obiettivo la sicurezza dei bambini (un'area in cui molto...ma molto di più deve essere fatto) ci sono seri problemi con entrambi.
La scansione delle foto lato client apre una porta all'interferenza del governo in ciò che viene segnalato e mina la sicurezza percepita che ciò che accade sul tuo iPhone rimane sul tuo iPhone. I critici si sono affrettati a sottolineare che i governi, esteri e nazionali, vedrebbero questa come un'opportunità per cercare qualcosa di più del CSAM.
Sebbene non ci sia ancora alcun segno della scansione CSAM, l'ultima versione beta per sviluppatori di OS 15.2 ha appena introdotto una versione leggermente annacquata dell'aggiornamento iMessage. Leggermente annacquato perché il piano iniziale per informare i genitori dei minori di 13 anni che hanno visualizzato le immagini contrassegnate è stato rimosso.
Apple: nulla sembra essere cambiato con il nuovo aggiornamento
Senza segnalazioni esterne in questo aggiornamento di iMessage, potrebbe sembrare poco diverso dalla categorizzazione delle foto che avviene già su iPhone utilizzando l'IA sul dispositivo. Ma il problema critico è che iMessage è crittografato end-to-end e l'aggiornamento è essenzialmente Apple che aggiunge il monitoraggio AI alla piattaforma. Sì, questo caso d'uso iniziale è molto limitato. Ma l'impedimento tecnico a un monitoraggio più ampio è stato rimosso. Cambia radicalmente iMessage e non ci sarà modo di tornare indietro.
Come ha avvertito EFF,
La crittografia end-to-end protegge il trasporto di contenuti dal tuo dispositivo a qualche altra parte, nella messaggistica, che è ovviamente il dispositivo di qualcun altro. Fondamentalmente, le due (o più) estremità si trovano al di fuori della crittografia end-to-end: i messaggi e gli eventuali allegati devono essere decifrati per consentirti di leggerli. Questo è il motivo per cui Apple può dire che la crittografia end-to-end rimane intatta. Ma quella sfumatura non coglie il punto.
Il database di messaggistica sul telefono è protetto dalla sicurezza del dispositivo: il codice di accesso o l'accesso biometrico. Se ho pieno accesso al tuo telefono, avrò accesso al suo contenuto. Ecco perché i backup del telefono sul cloud possono compromettere la tua sicurezza, come avrai visto con l'aggiornamento del backup crittografato di WhatsApp; ed è per questo che gli attacchi alle piattaforme di messaggistica sicure si concentrano sulla compromissione di un "end" e non di un "end-to-end".
Quando apri un messenger crittografato, iMessage o WhatsApp o Signal, devi sentirti sicuro, che stai operando all'interno di un'area protetta che include l'app, il livello di trasporto e l'app di ricezione dall'altra parte. Non appena l'app include una qualche forma di monitoraggio, per quanto ben intenzionata, tutto cambia.
Ma cosa serve in realtà per la protezione dei bambini?
Cerchiamo di essere molto chiari, abbiamo bisogno di misure migliori sui social media e sulle piattaforme di comunicazione per proteggere i bambini. Le funzioni di segnalazione, come quelle di WhatsApp, consentono di contrassegnare i contenuti da un destinatario, quindi prelevano i messaggi dalla piattaforma sicura per inviarli ai revisori.
Nulla accade automaticamente. Un'azione specifica dell'utente attiva la compromissione della sicurezza, che non è diversa dall'acquisizione di uno screenshot. La soluzione di Apple è automatizzata e opera senza alcun intervento diretto dell'utente.
Questo aggiornamento è contenuto nella versione beta di iOS 15.2 di Apple, ma non c'è conferma su quando verrà rilasciato o se questa funzione arriverà a quella versione finale. Non dovrebbe. Non fino a quando non ci sarà più dibattito sulla porta che viene aperta e su dove potrebbe condurre.
Apple: l'analisi dell'imperial College
Dopo il contraccolpo, Apple ha assicurato che si sarebbe attenuta ai suoi piani, incorporando il feedback. Non ci sono ancora notizie sulla scansione lato client CSAM su iPhone contro le librerie di foto di iCloud.
Ma supponendo che sia anche in lavorazione, questa settimana ci sono state altre cattive notizie per Apple, con i ricercatori di una delle principali università del Regno Unito che affermano che la loro nuova tecnologia potrebbe battere una similitudine con CSAM AI di Apple il 99% delle volte.
Il team dell'Imperial College di Londra ha scoperto, come ha scritto Forbes,che attaccando la firma di hashing percettiva di un'immagine su un dispositivo, potevano falsificare la corrispondenza lato client.
Utilizzando tecnologie di rilevamento "simili ai sistemi proposti da Apple", i ricercatori hanno affermato che il loro "filtro visivamente impercettibile" ha mascherato le immagini per apparire "diverse dall'algoritmo il 99,9% delle volte, nonostante sembrino identiche all'occhio umano".
Forbes ha chiesto al team se si aspettavano di sconfiggere l'eventuale soluzione di Apple. L'algoritmo di Apple non è pubblico", hanno risposto, "quindi non siamo stati in grado di verificare le loro affermazioni... Questa ricerca mostra che ciò che l'hashing percettivo mira a raggiungere è un compito difficile con difficili compromessi.
Nessuno dei cinque algoritmi (inclusi i PDQ di Facebook) che abbiamo testato era abbastanza forte per il [nostro] attacco... È probabile che le attuali tecnologie utilizzate per la scansione del cloud (come PhotoDNA) siano relativamente facili da sconfiggere.
Il filtro di Imperial non viene reso disponibile pubblicamente. Ma i piani, la pubblicità, la difesa, il contraccolpo e la retromarcia di Apple hanno reso di pubblico dominio un'enorme quantità di informazioni tecniche, che coprono come funzionano i sistemi di sicurezza e dove sono vulnerabili.
Apple: nessuna news su ciò che accadrà
Non ci sono notizie da parte di Apple di cosa accadrà in seguito con i suoi piani di scansione delle foto lato client, ma speriamo che quest'ultima ricerca, in aggiunta a ciò che è già stato fatto, spinga l'azienda ad attenersi alla scansione cloud, anche se con un po' di privacy alla Apple miglioramenti. Non c'è una vera controversia su questo approccio.
Nel frattempo, possiamo concentrarci su cosa significhi questo cambiamento di iMessage a lungo termine, poiché una delle più grandi piattaforme di messaggistica sicura del mondo diventa la prima a monitorare i contenuti in questo modo.
Il tweak per rimuovere la notifica genitore è importante. Ma il fatto che fosse lì significa che può essere facilmente ripristinato: probabilmente Apple subirà pressioni per farlo. Vediamo lo stesso negli attuali rapporti CSAM di Facebook e in che modo differisce da WhatsApp.
Mentre Facebook e Messenger possono monitorare i contenuti, WhatsApp non può e si basa invece sui metadati. Se WhatsApp aggiungesse classificatori AI nel modo in cui ora pianifica iMessage, questo cambierebbe.
iMessage, Signal, WhatsApp e altri attualmente non hanno visibilità di ciò che viene inviato sulle loro piattaforme. Non appena ciò cambierà, verrà posta una domanda molto valida: se la tua tecnologia sa che un bambino sta inviando o ricevendo immagini esplicite, come puoi ignorare i tuoi obblighi di segnalazione? E questo aprirà la porta a cambiamenti nelle leggi per imporre tale segnalazione quando una piattaforma ha identificato potenziali abusi.