Apple scansionerà tutti gli iPhone negli Usa per scovare foto pedopornografiche nascoste nei dispositivi. L’aggiornamento entro il 2021 a partire dagli Usa. Ma gli esperti sono dubbiosi.
Apple ha annunciato una serie di contromisure elettroniche che puntano a contrastare pedofili e predatori di minori e che saranno integrate negli aggiornamenti software degli iPhone, degli iPad, dei Watch e dei computer Mac.
Le immagini saranno controllate nel device, prima di essere caricate su iCloud, dalla tecnologia neuralMatch; se scatta l’allarme saranno verificare da un team di esseri umani, non robot o algoritmi.
Entro la fine dell’anno – e almeno per ora solo negli Stati Uniti – iOS 15, iPadOS 15, watchOS 8 e macOS Monterey accoglieranno diverse funzionalità volte a migliorare la sicurezza dei bambini.
Queste funzionalità hanno sollevato i dubbi di molti esperti di sicurezza, che mettono in luce come queste novità potrebbero, di fatto, aprire la porta alla sorveglianza dei cellulari di milioni di persone.
LEGGI ANCHE: Apple, grave falla nella sicurezza degli Watch, aggiornare subito con questa patch
L’occhio elettronico per scovare immagini di abusi: nuovo metodo per chiudere il cerchio alla pedopornografia?
Apple e diversi esperti di sicurezza hanno collaborato con l’intento di limitare la “diffusione di materiale relativo ad abusi sessuali su minori” (in inglese CSAM), ovvero “contenuti riguardanti attività sessualmente esplicite che coinvolgono un bambino“.
Secondo l’associazione Thorn “sebbene sia un problema globale, gli Stati Uniti rimangono uno dei maggiori produttori e consumatori di contenuti pedopornografici al mondo”.
In sostanza, un nuovo metodo per cui tener sotto controllo pedofili e altri, senza doverli necessariamente seguire.
Apple ha quindi sviluppato una tecnologia che consentirà di rilevare le immagini illegali.
Si chiama neuralMatch e verrà installata su tutti i dispositivi Apple (negli Usa) attraverso un aggiornamento non reversibile.
Il suo compito sarà quello di controllare ogni immagine che proviene dal dispositivo prima che questa sia caricata su Apple iCloud, l’archivio online per poter depositare i propri file senza occupare memoria nel dispositivo.
Il file non verrà immediatamente decriptato da Apple.
Una volta identificata l’immagine, interverrà un team di esseri umani per una revisione.
Se la presenza di contenuti pedopornografici venisse confermata, l’account dell’utente sarà disabilitato. Tutte le violazioni verranno poi notificate al National Center for Missing and Exploited Children (NCMEC), che per altro collabora con la Polizia.
LEGGI ANCHE: La Russia sanziona Apple per ‘abuso di posizione dominante’: ecco perché
Archivi di foto già note? Da qui la decisione di più organizzazioni di unirsi contro la pedofilia online
Il mercato della pornografia online, come spiegano gli esperti, è basato su materiale nuovo e d’archivio.
Diu solito la prassi di quando gli agenti attuano un sequestro, arresti o altre operazioni archiviano e codificano foto e video rinvenuti.
Nei telefilm c’è sempre la fase a fine puntata, vedi Cold Case ad esempio, dove tutto il materiale viene archiviato in una scatola etichettata.
Questi database sono di aiuto ad altre indagini, anche di bambini scomparsi. Apple, come altre non-profit statunitensi per la difesa dei bambini, vuole impiegare questo materiale (riservato) già rinvenuto per effettuare riscontri. Anche perché spesso lo stesso materiale fotografico viene ri-editato digitalmente per rinnovare il suo valore economico sul mercato.
Il nodo privacy (forse) risolto tecnologicamente
L’intento di Apple rischia qualche attrito con il diritto alla privacy che tanto va a decantare la casa di Cupertino.
Apple ha cercato di risolvere il problema: il sistema “invece di scansionare le immagini nel cloud, esegue la corrispondenza sul dispositivo utilizzando un database di hash di immagini CSAM noti forniti dal National Center for Missing and Exploited Children e altre organizzazioni per la sicurezza dei bambini“.
In pratica ogni foto presente su un iPhone verrà cifrata e se questa codifica alfanumerica avrà una corrispondenza con quelle di abusi si creerà una sorta di voucher di sicurezza crittografico al cui interno sarà presente il responso.
Da sottolineare che la piattaforma dovrebbe essere in grado di scovare anche le versioni ri-editate, ovvero MODIFICATE.
Quando la foto dell’iPhone verrà caricata sull’archivio iCloud, verrà abbinata al suo eventuale voucher, che però Apple stessa non potrà aprire.
Superata una specifica soglia numerica di voucher, Apple passerà a esaminare “manualmente ogni rapporto per confermare che esiste una corrispondenza, disabiliterà l’account dell’utente e invierà un rapporto a NCMEC”. I tecnici dell’azienda di Cupertino sostengono di poter garantire un margine di errore inferiore a mille miliardi (1 trillion) di possibilità all’anno. Ovviamente se un utente riterrà il proprio account segnalato per errore avrà la possibilità di ricorso per il ripristino.
I dubbi, leciti, degli esperti
Sebbene l’iniziativa sia stata solo annunciata, alcuni esperti hanno già espresso perplessità. “Indipendentemente da quali siano i piani a lungo termine di Apple, hanno inviato un segnale molto chiaro. Secondo la loro opinione (molto influente), è una cosa sicura costruire sistemi che scansionano i telefoni degli utenti alla ricerca di contenuti proibiti”, ha dichiarato Matthew Green, un ricercatore di sicurezza presso Johns Hopkins University. “Che si riveli giusto o sbagliato su questo punto, non importa. Farà breccia nella diga: i governi lo domanderanno per tutti”.
Il timore è che questo software potrebbe essere in futuro utilizzato per la sorveglianza di dissidenti in alcuni parti del mondo, come la Cina. “Cosa succederebbe se il governo cinese chiedesse a Apple “Ecco una lista di file da scansionare..” Apple dirà di no? Spero dica di no, ma la loro tecnologia potrebbe dare una risposta diversa“.
Un’altra questione riguarda la possibilità di «fregare» il sistema e anzi, sfruttarlo per incastrare persone innocenti, piazzando sul loro iPhone foto di abusi su minori.
LEGGI ANCHE: Minori e social, in arrivo una versione di Instagram per gli under 13?
Le altre funzionalità per la protezione dei minori
L’applicazione Messaggi dei dispositivi Apple integrerà nuovi strumenti per avvisare i bambini, e i loro genitori, quando riceveranno o invieranno foto sessualmente esplicite.
Inoltre le foto ricevute verranno immediatamente sfocate e abbinate a risorse informative.
Come ulteriore precauzione, al bambino “potrà anche essere detto che, per assicurarsi che sia al sicuro, i suoi genitori riceveranno un messaggio se visualizzano” la foto.
Lo stesso avverrà nel caso sia il bimbo a spedire una foto sessualmente esplicita: verrà avvisato prima dell’invio e i genitori potranno ricevere un messaggio nel caso proceda.
una sorta di controllo del device da remoto, che potrà sicuramente agire come fermo di blocco in caso di malintenzionati.
Apple ha confermato l’impiego dell’apprendimento automatico sul dispositivo per analizzare gli allegati di immagini e determinare se una foto è sessualmente esplicita.
“La funzione è progettata in modo che Apple non abbia accesso ai messaggi”, ha assicurato l’azienda.
Questa funzione arriverà in un aggiornamento entro la fine dell’anno per gli account configurati come famiglie in iCloud per iOS 15, iPadOS 15 e macOS Monterey.
Infine, La Guida dell’interfaccia vocale Siri e la Ricerca disporranno di nuove risorse informative per “aiutare bambini e genitori a rimanere al sicuro online e ottenere aiuto“.
Ad esempio, gli utenti che chiederanno a Siri come possono segnalare materiale pedopornografico o sfruttamento minorile verranno indirizzati a risorse su dove e come presentare una segnalazione.