In questo periodo ho sentito parecchie volte lamentele sulle funzioni di CSAM di Apple, funzionalità che proteggono i bambini rispettando la privacy di tutti. Cerchiamo di chiarire la questione una volta per tutte.
Funzionalità CSAM: Messaggi
La prima funzionalità CSAM (Child Sexual Abuse Material) pensata e presentata da Apple, è legata all’App Messaggi e permette ai bambini di essere preparati su ciò che stanno inviando o ricevendo. Nell’immagine di copertina di questo articolo potete vedere meglio ciò che succede. In pratica, appena il bambino riceve una foto contenente contenuto pornografico o pedo-pornografico, la foto apparirà nascosta e, se il bambino ci cliccherà sopra, vedrà un banner con alcuni consigli, avvertenze e suggerimenti riguardo questo tipo di foto per poter prepararsi anche alla sua visione e fare una scelta informata. Una cosa simile appare in invio: se Apple dovesse riconoscere che la foto contiene nudità, avvertirà il bambino e chiederà ulteriori conferme prima dell’invio, con la possibilità di parlarne con un genitore.
Molti qui sono spaventati perchè si teme che Apple possa accedere ai nostri messaggi, bene: non è così. iOS (il sistema operativo montato sugli iPhone) elaborerà le foto ricevute e inviate e le confronterà con un suo database. Tutto questo viene fatto on-device, quindi senza che le foto o altri dati lascino l’iPhone del bambino, e nessun genitore verrà avvertito (anche se, a quanto pare, per gli adolescenti è disponibile una funzione che permette di far guardare la foto a patto che i genitori ricevano una notifica di ciò). Direi che più privacy di così non si può.
Funzionalità CSAM: App Foto
Questa è una protezione lato adulti, quindi non bambini e ad oggi non è integrata su iOS e non è prevista una sua integrazione in futuro. Tuttavia, è stata presentata insieme alla precedente per cui mi sembrava giusto parlarne.
Funzionalità sinceramente molto interessante, ovvero analizza tutte le foto nella nostra libreria, e verifica che non abbiamo salvato immagini/video pedo-pornografici noti. In caso vengano rilevati un certo numero di contenuti di questo tipo, verranno inviate tutte queste immagini in revisione e, in caso le segnalazioni siano confermate, le immagini verranno inoltrate al National Center for Missing and Exploited Children (realtà che opera a stretto contatto con le forze dell’ordine).
Anche qui, tutti i controlli avvengono direttamente nel dispositivo, e solo per le foto salvate su iCloud. Inoltre, nessuna immagine di nudità verrà integrata in iOS per fare i confronti: il sistema userà dei codici di identificazione delle foto (cosiddetti hash) illeggibili, che il sistema confronterà con quelli delle nostre foto iCloud. Gli hash usati per il confronto sono di delle foto pedo-pornografiche confermate direttamente dall’NCMEC, per cui il margine di errore è uno su un trilione.
In generale, non dovremmo preoccuparci troppo: Apple non guadagna nulla vedendo e usando le nostre foto. Se lo fa, è solo per la nostra sicurezza. Dubbi o domande? I commenti sono fatti per questo! 🙂