Apple

Apple sta ritardando l’introduzione del sistema per la protezione dei bambini. 
Il meccanismo in questione dovrebbe includere un sistema avanzato di rilevamento di materiale pedopornografico.

Tali modifiche, inizialmente attese entro la fine dell’anno, sono state pesantemente criticate. Tra le funzionalità più criticate vi è il CSAM: una funzione che consente ad Apple di rilevare le immagini archiviate in iCloud Photo che contengono materiale pedopornografico. Un sistema costruito per combattere la pedopornografica.

A detta degli utenti, però, rappresenterebbe una violazione della privacy degli stessi.

Il mese scorso abbiamo annunciato i piani per l’implementazione di funzionalità volte a limitare la diffusione di materiale pedopornografico e a proteggere i bambini da coloro che utilizzano strumenti di comunicazione per contattarli e sfruttarli. Sulla base del feedback ricevuto da utenti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo per raccogliere input e apportare dei miglioramenti prima di rilasciare queste funzionalità per la sicurezza dei bambini che riteniamo di fondamentale importanza“, ha dichiarato la Apple.

Le principali funzionalità finite nell’occhio del ciclone sono tre (di cui le ultime due più criticate):

  • un aggiornamento di Siri volto ad individuare utenti malintenzionati in cerca di informazioni sospette;

  • una funzione che allerta i genitori quando i loro figli stanno ricevendo e/o inviando foto sessualmente esplicite, offuscando inoltre quelle immagini;

  • la criticata funzionalità CSAM, già descritta in precedenza, direttamente collegata con il Centro Nazionale per i bambini scomparsi e sfruttati.

Apple ha descritto il sistema di scansione iCloud Photo dettagliatamente, sottolineando come questo sistema non vada ad indebolire la privacy degli utenti. Nel dettaglio, tale sistema scansiona le foto memorizzate in iCloud Photo, inviando una segnalazione al Centro Nazionale per i bambini scomparsi e sfruttati. Si tratta di un’organizzazione che lavora a stretto contatto con le forze dell’ordine. Apple analizzerà le immagini per vedere se ci sono corrispondenze.

Tuttavia, molti esperti di privacy e sicurezza hanno pesantemente criticato la Apple per il nuovo sistema. L’azienda andrà per i suoi passi o rivedrà il meccanismo?

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui