Apple afferma che non espanderà la controversa tecnologia CSAM

Apple afferma che non espanderà la controversa tecnologia CSAM
            Apple ha tratado de desviar las críticas de su controvertido sistema de protección CSAM, pero al hacerlo, ha ilustrado exactamente lo que está en juego.</p><h2>La gran conversacion</h2><p>Apple anunció la semana pasada que introducirá un conjunto de medidas de protección infantil en iOS 15, iPad OS 15 y macOS Monterey cuando los sistemas operativos se lancen este otoño.
Tra le altre protezioni, il sistema del dispositivo esegue la scansione della libreria foto di iCloud alla ricerca di prove di raccolte illegali di pornografia infantile (CSAM). Proteggere i bambini è, ovviamente, del tutto appropriato, ma i difensori della privacy rimangono preoccupati per la possibilità che il sistema Apple diventi un vero e proprio cane da guardia. Nel tentativo di attenuare le critiche, Apple ha rilasciato alcune nuove informazioni in cui tenta di spiegare un po' di più come funziona la tecnologia. Come spiegato in questo white paper di Apple, la tecnologia converte le immagini sul tuo dispositivo in un hash digitale che può essere confrontato con un database di immagini CSAM note quando le carichi su Foto di iCloud.

Rendilo un hash

Sebbene l'analisi delle immagini venga eseguita sul dispositivo utilizzando la tecnologia hash di Apple, non tutte le immagini vengono contrassegnate o scansionate, ma solo quelle identificate come CSAM. Apple afferma che questo è in realtà un miglioramento in quanto l'azienda non esegue la scansione dell'intera libreria in una sola volta. “Le tecniche esistenti implementate da altre società analizzano tutte le foto degli utenti archiviate nel cloud. Ciò crea un rischio per la privacy di tutti gli utenti ", afferma la nuova FAQ dell'azienda. "Il rilevamento di materiale CSAM in Foto iCloud offre vantaggi significativi in ​​termini di privacy rispetto a queste tecniche, impedendo ad Apple di apprendere le foto a meno che non corrispondano a immagini CSAM note e siano incluse in un account iCloud. Foto che includono una raccolta di materiale CSAM noto." Nonostante queste assicurazioni, permangono forti preoccupazioni circa la misura in cui il sistema potrà essere esteso al monitoraggio di altre forme di contenuto. Dopotutto, se riesci a trasformare una raccolta di immagini CSAM in dati identificabili, puoi trasformare qualsiasi cosa in dati rispetto ai quali analizzare le informazioni personali. L’avvocato specializzato in privacy Edward Snowden avverte: “Non commettere errori: se puoi cercare materiale pedopornografico oggi, domani potrai cercare qualsiasi cosa. "

Prendilo con fiducia?

Apple afferma di non avere intenzione di portare il suo sistema in altri settori. Nelle sue FAQ scrive: “Abbiamo già affrontato richieste di creare e implementare modifiche imposte dal governo che degradano la privacy degli utenti e le abbiamo respinte fermamente. Continueremo a rifiutarli in futuro. Cerchiamo di essere chiari, questa tecnologia si limita al rilevamento di materiale pedopornografico archiviato in iCloud e non accetteremo alcuna richiesta del governo di estenderla. A prima vista, questo sembra rassicurante. Ma è ovvio che ora che questa tecnologia esiste, i paesi che vogliono costringere Apple ad espandere la sorveglianza dei dispositivi per questioni che vanno oltre i materiali pedopornografici useranno tutte le armi a loro disposizione per forzare la questione. "Tutto ciò che servirebbe per espandere la stretta backdoor che Apple sta costruendo è un'espansione delle impostazioni di apprendimento automatico per trovare ulteriori tipi di contenuti", ha avvertito la Electronic Frontier Foundation. Prevenire questo sarà una lotta. Ciò significa che Apple ha una battaglia davanti a sé.

La guerra della privacy è iniziata

Questa potrebbe essere una battaglia che Apple vuole combattere. Dopotutto, sappiamo che avete adottato molte misure importanti per proteggere la privacy degli utenti nei vostri ecosistemi e sappiamo anche che sostenete i cambiamenti legislativi per proteggere la privacy online. "È certamente giunto il momento, non solo per una legge completa sulla privacy qui negli Stati Uniti, ma anche per leggi globali e nuovi accordi internazionali che contemplino i principi di minimizzazione dei dati, conoscenza dell'utente, accesso degli utenti. Utenti e sicurezza dei dati in tutto il mondo, " ha affermato quest'anno il CEO Tim Cook. Si potrebbe sostenere che l'introduzione di misure di protezione dei minori da parte di Apple abbia innescato un dibattito più ampio sui diritti e sulla privacy in un mondo online e connesso. L'unico modo per impedire che il sistema si diffonda oltre i prodotti pedofilia aiutare Apple a resistere alle pressioni in tal senso. In assenza di tale supporto, è improbabile che Apple vinca da sola contro tutti i governi. Nel caso in cui l'azienda non sia supportata, la domanda è quando, e non se, sarà costretta a cedere Tuttavia, i governi possono ancora raggiungere un accordo sulla privacy online. La posta in gioco è alta. Il rischio è che i mattoni sul percorso soleggiato verso la giustizia che Cook ha cercato a lungo di gettare possano diventare mattoni nel muro per impedire che quel viaggio si svolga. prendere posto. Il vantaggio è che uno sforzo determinato può consentire la creazione di quadri che consentano la conclusione di questo percorso. La controversia riflette quanto sembra essere diventata accidentata questa strada. Seguimi su Twitter o unisciti a me sull'AppleHolic bar & grill e sui gruppi di discussione Apple su MeWe.
<p>Copyright © 2021 IDG Communications, Inc.</p>