Home Tecnologia Apple ha fatto causa per accuse di materiale pedopornografico su iCloud

Apple ha fatto causa per accuse di materiale pedopornografico su iCloud

30
0

Apple sta affrontando un causa depositata giovedì dal procuratore generale del West Virginia JB McCuskey accuse secondo cui iCloud viene utilizzato per archiviare e distribuire on-line materiale pedopornografico. McCuskey sostiene che Apple lo sapeva “da anni” e “ha scelto di non fare nulla al riguardo”.

La causa contiene presunti screenshot di iMessage tra i dirigenti Apple Eric Friedman e Herve Sibert che riconoscono l’archiviazione e la distribuzione di materiale pedopornografico su iCloud nel febbraio 2020.

“In una conversazione su iMessage in cui si chiedeva se Apple stesse dando troppa enfasi alla privateness e non abbastanza alla fiducia e alla sicurezza dei bambini, Friedman si è vantato che iCloud è ‘la migliore piattaforma per la distribuzione di pornografia childish’ e che Apple ha ‘scelto di non saperlo in abbastanza posti dove non possiamo davvero dirlo’,” sostiene la causa.

“Nella stessa conversazione”, continua, “Friedman ha fatto riferimento a un articolo del New York Instances sul rilevamento di materiale CSAM e ha rivelato che sospetta che Apple stia sottovalutando l’entità del problema CSAM presente sui suoi prodotti.”

La causa sottolinea il numero di segnalazioni di materiale pedopornografico rilevate effettuate al Centro nazionale per i bambini scomparsi e sfruttati nel 2023 da Apple (267) rispetto a Google (1,47 milioni) e Meta (30,6 milioni).

La causa sostiene che Apple non è riuscita a implementare gli strumenti di rilevamento di materiale pedopornografico, incluso uno strumento di scansione proprietario su cui stava lavorando. Nel 2021, Apple ha dato il through advert un’iniziativa per scansionare le immagini archiviate su iCloud per CSAM, che aveva abbandonato l’anno successivo.

Il ruolo della crittografia end-to-end

Indica anche La sicurezza di Apple che offre protezione avanzata dei datiche è diventato disponibile a dicembre 2022 su iCloud e consente la crittografia end-to-end di foto e video sulla piattaforma di archiviazione cloud. La causa sostiene che la crittografia end-to-end è “una barriera per le forze dell’ordine, compresa l’identificazione e il perseguimento dei trasgressori e degli autori di abusi di materiale pedopornografico”.

“Preservare la privateness dei bambini predatori è assolutamente imperdonabile”, ha detto McCuskey in una dichiarazione giovedì. “Poiché Apple finora si è rifiutata di vigilare su se stessa e di fare la cosa moralmente giusta, sto intentando questa causa per chiedere advert Apple di seguire la legge, denunciare queste immagini e smettere di vittimizzare nuovamente i bambini consentendo che queste immagini vengano archiviate e condivise.”

Apple ha dichiarato a CNET che “sicurezza e privateness” sono al centro delle sue decisioni, soprattutto per i bambini.

“Stiamo innovando ogni giorno per combattere le minacce in continua evoluzione e mantenere la piattaforma più sicura e affidabile per i bambini”, ha affermato Apple giovedì. “Tutti i nostri controlli parentali e le nostre funzionalità chief del settore, come Communication Security – che interviene automaticamente sui dispositivi dei bambini quando viene rilevata nudità nei messaggi, nelle foto condivise, in AirDrop e persino nelle chiamate FaceTime in tempo reale – sono progettati pensando alla sicurezza, alla protezione e alla privateness dei nostri utenti.”

IL Sicurezza della comunicazione la funzionalità è attiva per impostazione predefinita per gli utenti di età inferiore a 18 anni. Tenta di proteggere i bambini dai contenuti di materiale pedopornografico, ma non si rivolge agli adulti che si occupano di distribuzione e archiviazione di materiale pedopornografico.

L’equilibrio tra privateness e sicurezza da un lato, e applicazione della legge e criminalità informatica dall’altro, è stato al centro del dibattito sulla crittografia end-to-end.

I sostenitori della privateness come la Digital Frontier Basis hanno applaudito l’introduzione della crittografia su iCloud nel 2022, sottolineando che “la scansione costante di immagini pedopornografiche può portare a indagini ingiustificate e falsi positivi”. Ha sottolineato protezioni dei dati sensibili di iCloud delle persone come foto contro potenziali violazioni dei dati nel cloud e richieste del governo.

“Bloccare l’uso della crittografia end-to-end sarebbe controproducente e antitetico per la sicurezza e la privateness di tutti coloro che sono on-line”, ha dichiarato giovedì a CNET l’attivista per la sicurezza e la privateness dell’EFF Thorin Klosowski. “La crittografia è il metodo migliore che abbiamo per proteggere la privateness on-line, il che è particolarmente importante per i giovani.”

Le violazioni dei dati sono in aumentocosì come sono governo E richieste delle forze dell’ordine per i dati degli utenti per vari motivi. Puoi vedere Il rapporto sulla trasparenza di Apple sul numero di richieste governative che riceve per i dati degli utenti, anche se sembra che il limite sia fissato a dicembre 2024.

Viene utilizzata anche la crittografia end-to-end Google per i suoi servizi di messaggisticacosì come le app di messaggistica più popolari come WhatsApp, Sign e Telegram.

La denuncia è stata depositata presso la Circuit Courtroom della contea di Mason, West Virginia, il 19 febbraio.

Ne consegue a azione legale collettiva depositato alla wonderful del 2024 in un tribunale distrettuale della California settentrionale da 2.680 querelanti che sostengono che il software program di scansione CSAM abbandonato da Apple equivale al colosso della tecnologia che ne consente consapevolmente la distribuzione e l’archiviazione su iCloud. Nell’agosto 2024, una causa simile è stata intentata per conto di una vittima di violenza sessuale di 9 anni nella Carolina del Nord.



fonte