Apple annuncia che i nuovi iOS 15, iPadOS 15, watchOS 8, and macOS Monterey saranno dotati di un sistema per la scansione delle immagini presenti sul dispositivo.
Il motivo è la ricerca di pedopornografia.
Cerco di spiegarvi perché è un grave problema =>
Le foto nella memoria del dispositivo verranno sottoposte a un processo che ha lo scopo di creare un "hash" (una stringa alfanumerica) per identificare in modo univoco ogni foto.
Questa stringa viene poi collegata alle foto. Come se fosse un "barcode".
Una volta caricate su iCloud, le stringhe di hash (il "barcode") delle foto sono poi sono confrontate con un database precostituito di materiale pedopornografico.
In caso di match positivo, l'account viene disabilitato e il tutto sarà segnalato alle autorità.
La pedopornografia è un problema reale.
Questo però non giustifica la creazione di strumenti che possono portare alla sorveglianza di massa di milioni di persone, tra cui anche i minori che si vorrebbero tutelare.
Un sistema del genere è una backdoor pronta per essere abusata.
La scelta di Apple arriva da anni di pressioni politiche dei paesi dei 5 Eyes (US, UK, Australia, Canada, NZ).
Da tempo cercano di limitare la diffusione della crittografia end-to-end - un ostacolo alle capacità di accesso alle comunicazioni da parte delle forze dell'ordine.
Ma superare la crittografia end-to-end è ormai difficile.
Per questo si è cercata una strada alternativa per avere accesso ai dati e alle comunicazioni delle persone. Il sistema proposto da Apple è una di queste.
Nulla di nuovo, se ne parla da anni - anche in UE. 👇
A molti potrebbe non interessare che Apple possa scansionare continuamente tutte le foto presenti sui loro dispositivi e confrontarle con una blacklist privata senza alcuna trasparenza.
Ma il problema è che un sistema del genere apre la strada a facili abusi e "function creep".
È già accaduto. Tecnologie simili sono state implementate per identificare contenuti "terroristici" online. Ma se per la pedopornografia l'ambito è molto chiaro, per il "terrorismo" lo è molto meno.
Chi decide cosa è un contenuto terroristico? Chi ha accesso a queste blacklist?
C'è anche il problema della fallibilità di questi algoritmi e dei possibili attacchi.
Esistono già dei tool di machine learning per l'hash reversal o di hash poisoning. Un rischio da non sottovalutare che potrebbe avere gravi conseguenze. towardsdatascience.com/black-box-atta…
Per ora le nuove funzionalità sono solo per gli Stati Uniti, ma presto arriveranno anche in UE. Il motivo?
Chi conosce la prima "Crypto War" degli anni '90, sa che sta accadendo esattamente la stessa cosa oggi.
Cambia la tecnologia, ma lo scopo è lo stesso: il potere del governo di accedere ai dati e comunicazioni delle persone. Ne parlo qui, per chi vuole 👇 privacychronicles.substack.com/p/crypto-wars-…
La Corte di Giustizia Europea a più riprese ha affermato la violazione dei diritti fondamentali da parte di qualsiasi attività indiscriminata di sorveglianza delle comunicazioni.
Apple non è la prima, e non sarà l'ultima. C'è in corso una stretta globale sulle nostre libertà.
Nessun crimine, per quanto odioso, può giustificare il ribaltamento dei nostri principi fondamentali.
La sorveglianza deve essere giustificata da gravi indizi di reato. Viceversa, sorvegliare in massa le persone alla ricerca di indizi di reato è sbagliato e grottesco. Punto.
• • •
Missing some Tweet in this thread? You can try to
force a refresh
Apple ha intenzione di installare un software sugli iPhone per scansionare i dispositivi alla ricerca di immagini pedopornografiche.
Avendo osservato da vicino il panorama politico sul tema, sia in US che EU, purtroppo me lo aspettavo. Un breve thread => reuters.com/technology/app…
Il software si chiama "neuralMatch". Software di riconoscimento delle immagini che gira direttamente sul dispositivo.
Scansiona il dispositivo e in caso di match positivo allerta un team di persone che verifica e notifica le autorità se necessario. machinelearning.apple.com/research/face-…
Senza giri di parole, è sostanzialmente uno spyware che scansiona ogni elemento media nella memoria del telefono alla ricerca di materiale illecito.
Per ora è solo una questione che riguarda gli Stati Uniti, ma sono sicuro che arriverà presto anche in UE.
1/ Ora vi spiego perché il Green Pass è una misura che non ha nulla a che vedere con la scienza, e che nel corso degli ultimi mesi è stata distorta fino a diventare qualcosa che non doveva essere. Iniziamo dal principio. =>
2/ L'Unione Europea da tempo aveva in mente di mitigare alcuni rischi sistemici in ambito vaccinale, come la scarsa interoperabilità dei sistemi sanitari.
Per questo nel 2018 (pre-covid) è stata proposta, tra le altre cose, l'idea di un pass vaccinale.
3/ Il pass vaccinale è nato per semplificare la comunicazione di informazioni all'interno dell'UE, e mitigare i rischi sistemici relativi agli spostamenti transfrontalieri.
L'applicazione completa è prevista per il 2022. Quindi cos'è il Green Pass? Non un pass vaccinale.