Andrés Velázquez Profile picture
Ciberseguridad/Delitos Informáticos🛡️ Presidente/Fundador @MaTTica🏢 Colaborador Radio-Televisión📺 Conferencias: https://t.co/MHsENhzX5b🎤 @crimendigital🎙️

Aug 10, 2021, 9 tweets

Hay un debate que cada vez toma más fuerza con respecto a que Apple estará buscando posible contenido de abuso de menores antes de subirlo a tu respaldo de la nube. Como en todo, hay cosas positivas y cosas que podrían ser negativas… ahí va el hilo 🧵

Antes que nada, hay que decir que estas búsquedas se hacen desde hace mucho tiempo, pero no como uno pensaría. Apple no tendría a personas revisando cada una de tus fotografías, existen bases de datos que tienen “hashes” o “valores de integridad” para poder comparar.

El hash es como sacarle una huella digital a un archivo, es un algoritmo que permite tener un valor “único” de la imagen. Lo usamos para poder validar la integridad de la evidencia digital y se usa en: cadenas de bloques, sellos digitales, en las facturas electrónicas, etc.

Pueden dos archivos dar el mismo valor hash o huella digital del archivo: Si académicamente. Imposible sobre un archivo modificado. Prácticamente imposible en dos fotografías de características diferentes.

Desde hace mucho tiempo, inclusive quienes nos dedicamos a temas de forensia digital, usamos bases de datos públicas que contienen estos hashes de contenido de abuso de menores que ya es conocido por las autoridades. Digamos que te alerta cuando hay un positivo.

Gracias a estas bases de datos, se puede alertar de un contenido sin tener que verlo. He podido trabajar en iniciativas con ICMEC, la parte internacional de NMEC quien tiene una de las bases de datos más completas de todos los casos que lleva con autoridades locales.

Ante una alerta, se sabe que hay contenido que ha sido catalogado anteriormente como contenido de abuso de menores. Pero, esto no permitiría identificar NUEVO contenido si no está en las bases de datos que se comparan.

Quizá una de las preocupaciones por más personas dedicadas a ciberseguridad es: ¿qué pasaría si colocan un hash de un archivo que no es contenido de abuso de menores para ser reportado a la autoridad? ¿Qué tanto es susceptible a un error?

Y lo más importante: ¿Y dónde queda la privacidad? En un rato complemento esta parte.

Share this Scrolly Tale with your friends.

A Scrolly Tale is a new way to read Twitter threads with a more visually immersive experience.
Discover more beautiful Scrolly Tales like this.

Keep scrolling