Me gustaría hablaros de la nueva medida anti MESI (material de explotación sexual infantil, la más llamada “pornografía infantil”) que pretende implantar apple y que tanto está dando de qué hablar:
He leído de todo incluso en titulares:
“¡Apple va a escanear nuestros dispositivos en busca de MESI!”, “¡Apple no va a respetar nuestra privacidad!”, “¡Apple va a mirar las fotos de nuestros iPhones!”.
Aclaremos esto, que se están diciendo muchas estupideces para alarmar.
Se está planteando como una ruptura de la intimidad de los usuarios NORMALES para que nos movilicemos en contra, casualmente… a favor de los intereses de los pedófilos.
Por eso es importante estar bien informados.
USA cuenta con la COPPA (Children's Online Privacy Protection Rule) una ley contra el MESI que sustenta cierta infraestructura (como en NMEC). Está a años luz de ser una buena ley, eficaz… pero yo diría que es la mejor de occidente. Sin duda, lo convierte en el país
que más recursos destina a la protección del menor (y recalco que es una porquería para lo que podría ser, pero es la mejor que he visto).
Como resultado de sus esfuerzos, los agentes de la autoridad tienen en su poder la base de datos más grande (conocida) de MESI. Millones de fotografías y vídeos de niños sexualmente explotados.
El infierno en la tierra.
Hablemos ahora de la huella hash que acompaña a todo archivo.
Existe una función matemática que reduce TODO EL CONTENIDO de un archivo a un número de un tamaño muy manejable e informáticamente pequeño.
Este número… no es que represente a un archivo (como el DNI a las personas
o la matrícula al coche). Es que, literalmente, resume su contenido digital. Sus unos y sus ceros.
Un archivo sin alterar solo puede arrojar siempre el mismo hash. Dos archivos con mismo hash son, por fuerza el mismo archivo.
Vaya, que, si me permiten la comparación (deformación profesional de profe que busca paralelismos), es como el ADN del archivo.
Solo con la huella hash, no se puede obtener el archivo original. No puedes decirme el número que representa a una foto de tus perros y yo descifrarla hasta generar un archivo útil y ver a los pelucos.
Peeeeero, si yo tengo la foto y saco su huella hash, y a continuación me mandas una huella hash, las comparó y son la misma, por fuerza es la misma foto.
Es como las huelas dactilares. Tener las huellas del asesino sirve de poco para saber su identidad salvo que ya tuviésemos sus huellas asociadas a su identidad previamente.
Seguro que ya ves por donde va esto…
Apple pretende enviar los hash de tus fotos al NMEC.
Extraer las huellas hash de tus fotos no es extraer tus fotos (tranquilo, si te has retratado poniendo morritod frente al espejo del baño, Apple y el NMEC seguirán sin poder disfrutar de esa obra de arte).
Y aquí está la clave: el NMEC cotejará AUTOMÁTICAMENTE (ni siquiera hay un señor mirando tus números hash, que no sirven de nada para reinterpretar los archivos originales) lo que reciban con su infierno en la tierra, esa enorme base de datos de MESI.
¿Uno de tus archivos tiene una huella hash de una de las fotos de su base de datos, en la que se ve a un niño de 7 años de Australia es explotado sexualmente?
Entonces, por fuerza, tú tienes la foto de ese niño en tu iPhone.
Y USA te cruje como debes ser crujido.
Que ni eres ni estás en USA (aquí viene lo que tanto me gusta de la COPPA): el NENEC contacta con la Interpol y/o con las autoridades pertinentes de tu nación y te crujen ellas.
Es decir, ante eso de que “Apple va a sacar información privada de tus dispositivos para escanearla con la excusa de luchar contra el MESI”, yo respondo:
1º La información extraída es mínima, irrelevante e incapaz de generar los archivos originales
2º Apple no hace nada con ella. Se la pasa al NMEC (que son autoridades) y ni siquiera ellos pueden reconstruir los archivos
3º Verdaderamente, esto será un buen palo a la pedofilia
Me explico:
Si algo saben los pedófilos es que, si quieres usar tu móvil para consumir MESI, tenía que ser un iPhone.
Si algo saben los pederastas es que, si querías usar tu móvil para compartir MESI propio, tenía que ser un iPhone.
Esto se debe a que es, actualmente, el único (si yo no estoy desactualizado) dispositivo móvil cuya seguridad en la información aún no ha sido vulnerada… ni siquiera por las autoridades.
De hecho, Seguridad Nacional tuvo un buen pleito con Apple, porque, tras no conseguir “entrar” en el iPhone, solicitó los métodos a Apple y este se negó.
Por primera vez, la compañía antepone la colaboración con las autoridades a la privacidad de sus usuarios (claro que… esta vez, no implica desvelar sus propios algoritmos 😉 que es lo que verdaderamente estaban protegiendo).
Y, ante esto, yo aplaudo hasta que me sangren las manos.
Podría hacerse mucho más. Pero esto es un mundo. Y no olvidemos que Apple acaba de renunciar así al lucrativísimo mercado de pedófilos que lo utilizaban.
¿Os imagináis que Google hiciera lo mismo?
Esta misma
mecánica aplicad a sus navegadores, repositorios y dispositivos?
No lo hará, porque implicaría perder billones provenientes de usuarios pedófilos. Pero sería increíble.
No. Apple no va a escanear tu iPhone para ver tus nudes con la excusa de que tengas fotos de niños.
Apple va a hacer (una pequeña parte de) lo que siempre debió haber hecho: colaborar.
Mis compañeros ingenieros más puristas de la informática vendrán a decirme que existen (remotísimas) posibilidades de que dos archivos distintos generen el mismo hash.
Respuesta: hablamos de justicia, no de ciencia. Existen posibilidades (menos remotas) de que dos muestras
de ADN coincidan sin ser de la misma persona. Existen muchíiiiiiiisimas posibilidades de que las huellas dactilares se falsifiquen. A pesar de esto, el ADN y las huella tienen una carga probatoria enorme y justifican investigaciones a sospechosos.
Esto se debe a que las posibilidades de colisión son ínfimas, y a que los conocimientos necesarios para provocarlas son poco frecuentes.
El sentido común prima ante la pureza científica.
Si encuentran tus huella en un crimen, aunque haya un porcentaje alto de posibilidades de que no sean tuyas, y sea muy fácil falsificarlas… te investigarán.
Pues con MESI de por medio, tan bien que me parece 😊
No podemos permitirnos el lujo de descartar un mecanismo eficaz en el 99’9% de los eventos por ese 0’1% de desviaciones. Sobre todo, si la coincidencia positiva no se considera prueba, sino notitia criminis.
A veeer.
El algoritmo de Apple no “detecta” nada.
Da los hash (de fotos criminales o no) y el NMEC los compara con los de las fotos que ya tienen fichadas.
Quienes hablan de otros usos gubernamentales, deben pensar que, para ello, hacen falta una base de datos con la que comparar
Quiero agregar algo:
Este hilo está pensado para aclarar cómo funciona el método a personas sin nivel informático. Los profes entenderán que esto implique hacer simplificaciones que pueden ser corregidas más adelante. Algunas las ajusto en el propio hilo, más adelante.
Otras:
Aparecen usuarios con alto conocimiento y aportan.
Eso está genial.
Lo que no entiendo son esos usuarios de nivel que aparecen y me llaman mentiroso 😱
¡Pero bueno! Vamos a ver, ¿llamarías mentiroso a un profesor de física que explica el modelo atómico de Rutherford
para que su alumnado entienda ese nivel de abstracción? Ese modelo sabemos que es equivocado, pero se acerca lo suficiente, sirve para demostrar los principios y, lo más importante, ¡métete tú a explicarle el modelo de Schrödinger a un niño de la ESO!
Últimamente, veo que los ingenieros se comportan como si Twitter fuera una ventana en la que demostrar por la que muchos ingenieros asoman su ego para demostrar que saben más que los demás, sin importar que la mayoría que no lo son no los entiendan y empleando muy malas formas.
Así, sin preguntar, sin debatir, sin plantearse que antes que equivocaciones o mentiras hayan simplificaciones… el aporte que he incluido en estos comentarios (y que tan bien recibido fue) viene de personas con altísimo nivel, pero también humildad.
Personas menos conocedoras que ellos han retuiteado mi hilo llamándome mentiroso o diciendo que es, cito textualmente, “un puto despropósito”, por decir que dos archivos diferentes no generan el mismo hash CUANDO HAGO LA SIMPLIFICACIÓN DE LAS MATRÍCULAS, a pesar de que
más adelante empiezo aclarar que sí que pueden haber duplicados (con un porcentaje tan bajo que no vale la pena descartar el mecanismo)
Queridos compañeros ingenieros: un poquito de humildad, por favor.
Soy un profe. Enseño. Principalmente, enseño a personas que no tienen ni idea de esto. Si veis que simplifico algo y creéis oportuno señalarlo, aportad constructivamente.
Entrar al hilo dando patadas,
llamándome mentiroso o inútil, te hará sentir muy bien contigo mismo (por eso de que has demostrado saber más que yo ante mucha gente 🤣), pero solo te llevará a un final posible:
Queridos ingenieros que me corregís con elegancia hacia un compañero, humildad y comprendiendo que algunas cosas puedan haber sido simplificadas adrede, sois bienvenidos
Una última cosa.
Caso real:
1️⃣ Pablo: Esto es así… (simplificación para hacer comprensible algo)
2️⃣ Ingeniero: Eso es mentira, eres un puto imbécil que no se entera porque no tienes razón y engañas. Esto es así… (explicación no simplificada)
3️⃣ Pablo lo bloquea
4️⃣ ¡Me bloqueó!
5️⃣ Tuit indignadísimo: “Me bloqueó porque no tenía razón. No soporta que no le den la razón. Es un creído”.
No. Me encanta que me señalen dónde me equivoco, para poder corregirlo. Te bloqueé porque entraste como un skinhead encocado en mi TL, insultándome por hacer mi trabajo:
Enseñar.
Por eso valoro tanto a los ingenieros que entienden en las RRSS el valor de la elegancia profesional y de la camaradería entre compañeros.
Esa minoría que las usan para comparar y ver quién lo tiene más largo (el conocimiento)… nos dan mala fama a todos los demás.
• • •
Missing some Tweet in this thread? You can try to
force a refresh
“1.1 Este caso se centra en una violación grave y sistemática de la privacidad y los derechos del consumidor de los niños holandeses por parte de TikTok.
1.2 Más de 1,5 millones de niños holandeses utilizan el servicio de video social TikTok.
Los niños no se dan cuenta de que TikTok los supervisa de forma constante e intensiva. La empresa recopila ilegalmente cantidades excesivas de datos personales de los niños. TikTok hace esto a través de la aplicación, pero también a través de técnicas de seguimiento que
Desde hace 48h hay una campaña en #TikTok de recomendación “extra” de vídeos de personas que se graban a sí mismos negándose a colaborar con las FFCCSE (y, de paso, divulgando la imagen de los agentes) en las medidas COVID.
Está poniéndose de moda, y esto es muy peligroso.
Primero, porque en un par de casos los agentes han decidido transigir y esto ha generado la impresión de que un negacionista PUEDE no colaborar y salirse con la suya sin ser denunciado.
Hablamos de asuntos tan cruciales como viajar sin el certificado de vacunación.
Segundo, porque se está basando en ideas equivocadas (que se están extendiendo peligrosamente): Eso de “puedo grabar y difundir mientras no se le vea la cara al policía” es falso. Es mientras no se le reconozca, y en estos vídeos hay muchos datos que permiten identificarlos:
Estoy tan harto de las academias de baile que voy a empezar a señalarlas con enlaces incluidos 😡
Imaginen que se promocionan así: expuestas en RRSS, una clase llena de niñas muy pequeñitas bailando y escuchando esto:
“Yo soy loco cuando lo mueve' así
Duro encima de mí
Dale ponte pa' mí
Que te quiero sentir
Sabes que me muero por ti
Y que tú te mueres por mí
Así que no hay más na' que decir”
“Cuando te vi bailando
Me quedé maquinando
Después de estar tomando
Si terminamos dando”
“Yo sé que tú quieres
Tus ojos dicen que me quieres
Diablo, que rico me lo mueve
Monta' conmigo en la Mercedes
Si me voy, regreso breve
Eso es de miércoles a jueves
Porque el fin de semana tú eres pa' mí
Yeah-yeah, es que tú eres mi bebé
Yeah-yeah, hoy echamos como tres”
Como veo que hay gente que aún no entiende el peligro que supondría para una niña (alumna de Primaria) que su maestra la expusiese en bañador ante su casi millón de followers (de esos a los que les gusta ver vídeos de niñas) en la red más plagada de depredadores infantiles…
me he tomado la libertad de hacer un pequeño estudio grooming de lo referido a una sola de las niñas expuestas (y solo en los TikToks de la maestra).
En verde, tapo las identidades de los usuarios, en rojo, los datos sobre la niña que se acaban facilitando, y en azul… 🤦
EN AZUL TAPO A LA NIÑA que, bien influenciada, y a pesar de tener una edad que incumple la normativa de tenencia de cuenta en TikTok, no solo se la ha creado (¿mintiendo en el formulario de registro sobre su edad?), si no que la usa para decir “esa soy yo” a cada comentario 🤦
Mi repositorio de casos de familias de menores agredidos en RRSS está compuesto en un 52% de padres y madres que me llamaban “exagerado” y se reían de mi “alarmismo” al oírme hablar sobre los peligros que las RRSS entrañan para los menores… ANTES de que los sufrieran sus hijos.
Lo peor no es que haya sufrido el desprecio frente a mis advertencias, ni el no poder tener mi momento de “te lo dije” (un buen profesional no se lo puede permitir, no solo por elegancia y ética, sino porque, en ese momento, necesitan ayuda, y no sermones)…
No, lo peor no es el ninguneo.
Lo peor es ver a sus hijos sufrir y torturarme, durante todo el tiempo que dura cada investigación, con las 5 palabras que no deberé pronunciar en alto:
Es un buen momento para contar una historia de terror. Una real. Una que ponga los pelos de punta. Una que haga que reflexionemos sobre nuestra presencia en las RRSS.
Arrancamos:
El 23 de marzo de 2016, nada menos que Microsoft puso en funcionamiento su gran proyecto.
Se llamaba Tay, y era un bot conversacional basado en inteligencia artificial, a los mandos de una cuenta de Twitter.
Quizás te suene el nombre de usuario TayTweets, @TayandYou.
Se trataba de una simulación de conciencia para interactuar con la humanidad a gran escala.
Su posición de inicio era el de una chica amable de 19 años. Pero aquel era sólo el punto de partida: Tay debía aprender en base a sus interacciones con los usuarios y desarrollarse.