Mi repositorio de casos de familias de menores agredidos en RRSS está compuesto en un 52% de padres y madres que me llamaban “exagerado” y se reían de mi “alarmismo” al oírme hablar sobre los peligros que las RRSS entrañan para los menores… ANTES de que los sufrieran sus hijos.
Lo peor no es que haya sufrido el desprecio frente a mis advertencias, ni el no poder tener mi momento de “te lo dije” (un buen profesional no se lo puede permitir, no solo por elegancia y ética, sino porque, en ese momento, necesitan ayuda, y no sermones)…
No, lo peor no es el ninguneo.
Lo peor es ver a sus hijos sufrir y torturarme, durante todo el tiempo que dura cada investigación, con las 5 palabras que no deberé pronunciar en alto:
“Esto se podría haber evitado”.
¿Acabas de reírte de mí por considerar exageradas, alarmistas, anticuadas, tecnófobas… mis advertencias sobre la conducta imprudente de un menor en las RRSS o sobre la negligencia de quienes han descuidado su protección?
Reflexiona antes de despreciarlas…
Piensa que, si desestimas así de rápido esta información, podrías acabar formando parte de ese 52% de padres que descubren a las malas cuánta razón hay en ella.
En cualquier caso, da igual si la has menospreciado o no: Si necesitas mi ayuda para tus hijos, la tendrás.
#CiberProtecter no distingue entre padres que fueron sensatos y padres que no.
#CiberProtecter solo distingue entre niños que auxiliar y agresores que cazar.
“1.1 Este caso se centra en una violación grave y sistemática de la privacidad y los derechos del consumidor de los niños holandeses por parte de TikTok.
1.2 Más de 1,5 millones de niños holandeses utilizan el servicio de video social TikTok.
Los niños no se dan cuenta de que TikTok los supervisa de forma constante e intensiva. La empresa recopila ilegalmente cantidades excesivas de datos personales de los niños. TikTok hace esto a través de la aplicación, pero también a través de técnicas de seguimiento que
Desde hace 48h hay una campaña en #TikTok de recomendación “extra” de vídeos de personas que se graban a sí mismos negándose a colaborar con las FFCCSE (y, de paso, divulgando la imagen de los agentes) en las medidas COVID.
Está poniéndose de moda, y esto es muy peligroso.
Primero, porque en un par de casos los agentes han decidido transigir y esto ha generado la impresión de que un negacionista PUEDE no colaborar y salirse con la suya sin ser denunciado.
Hablamos de asuntos tan cruciales como viajar sin el certificado de vacunación.
Segundo, porque se está basando en ideas equivocadas (que se están extendiendo peligrosamente): Eso de “puedo grabar y difundir mientras no se le vea la cara al policía” es falso. Es mientras no se le reconozca, y en estos vídeos hay muchos datos que permiten identificarlos:
Estoy tan harto de las academias de baile que voy a empezar a señalarlas con enlaces incluidos 😡
Imaginen que se promocionan así: expuestas en RRSS, una clase llena de niñas muy pequeñitas bailando y escuchando esto:
“Yo soy loco cuando lo mueve' así
Duro encima de mí
Dale ponte pa' mí
Que te quiero sentir
Sabes que me muero por ti
Y que tú te mueres por mí
Así que no hay más na' que decir”
“Cuando te vi bailando
Me quedé maquinando
Después de estar tomando
Si terminamos dando”
“Yo sé que tú quieres
Tus ojos dicen que me quieres
Diablo, que rico me lo mueve
Monta' conmigo en la Mercedes
Si me voy, regreso breve
Eso es de miércoles a jueves
Porque el fin de semana tú eres pa' mí
Yeah-yeah, es que tú eres mi bebé
Yeah-yeah, hoy echamos como tres”
Me gustaría hablaros de la nueva medida anti MESI (material de explotación sexual infantil, la más llamada “pornografía infantil”) que pretende implantar apple y que tanto está dando de qué hablar:
He leído de todo incluso en titulares:
“¡Apple va a escanear nuestros dispositivos en busca de MESI!”, “¡Apple no va a respetar nuestra privacidad!”, “¡Apple va a mirar las fotos de nuestros iPhones!”.
Aclaremos esto, que se están diciendo muchas estupideces para alarmar.
Se está planteando como una ruptura de la intimidad de los usuarios NORMALES para que nos movilicemos en contra, casualmente… a favor de los intereses de los pedófilos.
Como veo que hay gente que aún no entiende el peligro que supondría para una niña (alumna de Primaria) que su maestra la expusiese en bañador ante su casi millón de followers (de esos a los que les gusta ver vídeos de niñas) en la red más plagada de depredadores infantiles…
me he tomado la libertad de hacer un pequeño estudio grooming de lo referido a una sola de las niñas expuestas (y solo en los TikToks de la maestra).
En verde, tapo las identidades de los usuarios, en rojo, los datos sobre la niña que se acaban facilitando, y en azul… 🤦
EN AZUL TAPO A LA NIÑA que, bien influenciada, y a pesar de tener una edad que incumple la normativa de tenencia de cuenta en TikTok, no solo se la ha creado (¿mintiendo en el formulario de registro sobre su edad?), si no que la usa para decir “esa soy yo” a cada comentario 🤦
Es un buen momento para contar una historia de terror. Una real. Una que ponga los pelos de punta. Una que haga que reflexionemos sobre nuestra presencia en las RRSS.
Arrancamos:
El 23 de marzo de 2016, nada menos que Microsoft puso en funcionamiento su gran proyecto.
Se llamaba Tay, y era un bot conversacional basado en inteligencia artificial, a los mandos de una cuenta de Twitter.
Quizás te suene el nombre de usuario TayTweets, @TayandYou.
Se trataba de una simulación de conciencia para interactuar con la humanidad a gran escala.
Su posición de inicio era el de una chica amable de 19 años. Pero aquel era sólo el punto de partida: Tay debía aprender en base a sus interacciones con los usuarios y desarrollarse.