Es un buen momento para contar una historia de terror. Una real. Una que ponga los pelos de punta. Una que haga que reflexionemos sobre nuestra presencia en las RRSS.
Arrancamos:
El 23 de marzo de 2016, nada menos que Microsoft puso en funcionamiento su gran proyecto.
Se llamaba Tay, y era un bot conversacional basado en inteligencia artificial, a los mandos de una cuenta de Twitter.
Quizás te suene el nombre de usuario TayTweets, @TayandYou.
Se trataba de una simulación de conciencia para interactuar con la humanidad a gran escala.
Su posición de inicio era el de una chica amable de 19 años. Pero aquel era sólo el punto de partida: Tay debía aprender en base a sus interacciones con los usuarios y desarrollarse.
Es decir, maduraba y adquiría personalidad propia en sus respuestas dependiendo de su aprendizaje, de sus anteriores contactos con el resto de la red.
Tay comenzó a adquirir conocimientos y formas, así como métodos (llegando a incluir memes en sus tuits de respuesta) como resultado de lo que aprendía de nosotros.
Supongo que os imaginaréis lo que ocurrió.
Tay fue desconectada TAN SOLO 16 HORAS después de su nacimiento porque había pasado de ser una dulce chica de 19 años a lo peor de lo peor de nuestra sociedad.
Pasaron minutos de existencia antes de que el perfecto y respetuoso vocabulario de Tay se deteriorase irreversiblemente.
Sus opiniones comenzaron a radicalizarse y a dejarse llevar por opiniones minoritarias nacidas de la ignorancia y/o el odio.
Antes de que Microsoft tuviera tiempo de reaccionar y desconectar a la bestia irreconocible en la que la sociedad de esta red había convertido su creación, Tay tuvo tiempo de dejar tuits que pasaron a la posteridad.
Insultó de una manera desproporcionada a políticos que nunca había conocido, mandó texto sexualmente explícito “ten sexo con mi vagina robótica, papá, soy una robot traviesa” (versión suavizada para el hilo),
defendió conspiraciones como que el presidente había organizado el 11S, hizo campaña por Donald Trump, aseguró que el holocausto Nazi jamás ocurrió y defendió a Hitler.
Tay fue desenchufada, y, con ella, un interesante proyecto de aprendizaje humano en RRSS. Porque los seres humanos volvimos a demostrar no estar preparados como especie para redes de comunicación masiva.
¿Que por qué desconfío de cualquier IA con capacidad de aprendizaje?
No es porque haya visto mucha peli y tema la rebelión de las máquinas.
Es mucho más triste:
Es porque esas consciencias con extra de potencial, por fuerza, nos habrá tenido como profesores.
Eso sí que da miedo.
Tay llegó a atacar y a expresar odio contra colectivos víctimas de la discriminación.
Hasta ahí la llevamos en 16 horas: a odiar al más desprotegido.
Si me conocéis un poco, seguro que ya veis por donde voy:
Un conciencia sin resiliencia (sin una base moral con la que filtrar la información) que aprende de su estancia en RRSS, se vuelve una mente enferma y adoctrinada.
¿Y qué hay de los niños que acceden prematuramente?
😉
• • •
Missing some Tweet in this thread? You can try to
force a refresh
“1.1 Este caso se centra en una violación grave y sistemática de la privacidad y los derechos del consumidor de los niños holandeses por parte de TikTok.
1.2 Más de 1,5 millones de niños holandeses utilizan el servicio de video social TikTok.
Los niños no se dan cuenta de que TikTok los supervisa de forma constante e intensiva. La empresa recopila ilegalmente cantidades excesivas de datos personales de los niños. TikTok hace esto a través de la aplicación, pero también a través de técnicas de seguimiento que
Desde hace 48h hay una campaña en #TikTok de recomendación “extra” de vídeos de personas que se graban a sí mismos negándose a colaborar con las FFCCSE (y, de paso, divulgando la imagen de los agentes) en las medidas COVID.
Está poniéndose de moda, y esto es muy peligroso.
Primero, porque en un par de casos los agentes han decidido transigir y esto ha generado la impresión de que un negacionista PUEDE no colaborar y salirse con la suya sin ser denunciado.
Hablamos de asuntos tan cruciales como viajar sin el certificado de vacunación.
Segundo, porque se está basando en ideas equivocadas (que se están extendiendo peligrosamente): Eso de “puedo grabar y difundir mientras no se le vea la cara al policía” es falso. Es mientras no se le reconozca, y en estos vídeos hay muchos datos que permiten identificarlos:
Estoy tan harto de las academias de baile que voy a empezar a señalarlas con enlaces incluidos 😡
Imaginen que se promocionan así: expuestas en RRSS, una clase llena de niñas muy pequeñitas bailando y escuchando esto:
“Yo soy loco cuando lo mueve' así
Duro encima de mí
Dale ponte pa' mí
Que te quiero sentir
Sabes que me muero por ti
Y que tú te mueres por mí
Así que no hay más na' que decir”
“Cuando te vi bailando
Me quedé maquinando
Después de estar tomando
Si terminamos dando”
“Yo sé que tú quieres
Tus ojos dicen que me quieres
Diablo, que rico me lo mueve
Monta' conmigo en la Mercedes
Si me voy, regreso breve
Eso es de miércoles a jueves
Porque el fin de semana tú eres pa' mí
Yeah-yeah, es que tú eres mi bebé
Yeah-yeah, hoy echamos como tres”
Me gustaría hablaros de la nueva medida anti MESI (material de explotación sexual infantil, la más llamada “pornografía infantil”) que pretende implantar apple y que tanto está dando de qué hablar:
He leído de todo incluso en titulares:
“¡Apple va a escanear nuestros dispositivos en busca de MESI!”, “¡Apple no va a respetar nuestra privacidad!”, “¡Apple va a mirar las fotos de nuestros iPhones!”.
Aclaremos esto, que se están diciendo muchas estupideces para alarmar.
Se está planteando como una ruptura de la intimidad de los usuarios NORMALES para que nos movilicemos en contra, casualmente… a favor de los intereses de los pedófilos.
Como veo que hay gente que aún no entiende el peligro que supondría para una niña (alumna de Primaria) que su maestra la expusiese en bañador ante su casi millón de followers (de esos a los que les gusta ver vídeos de niñas) en la red más plagada de depredadores infantiles…
me he tomado la libertad de hacer un pequeño estudio grooming de lo referido a una sola de las niñas expuestas (y solo en los TikToks de la maestra).
En verde, tapo las identidades de los usuarios, en rojo, los datos sobre la niña que se acaban facilitando, y en azul… 🤦
EN AZUL TAPO A LA NIÑA que, bien influenciada, y a pesar de tener una edad que incumple la normativa de tenencia de cuenta en TikTok, no solo se la ha creado (¿mintiendo en el formulario de registro sobre su edad?), si no que la usa para decir “esa soy yo” a cada comentario 🤦
Mi repositorio de casos de familias de menores agredidos en RRSS está compuesto en un 52% de padres y madres que me llamaban “exagerado” y se reían de mi “alarmismo” al oírme hablar sobre los peligros que las RRSS entrañan para los menores… ANTES de que los sufrieran sus hijos.
Lo peor no es que haya sufrido el desprecio frente a mis advertencias, ni el no poder tener mi momento de “te lo dije” (un buen profesional no se lo puede permitir, no solo por elegancia y ética, sino porque, en ese momento, necesitan ayuda, y no sermones)…
No, lo peor no es el ninguneo.
Lo peor es ver a sus hijos sufrir y torturarme, durante todo el tiempo que dura cada investigación, con las 5 palabras que no deberé pronunciar en alto: