My Authors
Read all threads
El Wall Street Journal ha confirmado algo que se sospechaba hace tiempo:

Facebook sabe desde hace años que su algoritmo de recomendación polariza a los usuarios y los radicaliza. Ejecutivos de la compañía han intentando (y conseguido) que este problema no se solucione.

1/
En este fantástico artículo (bajo muro de pago), los periodistas Jeff Horwitz y Deepa Seetharaman explican que en diferentes documentos internos queda claro que trabajadores de Facebook conocían esta realidad e informaron a sus superiores sobre ella.

2/

wsj.com/articles/faceb…
"Nuestro algoritmo explota la atracción del cerebro humano por la polarización. Si no se vigila, Facebook sugerirá a los usuarios contenido cada vez más polarizante para conseguir su atención y aumentar el tiempo que pasan en la plataforma".

Cita de un presentación de 2018.

3/
Investigadores de Facebook descubrieron que el 64% de los miembros de grupos extremistas en la plataforma se unen a ellos gracias al sistema de recomendación de la red social y los algoritmos de "descubre".

"Nuestro sistema de recomendación hace crecer el problema"

4/
A finales de 2018 Mark Zuckerberg escribió en su blog los retos para 2019. Allí explicaba que una de las iniciativas era “desincentivar el contenido límite”: clickbait, desinformación, fotos cercanas a la desnudez y publicaciones de tono ofensivo.

5/

facebook.com/notes/mark-zuc…
En su día escribí un hilo explicando que los gráficos que compartió en este post eran fundamentales, porque revelaban que Facebook era consciente de la realidad: el contenido polarizante conseguía que los usuarios pasaran más tiempo en la red social.

6/

Cuanto más tiempo pasan los usuarios en sus productos, más dinero ingresa Facebook gracias a la publicidad. De ahí que hace 2 años cuestionase que Zuckerberg fuera a solucionar el problema del contenido polarizante y su recomendación.

7/

El artículo del Wall Street Journal confirma esas dudas: a pesar de que existieron iniciativas para intentar solucionar el problema, ejecutivos de alto nivel las minimizaron o directamente las descartaron por "paternalistas".

8/
En definitiva, el modelo de negocio de Facebook es atrapar nuestra atención y convertirla en dinero para sus bolsillos. Ha hecho (y sigue haciendo) una fortuna con ello, por lo que todo aquello que dificulte ese proceso va a ser ignorado o eliminado.

9/

medium.com/@hugo_saez/la-…
Algunas lecturas interesantes sobre el tema: uno de los ejecutivos de Facebook que aparece señalado como responsable de frenar los proyectos contra la polarización es Joel Kaplan. Kaplan, de perfil conservador, cada vez tiene más poder en Facebook.

10/

wsj.com/articles/faceb…
Según el análisis de empleados de Facebook, frenar la polarización afectaría especialmente a los usuarios y los medios conservadores. Algo que no hizo gracia a Kaplan: Trump, que ya tenía a la red social en su punto de mira, tendría más argumentos para atacar a Facebook.

11/
Kaplan es también uno de los responsables de convencer a Zuckerberg de permitir a los políticos mentir en sus anuncios en Facebook, algo que ha beneficiado mucho a Trump y ha sido muy mal recibido por los propios empleados de la red social.

12/

wsj.com/articles/emplo…
Los analistas de Facebook descubrieron que los usuarios que compartían contenido masivamente tenían mucha más influencia en el algoritmo de recomendación que las personas que compartían de manera normal. Aunque muchos de los primeros se comportasen como bots (o lo fuesen).

13/
El problema era que intentar controlar la influencia de esos “super-compartidores” y la polarización resultante supondría reducir el crecimiento (y con ello los ingresos) de la red social. Algo que iba a acelerar una tendencia ya existente.

socialmediatoday.com/news/new-repor…

14/
Kaplan y otros ejecutivos frenaron esas iniciativas, argumentando que existían algunos “super-compartidores” que tenían buenas intenciones, como las chicas scouts que buscan vender sus galletas o los medios que tienen fans entusiastas.

15/
La discusión llegó a Zuckerberg, que decidió aprobar la medida pero con un severo recorte: un 80% menos de efectividad. Además Mark dejó claro que había perdido el interés en que Facebook se orientase hacia el bien común y que no quería escuchar más iniciativas de ese tipo.

16/
Finalmente en 2018 las prioridades quedaron claras: Facebook se alejaba del bien común y se centraba en el valor individual. Si los usuarios querían compartir contenido “hostil” la red social no iba a hacer nada por evitar la polarización mientras cumplieran las normas.

17/
Las consecuencias de esta decisión se revelaron claramente un año después. En 2019 @NiemanLab mostraba la relación entre el contenido polarizante y el alcance: a más ira, más interacciones y más audiencia. Algunos medios lo habían entendido a la perfección.

18/
Facebook comenzó una huida hacia adelante y Zuckerberg definió su plataforma como “un bastión de la libertad de expresión”, una manera sutil de justificar que la red social optaba por la barra libre y que no iba a controlar el contenido polarizante.

theguardian.com/technology/201…

19/
Meses después Zuckerberg afirmaba que su nueva estrategia "iba a fastidiar a mucha gente” pero que no le importaba porque su estrategia anterior también lo había hecho. En resumen: el dinero es lo primero y mientras nos dejen seguiremos igual.

theguardian.com/technology/202…

20/
A raíz de la polémica entre Donald Trump y Twitter, Mark Zuckerberg ha vuelto a reforzar su postura de no controlar lo que sucede en su red social:

"Facebook no debe ser el juez de la verdad de todo lo que la gente dice en internet".

21/

thehill.com/policy/technol…
Missing some Tweet in this thread? You can try to force a refresh.

Enjoying this thread?

Keep Current with Hugo Sáez

Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

Twitter may remove this content at anytime, convert it as a PDF, save and print for later use!

Try unrolling a thread yourself!

how to unroll video

1) Follow Thread Reader App on Twitter so you can easily mention us!

2) Go to a Twitter thread (series of Tweets by the same owner) and mention us with a keyword "unroll" @threadreaderapp unroll

You can practice here first or read more on our help page!

Follow Us on Twitter!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3.00/month or $30.00/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!