Profile picture
Hugo Sáez @Hugo_saez
, 34 tweets, 11 min read Read on Twitter
Estos dos gráficos que Mark Zuckerberg reveló ayer en su post en Facebook son, desde mi punto de vista, las dos piezas de información más importantes sobre las redes sociales que se han publicado en los últimos años.

Voy a intentar explicar porqué.
Un poco de contexto: ayer el @nytimes publicó un reportaje muy crítico con Facebook afirmando que ante las últimas crisis que han azotado a la compañía, su estrategia ha sido “Negar, retrasar y deflectar”.

nytimes.com/2018/11/14/tec…
Ante este explosivo reportaje, la compañía se ha visto forzada a responder. De ahí la explicación que dio ayer Zuckerberg detallando el plan de acción que Facebook va a implementar para luchar contra la desinformación y las fake news.
En su explicación Mark enumera varias medidas: aumentarán la vigilancia sobre el contenido ofensivo, darán más control a los usuarios para que podamos decidir que vemos y que no, establecerán un organismo de control independiente, etc.
De todas las medidas una me llamó la atención: “desincentivar el contenido límite”. Mark explica que, independientemente de donde traces la línea, las personas siempre interactuamos más con el contenido que más cerca se encuentra de estar prohibido. De ahí el primer gráfico.
¿A qué se refiere Mark cuando habla de contenido límite? Enumera varias categorías: clickbait, desinformación, fotos cercanas a la desnudez y publicaciones de tono ofensivo. Las personas nos vemos muy atraídas por ese tipo de contenido y eso hace que se convierta en viral.
Mark con este gráfico revela que Facebook conocía esta realidad y no actuó para evitarla. ¿Por qué? Porque necesita que la gente interactúe con el contenido lo máximo posible: a más tiempo en la plataforma, más ingresos por publicidad.
Facebook a través de la experiencia ha estado practicando lo que el psicólogo James A. Rusell descubrió con su estudio de las emociones: que la ira, unida a la excitación, son las dos emociones que más nos incitan a actuar.
Facebook ha sido consciente de esta realidad desde hace años porque es el centro de su negocio. Cuanta más atención consigan de nosotros, más dinero ingresan ellos. Por eso ha dejado que el contenido falso y ofensivo campe a sus anchas.
¿El problema? Que agentes externos han utilizado esa pasividad y falta de control para sus propios fines: desinformar, influir en elecciones, desestabilizar, fomentar las ideas extremistas y hasta incitar al genocidio.

nytimes.com/2018/10/15/tec…
Zuckerberg promete en su post de ayer que Facebook va a entrenar a su Inteligencia Artificial para desincentivar ese "contenido límite" y que la curva pase a ser esta de aquí:
Este cambio supondría un enorme perjuicio para su negocio. De ser así, el tiempo medio en Facebook por usuario descendería aún más (hace años que está cayendo) y con ello sus ingresos.
Teniendo en cuenta que el crecimiento de usuarios de Facebook en sus mercados más rentables se ha detenido (y en Europa incluso ha perdido usuarios), tengo la impresión de que estas medidas no serán ejecutadas. Sus accionistas no van a permitirlo.
Facebook vive de nuestra atención y perderla significa fracasar. Tristemente lo que más nos llama la atención es la información falsa (por sorprendente), los comentarios ofensivos (ira) y el contenido sexual. Así funciona nuestra mente y eso no va a cambiar.
Facebook lo sabe y su modelo de negocio se basa en ello. ¿Que motivos tiene para cambiar? La compañía va a resistir todo lo posible mientras los gobiernos no la fuercen a ello. Y mientras tanto su estrategia seguirá siendo la misma: “Retrasar, negar y deflectar”
Iré añadiendo artículos interesantes sobre este tema con el paso de los días. De momento dejo aquí el artículo que escribí sobre como nuestras emociones combinadas con las redes sociales nos llevan a la polarización:

medium.com/@hugo_saez/la-…
Puedes leer el post completo de Zuckerberg con las medidas que propone aquí:

facebook.com/notes/mark-zuc…
Sheryl Sandberg, COO de Facebook, ha negado categóricamente las acusaciones del Times:

thedrum.com/news/2018/11/1…
Según sus propias palabras: "Sugerir que no estábamos interesados en conocer la verdad, o que queríamos esconder lo que sabíamos, o que hemos tratado de impedir las investigaciones, es simplemente falso".

No puede decir otra cosa: sino Facebook se enfrentaría a la justicia.
De momento el consejo de directores de Facebook apoya a Zuckerberg y Sandberg ante esta crisis. Considera que las críticas del Times son "enormemente injustas"

recode.net/2018/11/15/180…
Pero claro, hay que tener en cuenta que tanto Mark Zuckerberg como Sheryl Sandberg forman parte de ese mismo consejo... por lo que el apoyo puede que se lo estén dando ellos mismos.
Desde Washington por su parte no han tardado en reaccionar: tanto demócratas como republicanos han atacado a Facebook y sus dirigentes por la gestión que han hecho de las últimas crisis.

recode.net/2018/11/15/180…
El oficial jefe de los fiscales de Nueva York, Scott Stringer, ha sido especialmente duro: "Ejecutivos que sólo se preocupan por el crecimiento independientemente de los riesgos ponen en peligro a la compañía, a sus accionistas y en el caso de Facebook, a la democracia".
Los analistas tampoco han sido muy clementes: @profgalloway ha llegado a declarar en Recode: "¿Se te ocurre alguien que haya hecho tanto dinero haciendo tanto daño?"

recode.net/2018/11/16/180…
Otros analistas están seguros de que esta crisis no es como las demás y anuncian que la era Facebook está llegando a su fin. Gina Bianchini, CEO de Mighty Networks, defiende que su relevancia va a seguir disminuyendo y la gente migrará a otros servicios:

linkedin.com/content-guest/…
Las reacciones al reportaje del Times y las críticas a Facebook se siguen sucediendo. Esta vez del lugar donde más le duele a Facebook: los anunciantes.

nytimes.com/2018/11/15/bus…
Rishad Tobaccowala, el CGO del grupo Publicis, ha declarado: "Ahora ya sabemos que Facebook hará lo que sea por dinero. No tienen ningún tipo de moralidad"

La agencia R/GA en Twitter: "Es hora de admitir que todos estábamos equivocados con Facebook".
El @nytimes sigue explorando las consecuencias de las continuas crisis de Facebook. En este artículo entrevistan a estudiantes de ingeniería sobre el atractivo de trabajar para la red social. El título del artículo resume bien su opinión actual:

nytimes.com/2018/11/15/tec…
Los testimonios de lo estudiantes sobre Facebook lo dejan claro "Yo no creo en el producto porque en la base de todo lo que hacen se encuentra el deseo de mostrarnos más anuncios".
El análisis de Bloomberg afirma que la moral de los empleados de Facebook está por los suelos tras el reportaje del @nytimes:

bloomberg.com/news/articles/…
Los empleados de Facebook están frustrados porque saben que las tareas que la compañía debe afrontar para solucionar sus problemas de percepción (revisión de contenido por terceros o limitar la recolección de datos) van a disminuir aún más el crecimiento de la red social.
En una encuesta a los empleados de Facebook en octubre de este año, solo un 52% eran optimistas sobre el futuro de la compañía. El año pasado en la misma encuesta un 84% afirmaban lo mismo. 32 puntos perdidos en un sólo año.
Las acciones de Facebook ya están pagando las continuas crisis y su estancamiento en lo que respecta al crecimiento de usuarios en sus zonas más rentables. ¿Qué pasará si reducen aún más el tiempo que pasan los usuarios en la plataforma?
La gente de @qz plantea una pregunta interesante: tras conocer como Facebook ha lidiado con las crisis, ¿tenemos la obligación moral de abandonar la plataforma?

google.es/amp/s/qz.com/1…
Missing some Tweet in this thread?
You can try to force a refresh.

Like this thread? Get email updates or save it to PDF!

Subscribe to Hugo Sáez
Profile picture

Get real-time email alerts when new unrolls are available from this author!

This content may be removed anytime!

Twitter may remove this content at anytime, convert it as a PDF, save and print for later use!

Try unrolling a thread yourself!

how to unroll video

1) Follow Thread Reader App on Twitter so you can easily mention us!

2) Go to a Twitter thread (series of Tweets by the same owner) and mention us with a keyword "unroll" @threadreaderapp unroll

You can practice here first or read more on our help page!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just three indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member and get exclusive features!

Premium member ($30.00/year)

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!