Je viens de faire une interview avec des très intéressantes questions, notamment sur l'exploitation supposée de nos émotions par les plateformes.
La journaliste était cependant étonnée des nuances apportées : NON, les plateformes ne nous manipulent pas!
Mais OUI : elles essaient par tous les moyens d'influer sur nos comportements, nos affects, etc.
Il serait temps d'introduire cette nuance pour ne pas se retrouver coincer à :
- 1) Faire de la pub pour les plateformes
- 2) Voir la technique comme neutre
1) Lors de l'affaire Cambridge Analytica, c'est (comme toujours) Facebook qui est sorti grand gagnant de tout cela.
Imaginez, des milliers d'articles expliquant que Facebook pouvait manipuler des élections!
De quoi faire frétiller tous les annonceurs : si on peut pousser les gens à voter Trump, ça doit être encore plus simple de leur vendre du saucisson, non?!
Que fait Facebook ?
Il diminue la "portée" de ses pages, et commence à faire payer plus ceux qui rêvent "d'influencer".
Et FB réinjecte par ailleurs cette "Portée" dans les groupes (
Non, ou très mal, toutes les études sur la pub ciblée soulignent les limites (wordstream.com/average-ctr)
Donc, parler de "manipulation", du "pouvoir" des plateformes c'est renforcer ce pouvoir.
Analyser ce qui est fait en terme de design (dark pattern, etc.), d'algorithmes, oui. Mais le faire de manière localisée et contextuelle reste le meilleur moyen de comprendre et alerter...
2) ... car les plateformes sont des apprenties sorcières qui essaient des choses qui marchent mal sur des millions de personnes!
Et c'est là le vrai danger si danger il y a.
Et plus on documente les biais, plus il y a de résistance de leurs parts.
Une résistance qu'on peut caricaturer comme cela : les biais sont leur modèle de fonctionnement.
Le fameux "test and learn".
Il y a quelques années, ces entreprises résistaient quand il leur était prouvé que leur "machine learning" se construisait sur des données biaisées.
Au fil du temps, elles l'ont intégré : par cynisme (pour améliorer le ciblage), par nécessité (pour éviter les procès), par... ?
Peu importe, car quand maintenant on leur dit : en fait ce sont vos modèles math/info qui sont biaisés, là ça ne passe plus.
Là où les autres continuent de servir la soupe et faire des relations publiques plus que de la recherche ?
Sauf que ce travail est un vrai travail de recherche, où sans régulation aucune on ne fait que courir derrière les plateformes.
C'est alors qu'apparaissent ceux qui sans travail de terrain vendent de la peur et du biais cognitif :
Et la boucle revient au 1):
- en faisant peur aux gens on renforce le pouvoir des plateformes
- en parlant que de biais cognitifs on efface toute régulation performante
Bref on fait le jeu de ces entreprises en les dénonçant (elles nous manipulent) et les neutralisant à la fois
• • •
Missing some Tweet in this thread? You can try to
force a refresh
- Cette pluralité de traitement s'est toujours accompagnée d'angles spécifiques = opinions
- La guerre d'Algérie traitée par L'Humanité et Le Figaro c'était déjà de la post-vérité ?
- La désinformation, la propagande, le complot, etc. n'ont pas non-plus attendus Internet
La différence notable ?
L'autorité informationnelle.
Aujourd'hui les sources qui in-forment se multiplient.
Elles génèrent de la confiances et sont légitimes pour des publics spécifiques.
Comme les "debunkers".
Pour autant, y a t-il une + grande diversité idéologique
Premier cours mis en ligne via une vidéo :
- 2h pour actualiser le cours en lui-même
- 4h d'enregistrement, mise en ligne, ajustement
- 2h pour l'annoncer sur Moodle
- 1h (déjà) pour corriger les dysfonctionnent signalés par les étudiant-e-s
- Durant les 3h du cours, un clavardage ouvert pour répondre aux questions
En somme, 3h de cours en ligne = au moins 12h de travail, ce qui est largement plus qu'un cours en présentiel... Je ne vois pas où sont les économies ou les avantages ?
Au final, je pense que j'avais sous-estimé la présence nécessaire durant la période pour répondre aux questions et autre.
Seulement 70% de la promo a regardé la vidéo (et 30% en entier), il y aura donc (ou pas) des questions à venir, mais comme dans tous les cours.
Donc on prend des groupes FB, sans s'interroger sur leur mode de consitution, on administre ensuite un questionnaire avec 0 echantillonnage, et on fait ressortir des analyses qui vont dans le sens des préjugés de ceux qui construisent le questionnaire.
Que Twitter permette de bloquer les réponses à un tweet mais pas les commentaires des retweets, et les conversations qui suivent, est assez significatif de sa stratégie globlale de "gouvernance" : favoriser la circulation des messages dans des clusters/groupes identifiés
Le tweet devient un objet auquel on attache des opinions pour accentuer sa circulation.
II permet ainsi de mieux qualifier les postures des publics qui (le) discutent (opinion mining).
En somme, encore une fonctionnalité orientée vers les besoins de la plateforme, des développeurs et annonceurs, mais dont les RP en font un outil de protection des usagers.
C'est bien joué!
Cela entre à la fois dans une logique économique et d'usage.
Loin de moi l'idée de défendre les "la-covid-cette-petite-grippe", très visibles dans les commentaires de presse.
Mais il faudrait peut-être un jour se dire que cette défiance, cet esprit critique (et oui) n'est pas qu'une mauvaise chose.
Cette défiance, ce complotisme, ces croyances, etc. sont le reflet d'un tournant dans la construction des autorités informationnelles, et aller contre c'est accentuer la défiance.
La question est donc : comment faire avec ? Sans renforcer le pire.