[#Thread]
Hello Twitter !
Dans le cadre d’un cours de culture numérique, enseigné par @Affordanceinfo2, je vous parle aujourd’hui du phénomène des bulles de filtres.
#bulledefiltre #culturenumerique
Utopiquement, Internet représente une fenêtre ouverte sur le monde. Un puit d’informations sans limites, ni frontières.
Cependant un phénomène de restriction de l’information est observé : les bulles de filtres.
Mais en quoi consiste ce phénomène ?
La bulle de filtres, de l’anglais : filter bubble, est un concept développé par @elipariser, un américain, militant d’Internet, directeur général de Upworthy et cofondateur de avaaz.org. Image
Eli Pariser explique ce concept dans son ouvrage « The Filter Bubble: What The Internet Is Hiding From You » publié en 2011. Image
Une bulle de filtres c’est l’ensemble des informations personnalisées qui sont présentées à un internaute par les moteurs de recherche et les réseaux sociaux à partir de données collectées à son sujet (bien souvent à son insu). Image
Ne l'exposant ainsi qu'aux #informations pour lesquelles il a déjà démontré de l’intérêt, il n’est alors confronté qu’à des contenus qui appuient ses propres opinions, avis, envies etc.
Dans la continuité de la #bulledefiltre, @elipariser parle de chambre d’écho : une opinion donnée est amplifiée par l’écho des autres au sein d’une même bulle. Chaque voix résonne et s’amplifie, confortant l’utilisateurs dans ses opinions et choix. Image
Ce concept de bulle désigne donc la personnalisation d’#Internet en fonction des cookies de l’utilisateur et de l’analyse systématique des données qui l’enferme dans sa propre vision du monde. Image
Selon cette théorie, des #algorithmes s’appuient sur différentes données collectées pour mettre en avant certains contenus. Chaque internaute accède une une version significativement différente du web. Il est installé dans un bulle unique, optimisée pour sa personnalité supposée. Image
@elipariser estime que ce phénomène est devenu commun sur les #réseauxsociaux et via les #moteursderecherche.
A partir de différentes #données (historiques de navigation, clics, interactions sociales), ces #algorithmes prédisent ce qui est le plus pertinent pour l’internaute. Image
[Les #algorithmes personnalisés au cœur du mécanisme]
Des sites comme #Google, #Facebook, #Twitter n’affichent donc pas toutes les informations mais seulement celles sélectionnées pour l’utilisateurs et de manière hiérarchisée selon ses goûts supposées.
Chaque clic, chaque commentaire, chaque minute passée renseigne les #algorithmes sur nos intérêts, ce qui permet aux plateformes de nous envoyer du contenu susceptible de nous plaire. En fonction des traces qu’ont laissé vos anciennes recherches, les résultats seront différents. Image
Si les #algorithmes considèrent qu’une information n’est pas pertinente pour un internaute, elle ne lui sera pas présentée.
Cette personnalisation algorithmique peut être une bonne chose au premier abord : les contenus qui ne vous plaisent pas ou ne vous intéressent pas ne vous sont pas imposées directement.
Mais finalement ce #filtrage opéré par les #moteursderecherches et agrégateurs de contenus peut déformer des faits, les censurer ou polariser les opinions.
Les bulles de filtres peuvent être une porte ouverte à la #désinformation. Image
Des #événementspolitiques marquants sont régulièrement utilisés pour illustrer les conséquences des #bullesdefiltres :
L’élection de #DonaldTrump aux #ÉtatsUnis en 2016.
Le vote du #Brexit en #Angleterre.
Ces deux #votes n’ont pas été pris au sérieux par l’opinion public. Les internautes n’ayant accès qu’à un contenu confirmant leurs opinions, ils n'auraient pas pu se rendre compte des nombreuses #opinions diverses les entourant. Image
Ces méthodes de personnalisation sont omniprésentes sur #Internet, elle permettent essentiellement de vendre aux annonceurs l’attention des utilisateurs. Image
De nombreux #biaiscognitifs entrent en jeu (classe sociale, éducation etc) quant aux moyens de s’informer et ces bulles ne sont pas aussi « étanches » que le disent certains.
Les « filtres » techniques auraient en réalité moins d’impact.
Une étude effectuée en 2015 par trois chercheurs de l’Université du Michigan, qui ont analysé les appartenances politiques de 10 millions de comptes #Facebook, a pu démontrer que les utilisateurs sont exposés à hauteur de 20% à des opinions politiques qui contredisent les leurs.
Un #rapport publié en 2017 par l’#InstitutReuters conclut également que les utilisateurs de #mediassociaux sont en moyenne exposés à plus de diversité que les non utilisateurs.
journalism.design/journalisme-et…
Ces bulles ne s’appliquent pas seulement sur #Internet mais aussi dans nos échanges sociaux. En effet, on est toujours plus à l’aise avec les personnes qui partagent les mêmes points du vue que nous.
Mais comment lutter contre les #bullesdefiltres que nous imposent ces #médiassociaux et #moteursderecherche ?
Il est nécéssaire que les utilisateurs prennent conscience des biais mis en place par les #algorithmes, afin de réaliser que les informations délivrées sont sélectionnées pour le satisfaire. Image
Les utilisateurs peuvent également diversifier les moteurs de recherche qu’ils utilisent (#Qwant, #DuckduckGo, #Ecosia). Les #algorithmes peuvent varier selon le #moteurderecherche utilisé. Image
Des #plateformes ont également vu le jour pour lutter contre ces #algorithmes.
#Gobo est un agrégateur de #médiassociaux qui propose aux utilisateurs des filtres dont ils peuvent contrôler les paramètres. Lié à #Facebook et #Twitter, il permet de choisir différents paramètres pour accéder aux contenus que proposent ces réseaux.
gobo.social
@VICE a créé une #plateforme permettant d’analyser les #likes d’un utilisateur : Like what you hate.  Ainsi, des contenus susceptible de ne pas être apprécié par l’utilisateur lui seront proposés afin de les liker, d’autres contenus similaires seront présentés par la suite. Image
Cela a pour but de déséquilibrer l’#algorithme #Facebook, ce qui pousse l’utilisateur à réfléchir à d’autres points de vue que le sien et ainsi casser cette fameuse #bulledefiltre.

workingnotworking.com/projects/10557…
Aussi, le documentaire de @netflix #TheSocialDilemma (#derrierenosecransdefumee) met en lumière ce phénomène de stimulation constante des #algorithmes et des bulles dans lesquels nous avons tendance à nous enfermer.
#socialdilemma Image
Merci d’avoir suivi ce #thread, j’espère que vous avez apprécié le lire !
A la prochaine Twitter :)

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with jade raveau

jade raveau Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!

Follow Us on Twitter!

:(