jade raveau Profile picture
👩🏻‍🎨👩🏻‍💻

Dec 16, 2020, 34 tweets

[#Thread]
Hello Twitter !
Dans le cadre d’un cours de culture numérique, enseigné par @Affordanceinfo2, je vous parle aujourd’hui du phénomène des bulles de filtres.
#bulledefiltre #culturenumerique

Utopiquement, Internet représente une fenêtre ouverte sur le monde. Un puit d’informations sans limites, ni frontières.
Cependant un phénomène de restriction de l’information est observé : les bulles de filtres.
Mais en quoi consiste ce phénomène ?

La bulle de filtres, de l’anglais : filter bubble, est un concept développé par @elipariser, un américain, militant d’Internet, directeur général de Upworthy et cofondateur de avaaz.org.

Eli Pariser explique ce concept dans son ouvrage « The Filter Bubble: What The Internet Is Hiding From You » publié en 2011.

Une bulle de filtres c’est l’ensemble des informations personnalisées qui sont présentées à un internaute par les moteurs de recherche et les réseaux sociaux à partir de données collectées à son sujet (bien souvent à son insu).

Ne l'exposant ainsi qu'aux #informations pour lesquelles il a déjà démontré de l’intérêt, il n’est alors confronté qu’à des contenus qui appuient ses propres opinions, avis, envies etc.

Dans la continuité de la #bulledefiltre, @elipariser parle de chambre d’écho : une opinion donnée est amplifiée par l’écho des autres au sein d’une même bulle. Chaque voix résonne et s’amplifie, confortant l’utilisateurs dans ses opinions et choix.

Ce concept de bulle désigne donc la personnalisation d’#Internet en fonction des cookies de l’utilisateur et de l’analyse systématique des données qui l’enferme dans sa propre vision du monde.

Selon cette théorie, des #algorithmes s’appuient sur différentes données collectées pour mettre en avant certains contenus. Chaque internaute accède une une version significativement différente du web. Il est installé dans un bulle unique, optimisée pour sa personnalité supposée.

@elipariser estime que ce phénomène est devenu commun sur les #réseauxsociaux et via les #moteursderecherche.
A partir de différentes #données (historiques de navigation, clics, interactions sociales), ces #algorithmes prédisent ce qui est le plus pertinent pour l’internaute.

[Les #algorithmes personnalisés au cœur du mécanisme]
Des sites comme #Google, #Facebook, #Twitter n’affichent donc pas toutes les informations mais seulement celles sélectionnées pour l’utilisateurs et de manière hiérarchisée selon ses goûts supposées.

Chaque clic, chaque commentaire, chaque minute passée renseigne les #algorithmes sur nos intérêts, ce qui permet aux plateformes de nous envoyer du contenu susceptible de nous plaire. En fonction des traces qu’ont laissé vos anciennes recherches, les résultats seront différents.

Si les #algorithmes considèrent qu’une information n’est pas pertinente pour un internaute, elle ne lui sera pas présentée.

Cette personnalisation algorithmique peut être une bonne chose au premier abord : les contenus qui ne vous plaisent pas ou ne vous intéressent pas ne vous sont pas imposées directement.

Mais finalement ce #filtrage opéré par les #moteursderecherches et agrégateurs de contenus peut déformer des faits, les censurer ou polariser les opinions.
Les bulles de filtres peuvent être une porte ouverte à la #désinformation.

Des #événementspolitiques marquants sont régulièrement utilisés pour illustrer les conséquences des #bullesdefiltres :

L’élection de #DonaldTrump aux #ÉtatsUnis en 2016.

Le vote du #Brexit en #Angleterre.

Ces deux #votes n’ont pas été pris au sérieux par l’opinion public. Les internautes n’ayant accès qu’à un contenu confirmant leurs opinions, ils n'auraient pas pu se rendre compte des nombreuses #opinions diverses les entourant.

Ces méthodes de personnalisation sont omniprésentes sur #Internet, elle permettent essentiellement de vendre aux annonceurs l’attention des utilisateurs.

De nombreux #biaiscognitifs entrent en jeu (classe sociale, éducation etc) quant aux moyens de s’informer et ces bulles ne sont pas aussi « étanches » que le disent certains.
Les « filtres » techniques auraient en réalité moins d’impact.

Une étude effectuée en 2015 par trois chercheurs de l’Université du Michigan, qui ont analysé les appartenances politiques de 10 millions de comptes #Facebook, a pu démontrer que les utilisateurs sont exposés à hauteur de 20% à des opinions politiques qui contredisent les leurs.

Un #rapport publié en 2017 par l’#InstitutReuters conclut également que les utilisateurs de #mediassociaux sont en moyenne exposés à plus de diversité que les non utilisateurs.
journalism.design/journalisme-et…

Ces bulles ne s’appliquent pas seulement sur #Internet mais aussi dans nos échanges sociaux. En effet, on est toujours plus à l’aise avec les personnes qui partagent les mêmes points du vue que nous.

Mais comment lutter contre les #bullesdefiltres que nous imposent ces #médiassociaux et #moteursderecherche ?

Il est nécéssaire que les utilisateurs prennent conscience des biais mis en place par les #algorithmes, afin de réaliser que les informations délivrées sont sélectionnées pour le satisfaire.

Les utilisateurs peuvent également diversifier les moteurs de recherche qu’ils utilisent (#Qwant, #DuckduckGo, #Ecosia). Les #algorithmes peuvent varier selon le #moteurderecherche utilisé.

Des #plateformes ont également vu le jour pour lutter contre ces #algorithmes.

#Gobo est un agrégateur de #médiassociaux qui propose aux utilisateurs des filtres dont ils peuvent contrôler les paramètres. Lié à #Facebook et #Twitter, il permet de choisir différents paramètres pour accéder aux contenus que proposent ces réseaux.
gobo.social

@VICE a créé une #plateforme permettant d’analyser les #likes d’un utilisateur : Like what you hate.  Ainsi, des contenus susceptible de ne pas être apprécié par l’utilisateur lui seront proposés afin de les liker, d’autres contenus similaires seront présentés par la suite.

Cela a pour but de déséquilibrer l’#algorithme #Facebook, ce qui pousse l’utilisateur à réfléchir à d’autres points de vue que le sien et ainsi casser cette fameuse #bulledefiltre.

workingnotworking.com/projects/10557…

Aussi, le documentaire de @netflix #TheSocialDilemma (#derrierenosecransdefumee) met en lumière ce phénomène de stimulation constante des #algorithmes et des bulles dans lesquels nous avons tendance à nous enfermer.
#socialdilemma

Merci d’avoir suivi ce #thread, j’espère que vous avez apprécié le lire !
A la prochaine Twitter :)

Share this Scrolly Tale with your friends.

A Scrolly Tale is a new way to read Twitter threads with a more visually immersive experience.
Discover more beautiful Scrolly Tales like this.

Keep scrolling