Actualités, enquêtes à Lyon et dans la région

« Sur Internet, comme dans la vraie vie, nous sommes enfermés dans notre bulle »

Quels sont les effets des algorithmes générés dans le fonctionnement de Facebook et de Google, sur l’accès à l’information ? De quoi le phénomène de « bulles de filtre » est-il le nom  ?

,

Cet article est en accès libre. Pour soutenir Rue89Lyon, abonnez-vous.

Jérémie Poiroux travaille sur les algorithmes de persuasion. ©DR

Jérémie Poiroux répond. Il a mené une étude sur les « algorithmes de persuasion » au sein du projet Algodiv. Il est par ailleurs co-fondateur des Carnets  Kaïa et du collectif Designers Éthiques.

Ce mardi 10 octobre, de 12h30 à 13h30, il est l’invité de la bibliothèque municipale de la Part-Dieu, dans le cadre du cycle « la fabrique de l’info » (tous les renseignements ici).

>> La rencontre sera animée par Laurent Burlet, journaliste à Rue89Lyon <<

Rue89Lyon. Comment décririez-vous le phénomène des « bulles de filtres » ?

Jérémie Poiroux : La « bulle de filtres » est un concept développé par l’activiste Eli Pariser en 2011. Selon lui, le Web nous enferme car il est de plus en plus personnalisant.

Quand on fait une recherche sur Google, il y a par exemples des critères qui nous sont imposés (lieu, langue). Surtout Google va se souvenir de nos recherche alors qu’on n’a rien coché.
Par exemple, quand on fait une recherche sur Jaguar, dans un cas, c’est l’animal, dans l’autre la voiture qui sortira.

On peut se dire, ça ne change pas grand chose. Mais quand il s’agit de se forger une opinion, cela peut être plus problématique.

Les algorithmes filtrent des informations qui ne sont pas censées nous intéresser. On peut ainsi s’enfermer dans une bulle.

Quel est le problème fondamental lié aux algorithmes ?

Le principal souci est que nous n’avons pas de prise sur ce classement.

Aujourd’hui, des initiatives émergent pour dire qu’il faudrait que l’utilisateur puisse paramétrer l’algorithme. Précisément, pour se rendre compte de ce qu’il y a autour de la bulle et comment cette bulle est « forgée ».

N’est-ce pas aussi notre propre comportement, et pas seulement les algorithmes, qui créent cette « bulle de filtres » ?

Bien sûr. Les machines reproduisent les comportements humains. Sur Facebook, nous sommes plutôt amis avec des personnes avec qui nous sommes amis dans la « vraie vie ».

La « bulle de filtres » algorithmique découle d’un phénomène social. C’est nous qui créons notre propre bulle.

Plusieurs théories existent sur le sujet, notamment celle de la « dissonance cognitive » : on va vers les croyances et les opinions avec lesquelles nous sommes en accord. Internet accentue ce phénomène car il est plus facile d’accéder aux réseaux qui nous ressemblent.

Cela rejoint la théorie des « chambres d’échos » développées par Cass Sunstein au début des années 2000. Les opinions sont les mêmes sur Internet et dans la vraie vie mais Internet vient amplifier ce phénomène, notamment à cause des espaces de communication qui font courir un risque d’enfermement sur eux-mêmes, amplifiant les opinions dominantes et repoussant les autres. Cette configuration mène selon Cass Sunstein à un affaiblissement de la vie citoyenne.

En étant moins soumis à des contenus contradictoires, nous sommes confortés dans nos opinions. La « bulle de filtre » peut donc avoir des effets politiques. C’est notamment ce que mettait en avant Katharine Viner, rédactrice en chef du journal The Guardian, après la victoire du Brexit.

Comme je l’expliquais, ce n’est pas si évident.

S’agissant de Facebook, une étude publiée en mai dernier par la revue Science a montré que l’algorithme ne modifie que de 1% l’exposition aux contenus politique de camps opposés. Facebook est une « chambre d’échos » mais à l’effet limité.

Il faut toutefois prendre cette étude avec beaucoup de précaution puisqu’elle a été initiée par Facebook…
Le réveil douloureux des journalistes au lendemain du Brexit ou de l’élection de Trump montre surtout qu’ils et elles baignaient dans un monde plutôt progressistes (dans le camp du « remain » dans un cas et pro-Clinton dans l’autre).

Certains disent, comme Yves Gonzalez-Quijano, un chercheur spécialisé dans les cultures numériques dans le monde arabe, « les réseaux sociaux, c’est un régime de vérité différent. Car on navigue à travers une succession de filtres générés par les gens que l’on « suit » où que l’on a ajoutés à sa liste d’amis. On ne s’ouvre pas à tous les possibles, au contraire, on a accès à des informations filtrées par un réseau coopté ». Ce n’est pas votre avis.

Les réseaux sociaux viennent renforcer ce phénomène de filtre. Finalement, le Web où l’on va communiquer avec tout le monde n’existe pas et n’a pas peut-être jamais existé. C’est un retour au réel : dans la vraie vie, on n’est pas amis avec tout le monde et nous n’accédons pas (volontairement ou non) à des informations qui viennent d’horizons différents.

Comment faire pour s’ouvrir aux opinions différentes et ne pas rester enfermé dans sa bulle ?

Évidemment, chacun est libre d’utiliser tel ou tel réseau social ou Google. Mais je ne crois pas aux solutions individuelles car la domination de Facebook ou Google est trop massive.

On peut imaginer que chaque utilisateur puisse personnaliser son réseau social ou son moteur de recherche. Au risque que certains squeeze cette étape.

La question est encore plus prégnante pour Facebook qui devrait être considéré comme un média. La déontologie journalistique pourrait donc s’appliquer et passer par le développement du contradictoire et la lutte contre les « fake news » qui trouvent dans ces bulles algorithmiques un terrain propice à leur propagation.

Jérémie Poiroux travaille sur les algorithmes de persuasion. ©DR

#Bibliothèque municipale de Lyon

Activez les notifications pour être alerté des nouveaux articles publiés en lien avec ce sujet.

Voir tous les articles

Autres mots-clés :

Partager
Plus d'options
Quitter la version mobile