1er mois à 1€

Actualités, enquêtes à Lyon et dans la région

Dominique Cardon : « Il faut s’attaquer aux algorithmes, partout où ils sont »

La sixième édition de l’European Lab débute à Lyon. Ce forum interroge la culture, son rôle dans un « monde de demain » en grande partie numérique et dans lequel il sera difficile de faire sans les algorithmes. Des calculateurs pas si neutres tant ils proposent une représentation du monde pr-éconstruite en triant et présentant l’information. Et tant ils finissent par en savoir sur nous, avec notre consentement sur les réseaux sociaux.

Cet article est en accès libre. Pour soutenir Rue89Lyon, abonnez-vous.

Dominique Cardon : « Il faut s’attaquer aux algorithmes, partout où ils sont »

Dominique Cardon, chercheur à l’Orange Lab et professeur associé à l’université de Marne-la-Vallée, a publié en 2015 « A quoi rêvent les algorithmes ? Nos rêves à l’heure du big data ». Il participera à à la conférence « Pour un humanisme numérique ». Pour lui,  il ne faut pas les craindre mais apprendre à mieux les comprendre pour « être moins aliéné ».

Dominique Cardon sociologue français, chercheur au laboratoire des usages Orange Labs.
Dominique Cardon sociologue français, chercheur au laboratoire des usages Orange Labs.

Rue89Lyon : Pourquoi les algorithmes suscitent parfois beaucoup de méfiance  ?

Dominique Cardon : Le rapport aux automates est ancien et joue dans les deux sens, en réalité. Soit on considère qu’ils sont idiots et font des calculs bêtes et simplistes, on leur prête alors  peu de pouvoirs. Soit on considère qu’il y a une intelligence dans l’automate qui viendrait concurrencer ou destituer l’esprit humain dans sa capacité de jugement et d’interprétation.

Ce qui est mal posé dans ce débat c’est l’idée qu’il y ait une frontière entre les hommes et les artefacts. En fait, on fait corps avec ces machines, on s’est associés à elles. Notre esprit et notre intelligence est liée à leur présence. Leur force et parfois leur subtilité sont liés au fait que nous les avons conçues.

La question à se poser et comment voulons-nous nous associer à ces artefacts techniques ? Quels genres de liens avons-nous avec ces outils ?

Mais on est déjà accro aux algorithmes, parfois même sans le savoir ?

Pour les algorithmes numériques, le paradoxe est que sans eux il est probable qu’on ne puisse pas faire grand-chose sur le web. Pour beaucoup d’informations du web on a besoin qu’il y ait une machine qui calcule et organise l’information. On a confié à un moteur de recherche proposé par Google d’être la technique par laquelle on découvre l’information sur le web. Et cette technique est menacée notamment par l’entreprise qui l’a créée et qui est devenue une immense agence de marketing et de publicité.

Quel est le danger de s’en remettre à Google pour trouver de l’information ?

L’esprit pionnier du pagerank est très proche de celui des pionniers de l’internet. L’information n’est plus choisie par les journalistes mais elle est le produit de l’agrégation des jugements des internautes qui publient des liens hypertexte sur le web. Le calcul de la circulation des liens qu’on a faits entre les idées est une approximation de la qualité des informations. Il y a alors un effet écrasant et incontestable des plus cités. Mais parmi toutes les techniques possibles ce n’est sans doute pas la plus mauvaise !

Google apprend du lien sur lequel l’internaute a cliqué pour développer des modèles de personnalisation dont le principe serait de dire, même s’il s’en défend pour le moment : « après tout si une personne ne lit que des sites de droite on n’a qu’à lui montrer que des sites de droite ». Cette personnalisation commence aussi à agir sur d’autres types de contenus et ça pose plein de questions.

« Les algorithmes font voir aux utilisateurs qu’ils sont assez monotones et réguliers dans leurs déplacements, dans leurs achats, dans leurs choix amoureux, musicaux…« 

Apprend-on alors réellement des choses grâce aux moteurs de recherche ou sur les réseaux sociaux s’ils ne font que nous renvoyer ce avec quoi nous sommes en accord ou qui nous est familier et proche ?

On veut à la fois trouver des choses qui ressemblent à ce qu’on a l’habitude d’aimer et en même temps que la fenêtre ne soit pas fermée sur d’autres possibles, même si on les consulte peu. Les techniques de calcul de l’information des algorithmes doivent présenter à l’utilisateur des informations selon une variété de principes. Et c’est important d’en discuter à mon sens.

Est-ce que j’ai vraiment envie de voir des informations que je ne consulte pas ? Savoir pour un mot-clé ce que des journaux d’un bord politique opposé ont écrit ? Les algorithmes façonnent l’environnement informationnel dans lequel ensuite l’internaute a l’impression de faire des choix libres. Mais il exerce cette liberté dans un environnement pré-construit.

Il faut discuter de ces règles parce que l’algorithme peut me faire croire que le monde a telle couleur uniquement parce que mes habitudes m’ont conduit à dessiner l’univers de cette manière. Ça concerne Google mais surtout des systèmes qui fonctionnent sur les affinités comme Facebook. Si on veut éviter ça, la recommandation serait de choisir des amis qui ne nous ressemblent pas !

Les algorithmes nous en disent plus finalement sur ce que nous sommes plutôt que sur ce que nous serons ?

Les algorithmes de prédiction ne travaillent pas la boule de cristal. Ils calculent le passé et font des statistiques. Ils essayent de trouver des logiques dans les données pour imaginer le comportement futur. Alors, les algorithmes font voir aux utilisateurs qu’ils sont assez monotones et réguliers dans leurs déplacements, dans leurs achats, dans leurs choix amoureux, musicaux…

Même quand on est éclectique musicalement il y a des structures de goût. Une fois identifiées, l’algorithme de Spotify ou Deezer devient un moyen pour l’utilisateur de prolonger ce qu’il a l’habitude d’aimer mais aussi de découvrir des choses proches de ce qu’il aime. Tout cela parce que d’autres utilisateurs proches de ses propres structures de goût ont l’habitude d’écouter cette musique. Et la plupart du temps on fait une découverte heureuse.

« Chacun a l’impression, surtout sur les réseaux sociaux, que son Twitter et son Facebook ressemblent à ses propres usages« 

Comment peut-on prendre la main sur les algorithmes ? Faut-il leur mentir ? Les hacker ?

Il faut les critiquer de tous les côtés ! Il faut surtout éduquer pour les comprendre. Actuellement cela se fait quand même dans une grande méconnaissance. Il faut que des gens extérieurs aux plateformes les auditent. Il faut vérifier qu’ils soient loyaux, qu’ils ne trichent pas. C’est un enjeu important.

Et puis il n’y a pas de raison que les plateformes ne proposent pas à l’utilisateur de paramétrer le genre de choix algorithmiques qui vont être faits. On peut imaginer des curseurs qui permettent de privilégier la variété ou non. Il en existe des petits. Mais on n’est au début de cette histoire. Il faut un travail éducatif critique de la part des utilisateurs pour qu’ils le réclament parce que les plateformes ont peu de raison de le faire. Elles ne montrent pas beaucoup de choses qui nous permettent de « dézoomer » de soi-même, de nous dire « voilà ce que les autres sont en train de faire ».

Par exemple, je trouve que les Trending Topics de Twitter n’ont pas fait un seul progrès depuis le début. On pourrait mieux voir les conversations qui ont lieu actuellement sur Twitter pour sortir de sa propre timeline.

Ce qui manque à ces outils numériques, c’est le fait de nous donner une carte où on voit la diversité des mondes. Chacun a l’impression, surtout sur les réseaux sociaux, que son Twitter et son Facebook ressemblent à ses propres usages. Réaliser qu’ils sont extraordinairement situés socialement et politiquement alors qu’il y a une diversité d’univers, ça permet de ne pas prendre sa pratique comme celle unique.

« Que Pôle Emploi utilise mal les bases de données à sa disposition, c’est probable. Dire qu’il suffirait de mieux le faire pour régler le problème du chômage, c’est prophétique« 

Avec les big data, pourra-t-on réellement tout prédire ?

Autour de l’intelligence artificielle et du big data, il y a des gens qui font des promesses mais qui ne sont jamais allés regarder à l’intérieur d’une base de données. C’est un problème car leurs spéculations font croire au big data comme une sorte de grand mythe transformateur de la société. Il est probable que ce qui va sortir de tout ça soit différent de ce qu’annoncent ces grands prophètes.

La science en action est toujours plus intéressante que les prophètes de l’intelligence artificielle qui font des théories transhumanistes.

Google, Facebook ou Amazon, toutes ces grandes plateformes sont privées et monétisent nos données. Les États ou les structures publiques savent-elles aussi utiliser les algorithmes et analyser les données pour mieux mener leurs politiques ?

Les algorithmes au sens informatique ce sont des choses publiques, toutes les techniques sont assez connues. Le vrai secret ce sont les réglages, ce qu’on appelle les variables métiers.  Quelles données on entre, lesquelles on sort, les curseurs, à quel degré on place les taux…

Le calculateur il n’est pas secret et sont souvent en open source. Le traitement statistique massif des données est présent dans l’univers scientifique depuis longtemps, dans le monde biomédical dont une partie est public, dans la météo…

Alors, peut-on l’appliquer au monde politique ? Les États qui disposent de beaucoup de données intéressantes les sous-exploitent. Mais il ne faut pas imaginer qu’on va pouvoir régler tous les problèmes en les exploitant mieux.

Que Pôle Emploi utilise mal les bases de données à sa disposition et qu’elles ne les enrichissent pas avec d’autres données qui permettraient de faire de meilleurs appareillement sur la marché de l’emploi, c’est probable. Dire qu’il suffirait de mieux le faire pour régler le problème du chômage, c’est prophétique.

Il y a une crainte assez forte d’atteintes à la vie privée. On veut protéger ses données, sa réputation en demandent un droit à l’oubli à Google, certains craignent même le nouveau compteur électrique intelligent Linky. Mais dans le même temps on livre sur un plateau quantité de données personnelles notamment sur les réseaux sociaux. Pourquoi ?

C’est le paradoxe de la vie privée. Les gens sont plutôt conscients que c’est un univers extrêmement risqué. Les risques apparaissent plus fortement aux yeux des utilisateurs avec l’affaire Snowden, l’invasion publicitaire mais cela rétroagit peu dans les pratiques. Pourtant les utilisateurs sont de plus en plus éduqués, socialisés et moins naïfs. Pourtant ça ne décourage pas la pratique.

Les économistes disent depuis longtemps que les gens font un arbitrage classique coût/bénéfice. Il est probable je pense que, par moment, on n’arbitre pas. Il faut qu’on arrête de penser que les gens ont choisi l’utilité contre la protection de leurs données. En fait, ils pensent qu’on leur extorque leurs données sans que ça n’ait de conséquences si terribles. Mais ça n’empêche pas aux défiances de se mettre en place. Le régulateur devrait s’en occuper plus fortement.

European Lab, du 4 au 6 mai à Lyon (au musée des Confluences).


#numérique

Activez les notifications pour être alerté des nouveaux articles publiés en lien avec ce sujet.

Voir tous les articles

Autres mots-clés :

Partager
Plus d'options