Recherche d’informations

13 Derrière la lentille de recherche : Effets de la recherche sur la société

Effets sociaux

De plus en plus, on a le sentiment que tout ce qui compte est sur le web et devrait être accessible par la recherche1. Comme le dit LM Hinman, “Esse est indicato in Google » (être, c’est être indexé sur Google). Comme il le fait également remarquer, “les citoyens d’une démocratie ne peuvent prendre de décisions éclairées sans avoir accès à des informations fiables.”2,3. Si la démocratie repose sur le libre accès à des informations non distordues, les moteurs de recherche ont une incidence directe sur le degré de démocratie de nos pays. Leur rôle de gardiens du savoir est en conflit direct avec leur nature d’entreprises privées dont les revenus dépendent des publicités. Par conséquent, pour le bien d’une société libre, nous devons exiger la responsabilité des moteurs de recherche et la transparence dans le fonctionnement de leurs algorithmes2.

Création de bulles de filtres

Les systèmes qui recommandent du contenu en fonction des profils des utilisateurs, y compris les moteurs de recherche, peuvent isoler les utilisateurs de l’exposition à des points de vue différents. En alimentant le contenu que l’utilisateur aime, ils créent des biais auto-renforcés et des « bulles de filtre« 2,4. Ces bulles, créées lorsque les connaissances nouvellement acquises sont basées sur les intérêts et les activités passés5, cimentent les biais comme des bases solides de la connaissance. Cela peut devenir particulièrement dangereux lorsqu’il est utilisé avec des esprits jeunes et impressionnables. Ainsi, les discussions ouvertes avec les autres élèves et les enseignants ainsi que les activités d’apprentissage collaboratives devraient être encouragées en classe.

Boucles de rétroaction

Les moteurs de recherche, comme d’autres systèmes de recommandation, prédisent ce qui va intéresser l’utilisateur. Ensuite, lorsque l’utilisateur clique sur ce qui a été recommandé, ils le prennent comme un retour positif. Cette rétroaction influe sur les liens qui seront affichés à l’avenir. Si un utilisateur a cliqué sur le premier lien affiché, est-ce parce qu’il l’a trouvé pertinent ou est-ce simplement parce que c’était le premier résultat et donc plus facile à choisir ?

La rétroaction implicite est délicate à interpréter. Lorsque les prédictions sont basées sur une mauvaise interprétation, les effets sont encore plus délicats à prévoir. Lorsque des résultats d’une certaine nature sont affichés de manière répétée – et sont la seule chose que l’utilisateur arrive à voir – cela peut même finir par changer ce que l’utilisateur aime et n’aime pas : le cas de la prédiction autoréalisatrice.

Dans une ville des États-Unis, un système de police prédictive a été lancé : le système indique les zones d’une ville qui présentent un risque élevé de criminalité. Cela signifie que davantage d’agents de police sont déployés dans ces zones. Comme ces agents savaient que la zone était à haut risque, ils ont été très prudents et ont contrôlé, fouillé ou arrêté plus de personnes qu’ils ne l’auraient fait normalement. Les arrestations ont donc validé la prédiction, même si celle-ci était biaisée au départ. De plus, les arrestations étaient des données pour des prédictions futures sur les mêmes zones et sur des zones similaires, aggravant les biais au fil du temps5.

Nous utilisons des systèmes de prédiction afin de pouvoir agir sur les prédictions. Mais agir sur des prédictions biaisées, affecte les résultats futurs, les personnes impliquées et donc la société elle-même. « En tant qu’effet secondaire de la réalisation de son objectif de récupération d’informations pertinentes, un moteur de recherche changera nécessairement la chose même qu’il vise à mesurer, trier et classer. De même, la plupart des systèmes d’apprentissage automatique affecteront les phénomènes qu’ils prédisent. »5

Fake news, contenu extrême et censure

Il y a une prévalence croissante de fake news (faux récits qui apparaissent comme des actualités) dans les forums en ligne, les sites de médias sociaux et les blogs, tous accessibles aux étudiants par la recherche. De petits groupes focalisés peuvent faire grimper les notes pour des vidéos et des sites Web spécifiques au contenu extrême. Cela accroît la popularité du contenu et son apparence d’authenticité, en jouant avec les algorithmes de classement4. Pourtant, à ce jour, aucune politique claire et explicite n’a été adoptée par les moteurs de recherche pour contrôler les fake news2.

D’autre part, les moteurs de recherche excluent systématiquement certains sites et certains types de sites au profit d’autres6. Ils censurent le contenu de certains auteurs, bien qu’ils ne soient pas sélectionnés par le public pour une telle tâche. Par conséquent, ils doivent être utilisés avec conscience et discernement.


Hillis, K., Petit, M., Jarrett, K., Google and the Culture of Search, Routledge Taylor and Francis, 2013.

2 Tavani, H., Zimmer, M., Search Engines and Ethics, The Stanford Encyclopedia of Philosophy, Fall 2020 Edition), Edward N. Zalta (ed.).

3 Hinman, L. M., Esse Est Indicato in Google: Ethical and Political Issues in Search Engines, International Review of Information Ethics, 3: 19–25, 2005.

4 Milano, S., Taddeo, M., Floridi, L. Recommender systems and their ethical challenges, AI & Soc 35, 957–967, 2020.

5 Barocas, S.,  Hardt, M., Narayanan, A., Fairness and machine learning Limitations and Opportunities, à paraitre.

6 Introna, L. and Nissenbaum, H., Shaping the Web: Why The Politics of Search Engines Matters, The Information Society, 16(3): 169–185, 2000.

Licence

Symbole de Licence Creative Commons Attribution 4.0 International

IA pour les enseignants : un manuel ouvert Copyright © 2024 by Colin de la Higuera et Jotsna Iyer is licensed under a Licence Creative Commons Attribution 4.0 International, except where otherwise noted.

Partagez ce livre