Il reperimento delle informazioni

13 Dietro la lente di ricerca: effetti della ricerca sulla società

Effetti sociali

Si ha sempre più la sensazione che tutto ciò che conta sia sul web e che debba essere accessibile attraverso la ricerca1. Come dice LM Hinman, “Esse est indicato in Google (essere è essere indicizzati su Google)”. Come osserva anche l’autore, “in una democrazia i cittadini non possono prendere decisioni informate senza avere accesso a informazioni precise”2,3. Se la democrazia si basa sul libero accesso a informazioni non distorte, i motori di ricerca influenzano direttamente la democraticità dei nostri Paesi. Il loro ruolo di custodi della conoscenza è in diretto conflitto con la loro natura di aziende private che dipendono dagli annunci pubblicitari per ottenere un reddito. Pertanto, per il bene di una società libera, dobbiamo chiedere responsabilità ai motori di ricerca e trasparenza nel funzionamento dei loro algoritmi2.

Creazione di bolle di filtraggio

I sistemi che raccomandano contenuti in base ai profili degli utenti, compresi i motori di ricerca, possono isolare gli utenti dall’esposizione a punti di vista diversi. Alimentando i contenuti che piacciono all’utente, creano pregiudizi che si auto-rinforzano e “bolle di filtraggio”2,4. Queste bolle, che si creano quando le nuove conoscenze acquisite si basano su interessi e attività passate5, cementano i pregiudizi come solide fondamenta della conoscenza. Questo potrebbe diventare particolarmente pericoloso se usato con menti giovani e impressionabili. Per questo motivo, in classe si dovrebbero promuovere discussioni aperte con i compagni e gli insegnanti e attività di apprendimento colloborativo.

Cicli di feedback

I motori di ricerca, come altri sistemi di raccomandazione, prevedono ciò che interesserà all’utente. Poi, quando l’utente clicca su ciò che è stato raccomandato, lo considera un feedback positivo. Questo feedback influisce sui link visualizzati in futuro. Se un utente clicca sul primo link visualizzato, è perché lo trova rilevante o semplicemente perché è il primo risultato e quindi più facile da scegliere?

Il feedback implicito è difficile da interpretare. Quando le previsioni si basano su un’interpretazione errata, gli effetti sono ancora più difficili da prevedere. Quando i risultati di una certa natura vengono mostrati ripetutamente – e sono l’unica cosa che l’utente vede – possono persino finire per cambiare ciò che piace o non piace all’utente: il caso della previsione che si autoavvera.

In una città degli Stati Uniti è stato lanciato un sistema di polizia predittiva che indica le aree della città ad alto rischio di criminalità. Ciò significa che un maggior numero di agenti di polizia viene dispiegato in tali aree. Poiché questi agenti sapevano che la zona era ad alto rischio, sono stati molto attenti e hanno fermato, perquisito o arrestato più persone di quanto avrebbero fatto normalmente. Gli arresti hanno quindi convalidato la previsione, anche se la previsione era stata falsata in partenza. Non solo, gli arresti sono stati i dati per le previsioni future sulle stesse aree e su aree simili, aggravando i pregiudizi nel tempo5.

Utilizziamo sistemi di previsione per poter agire in base alle previsioni. Ma agire su previsioni distorte influisce sui risultati futuri, sulle persone coinvolte e quindi sulla società stessa. “Come effetto collaterale dell’adempimento del suo scopo di recuperare informazioni rilevanti, un motore di ricerca cambierà necessariamente ciò che mira a misurare, ordinare e classificare. Allo stesso modo, la maggior parte dei sistemi di apprendimento automatico influisce sui fenomeni che prevede”5.

Fake news, contenuti estremi e censura

C’è una crescente diffusione di fake news (storie false che appaiono come notizie) nei forum online, nei siti di social media e nei blog, tutti disponibili agli studenti attraverso la ricerca. Piccoli gruppi mirati di persone possono far salire le valutazioni di specifici video e siti web di contenuto estremo. Questo aumenta la popolarità del contenuto e l’apparenza di autenticità, giocando con gli algoritmi di classificazione4. Tuttavia, ad oggi, non esiste una politica chiara ed esplicita adottata dalle società di motori di ricerca per controllare le fake news2.

D’altra parte, i motori di ricerca escludono sistematicamente alcuni siti e alcuni tipi di siti a favore di altri6. Censurano i contenuti di alcuni autori, nonostante non siano stati selezionati dal pubblico per tale compito. Pertanto, devono essere utilizzati con consapevolezza e discriminazione.


Hillis, K., Petit, M., Jarrett, K., Google and the Culture of Search, Routledge Taylor and Francis, 2013.

2 Tavani, H., Zimmer, M., Search Engines and Ethics, The Stanford Encyclopedia of Philosophy, Fall 2020 Edition), Edward N. Zalta (ed.).

3 Hinman, L. M., Esse Est Indicato in Google: Ethical and Political Issues in Search Engines, International Review of Information Ethics, 3: 19–25, 2005.

4 Milano, S., Taddeo, M., Floridi, L. Recommender systems and their ethical challenges, AI & Soc 35, 957–967, 2020.

5 Barocas, S.,  Hardt, M., Narayanan, A., Fairness and machine learning Limitations and Opportunities, yet to be published.

6 Introna, L. and Nissenbaum, H., Shaping the Web: Why The Politics of Search Engines Matters, The Information Society, 16(3): 169–185, 2000.

Licenza

Icon for the Creative Commons Attribution 4.0 International License

IA per gli insegnanti: un libro aperto Copyright © by Colin de la Higuera and Jotsna Iyer is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Condividi questo libro