Iskanje informacij

13 V ozadju: učinki spletnega iskanja na družbo

Socialni učinki

Danes v svetu vedno bolj prevladuje občutek, da se vse, kar je pomembno, nahaja na spletu in da bi moralo biti vse to dostopno s pomočjo spletnega iskanja1. L. M. Hinman pravi: “Esse est indicato in Google” (Biti pomeni biti indeksiran na Googlu), in dodaja: “državljani v demokratično urejeni državi ne morejo sprejemati informiranih odločitev brez dostopa do točnih informacij2,3.” Če demokracija temelji na prostem dostopu do neizkrivljenih informacij, potem iskalniki neposredno vplivajo na to, kako demokratične so naše države. Njihova vloga varuhov znanja je v neposrednem nasprotju z njihovo naravo zasebnih podjetij, katerih prihodki so odvisni od oglasov. Zato moramo v imenu svobodne družbe vztrajati pri odgovornosti iskalnikov in preglednosti delovanja algoritmov, ki jih poganjajo2.

Vzpostavljanje filtrirnih mehurčkov

Sistemi, ki priporočajo vsebine na podlagi uporabniških profilov (vključno s spletnimi iskalniki), lahko uporabnike izolirajo pred izpostavljenostjo raznolikim pogledom. S podajanjem vsebin, ki so uporabniku všeč, spodbujajo pristranskost, ki krepi sama sebe, in t. i. “filtrirne mehurčke”2,4. Takšni mehurčki, ki nastanejo, kadar novo pridobljeno znanje temelji na preteklih interesih in aktivnostih5, zacementirajo predsodke kot trdne temelje znanja. To je še posebej nevarno za mlade, zelo dovzetne glave. Zato je potrebno v učilnicah spodbujati odprte razprave z vrstniki in učitelji ter aktivnosti sodelovalnega učenja.

Povratne zanke

Iskalniki in drugi sistemi za generiranje priporočil predvidevajo, kaj bo uporabnika zanimalo. Ko uporabnik klikne na priporočeno vsebino, je to pozitivna povratna informacija. Ta povratna informacija vpliva na to, katere povezave bodo prikazane v prihodnosti. Pa je uporabnik res kliknil na prvo prikazano povezavo zato, ker se mu je zdela ustrezna, ali preprosto zato, ker je bil to prvi rezultat in ga je bilo zato lažje izbrati?

Implicitne povratne informacije je težko interpretirati. Kadar napovedi temeljijo na nepravilni intrepretaciji, je učinke še težje napovedati. Kadar se določeni rezultati prikažejo večkrat, in če so edino, kar uporabnik vidi, potem se lahko zares spremenijo celo uporabnikove preference (kaj mu je všeč in kaj ne). Temu bi lahko rekli samouresničujoča se prerokba.

V nekem mestu v ZDA so uvedli sistem predvidevanja za uporabo v policiji: sistem opozarja, v katerih predelih mesta obstaja veliko tveganje za kriminaliteto. To pomeni, da so na takšna območja pošiljali več policistov. Ker so policisti vedeli, da so ta območja izpostavljena visoki stopnji tveganja, so bili zelo previdni in so ustavili, preiskali ali aretirali več ljudi kot sicer. Aretacije so tako potrdile napoved (predvidevanje), tudi če je bila v osnovi pristranska. Ne samo to, aretacije so služile kot vhodni podatki za nadaljnje napovedi na istih in podobnih območjih, s čimer se je pristranskost sčasoma še povečala5.

Sisteme za napovedovanje uporabljamo zato, da lahko na podlagi napovedi ukrepamo. Toda delovanje na podlagi pristranskih napovedi vpliva na prihodnje izide, na vpletene ljudi in s tem na družbo samo. “Kot stranski učinek izpolnjevanja svojega namena pridobivanja ustreznih informacij bo iskalnik nujno spremenil prav tisto, kar želi meriti, razvrščati in rangirati. Podobno bo večina sistemov strojnega učenja vplivala na pojave, ki jih napoveduje5.”

Lažne novice, ekstremne vsebine in cenzura

Na spletnih forumih, družabnih omrežjih in blogih, ki so učencem na voljo prek iskanja, je vse več lažnih novic. Majhne, ciljno usmerjene skupine ljudi lahko zvišujejo ocene določenih videoposnetkov in spletnih strani z ekstremnimi vsebinami. S tem se poveča priljubljenost takšnih vsebin in okrepi videz avtentičnosti, kar izigrava algoritme razvrščanja4. Vendar pa med podjetji na trgu do danes še ni zasnovane nobene jasne, nedvoumne politike za nadzor nad lažnimi novicami2.

Po drugi strani pa iskalniki sistematično izključujejo določena spletna mesta v korist drugih6. Cenzurirajo vsebine nekaterih avtorjev, čeprav jih javnost ni pooblastila za to nalogo. Zato je treba spletne iskalnike vselej uporabljati ozaveščeno in previdno.


Hillis, K., Petit, M., Jarrett, K., Google and the Culture of Search, Routledge Taylor and Francis, 2013.

2 Tavani, H., Zimmer, M., Search Engines and Ethics, The Stanford Encyclopedia of Philosophy, Fall 2020 Edition), Edward N. Zalta (ed.).

3 Hinman, L. M., Esse Est Indicato in Google: Ethical and Political Issues in Search Engines, International Review of Information Ethics, 3: 19–25, 2005.

4 Milano, S., Taddeo, M., Floridi, L. Recommender systems and their ethical challenges, AI & Soc 35, 957–967, 2020.

5 Barocas, S.,  Hardt, M., Narayanan, A., Fairness and machine learning Limitations and Opportunities, yet to be published.

6 Introna, L. and Nissenbaum, H., Shaping the Web: Why The Politics of Search Engines Matters, The Information Society, 16(3): 169–185, 2000.

Licence

Icon for the Creative Commons Attribution 4.0 International License

UI za učitelje: interaktivni spletni priročnik Copyright © 2024 by Colin de la Higuera and Jotsna Iyer is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Share This Book