Poslušanje, govorjenje in pisanje

32 Homogenizacija, nevidnost in onkraj: v smeri etične UI

Homogenizacija

Veliko denarja, računalniških virov, časa in truda je vloženega v ustvarjanje sklopov podatkov, meril in algoritmov za strojno učenje. To še posebej velja za globoko učenje in obsežne modele. Zato je smiselno, da se ustvarjeni viri znotraj teh ekosistemov adelijo. To velja za številne sisteme strojnega učenja, ki jih pogosto uporabljamo. Tudi če gre za različne končne produkte, ki so jih ustvarila različna podjetja, so jim metodologija, sklopi podatkov, knjižnice strojnega učenja in vrednotenja pogosto skupne1. Zato so njihovi rezultati pod podobnimi pogoji podobni.

Če je rezultat strojnego učenja izobraževalna odločitev, je to lahko, seveda, skrb zbujajoče za učenca, ki je bil neupravičeno prikrajšan za določeno priložnost za izobraževanje1. Toda ali gre pri algoritemski homogenizaciji za krivico, lahko ugotavljamo le za vsak posamezen primer posebej1.

Če pa je naloga sistema npr. pomagati učencu pri pisanju, to postavlja v središče standardizacijo stilov pisanja, besedišča in s tem vzorcev mišljenja. Jezikovni modeli, uporabljeni v takšnih primerih, predvidijo najverjetnejše besedile na podlagi sklopa učnih podatkov, na katerem so se učili. Ti sklopi podatkov, če že niso skupni sistemom, so zgrajeni na podoben način, pogosto s pomočjo javnih podatkov, dostopnih na internetu. Toda tudi če so ti podatki pregledani v smislu pristranskosti, predsodkov in skrajnih vsebin, predstavljajo le majhen ekosistem in ne celega sveta z vsemi raznolikimi idejami, kulturami in praksami. Dokazano je, da sistemi za predvidevanje besedil, ki temeljijo na globokem učenju in se uporabljajo za SMS sporočila in e-pošto, spreminjajo način, kako ljudje pišemo: jezik postaja “bolj zgoščen, bolj predvidljiv in manj bogat”2.

Nevidnost

Zaporedja besed, ki se ponavljajo v učnih podatkih, si po kapljicah utirajo pot med rezultate velikih jezikovnih modelov. Tako imajo ustvarjalci baz podatkov moč nadzirati alternativna mnenja in množične izraze idej. Brez ustreznih pedagoških intervencij bi lahko to v učilnicah posledično začelo omejevati ustvarjalnost in izvirnost učencev, kar ne bi privedlo le do formalističnega pisanja, ampak potencialno do okrnjene sposobnosti kritičnega mišljenja in s tem v splošnem do manj barvitega sveta3.

Z negativnimi posledicami strojnega učenja vključno z zgoraj opisano homogenizacijo, je tesno povezano dejstvo, da so tehnologije postale tako napredne, da je vmesnik človek-stroj brezšiven in praktično neviden. Ne glede na to, ali gre za iskalnike, ki so integrirani v naslovno vrstico okna brskalnika, ali za intuitivno predvidevanje besedila brez časovnega zamika med pisanjem, predvidevanjem in izbiro predlogov, pogosto delujemo pod vplivom tehnologije, ne da bi se tega zavedali ali imeli imeli možnost zadeve upočasniti in o njih ponovno razmisliti ter sprejeti lastno odločitev. Še več, ko uporaba tehnologij pri sprejemanju odločitev postane navada, ponavadi povsem pozabimo, da te tehnologije sploh obstajajo4. “Ko se navadimo na tehnologije, jih nehamo opazovati in namesto tega gledamo le še skoznje, v iskanju informacij ali aktivnosti, ki nam jih njihova uporaba omogoča.” To vzbuja tako zelo resne pomisleke glede aktivnega človeškega delovanja, transparentnosti in zaupanja, da nekateri strokovnjaki priporočajo, zlasti ko gre za mlade ume, naj postanejo vmesniki vidnejši in celo bolj togi4.

Onkraj: v smeri etične UI

V tem priročniku ves čas govorimo o pedagoških, etičnih in družbenih vplivih UI, zlasti na podatkih temlječe UI (oglejte si poglavja: V ozadju: učinki spletnega iskanja na posameznikaTežave s podatki: osebna identiteta ter Človeško delovanje). Težave z iskalniki smo obravnavali v poglavjih V ozadju: učinki spletnega iskanja na posameznika / družbo; o prilagodljivih učnih sistemih smo govorilli v poglavju Druga plat prilagodljivih učnih sistemov; o generativni UI v poglavju Degenerativna UI. Na več mestih v opisujemo ukrepe za izboljšanje določenih težav v učilnici. Upamo, da bodo ti ukrepi vse manj potrebni z razvojem zanesljivih etičnih sistemov UI za izobraževanje. Etična UI bi morala biti razvita, uvedena in uporabljana v skladu z etičnimi normami in načeli5 ter bi morala biti odgovorna in odporna.

Ker prepuščamo toliko moči modelom UI in njihovim programerjem, prodajalcem in ocenjevalcem, je edino razumno, da od njih zahtevamo transparentnost ter prevzemanje odgovornosti za napake, ko gre kaj narobe6. Potrebujemo sporazume o ravni storitev (SLA), v katerih bodo jasno opisani “podporne in vzdrževalne storitve ter koraki, ki jih je treba sprejeti za reševanje prijavljenih težav”5.

Odporna UI bi sprejela svoje nepopolnosti, jih predvidela in kljub njim vseeno delovala. Pri odpornih sistemih UI bi se pojavljale predvidljive napake in obstajali bi protokoli za obravnavo takšnih napak6.

V izobraževanju bi morala etično UI voditi na uporabnika osredotočena načela oblikovanja, in upoštevani bi morali biti vsi vidiki izobraževanja7. Učitelji bi morali imeti možnost preverjati njeno delovanje, razumeti njene razlage, preglasiti njene odločitve ali začasno ustaviti njeno uporabo8. Takšni sistemi bi razbremenili učitelje, jim omogočili podroben vpogled v učence in jih podpirali pri izvajanju bolj kakovostnega izobraževanja8. Uporabnikom in okolju ne bi povzročali škode ter bi izboljšali socialno in čustveno dobrobit učencev in učiteljev5.

Dokler pa ta čas ne nastopi, se bodo morali učitelji truditi razvijati in aktivno sodelovati v skupnosti sodelavcev, da bi ozaveščali druge in sebe o tej problematiki, delili izkušnje in najboljše prakse ter prepoznali zanesljive ponudnike storitev UI. V svoje razprave in odločitve bi lahko vključili učence in starše, da bi skupaj bolje obravnavali različne pomisleke v okoljih, prežetih z zaupanjem in kolegialnostjo. Vsekakor učiteljem priporočamo, da se po svojih najboljših močeh trudijo biti na tekočem z najnovejšimi trendi na področju AIED in pridobivajo kompetence, kadarkoli in kjerkoli je to mogoče5.


Bommasani, R., et al, Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome Homogenization?, Advances in Neural Information Processing Systems, 2022

Varshney, L., Respect for Human Autonomy in Recommender System, 3rd FAccTRec Workshop on Responsible Recommendation, 2020

3 Holmes, W., Miao, F., Guidance for generative AI in education and research, Unesco, Paris, 2023

4 Susser, D., Invisible Influence: Artificial Intelligence and the Ethics of Adaptive Choice Architectures, Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society, Association for Computing Machinery, New York, 403–408, 2019

5 Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators, European Commission, October 2022

6 Schneier, B., Data and Goliath: The Hidden Battles to Capture Your Data and Control Your World, W. W. Norton & Company, 2015.

7 Tlili, A., Shehata, B., Adarkwah, M.A. et al, What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education, Smart Learning Environments, 10, 15 2023

8 U.S. Department of Education, Office of Educational Technology, Artificial Intelligence and Future of Teaching and Learning: Insights and Recommendations, Washington, DC, 2023.

Licence

Icon for the Creative Commons Attribution 4.0 International License

UI za učitelje: interaktivni spletni priročnik Copyright © 2024 by Colin de la Higuera and Jotsna Iyer is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Share This Book