O GENERATIVNI UI
40 Degenerativno, 2. del
Med nevarnosti oz. pomanjkljivosti, ki so specifične za generativno UI spadajo:
Nenatančnost, netočnost in halucinacije: generativni modeli UI hipoma generirajo koherentna, tekoča, človeškim podobna besedila. V hitro proizvedenih rezultatih pa se pogosto skrivajo napačna dejstva, polresnice, izmišljene reference in tudi popolne izmišljotine, ki jim pravimo “halucinacije”1,2. Na dnu začetne strani vmesnika ChatGPT se nahaja obvestilo, ki se nanaša na vse klepete s sistemom, da se lahko zgodi, da “ChatGPT generira netočne informacije o ljudeh, krajih ali dejstvih”1. Zanesljivost sistema ChatGPT je okoli 60 % ali slabša, odvisno od teme2,3.
Še več, ChatGPT je nagnjen k predstavljanju resnic brez dokazov ali kvalifikacij. Če ga posebej povprašamo po referencah, bo morda navedel neobstoječe vire. Lahko se zgodi, da “resnice” oz. dejstva, ki ga je sam navedel v rezultatu, ne bo znal podpreti s prav ničemer4,2. Kljub temu imajo mnogi uporabniki do njega enak odnos kot do “internetnih iskalnikov, knjižničarjev ali celo Wikipedije”5. Ko učitelji ali učenci uporabljajo ChatGPT za pridobivanje informacij, o katerih nimajo predznanja, tvegajo, da se bodo naučili napačnih dejstev ali da bodo drugim predstavili napačno znanje1,5.
Uspeh današnjih velikih jezikovnih modelov je v samem številu parametrov in količini učnih podatkov, ki jih uporabljajo pri modelih (kako si besede sledijo v človeški komunikaciji). Zavedati se moramo, da besedila, ki jih ustvarijo pogovorni modeli, niso povezana s tem, da bi ti modeli ta besedila razumeli, niti niso povezana z nobeno predstavo o resničnosti1. Čeprav lahko sistemi generativne UI bolj ali manj uspešno manipulirajo z oblikovno platjo jezika, pa nimajo dostopa do pomena, ki stoji za temi različnimi oblikami6. “Človeku podobno razmišljanje temelji na možnih razlagah in popravljanju napak. To je proces, skozi katerega se postopoma izluščijo vse bolj racionalne možnosti … Toda ljudje smo omejeni glede vrst razlag, ki lahko predstavljajo naše racionalne domneve, nasprotno pa se sistemi strojnega učenja lahko naučijo obojega: dejstva, da je zemlja ravna in dejstva, da je zemlja okrogla.”7
Prenos ali zmanjšanje moči in nadzora: generativna UI je odvisna od ogromnih količin podatkov, računalniške zmogljivosti in naprednih računskih metod. Le peščica podjetij, držav in jezikov ima dostop do vsega tega. Vendar se je z vse večjim sprejemanjem teh tehnologij večina človeštva prisiljena prilagoditi tej peščici in je, tako odtujena, prisiljena izgubiti svojo moč izražanja1.
Medtem ko ustvarjalci obdržijo moč, odgovornost oddajo zunanjim izvajalcem. Breme saniranja rezultatov sistema ChatGPT je bilo na primer naloženo kenijskim delavcem, “ki so morali temeljito presejati nasilno in motečo vsebino, kot so spolne zlorabe, sovražni govor in nasilje”4.
Kršitve avtorskih pravic in pravic intelektualne lastnine: velik del tehnološkega znanja generativnih sistemov skrbno varujejo podjetja. Toda podatki prihajajo iz domene splošne javnosti1. Ali je sprejemljivo vzeti fotografije, ki so bile javno objavljene na neki platformi, in jih uporabiti brez vednosti ali privolitve oseb iz teh fotografij? Kaj pa, če se na primer obraz nekoga uporabi za rasistično propagando8? Ali je zasebnost vsebin edini način, da blokiramo generativno UI?
Poleg javnih podatkov lahko jezikovni modeli pridobijo vsebine izza “plačilnih” zidov in jih povzamejo na zahtevo uporabnika. Slikovni modeli sestavljajo slike, pri čemer se jasno vidi, da posamezni deli slik vsebujejo vodne žige. Potem je tu tudi vprašanje licenc Creative Commons, kjer avtor svoje delo objavi za javnost, vendar ga je treba navesti vsakič, ko se uporabi, kar modeli lahko storijo – ali pa ne storijo.
Za učitelje to odpira moralna, etična in pravna vprašanja. Če vzamejo vsebino, ki so jo ustvarili modeli, ali jo lahko prosto uporabljajo in objavljajo, kot želijo? Kdo je odgovoren, če je vsebina avtorsko zaščitena ali zaščitena z licenco Creative Commons9? Kako lahko uporabnik sploh ve, da uporablja lastnino drugih ljudi1? Na žalost ni jasnih smernic na to temo. Dokler na tem področju ne bo direktive, moramo vsi počakati, opazovati in ravnati previdno.
Dolgoročni učinki uporabe generativnih UI v izobraževanju: kakšni bodo (bi bili) dolgoročni učinki uporabe generativne UI v izobraževanju, ni znano:
- Pisanje pomaga strukturirati mišljenje. Kako pisanje z generativno UI vpliva na učence? 1
- Ali vpliva na obseg razmišljanja, kritično mišljenje, ustvarjalnost in sposobnost reševanja problemov?1
- Ali se bodo učenci preveč zanašali na generativno UI zaradi enostavnosti dostopa do informacij in rešitev1,10,9?
- Ali bodo učenci še vedno motivirani za raziskovanje sveta in oblikovanje lastnih zaključkov10?
- Ali nas bo posrkalo v nek pogled na svet, ki nima zveze z resničnostjo okoli nas?
- Če bi vse bolj obvladali postavljanje iztočnic (vprašanj, pozivov) – koliko veščin, ki jih imamo sedaj, bi pri tem izgubili?
Osredotočanje na miselne veščine višjega reda in prepuščanje dela UI se morda zdi dobra ideja, a za pridobitev veščin višjega reda je pogosto potrebna ponavljajoča se praksa temeljnih veščin nižjega reda ter vztrajnost in celo frustracija, ki to spremlja1,8. To je potrebno tudi za zmanjšanje zanašanja učencev na tehnologijo za izvajanje osnovnih izračunov, kar spodkopava aktivno človeško delovanje in samozavest, da se sami soočajo s svetom.
Nekateri protiukrepi za zaščito pred potencialno dolgotrajno škodo so lahko:
- uporaba jezikovnih modelov le kot izhodišča za ustvarjanje možnosti in raziskovanje različnih perspektiv, ne pa kot rešitev na enem mestu za vse potrebe10;
- preverjanje rezultatov modelov z neposrednimi eksperimenti ali alternativnimi viri;
- redno obveščanje učitelja10;
- spodbujanje socialnega učenja in večja izpostavljenost ustvarjalnim človeškim učinkom1;
- aktivno iskanje drugih izobraževalnih virov in aktivnosti izven zaslona10;
- poskušati najti druge razlage in načine razmišljanja ter pristopa.
Vedno je dobro biti pozoren na težnjo dodeljevanja lažnih enakovrednosti med ljudmi in stroji ter celo priznavanja superiornosti Gen AI. Na primer, pogosto se trdi, da ljudje ne morejo obdelati toliko podatkov kot UI. Ali je drobljenje gigabajtov in gigabajtov podatkov sploh potrebno za ljudi glede na naše sposobnosti prepoznavanja vzorcev, ekstrapolacije in ustvarjalnosti? Ker lahko UI analizira vsebino 100 knjig v trenutku, ali nujno sledi, da učenec ne bo užival ali imel koristi od ene od teh knjig? Je narediti nekaj hitreje nujno tudi dobra stvar in ukrep, ki ga želimo sprejeti za nas8?
Zavedati se moramo, da otrok današnjega dne ne pripravljamo za svet in tehnologije, ki obstajajo danes. Pripravljamo jih na svet, kakršen bo postal v 10–15 letih8. Način, kako je ChatGPT revolucioniral svet v enem letu, je bolj argument v prid izobraževanu onkraj ChatGPT-ja, kot pa izobraževanju za ChatGPT. Učenci morajo biti sposobni razmišljati s svojo glavo, biti odporni, se prilagajati spremembam in rasti z novimi izzivi, ki jim jih postavlja življenje.
Končni cilj izobraževanja ne more biti produkcija učinkovitih operaterjev inteligentnih strojev ali delovnih mravelj za proizvodno linijo, temveč pomoč pri oblikovanju svobodomiselnih, ustvarjalnih, vzdržljivih in vsestranskih državljanov. Obstajajo kritična vprašanja in dolgoročni učinki, o katerih je treba razmisliti, preden se odločimo, kako najbolje prilagoditi tehnologijo za dosego tega cilja. Te najpomembnejše naloge ne moremo ne naložiti, ne pripisati UI, generativni ali ne.
1 Holmes, W., Miao, F., Guidance for generative AI in education and research, Unesco, Paris, 2023.
2 Tlili, A., Shehata, B., Adarkwah, M.A. et al, What if the devil is my guardian angel: Chat-GPT as a case study of using chatbots in education, Smart Learning Environments, 10, 15 2023.
3 Lewkowycz, A., Andreassen, A., Dohan, D. et al, Solving Quantitative Reasoning Problems with Language Models, Google Research, 2022.
4 Cooper, G., Examining Science Education in ChatGPT: An Exploratory Study of Generative Artificial Intelligence, Journal of Science Education and Technology, 32, 444–452, 2023.
5 Trust, T., Whalen, J., & Mouza, C., Editorial: ChatGPT: Challenges, opportunities, and implications for teacher education, Contemporary Issues in Technology and Teacher Education, 23(1), 2023.
6 Bender, E.M., et al, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery, New York, 610–623, 2021.
7 Chomsky, N., Roberts, I., Watumull, J., Noam Chomsky: The False Promise of Chat-GPT, The New York Times, 2023.
8 Vartiainen, H., Tedre, M., Using artificial intelligence in craft education: crafting with text-to-image generative models, Digital Creativity, 34:1, 1-21, 2023.
9 Becker, B., et al, Programming Is Hard – Or at Least It Used to Be: Educational Opportunities and Challenges of AI Code Generation, Proceedings of the 54th ACM Technical Symposium on Computer Science Education V. 1 (SIGCSE 2023), Association for Computing Machinery, New York, 500–506, 2023.
10 Enkelejda, K., et al, Chatgpt for Good? on Opportunities and Challenges of Large Language Models for Education, EdArXiv, 2023.