Generative KI

40 Die negative Seite – Teil 2

Zu den besonderen Gefahren der generativen KI gehören:

Ungenauigkeiten und „Halluzinationen“: Generative Modelle sind ein wahres Wunder, wenn es darum geht, eine kohärente, fließende, menschenähnliche Sprache zu erzeugen. Hinter all dieser Gewandheit verbergen sich faktische Fehler, eingeschränkte Wahrheiten, erfundene Referenzen und reine Fiktion, die als „Halluzinationen” bezeichnet wird“1,2. Am unteren Rand der ChatGPT-Schnittstelle, als Untermalung der Unterhaltung, steht der Hinweis, dass „ChatGPT möglicherweise ungenaue Informationen über Personen, Orte oder Fakten liefert”1. Die Genauigkeit von ChatGPT kann je nach Thema bei 60 % oder darunter liegen2,3.

Erschwerend kommt hinzu, dass ChatGPT dazu neigt, Tatsachen ohne Belege oder Einschränkungen zu präsentieren. Wenn man nach Referenzen fragt, kann sie Quellen herbeizaubern, die nicht existieren oder die nicht die Tatsache, wie sie im Text dargestellt wird, belegen4,2. Dennoch neigen viele Nutzer dazu, sie wie eine „Internet-Suchmaschine, eine Bibliothek oder sogar Wikipedia”5 zu benutzen. Wenn sie von einer Lehrkraft oder einem Lernenden genutzt wird, um Informationen zu erhalten, über die sie keine Vorkenntnisse haben, laufen diese Gefahr, das Falsche zu lernen oder anderen falsches Wissen zu vermitteln1,5.

Der Erfolg der heutigen LLMs liegt in der schieren Anzahl der Parameter und der Menge der Trainingsdaten, die sie nutzen, um zu imitieren, wie Wörter in der menschlichen Kommunikation zusammengefügt werden. Lehrende und Lernende sollten sich immer vor Augen halten, dass der Text, der durch konversationelle Modelle generiert wird, nicht beinhaltet, dass der Text von diesen Modellen verstanden wird oder sie gar eine Vorstellung von der Realität haben1. Sie können zwar die sprachliche Form mit mehr oder weniger großem Erfolg beeinflussen, aber sie haben keinen Zugang zu der Bedeutung, die dahinter steht6. „Menschliches Denken basiert auf möglichen Erklärungen und Fehlerkorrekturen, ein Prozess, der die Möglichkeiten, die rational in Betracht gezogen werden können, allmählich einschränkt… Während Menschen nur auf Erklärungen, die wir rational akzeptieren können, beschränkt sind, können maschinelle Lernsysteme sowohl lernen, dass die Erde flach ist, als auch, dass die Erde rund ist.”7

Verlagerung oder Verschärfung von Macht und Kontrolle: Generative KI ist auf riesige Datenmengen, Rechenleistung und fortschrittliche Datenverarbeitungsmethoden angewiesen. Nur eine Handvoll von Unternehmen, Ländern und Sprachen hat Zugang zu all diesen Möglichkeiten. Doch je mehr Menschen diese Technologien annehmen, desto mehr wird ein Großteil der Menschheit gezwungen, sich ihnen anzupassen, wodurch sie entfremdet wird und ihre Ausdruckskraft verliert1.

Die Schöpfer behalten zwar die Macht, lagern aber die Verantwortung aus. So wurde beispielsweise die Aufgabe, den Output von ChatGPT zu säubern, kenianischen Mitarbeitern übertragen, „die gewalttätige und verstörende Inhalte, wie sexuellen Missbrauch, Hassreden und Gewalt sichten mussten”4.

Verstöße gegen das Urheberrecht und geistiges Eigentum: Ein Großteil des technologischen Know-hows generativer Systeme wird hinter den Mauern der Unternehmen gehütet. Die Daten entstammen jedoch der Allgemeinheit1. Ist es in Ordnung, Bilder zu nehmen, die auf irgendeiner Plattform veröffentlicht wurden und sie ohne das Wissen oder die Zustimmung der Betroffenen zu verwenden? Was ist, wenn das Gesicht einer Person zum Beispiel für rassistische Propaganda verwendet wird8? Ist die einzige Möglichkeit, Gen-KI zu blockieren, die Privatisierung von Inhalten?

Neben öffentlichen Daten können Language Models auch Inhalte hinter Bezahlschranken zugänglich machen und für die Nutzer zusammenfassen. Es ist bekannt, dass Bildmodelle Bilder zusammensetzen, deren Teile eindeutig Wasserzeichen aufweisen. Es gibt auch das Problem der Creative-Commons-Lizenzen, bei denen ein Autor sein Werk der Öffentlichkeit zugänglich macht, aber jedes Mal zitiert werden muss, wenn es verwendet wird, was die Modelle manchmal tun und manchmal nicht tun.

Für Lehrkräfte wirft dies moralische, ethische und rechtliche Fragen auf. Wenn sie von Modellen erstellte Inhalte übernehmen, können sie diese dann nach Wunsch verwenden und veröffentlichen? Wer ist haftbar, wenn das Bild urheberrechtlich geschützt ist oder unter der Creative-Commons-Lizenz steht9? Woher soll der Nutzer überhaupt wissen, dass er das Eigentum anderer Leute verwendet1? Leider gibt es keine klaren Leitlinien zu diesem Thema. Wir müssen abwarten und vorsichtig vorgehen, bis eine Richtlinie vorliegt.

Langfristige Auswirkungen des Einsatzes von generativer KI im Bildungswesen: Bei allen Möglichkeiten, wie generative KI in der Bildung eingesetzt werden könnte, ist nicht klar, welche langfristigen Auswirkungen ein solcher Einsatz haben würde:

  • Da der Akt des Schreibens auch das Denken strukturiert, wie würde sich das Schreiben nach den Entwürfen der Gen-KI auf die Schülerinnen und Schüler auswirken?1
  • Würde es sich auf den Denkspielraum, das kritische Denken, die Kreativität und die Problemlösungsfähigkeit auswirken?1
  • Würden sich die Schülerinnen und Schüler aufgrund der Leichtigkeit, mit der Informationen und Lösungen abgerufen werden können, zu sehr darauf verlassen1,10,9?
  • Würden die Lernender immer noch motiviert sein, die Welt zu erforschen und ihre eigenen Schlussfolgerungen zu ziehen10?
  • Würden wir dadurch zu einer Weltanschauung gelangen, die von der Realität um uns herum abgekoppelt ist?
  • Wie viele Fähigkeiten würden verlieren, wenn wir die Eingabetechnik immer besser beherrschen?

Während es eine gute Idee ist, sich auf höhere Fähigkeiten zu konzentrieren und die Routinearbeit der KI zu überlassen, sind wiederholtes Üben von grundlegenden einfachen Fähigkeiten und die damit verbundene Ausdauer und sogar Frustration oft notwendig, um höhere Fähigkeiten zu erwerben1,8. Dies ist auch notwendig, um die Abhängigkeit der Lernenden von der Technologie bei der Durchführung grundlegender Berechnungen zu verringern, denn dies untergräbt die menschliche Handlungsfähigkeit und außerdem ihr Vertrauen, sich der Welt alleine zu stellen.

Einige Gegenmaßnahmen zur Vermeidung potenzieller langfristiger Schäden könnten sein:

  • Language Models nur als Ausgangspunkt verwenden, um Möglichkeiten zu schaffen und verschiedene Perspektiven zu untersuchen, und nicht als Einheitslösung für alle Bedürfnisse10;
  • Überprüfung der Ergebnisse der Modelle durch direkte Experimente oder alternative Quellen;
  • Die Lehrkraft immer in den Prozess miteinzubeziehen10;
  • Das soziale Lerne und die verstärkte Auseinandersetzung mit kreativen menschlichen Leistungen fördern1;
  • Aktive Suche nach anderen Bildungsressourcen und Aktivitäten außerhalb des Bildschirms10;
  • Suche nach anderen Erklärungen, Denk- und Vorgehensweisen.

Es ist immer gut, sich vor der Tendenz zu hüten, Mensch und Maschine gleichzusetzen und der KI sogar eine Überlegenheit zuzugestehen. So wird zum Beispiel oft behauptet, dass Menschen nicht so viele Daten verarbeiten können wie eine KI. Ist das Verarbeiten von endlosen Mengen Daten-Gigabytes für den Menschen überhaupt notwendig, wenn man unsere Fähigkeiten zur Mustererkennung, Extrapolation und Kreativität berücksichtigt? Wenn eine KI den Inhalt von 100 Büchern in einem Wimpernschlag analysieren kann, folgt daraus dann zwangsläufig, dass eine Schülerin oder ein Schüler keines dieser Bücher genießen oder davon profitieren kann? Ist das Schnellermachen einer Sache unbedingt immer gut und etwas, das wir übernehmen wollen8?

Wir müssen in Betracht ziehen, dass Kinder nicht für die Welt und die Technologien, die heute existieren, ausgebildet werden. Sie werden auf eine Welt vorbereitet, die erst in 10 bis 15 Jahren entstehen wird, oder es werden ihnen die Fähigkeiten vermittelt, sich auf diese Welt vorzubereiten8. Die Art und Weise, wie ChatGPT innerhalb eines Jahres alles revolutioniert hat, spricht eher für eine Bildung über ChatGPT hinaus als für eine Bildung für ChatGPT. Die Schülerinnen und Schüler müssen in der Lage sein, selbstständig zu denken, sich an Veränderungen anzupassen und an den neuen Herausforderungen des Lebens zu wachsen.

Das ultimative Ziel der Bildung kann nicht darin bestehen, effiziente Bediener intelligenter Maschinen oder Arbeitsameisen für das Fließband zu produzieren, sondern darin, frei denkende, kreative, belastbare und Bürgerinnen und Bürger mit vollentfalteter Persönlichkeit auszubilden. Bevor man sich entscheidet, wie man eine Technologie zur Erreichung dieses Ziels am besten einsetzt, müssen kritische Fragen erörtert und die langfristigen Auswirkungen geprüft werden. Dies, und das ist das Wichtigste von allem, was in diesem Text besprochen wird, kann nicht der KI überlassen werden, ob sie nun generativ ist oder nicht


1 Holmes, W., Miao, F., Guidance for generative AI in education and research, Unesco, Paris, 2023.

2 Tlili, A., Shehata, B., Adarkwah, M.A. et al, What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education, Smart Learning Environments, 10, 15 2023.

3 Lewkowycz, A., Andreassen, A.,  Dohan, D. et al, Solving Quantitative Reasoning Problems with Language Models, Google Research, 2022.

4 Cooper, G., Examining Science Education in ChatGPT: An Exploratory Study of Generative Artificial Intelligence, Journal of Science Education and Technology, 32, 444–452, 2023.

5 Trust, T., Whalen, J., & Mouza, C., Editorial: ChatGPT: Challenges, opportunities, and implications for teacher education, Contemporary Issues in Technology and Teacher Education, 23(1), 2023.

6 Bender, E.M., et al, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery, New York, 610–623, 2021.

7 Chomsky, N., Roberts, I., Watumull, J., Noam Chomsky: The False Promise of ChatGPT, The New York Times, 2023.

8 Vartiainen, H., Tedre, M., Using artificial intelligence in craft education: crafting with text-to-image generative models, Digital Creativity, 34:1, 1-21, 2023.

Becker, B., et al, Programming Is Hard – Or at Least It Used to Be: Educational Opportunities and Challenges of AI Code Generation, Proceedings of the 54th ACM Technical Symposium on Computer Science Education V. 1 (SIGCSE 2023), Association for Computing Machinery, New York, 500–506, 2023.

10 Enkelejda, K., et al, Chatgpt for Good? on Opportunities and Challenges of Large Language Models for Education, EdArXiv, 2023.

License

Icon for the Creative Commons Attribution 4.0 International License

KI für Lehrkräfte : ein offenes Lehrbuch Copyright © 2024 by Colin de la Higuera und Jotsna Iyer is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Share This Book