ZUSÄTZLICHER INHALT
Die Diskussion über die möglichen Gefahren von KI verstehen
Im März 20231 und im Mai 20232 wurden zwei Petitionen/offene Briefe veröffentlicht, die in beiden Fällen von Hunderten renommierter Wissenschaftlerinnen und Wissenschaftler sowie KI-Spezialisten aus der Industrie unterzeichnet wurden und vor einigen der Gefahren von KI warnten. Was wollen wir darüber wissen?
Handelt es sich um eine interessante Frage für Lehrkräfte?
Bei reiferen Schülern wird sich die Frage nach den Risiken der KI für die Zivilisation stellen, und auch wenn keine Lehrkraft verpflichtet ist, auf alle Fragen eine eindeutige Antwort zu geben, ist es fair, die Grundzüge der Kontroverse zu verstehen.
Sollte man als Lehrkraft nur über die technischen Aspekte eines Themas sprechen und die menschlichen, wirtschaftlichen, philosophischen Fragen den Fachleuten überlassen?
Dies ist eine interessante Frage, bei der die Meinungen auseinandergehen. Sollte ein Physiklehrer über Hiroshima oder Tschernobyl Bescheid wissen? Sollte ein Gespräch über diese Themen in der Klasse stattfinden? Oder sollte eine Lehrkraft im Falle von künstlicher Intelligenz nur in der Lage sein, eine Software sicher zu benutzen und ganz generell nur verstehen, wie sie funktioniert? Oder sollte sie auch in der Lage sein, die laufenden Diskussionen über die Fragen zu verstehen, die sich für die Gesellschaft im Zusammenhang mit KI stellen?
Die Unesco (und eine Reihe von Expertinnen und Experten) vertreten den Standpunkt, dass es bei der künstlichen Intelligenz nicht nur um Technologie geht und dass eine Lehrkraft ein Verständnis für ethische Fragen haben sollte, was auch die Auswirkungen der KI auf die Gesellschaft, die Zivilisation oder die Menschheit umfasst.
Handelt es sich um neue Fragen?
Einige der Fragen zu den Gefahren der KI werden schon seit längerer Zeit gestellt. Die Frage, was passiert, wenn die künstliche Intelligenz der menschlichen Intelligenz „überlegen” ist, wird schon seit langem diskutiert. Irving Good4, ein ehemaliger Kollege von Alan Turing, führte bereits 1965 den Begriff der technologischen Singularität ein, um zu suggerieren, dass die KI, sobald sie intelligenter als der Mensch oder superintelligent sei, nicht mehr aufzuhalten sein würde. Good beriet anschließend Stanley Kubrick bei „2001: Odyssey im Weltraum”, einem Film (nicht nur) über eine KI, die aus dem Ruder läuft.
Die Positionen
Der Text des ersten Dokuments1 warnte davor, dass KI Gutes und Schlechtes zugleich bewirken könne, dass die Auswirkungen auf die Gesellschaft und die Arbeitsplätze beträchtlich sein könnten, und brachte die Vorstellung ein, dass die KI nicht nur Menschen in beschwerlichen und unbeliebten Berufen ersetzen werde, sondern auch die Arbeitsplätze betreffen werde, die sich die Menschen ausgesucht haben. Darüber hinaus zögen die Entwicklungen der KI gesellschaftliche Entwicklungen nach sich und die üblichen demokratischen Mechanismen des Wandels kämen nicht zum Tragen.
Im zweiten Text2 bestand das zusätzliche Risiko darin, dass die KI aus dem Ruder laufen könnte (oder Varianten dieses Szenarios), was zum Ende der menschlichen Zivilisation führen könnte.
Aus dieser Diskussion ging eine dritte Position hervor3: dass die KI in der Tat Anlass zur Besorgnis gäbe, aber nicht aus existenziellen Gründen, die die dringenderen Probleme überdecken.
Ist diese Diskussion abgeschlossen?
Nein, die Diskussion ist noch nicht vorbei. Einige Wissenschaftlerinnen und Wissenschaftler behaupten immer noch, dass es viele Risiken gäbe, dass diese Technologien zu schnell wachsen würden und dass eine Regulierung erforderlich sei. Andere sind der Meinung, dass die KI derzeit im Wesentlichen nur Vorteile mit sich bringen würde und dass wir zwar vorsichtig sein sollten, aber nicht ängstlich.
Es ist schwer zu sagen, welche Meinung den Sieg davonträgt, wer Recht oder Unrecht hat. In vielerlei Hinsicht erinnert die Diskussion an diejenigen, die nach 1945 in der Physik geführt wurde.
Ein gemeinsamer Standpunkt ist die Forderung nach einer Regulierung, auch wenn es (noch) keine Definition von einer Regulierung gibt, mit der alle einverstanden sind.
Kann es einen vernünftigen Standpunkt geben?
Eigentlich sind beide Standpunkte sehr vernünftig. Die aktuellen Fakten scheinen für die Enthusiasten zu sprechen (KI ermöglicht fantastische Fortschritte in der Medizin, der Landwirtschaft, der Klimaanalyse, den Sprachen und der Kommunikation), aber das Argument, dass wir als Menschen schon immer Antworten gefunden haben, hat auch ernste Grenzen.
Wo kann ich mehr über diese Diskussion herausfinden?
Aufgeschlossene Menschen (oder Lehrkräfte) können auf zahlreiche Quellen zurückgreifen. Blogs, zuverlässige Websites und Positionspapiere sowie Videos von führenden Wissenschaftlern (alle Wissenschaften: auch Historiker und Philosophen haben viel zu sagen).
1 https://futureoflife.org/open-letter/pause-giant-ai-experiments/
2 https://www.safe.ai/statement-on-ai-risk#open-letter
4 https://www.historyofinformation.com/detail.php?id=2142
5 https://en.wikipedia.org/wiki/I._J._Good