Interview | Gefahren der künstlichen Intelligenz - "Wollen wir eine KI erschaffen, die wir nicht verstehen?"
Führende Tech-Experten haben eine Pause bei der Entwicklung künstlicher Intelligenzen gefordert. Im Interview erklärt der Cottbuser KI-Experte Michael Zerna, wo das Problem liegt und warum er eine europäische KI für dringend geboten hält.
Als das Unternehmen OpenAI Ende 2022 seine Künstliche Intelligenz "ChatGPT" öffentlich zugänglich machte, war das für die digitale Welt ein Meilenstein. Erstmals stand die Technologie der breiten Öffentlichkeit zur Verfügung. Nun hat ein offener Brief führender Köpfe der Technologiewelt Aufsehen erregt. Die Unterzeichner, darunter Tesla-Chef Elon Musk und der Apple-Mitgründer Steve Wozniak, fordern darin eine Pause bei der Entwicklung künstlicher Intelligenzen. Sie kritisieren, dass die Technologie in der Hand weniger privater Konzerne liegt, dass nicht bekannt ist, wie genau die KI etwa von OpenAI arbeitet, und befürchten, dass eine Kontrolle der KI durch den Menschen bald nicht mehr möglich sein könnte.
rbb24: Herr Zerna, führende Köpfe der Technologiebranche haben einen Brief veröffentlicht, in dem auf die Gefahren der KI hingewiesen wird. Was ist der Grund für diese Aufregung?
Michael Zerna: Das große Problem ist, dass man überschätzt hat, wie gut man die KI, die aktuell zur Verfügung steht, versteht: wie sie agiert, was sie tut und wie sie Informationen verarbeitet. Das versteht man nicht zu 100 Prozent. Das hat technologische Gründe, aber hauptsächlich liegt es daran, dass eine KI mittlerweile auf so viele Daten zugreifen kann und sogenannte neuronale Netzwerke bilden kann, die nicht mehr untersuchbar sind.
Das kann zu großen Problemen führen, weil die Künstliche Intelligenz zu den größten Errungenschaften der Menschheit gehören wird. Für die, die sich damit beschäftigen, ist das jetzt schon der Fall. Man sieht jetzt schon, welche unglaubliche Leistung die KI in unterschiedlichen Bereichen erzielen kann. Die Frage ist aber: Wollen wir eine Künstliche Intelligenz erschaffen, die wir zum einen nicht verstehen und von der wir nicht wissen wie sie gesteuert wird? Eine KI hat immer einen Besitzer und dieser Besitzer kann steuern, worauf die KI reagiert oder auch was sie bestraft. Dazu gehört etwa Rassismus, was für die meisten Menschen wichtig ist. Sie könnte aber auch konservatives oder liberales Denken befürworten, wenn man sich auf die politische Ebene bewegt, und dafür andere Sachen abstreiten.
Das sind Bedingungen, die von dem Unternehmen, dem die KI gehört, gesteuert werden können. Es gibt da also eine Intransparenz, die ein großes Problem ist. Die wissenschaftlichen Grundlagen hinter dem offenen Brief beziehen sich größtenteils auf diese Bedingungen, das sogenannte Alignment der KI, also wie wird die KI gesteuert, was passiert da genau. Die Frage der Steuerung könnte man vermutlich noch lösen, aber wie genau die KI agiert, diese Black Box, die schon vorhanden ist, versteht man mittlerweile nicht mehr. Selbst der CEO von OpenAI, Sam Altman, hat in einem Podcast gesagt, dass er Menschen verstehen kann, die sehr große Angst haben, dass wir zu einer Künstlichen Intelligenz kommen, die nicht mehr steuerbar ist. Das ist der Chef der aktuell beliebtesten KI, "ChatGPT". Und auch der Cheftechniker von OpenAI befürchtet, dass das Problem des Alignments nicht ernstgenommen wird und welche Auswirkungen das haben kann.
Was kann denn jetzt getan werden, damit uns als Gesellschaft die Technologie nicht völlig entgleitet?
Meiner Meinung nach müssen wir sehr stark auf die Politik eingehen. Die Politik muss aktiv werden, weil wir eine sehr mächtige Technologie erschaffen haben und die Politik muss Transparenz darüber einfordern, wie KIs gesteuert werden. Damit wir wissen, wenn so etwas wie "ChatGPT" lernt und auch mit Menschen interagiert, worauf es trainiert wurde.
Es findet immer eine gewisse Manipulation statt. Damit meine ich nicht unbedingt eine negative Manipulation. Eine KI ist eben programmiert und dementsprechend wird sie immer in eine gewisse Richtung Ergebnisse liefern. Die Lösung für das aktuelle Problem wären also transparente Regeln, wie diese KI gesteuert wird. Und zusätzlich muss die Politik Druck auf die Unternehmen machen, damit dieses Problem, dass man kein hundertprozentiges Verständnis von dem Alignment bekommen wird, gelöst wird.
Wir wollen alle kein System, das sehr wahrscheinlich in ein bis zwei Jahren in allen Bereichen stärker sein wird als der Mensch und das wir in seiner Datengrundlage und in seinen Entscheidungen nicht mehr erkennen und beeinflussen können. Hier muss gehandelt werden, bevor es zu spät ist. Bei "zu spät" reden wir hier nicht von Jahren. Der Nvidia-CEO Jen-Hsun Huang hat in einer Keynote vor Kurzem gesagt, man befinde sich jetzt in einem iPhone-Moment der Technologie. Er meint damit dieses Aha-Erlebnis. Wir wissen alle, wohin wir gekommen sind, seitdem das IPhone erschienen ist. Aber in Sachen KI geht es jetzt sogar erst los. Wir sehen jetzt schon einige sehr starke Systeme, die sehr mächtig sind, aber die Forschung erlebt gerade einen exponentiellen Anstieg an Veröffentlichungen, Hardware-Optimierungen und mächtigere Algorithmen. Die Technologien hinter KIs werden immer besser, aber damit auch die Black Box größer.
Das klingt alles sehr negativ. Wir erschaffen etwas, das wir nicht mehr kontrollieren können. Warum wird denn überhaupt weiter an Künstlichen Intelligenzen gearbeitet? Was ist der Vorteil?
Ich bin persönlich Techniker, aber vor allem ein riesiger Nerd, ein Web-Nerd. Ich kann mich für Technologien im Web-Bereich sehr begeistern. Als ich vor etwa drei Monaten das erste Mal mit "ChatGPT" arbeiten konnte, war das ein Moment, den ich ganz schwer beschreiben kann. Ich habe schon 2017 mit meiner Firma erste KIs programmiert, natürlich auf einer ganz anderen Grundlage. Obwohl ich seit 30 Jahren mit dem Internet arbeite, hatte ich eine Begeisterung, die ich so selten hatte.
Die Möglichkeiten, die KIs bieten, sind gefühlt unendlich. Mit dem Internet haben wir die Möglichkeit erhalten, Wissen zugänglich zu machen, noch zugänglicher als zuvor. Mit KIs, nur als ein Beispiel, haben wir die Möglichkeit, dass wir mit diesem Wissen reden können. Wir haben in Echtzeit immer einen Experten zur Verfügung, für jedes Wissen, das im Internet zur Verfügung steht. Und dieser Experte ist nicht abgehoben und erklärt komplexe Dinge nicht auf einem Level, auf dem wir sie nicht verstehen können. Wir können diesem Experten auch sagen, dass er etwas so erklären soll, als wäre der Nutzer fünf Jahre alt oder zehn Jahre oder auf einem detailierten Hochschulniveau.
Wir können uns also nicht nur das Wissen erklären lassen, sondern es auch so erklären lassen, wie wir es am besten empfinden. Die KI kann auch auf die unterschiedlichen Lernbedarfe von Schülern und Studenten eingehen. Und das ist nur ein Punkt in dem bereich Pädagogik und Wissensvermittlung. Hinzu kommen viele Bereiche, in denen man KI nutzen kann, die man sich heute noch gar nicht vorstellen kann. Allein für die Energiewende, bei riesigen komplexen Daten zur Steuerung von Stromnetzen oder bei der Optimierung von Speichersystemen. Im Prinzip bleibt kein Bereich unberührt. Und das ist in meinen Augen förderbar. Für mich am wichtigsten ist aber nach wie vor, dass wir nicht nur enorm viel Wissen haben, sondern auch mit diesem Wissen interagieren können.
Ein großer Kritikpunkt ist, dass die KIs in den Händen weniger Tech-Konzerne liegen. Wie sollte man damit umgehen?
Es spricht erstmal nichts dagegen, dass Privatfirmen KIs besitzen. Wir werden ohnehin mehrere KIs haben, die öffentlich zugänglich sind. Es gibt schon jetzt ein paar, die bekannteste ist sicherlich "ChatGPT". Jetzt wird die KI auch in die Suchmaschine Bing von Microsoft integriert. Wir werden also mehrere und unterschiedliche KIs haben. Und die unterliegen alle ihrem eigenen Alignment. Das ist der Punkt: Wie sieht das Alignment aus?
Wir befinden uns in einer Demokratie, in der Europäischen Union. Die EU hat Werte, die sie vertritt und die sich aus meiner Sicht leicht auf das Alignment einer KI übertragen lassen. Möchte ich als Europäische Union unterbinden, dass KIs genutzt werden oder möchte ich es fördern, weil die Möglichkeiten natürlich enorm sind? Wenn ja, möchte ich, dass Nutzer Künstliche Intelligenzen von Konzernen nutzen, bei denen ich das Alignment aktuell nicht einsehen kann und bei der ich nicht weiß, wie groß die Black Box hinter dieser KI ist? Oder kann ich als EU nicht eine KI bereitstellen, die die Werte der EU vertritt und die zusätzlich aufgrund der Mittel, die der Union zur Verfügung stehen, noch viel stärker ist? Dann kämen Nutzer gar nicht mehr auf die Idee, private KIs zu nutzen. Aus meiner Sicht ist es eine Pflicht, dass wir eine europäische KI bekommen, die nach unseren Werten programmiert wurde.
Ein weiteres Problem sehen wir gerade in Italien, wo "ChatGPT" aktuell nicht zur Verfügung steht: Wie wird mit den Daten umgegangen, die während der Interaktion mit der KI entstehen? Der Nutzer stellt Fragen, vielleicht auch medizinische oder psychologische. Was passiert damit? Das weiß aktuell niemand. Wenn die Technologie hinter der KI zur Black Box geworden ist, bei der ich nicht mehr weiß, wie sie funktioniert, woher soll ich wissen, was mit den übermittelten Daten passiert? Daher denke ich, dass wir hier handeln müssen. Je länger wir warten, desto mächtiger werden die Systeme. Die neueste Version von "ChatGPT" steht bevor. Wieviel Zeit wollen wir uns lassen, bevor es keinen Weg zurück mehr gibt?
Vielen Dank für das Gespräch!
Das Interview führte Florian Ludwig für Antenne Brandenburg.
Sendung: Antenne Brandenburg, 04.04.2023, 15:10 Uhr