So stellt Künstliche Intelligenz künstliche Superintelligenz, die dem Menschen überlegen ist, dar. 1 min
Bildrechte: MDR Wissen mit Hilfe von KI (ChatGPT, Photoshop)
1 min

MDR+ Mo 04.12.2023 16:31Uhr 01:08 min

https://www.mdr.de/wissen/audio-avteaser-agi-102.html

Rechte: MITTELDEUTSCHER RUNDFUNK

Audio

Künstliche Intelligenz Wie nah sind wir der künstlichen Superintelligenz?

05. Dezember 2023, 16:54 Uhr

Gerüchteweise ist OpenAI schon einen Schritt weiter auf dem Weg zu einer künstlichen Intelligenz, die Menschen ebenbürtig oder überlegen ist. Aber selbst wenn das nicht stimmt, ist jetzt die Zeit, darüber zu diskutieren.

Wer sich ein bisschen für die KI-Branche interessiert, hatte in letzter Zeit viel zu lesen. Der Rausschmiss und die anschließende Neuinstallation von Sam Altman als OpenAI-Geschäftsführer, war mehr als nur irgendeine Personaldebatte in der Tech-Branche. Zumal aus Kreisen von OpenAI, dessen Verkaufsschlager ChatGPT inzwischen ein Jahr alt ist, Gerüchte über einen mysteriösen neuen Algorithmus namens Q* (ausgesprochen "Q-Star" beziehungsweise "Kju-Star") durchsickerten.

Q* soll Dinge können, die eine KI bislang nicht konnte. Was genau, weiß niemand außerhalb von OpenAI. Eigenständiges mathematisch-logisches "Denken" wird gemutmaßt. Oder sogar so viel schnelle Rechenpower, dass alle verschlüsselten Daten im Internet in Gefahr wären, entschlüsselt zu werden, was einem Internet-Super-GAU gleichkäme. Oder noch besser oder schlimmer: Q* ebnet den Weg zur sogenannten AGI, der künstlichen Superintelligenz, für die es keine allgemein anerkannte Definition gibt, vor der die Menschheit aber wahrscheinlich Angst haben müsste.

Was ist Artificial General Intelligence (AGI)?

Wenn in der Forschungslandschaft die englisch ausgesprochene Abkürzung AGI ("Ey-Dschie-Ei") verwendet wird, wissen dort sofort alle, was gemeint ist. Diese "Artificial General Intelligence" müsste man auf Deutsch wohl mit einer Umstellung der Wortreihenfolge "Allgemeine Künstliche Intelligenz", besser vielleicht sogar "Allumfassende Künstliche Intelligenz" nennen. Und weil das alles ziemlich sperrig klingt, sagen im deutschen Sprachraum viele einfach "Superintelligenz" dazu.

Was eine KI können muss, um so genannt werden zu dürfen, ist allerdings nicht einheitlich definiert. Muss sie alles besser können als der Mensch? Oder alles nur genauso gut? Oder nur manches besser, aber auf mehreren Gebieten? Kann man beispielsweise ein Auge zudrücken, wenn sie weder Geige noch Fußball spielen kann, aber dafür jedem Menschen in Wissensschatz, Logik, Rechnen und Sprache überlegen ist? Wahrscheinlich schon. Aber die vielleicht wichtigste damit zusammenhängende Frage ist: Wollen wir das?

"Forschung, die sich zum Ziel setzt, heutzutage AGI zu erzeugen, gehört verboten. Punkt."

Holger Hoos, Professor für Methodik der Künstlichen Intelligenz an der RWTH Aachen, hat da eine klare Meinung. "Forschung, die sich zum Ziel setzt, heutzutage AGI zu erzeugen, gehört verboten. Punkt." Das sagt er in einer Expertenrunde beim Science Media Center bewusst plakativ und führt aus, der Grund sei, dass "wenn wir AGI erreichen, wir als Gesellschaft nicht bereit sind, damit auch nur annäherungsweise verantwortungsvoll umzugehen." Es gebe Grenzen, über die man derzeit einfach nicht hinausgehen sollte, "weil die gesellschaftlichen Risiken zu groß sind gegenüber den Vorteilen, die man möglicherweise daraus ziehen könnte".

In eine ähnliche Kerbe schlägt Kristian Kersting, Leiter des Fachgebiets "Maschinelles Lernen" an der TU Darmstadt. AGI-Forschung sei zumindest in Deutschland aus seiner Sicht gar nicht erlaubt. "Denn das Klonen ist in Deutschland verboten. Und ich glaube, es macht keinen Unterschied, ob ich biologisch klone oder mit irgendwelchen Silizium-basierten Schaltkreisen." Generell sehe er auch keinen Sinn darin, ein AGI-System zu bauen.

Holger Hoos pflichtet ihm bei. "Es ist völlig unklar, warum es ein großer Vorteil sein sollte, diese ganzen Fähigkeiten in ein System zu packen. Es kann manchmal viel besser sein, wenn man spezialisiertere Werkzeuge für bestimmte Zwecke hat." Es gebe schon jetzt sehr gute Mathe- und Logikwerkzeuge, die für die Gesellschaft wahnsinnig wertvoll sind. "Über die wird nur aus irgendwelchen Gründen nicht so viel geredet. Und manchmal frage ich mich, ob die Gründe nicht was damit zu tun haben, wer diese Forschung macht. Denn in dieser Art von Forschung sind die großen Unternehmen, die ja auch Dinge verkaufen möchten, eben nicht führend. Sondern da sind eher akademische Forschungsgruppen in der Führung, nach wie vor."

Große Firmen bestimmen die Gesprächsthemen, aber forschen hinter verschlossenen Türen

"Wir sollten mal anfangen, über uns und darüber, was wir hier machen, zu reden und darüber, was wir in Europa haben wollen", findet Kristian Kersting. Und das dürfe in Europa nicht so laufen wie derzeit in den USA, sind sich die Experten einig. Zu wissen, wie ein Algorithmus funktioniert und warum er so funktioniert, sei elementar wichtig. "Und da haben wir natürlich ein großes Problem damit, dass diese Art von Spitzenforschung verstärkt nur noch hinter verschlossenen Türen von ein paar großen globalen Firmen stattfindet", sagt Holger Hoos.

So können für die ganze Gesellschaft legitime und wichtige Fragen nicht mehr beantwortet werden. Und das sei, so Hoos, das extrem Gefährliche an der derzeitigen Entwicklung. "Weil nämlich immer mehr von der Technologie, die auf die Gesellschaft so oder so einen großen Einfluss hat, hinter verschlossenen, und zwar hermetisch verschlossenen Labortüren entwickelt wird." Da helfe es auch nichts, wenn die großen Sprachmodelle (LLMs) Open Source seien. Denn damit wisse man immer noch nicht genau, wie sie funktionieren, auf welchen Daten sie trainiert wurden und wie sie sich im Ernstfall verhalten. Man brauche einen komplett transparenten Prozess, der zu diesen Modellen führt.

Je größer die KI, desto mehr Energie benötigt sie

Ein weiterer Punkt, der gegen eine "Superintelligenz" (AGI) spricht, ist die Energiefrage. Markus Lewicki, Vizerektor für künstliche Intelligenz und Leiter der Forschungsgruppe "Maschinelles Lernen" an der Luleå University of Technology in Schweden, geht sogar so weit zu sagen, dass es schon deshalb in naher Zukunft keine AGI geben wird, weil der Energiebedarf für ein solches System viel zu groß wäre. "Allein jetzt, wenn ich eine ChatGPT-Anfrage mache, brauche ich zehnmal mehr Energie als wenn ich eine Google-Anfrage mache. Und das wird noch schlimmer, je größer die Modelle in der Zukunft werden."

Die derzeitige Richtung, immer größere Modelle immer aufwendiger zu trainieren, hält auch Holger Hoos für "hochgradig problematisch", wie er sagt. "Ich finde, wir sollten gerade in Europa, aber auch weltweit einen großen Fokus darauf setzen, kleinere Systeme zu bauen, die vielleicht aus kleineren Mengen hochwertigerer Daten bessere Schlüsse ziehen können, aufgrund dieser Daten besser operieren können und uns dabei helfen können, uns den Herausforderungen unserer Zeit zu stellen." Das sei es, was Gesellschaft und Menschheit viel dringender brauchen als eine Superintelligenz in einem einzigen System.

"Wir wollen KI, die uns hilft, unsere Schwächen zu erkennen und auszugleichen und die uns die Bereiche, in denen wir stark sind, im Wesentlichen weiterhin überlässt. Das ist meine Definition von menschzentrierter KI", sagt Holger Hoos, "und die ist kompatibel mit der der Europäischen Union. Das ist eine gute Sache."

(rr)

Mehr zum Thema

5 Kommentare

MDR-Team vor 20 Wochen

Hallo Quantix,
danke für den Hinweis, da hatte sich wohl der Fehlerteufel eingeschlichen. Wir haben ihn verscheucht und den Fehler korrigiert.
Freundliche Grüße vom MDR-WISSEN-Team

dimehl vor 20 Wochen

Zum Einen:
ein Verbot der Forschung hinsichtlich einer AGI ist sinnlos: irgendjemand hält sich bestimmt nicht daran (analog den Klonverboten).
Zum Anderen:
ein Verbot wird den nächsten Entwicklungsschritt von der natürlichen zur künstlichen Intelligenz nicht aufhalten.
Der Mensch ist nur eine Zwischenstufe und nicht die "Krone der Schöpfung".

steka vor 20 Wochen

Aber waren Wissenschaftler nicht schon oft skruphellos, die Hauptsache was erfinden, egal welche Folgen es hat, ob Giftgas, V-2 Raketen, Atombomben, und jetzt künstliche Intelligenz. Irgendwie kommt mir das jetzt vor wie beim "Zauberlehling", nur ist keine da der ruf "in die Ecke Beseb seist geweisen.
Was ist wenn die "künstliche Intelligenz" dann feststellt "das größte Übel ist der Mensch" und Dank der bereits durch menschen erfundenen Kriegsprogramme die Menschheit ausrottet ? Und sie ist dann nicht mehr zu stoppen.