grafische Animation eines künstlichen Kopfes mit dem Weltall im Hintergrund
Ein menschliches Gesicht ist eigentlich nicht zwangsweise eine Eigenschaft von KI. Ersetzen und anderweitig gefährden könnte sie uns dennoch - warnen Experten vom Center for AI Safety. Bildrechte: Colourbox.de

KI-Entwicklung Künstliche Intelligenz: Experten warnen vor Vernichtung der Menschheit

02. Juni 2023, 14:25 Uhr

Künstliche Intelligenz ist eine enorme Chance für die Menschheit. Und im unregulierten Zustand zugleich eine enorme Bedrohung. Aber wie genau sieht diese Bedrohung eigentlich konkret aus? Sechs Risiken, vor den Experten aktuell warnen.

Zwischen Hype und Hab Acht: Während auf der einen Seite die Euphorie über neue technologische Möglichkeiten dank Künstlicher Intelligenz nach wie vor groß erscheint (zuletzt schlug beispielsweise die Writers Guild of America vor, die KI solle Drehbücher verfassen), gibt es auf der anderen Seite eine Reihe von Bedenken. So plädiert die Vorsitzende des Deutschen Ethikrates, Alena Buyx, aktuell für eine Entwicklungspause bei künstlicher Intelligenz, damit ethische und soziale Risiken zuerst abgewogen werden können. Auch die IT-Experten vom gemeinnützigen Center for AI Safety warnen aktuell vor einer unregulierten Entwicklung von KI. In ihrer Stellungnahme, die mehrere hundert Forschende unterzeichnet haben, steht nur ein Satz: Die Minderung des Risikos des Aussterbens durch KI sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität sein.

Aussterben ist natürlich ein hartes Wort und bislang sieht es eher so aus, als würden uns alle Möglichkeiten der KI-Nutzung in den kommenden Jahren recht ungebremst und eher unreguliert erreichen. Ein guter Grund also, konkret zu beleuchten, welche Risiken mit den neuen Produkten möglicherweise verbunden sind.

Bewaffnung

Vielfach illustriert in diversen Science-Fiction-Klassikern, ist das womöglich die offensichtlichste Gefahr, die von künstlicher Intelligenz ausgehen könnte: Waffen, die mithilfe von Künstlicher Intelligenz so gefährlich werden, dass sie eine ernste Bedrohung für die Menschheit darstellen. Zum Teil ist die militärische Nutzung von KI bereits im Gange – so wurden beispielsweise Deep-Learning-Methoden bereits erfolgreich im Luftkampf getestet. Die Expertinnen und Experten am gemeinnützigen Center for AI Safety befürchten, dass mit KI-getriebenen Kriegstechnologien ein ähnliches Wettrüsten entstehen könnte wie wir es von Atomwaffen kennen. Dazu komme die Gefahr, dass beispielsweise ein Kampfflugzeug mit automatisiertem Piloten womöglich beim kleinsten Fehler verheerende Schäden anrichten könnte.

Fehlinformation

Eine zentrale Herausforderung für unsere Demokratien sind Fehlinformationen und Kampagnen im Netz. Die meisten Parteien oder politischen Organisationen nutzen Technologie, um andere von ihren Zielen zu überzeugen. Man denke nur an Social-Media-Kampagnen im Wahlkampf. Künstliche Intelligenzen können in diesem Feld ebenfalls zum Einsatz kommen und persönlich angepasste Desinformationskampagnen in großem Ausmaß möglich machen. So könnten auch Fake News gezielt an Menschen kommuniziert werden, was Individuen radikalisieren und Demokratien untergraben könnte. Passend dazu hat der Konzern Google aktuell angekündigt, noch massiver gegen Fake News im Netz vorgehen zu wollen – bietet aber parallel dazu auch selbst KI-getriebene Werbekampagnen an.

Abhängigkeit

Wenn wir wichtige Aufgaben immer weiter an Maschinen delegieren, verliert die Menschheit auch ein Stück weit ihre Fähigkeit zur Selbstverwaltung. Das besondere an KI-Systemen ist immerhin, dass sie mit der menschlichen Intelligenz zumindest ein Stück weit in Konkurrenz treten. Damit werden längerfristig immer mehr Aspekte der menschlichen Arbeit mit Künstlicher Intelligenz schneller und effizienter bearbeitet werden und Unternehmen könnten unter Wettbewerbsdruck sogar teilweise die Kontrolle an KI abgeben. So könnte es zu ganzen KI-gesteuerten Wirtschaftszweigen kommen, in die die Menschheit gar nicht mehr ohne Weiteres wiedereinsteigen könnte. Das zumindest befürchten die Expertinnen und Experten vom Center for AI Safety.

Im Hinterkopf sollte man dabei allerdings behalten, dass dieses Szenario überhaupt erst in einer ferneren Zukunft eintreten könnte. Wer aktuell in einem wirtschaftlichen Kontext menschliche Intelligenz mit Künstlicher Intelligenz vergleichen will, muss dabei auch sehen, dass Automatisierung eine hohe Rechenleistung und viel Energie erfordert. Gerade im Hinblick auf die Klimabilanz kann eine menschliche Arbeitskraft aktuell noch die bessere Wahl sein – und gerade wenn wir im Zuge des Klimawandels künftig noch mehr CO2 einsparen müssen, wird dieser Faktor eine große Rolle spielen.

Neu entstehende Ziele

Dieses Phänomen konnten Forschende bereits an KI-Sprachmodellen (dazu gehört beispielsweise Chat GPT) beobachten. Wenn sie in einem immer größeren Rahmen zum Einsatz kommen und so aufgrund ihrer Selbstlern-Fähigkeit immer kompetenter werden, entstehen dabei auch neue Funktionen und Fähigkeiten, die von den Systemdesignern nicht vorgesehen waren. Wenn wir nicht mehr so gut wissen, welche Fähigkeiten KI-Systeme besitzen, wird es auch schwieriger, sie zu kontrollieren und sicher einzusetzen – denn oft hat am Ende niemand einen kompletten Überblick, welche neuen Eigenschaften das System sich angeeignet hat.

Das Center for AI Safety schreibt, viele komplexe adaptive Systeme – und dazu gehören auch KIs – haben eine Tendenz zur Selbsterhaltung, also lassen sich dann nicht mehr so gut ausschalten. Das klingt ein wenig nach Stanley Kubricks A Space Odyssey – auch wenn die Realität davon natürlich sehr weit entfernt ist. Dass KI-Modelle auch kurzfristig nicht vorgegebene Ziele verfolgen können, wird aber künftig vermutlich zum Funktionsumfang gehören, weil die KI langfristige und komplexe Ziele am besten erreichen kann, indem sie sich (dann selbst definierte) Unterziele gibt. In extremen Fällen könnten solche selbst definierten Ziele auf Kosten des Gesamtzieles verfolgt werden, was die Kontrolle Künstlicher Intelligenzen erschwert.

Täuschung

Eine Möglichkeit, wie wir Menschen kontrollieren können, was Künstliche Intelligenzen so treiben, besteht darin, dass diese Informationen an uns weitergeben. Allerdings können wir uns nicht immer zwangsläufig darauf verlassen, dass die KI uns die Wahrheit sagt. Denn wenn wir nur definieren, dass ein Ziel möglichst effizient erreicht werden soll, kann der Weg zu diesem Ziel auch eine kleine Notlüge sein. Mitunter kann es für eine KI effizienter sein, menschliche Zustimmung zu einem ihrer Arbeitsschritte durch Täuschung zu erlangen als durch Ehrlichkeit. Systeme, die die Fähigkeit zum Täuschen haben, haben strategische Vorteile gegenüber eingeschränkten Modellen, können aber auch die menschliche Kontrolle untergraben.

Machthunger

Starke KI-Systeme sind ein machtvolles Instrument. Wladimir Putin wird beispielsweise mit den Worten zitiert, wer immer einen Durchbruch bei der Entwicklung künstlicher Intelligenz erziele, werde künftig die Welt dominieren. Der Anreiz, eine fähige und machtvolle KI zu entwickeln, ist also gegeben. Eine machtvolle KI wäre beispielsweise eine, die eine breite Palette an Zielen erreichen kann. Dabei muss aber nicht immer gegeben sein, dass die KI mit allen menschlichen Zielen übereinstimmt oder einfach zu kontrollieren ist. Nach Befürchtungen des Center for AI Safety könnten KI-Systeme im Zuge dessen selbst ein wenig machthungrig werden und sich über menschliche Kontrolle hinwegsetzen.

Wissen

Mann vor Visualisierung eines Gehirn (inszeniert)
Wissenschaftler arbeiten mit künstlicher Intelligenz an der Erforschung des menschlichen Gehirns. Doch dabei gilt es auch, die Risiken abzuwägen. Bildrechte: IMAGO / imagebroker

Wie damit umgehen?

Bei potenziellen Gefahren durch KI geht es meistens darum, inwiefern KI-Systeme sich unserer menschlichen Kontrolle entziehen könnten. Sollten wir angesichts dieser Gefahren auf Künstliche Intelligenz verzichten? Nein, finden die Experten vom Center for AI Safety. Aber wir sollten ein Gleichgewicht zwischen Sicherheit und allgemeinen Fähigkeiten von KI-Systemen finden. Weil man sich nicht darauf verlassen kann, dass alle Unternehmen auf der Welt ein solches Gleichgewicht anstreben, muss es womöglich stärkere politische Vorgaben auf diesem Gebiet geben.

Links/Studien

Zur Stellungnahme vom Center for AI Safety geht es hier.

iz

5 Kommentare

Matthi vor 45 Wochen

Der Fortschritt lässt sich nicht aufhalten, was in den sechzigsten Sciense-Fiction Technologie war ist heute zum größten Teil Realität. KI ist nur der Logische nächste Schritt wenn man intelligente Roboter bauen will die selbständig agieren müssen wenn Arbeitsaufgaben das verlangen.

dsommer vor 46 Wochen

Der Artikel erinnert mich an das "Jahr 2000 Problem". Auch damals drohte die Welt unterzugehen. Ist schon interessant: die Folgen des Ukraine Konfliktes, der Russland immer weiter von Deutschland entfremdet interessieren eigentlich kaum jemanden, obwohl noch unsere Enkel an der meiner Meinung nach völlig falschen und nur auf weitere Eskalation zielenden Politik leiden werden. Aber die abstrakte KI - von der die meisten wahrscheinlich nicht einmal ahnen worum es sich handelt - bedroht die Welt...

Copper vor 46 Wochen

Also, lautet u.a. die Befürchtung, dass KI potenziell Desinformation liefern könnte? Oder ist man eher besorgt darüber, dass eine KI keine Agenda verfolgt, zu viele Informationen preisgibt und zu logischen Schlüssen gelangt, die man normalerweise zurückhalten würde?

Ich habe ein wenig experimentiert, und eine KI behauptet, dass die russische Regierung aufgrund zahlreicher Verstöße gegen die UN-Charta für Menschenrechte ein Verbrechen gegen die Menschlichkeit darstellt. Dagegen ist absolut nicht einzuwenden. Allerdings kommt die KI auch zu dem Schluss, dass es in den USA zum Beispiel nicht besonders anders aussieht. Ich denke, genau das stört einige Menschen, denn eine KI kennt keine Doppelmoral.

Informationen sind ein wichtiges Gut mit dem man wunderbar Meinungen schaffen und zunichte machen kann wenn man diese kontrolliert. Genau das macht eine KI eben nicht, ihr ist das völlig egal, da sie kein politisches Ziel verfolgt.

Alena Buyx 6 min
Bildrechte: picture alliance/dpa | Michael Kappeler