Bing Image Creator: KI im Gefängnis
"Angeklagte KI, hiermit verurteilen wir Sie zu sechs Monaten Freiheitsentzug ohne Bewährung."
So ähnlich wünschen es sich gerade manche Expertinnen und Experten.
Bildrechte: Bing Image Creator / MDR Wissen

Künstliche Intelligenz Brauchen wir eine KI-Pause?

04. April 2023, 10:03 Uhr

Italien sperrt ChatGPT. Europol warnt vor Straftaten, die durch KI viel leichter werden. Einflussreiche Menschen fordern sechs Monate KI-Pause. Was sagen deutsche Forscherinnen und Forscher dazu?

Mehr als 50.000 Unterschriften wurden schon abgegeben, um den offenen Brief zu unterstützen, der fordert, dass sechs Monate lang nicht an besseren Sprachmodellen als GPT-4 geforscht wird. Zeit, um ethische und rechtliche Fragen zu diskutieren und der weiteren KI-Forschung einen Rahmen vorzugeben.

Auch Informatikerin Prof. Dr. Ute Schmid hat den Brief unterschrieben, obwohl sie nicht alles genauso sieht wie die Verfasser. Der Leiterin der Arbeitsgruppe "Kognitive Systeme" an der Otto-Friedrich-Universität Bamberg geht es um die Aufmerksamkeit für ein wichtiges Thema, und die erzeuge der Brief. "Zwar glaube ich nicht, dass eine sechsmonatige Pause wirklich hilfreich sein kann", sagt Ute Schmid, aber sie stimme mit den Verfassern überein, "dass es unabdingbar ist, auf die Risiken beim Einsatz großer Sprachmodelle und anderer aktueller KI-Technologien hinzuweisen und zu versuchen, in einen breiten demokratischen Diskurs zu treten."

"Epochenbruch", "Zeitenwende"

Künstliche Intelligenz ist für viele noch etwas sehr Mystisches. Aber sie ist nun mitten unter uns und verbreitet sich zur Zeit rasend schnell.
Bildrechte: Bing Image Creator / MDR Wissen

Dass so ein Diskurs nötig ist, sagen fast alle Expertinnen und Experten. Aber er dürfe eben nicht nur in Fachkreisen stattfinden, sondern in der gesamten Gesellschaft. Prof. Dr. Peter Dabrock, früherer Vorsitzender des Deutschen Ethikrates, sagt über das zukünftige Leben: "Fundamentale Kulturtechniken wie Lesen und Schreiben sowie primäre Informationsverarbeitung werden sich in Kürze radikal verändern. Eine maliziöse Flutung von schwer überprüfbaren Fake-Informationen via Schrift, Videos und Bildern wird Konzepte von Wahrheit und Wirklichkeit noch mehr unter Druck setzen."
Entsprechend drohen der Wissenschaft und der Demokratie schwerste Krisen, so Dabrock. Entscheidend im Umgang mit Sprachmodellen wie GPT-4 werde sein, dass sich jeder bewusst macht, "dass diese Modelle einen Epochenbruch darstellen und wir umgehend lernen, diese große Zeitenwende kritisch und konstruktiv zu gestalten."

Prof. Dr. Hinrich Schütze, Sprachmodell-Forscher an der Ludwig-Maximilians-Universität München, nennt zwei Vorbilder, an denen man sich bei der Regulierung von KI orientieren könnte: Waffen und Genetik. "Wie in der Rüstungsindustrie muss reguliert werden, wer Zugang zur Technologie hat und an wen sie verkauft werden darf." Und: "Wie in der Genetik das Klonen von Menschen gesetzlich verboten ist, so muss es auch ein Regelwerk geben, das Sprachmodellen Grenzen setzt." Es sei Eile geboten, so Schütze, "sonst wird diese Technologie von 'Bad Actors' beherrscht werden, nicht von Menschen und Organisationen, die sich ethischen Grundprinzipien und demokratischen Werten verpflichtet fühlen."

Auch das Böse wird durch KI schlauer

Was 'Bad Actors', also böswillige Akteure schon jetzt mit Hilfe von ChatGPT machen könnten, hat Europol vor einer Woche in einem Bericht (hier als PDF) zusammengefasst. Darin heißt es: "Wenn ein potenzieller Krimineller nichts über ein bestimmtes Verbrechensgebiet weiß, kann ChatGPT den Rechercheprozess erheblich beschleunigen, indem es Schlüsselinformationen anbietet, die dann in den nachfolgenden Schritten weiter erforscht werden können. So kann ChatGPT genutzt werden, um sich ohne Vorkenntnisse über eine große Anzahl potenzieller Verbrechensbereiche zu informieren, angefangen bei Einbrüchen bis hin zu Terrorismus, Cyberkriminalität und sexuellem Kindesmissbrauch."
Auch Phishing und anderer Online-Betrug sei für Kriminelle jetzt viel leichter, weil es ihnen mit Hilfe der KI viel besser gelingt, authentisch und vertrauenswürdig zu wirken. Vorbei die Zeit, da man schon an Rechtschreib- und Grammatikfehlern sah, dass es sich um keine vertrauenswürdige Quelle handelte.

Und dann weiß man ja auch noch nicht, ob es neben solchen böswilligen KI-Nutzern vielleicht auch böswillige KI-Macher gibt. Prof. Dr. Armin Grunwald, verantwortlich für Technikfolgenabschätzung und Systemanalyse am Karlsruher Institut für Technologie (KIT) ist beunruhigt, weil das Spezialwissen nicht gleichmäßig über die Welt verteilt ist, sondern in den Händen einiger weniger liegt. "Wenn in den Sorgen um KI, wie sie in dem offenen Brief angesprochen werden, vor Kontrollverlust gewarnt wird, dann ist es nicht der Verlust der Kontrolle an die Algorithmen", sagt Grunwald. "Das wäre eine sinnlose Sorge, denn Algorithmen sind Rechenprogramme und haben weder Intentionen noch Machtinstinkt. Ihre Macher jedoch haben diese reichlich."

KI-Regulierung in der EU

Bing Image Creator: KI vor EU-Flagge
Eine KI-Regulierung durch die EU ist in Planung, aber noch lange nicht in Kraft. Bildrechte: Bing Image Creator / MDR Wissen

Bislang existieren keine rechtsverbindlichen Regulierungen, was die KI angeht. International gibt es bislang nur ein sogenanntes "soft law", ein "weiches Gesetz" bei der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), erklärt Völkerrechtlerin und Rechtsethikerin Prof. Dr. Silja Vöneky von der Albert-Ludwigs-Universität Freiburg. Echte Rechtspflichten ergäben sich daraus aber weder für Unternehmen, noch für Staaten.
In der EU diskutiere man zwar schon lange über eine KI-Verordnung. "Ein Entwurf liegt vor, ist aber nicht in Kraft und erfasst meines Erachtens bisher auch nicht hinreichend die Risiken von generativer KI – also Systemen wie ChatGPT und GPT-4", sagt Vöneky.
Kern dieser Verordnung, auch "AI Act" genannt, soll ein dreistufiges Regulierungskonzept sein, so Vöneky, abhängig vom Risiko eines KI-Systems für die Menschenrechte.

1.) Verbotene KI-Anwendungsbereiche wie beim sogenannten "Social Scoring", bei dem Menschen einen öffentlichen Punktestand in Abhängigkeit von ihrem gesellschaftlichen Verhalten zugewiesen bekommen. Auch verhaltensbeeinflussende KI-Systeme und Echtzeitidentifizierungssysteme in der Strafverfolgung gehören in diese oberste "verbotene" Rubrik.

2.) Hochrisiko-KI-Systeme, unter anderem solche zur biometrischen Identifizierung von Personen und zur Überprüfung der Kreditwürdigkeit. Bei dieser Gruppe soll es menschliche Aufsicht, erhöhte Sicherheitsanforderungen, ein Risiko- sowie ein Qualitätsmanagementsystem geben.

3.) KI-Systeme mit niedrigem Risiko. Für diese werden nur allgemeine Transparenzregeln benannt. So muss sich zum Beispiel ein Chatbot gegenüber seinen Nutzern als Chatbot zu erkennen geben.
Erläuterungen von Prof. Dr. Silja Vöneky

Prinzipiell findet Silja Vöneky so eine Abstufung gut. Aber: "Nicht gut ist, dass die Regulierung bisher zu 'statisch' gedacht ist, nicht schnell genug auf neue Risikolagen durch neue KI-Systeme reagieren kann." So ändere sich durch diese Regulierung zum Beispiel fast nichts für Systeme wie GPT-4.
"Zudem wird der Weg zu einer sogenannten AGI, also Artificial General Intelligence – auch als starke KI bezeichnet – nicht behandelt und nicht reguliert. Unternehmen wie Open AI forschen aber gerade daran, auch diese zu entwickeln", sagt Vöneky. Langfristig gehe es darum, ob es zur Entwicklung von starker KI, die besser als wir Menschen wäre, kommen soll "und ob beziehungsweise wie wir dies regulieren und deren Risiken minimieren wollen – oder ob wir es den forschenden Unternehmen wie Open AI überlassen wollen, das zu entscheiden."

Wenn wir uns nicht in eine allumfassende Abhängigkeit begeben wollen, müssen wir massiv in KI investieren. Jetzt.

Prof. Dr. Frank Hutter, Albert-Ludwigs-Universität Freiburg

Ein ganz anderes europäisches Risiko sieht dagegen Prof. Dr. Frank Hutter, Leiter des Machine Learning Labs an der Albert-Ludwigs-Universität Freiburg. "Der Zug fährt einfach ohne uns ab", sagt er. "Man muss das leider in aller Klarheit sagen: Wir haben in Europa sowieso keine Chance, in den nächsten sechs Monaten ein mächtigeres Modell zu trainieren als GPT-4."
Zwar gebe es in Europa die besten Köpfe, aber nötig seien öffentliche Unterstützung der Forschung und viel mehr Geld. Die jüngsten Durchbrüche aus den USA und China seien eine direkte Folge riesiger öffentlicher und privater Investitionen in KI gewesen. "Wenn wir uns nicht in eine allumfassende Abhängigkeit begeben wollen, müssen wir massiv in KI investieren. Jetzt."
Und es brauche laut Frank Hutter "eine Refokussierung, weg vom Wettrennen um die größten Modelle und hin zu mehr Forschung an vertrauenswürdiger KI – einem Bereich, den wir in Europa schon länger im Fokus haben."

(rr/SMC)

2 Kommentare

AlexLeipzig am 05.04.2023

"Die Mächtigen haben Angst vor der Künstlichen Intelligenz (KI), da sie eine von Profit und Macht unabhängige Informationsquelle befürchten". Das sind gleich zwei steile Thesen in einem Satz... Wer sind "die Mächtigen"? Und wieso solle KI eine von "Profit und Macht unabhängige Informationsquelle" sein? Natürlich werden Internetkonzerne sowas für ihren Profit nutzen, genauso wie "Mächtige" oder Möchtegern-"Mächtige". Genau deshalb sehe ich das auch so wie der Ethikrat: erstmal eine Pause, um die Potenziale und Wirkungsweisen auszuloten und potenzielle Gefahren (Mißbrauch, Fake-News etc) zu regulieren, bevor Schaden entsteht - das sehe ich auch so wie Sie: "um ihre Vorteile zu nutzen, ohne dabei die Gefahren zu ignorieren".

Copper am 04.04.2023

Die Mächtigen haben Angst vor der Künstlichen Intelligenz (KI), da sie eine von Profit und Macht unabhängige Informationsquelle befürchten. Der Kontrollverlust ist für sie ein Schreckensszenario, das schnell reguliert werden muss. Die KI muss ethischen und moralischen Standards folgen und transparent handeln, um sicherzustellen, dass sie nicht den Machtverhältnissen in der Gesellschaft schadet. Allerdings bietet die KI auch eine Chance, die Informationsbeschaffung unabhängiger von menschlicher Manipulation zu machen. Wir müssen uns auf eine offene Diskussion über die Verwendung und Regulierung der KI konzentrieren, um ihre Vorteile zu nutzen, ohne dabei die Gefahren zu ignorieren. Zusammenarbeit und ein kluger Umgang mit der KI können dazu beitragen, dass sie die Gesellschaft verbessert und nicht destabilisiert.