KI Trend 2025 Künstliche Intelligenz könnte uns schon bald Dinge verkaufen, ehe wir wissen, dass wir sie wollen
Hauptinhalt
01. Januar 2025, 14:00 Uhr
Wissenschaftler aus Cambridge warnen vor dem Missbrauch von Künstlicher Intelligenz: Chatbots und Co könnten bald schon unsere Entscheidungen frühzeitig vorhersagen und beeinflussen und diese sich entwickelnden "Absichten" in Echtzeit zu Geld machen.
Künstliche Intelligenz wird in immer mehr Bereichen eingesetzt. Sei es beim Schreiben von journalistischen Texten, zur Überwachung von Deichen, in der Kunst, bei der Seelsorge oder der Medizin: 2024 stand im Zeichen von ChatGpt, Deep Learning durch Sprachmodelle (LLM), maschinelles Lernen, neuronale Netzwerke, all das, was wir zur KI zählen. Und die Entwicklung ist noch lange nicht abgeschlossen – aber Bedenken häufen sich, etwa hinsichtlich der Umweltbelastung. Zuletzt warnte der Nobelpreisträger und KI-Grundlagenforscher Geoffrey Hinton vor den kurzfristigen Risiken für die Menschheit. Und er ist damit nicht allein. So sehen Wissenschaftler eine möglicherweise dubiose Entwicklung auf uns zukommen.
Nach Ansicht der KI-Ethiker von der Universität Cambridge steht die Menschheit am Beginn eines "lukrativen und zugleich beunruhigenden neuen Marktes für digitale Absichtssignale", vom Kauf von Kinokarten bis zur Wahl von Kandidaten. Sie nennen dies die "Intention Economy" (Absichtsökonomie), eine Art Weiterentwicklung der Aufmerksamkeitsökonomie, die Social-Media-Plattformen bereits seit Jahrzehnten benutzen. Dieser Markt biete Chancen, aber auch Gefahren.
Wessen Interessen und Zwecken dient die KI?
Die Forscher erklären, dass die rasante Entwicklung von Large Language Models (LLMs) – und die zunehmende Vertrautheit der Menschen mit ihnen – Unternehmen neue Möglichkeiten eröffnet. Durch die Interaktion mit der Künstlichen Intelligenz liefern Menschen große Mengen intimer Daten, die sich mit dem Wissen über Online-Gewohnheiten kombinieren lassen und so nicht nur Verhalten vorhersagen, sondern auch manipulieren könnte. Yaqub Chaudhary vom Leverhulme Centre for the Future of Intelligence (LCFI) in Cambridge erklärt: "Es werden enorme Ressourcen aufgewendet, um KI-Assistenten in jedem Lebensbereich zu positionieren, was die Frage aufwerfen sollte, wessen Interessen und Zwecken diese so genannten Assistenten dienen sollen."
"Wunschtraum der Tech-Riesen"
Die Wissenschaftler um Chaudhary warnen, "dass KI-Tools bereits entwickelt werden, um menschliche Pläne und Absichten zu entlocken, abzuleiten, zu sammeln, aufzuzeichnen, zu verstehen, vorherzusagen und schließlich zu manipulieren und zu kommerzialisieren". Laut den Forschern ist die Absichtsökonomie derzeit ein "Wunschtraum" der Tech-Industrie, doch sie verfolgen erste Anzeichen dieses Trends anhand veröffentlichter Forschungsarbeiten und der Andeutungen mehrerer großer Tech-Unternehmen, von Nvidia über Meta bis zu Apple.
"Diese Unternehmen verkaufen bereits unsere Aufmerksamkeit. Um sich einen kommerziellen Vorteil zu verschaffen, besteht der logische nächste Schritt darin, die Technologie, die sie offensichtlich entwickeln, zu nutzen, um unsere Absichten vorherzusagen und unsere Wünsche zu verkaufen, bevor wir sie überhaupt richtig verstanden haben", sagt Chaudhary. Den technologischen Fortschritt und die Möglichkeiten durch LLMs wollen die Ethiker nicht per se verteufeln, aber auf die Gefahren hinweisen. Jonnie Penn, Technologiehistoriker am LCFI, mahnt: "Das öffentliche Bewusstsein für das, was auf uns zukommt, ist der Schlüssel, um sicherzustellen, dass wir nicht den falschen Weg einschlagen."
Links/Studien
Das Positionspapier "Beware the Intention Economy: Collection and Commodification of Intent via Large Language Models" ist im "Harvard Data Science Review" erschienen.
pm/jar
Dieses Thema im Programm: MDR AKTUELL | 24. Dezember 2024 | 06:17 Uhr
weils so nicht unwidersprochen bleiben darf vor 2 Wochen
Berechtigt ist die Warnung.
Unberechtigt - und vor allem völlig naiv - ist die Unterscheidung zwischen GE- und MISS-Brauch von KI.
KI trifft Entscheidungen. Immer mehr, immer häufiger. Menschen treffen sie immer weniger, immer seltener.
Das ganz grosse Problem sind aber grade NICHT diejenigen Einsatzbereiche, in denen hinter der KI noch Menschen stehen, die mit Hilfe der von ihnen eingesetzten KI die Entscheidungen anderer beeinflussen.
Das wirkliche Problem sind die immer mehr und häufiger werdenden Bereiche, in denen hinter den KI-Entscheidungen NIEMAND mehr steht.
KI trifft Entscheidungen. Menschen kaum mehr. Insbesondere die Entscheidung darüber, welche Entscheidungen KI (und nur noch KI!) trifft, treffen Menschen nicht mehr; der Zeitpunkt dazu ist, fürche ich, wohl schon verpasst.