Tanzende Roboter
Bildrechte: IMAGO

Diskriminierende Bots Künstliche Intelligenzen entwickeln Vorurteile

von Kristin Kielon

Tanzende Roboter
Bildrechte: IMAGO


Der Computer ist clever geworden: Künstliche Intelligenzen kommen mit hoch komplexen Aufgaben zurecht. In Zukunft könnten sie deshalb eine immer größere Rolle in unserem Alltag spielen. Doch es gibt ein Problem: Diese Systeme müssen für ihre Aufgaben häufig mit Daten gefüttert werden, die vom Menschen kommen. Und damit übernehmen sie mitunter auch menschliche Vorurteile – werden also zum Beispiel zu Rassisten oder Sexisten. Und als ob das nicht schlimm genug wäre, haben Forscher nun herausgefunden, dass Künstliche Intelligenzen solche Vorurteile auch selbst entwickeln können - ohne vorbelastete Daten von außen.

Typisch Mensch?

"Wir" gegen "die anderen": Abgrenzungen und Vorbehalte zwischen verschiedenen Gruppen sind typisch für Menschen – aber doch nicht für seelenlose Maschinen! Bisher nahm man an, dass Künstliche Intelligenzen Vorurteile haben, weil sie von ihren Programmierern mit Unmengen von Daten gefüttert werden. Da die vom Menschen kommen, enthalten sie auch deren Vorurteile. Informatiker sprechen von einer Bias – einer Verzerrung. Denn so lernt die Maschine, erklärt Sebastian Rudolph. Er ist Professor am Institut für Künstliche Intelligenz an der Technischen Universität Dresden.

Was künstliche Intelligenz relativ gut kann, ist aus großen Datenmengen zu lernen und (…) zu verallgemeinern auf Fälle, die so vielleicht noch nicht da gewesen sind, aber die zu den gesehenen Fällen eine gewisse Ähnlichkeit haben.

Prof. Sebastian Rudolph, TU Dresden

Was passiert aber, wenn die Künstliche Intelligenz keine vorbelasteten Daten bekommt? Sie kann trotzdem Vorurteile entwickeln – ganz selbstständig innerhalb eines Netzwerks anderer Computerhirne. Das ist das Ergebnis einer Untersuchung von Wissenschaftlern der Cardiff University (UK) und des renommierten MIT in Boston (USA). Die Forscher führten virtuelle Simulationen durch: Rund 100 Künstliche Intelligenzen – sogenannte Bots – interagierten in einem Geben-und-Nehmen-Spiel miteinander. Sie bildeten Gruppen und sollten dann entweder jemandem aus dem eigenen Team oder jemandem von außerhalb etwas spenden. Das Ziel: So viel wie möglich zurückbekommen. Das Ergebnis war eindeutig, schreiben die Forscher:

Nachdem wir diese Simulationen Tausende und Abertausende Male durchspielten, haben wir verstanden, wie sich Vorurteile entwickeln und unter welchen Bedingungen sie gefördert oder verhindert werden.

Die Bots tendierten immer mehr dazu, nur noch im eigenen Team zu handeln. Ihre Entscheidung trafen sie allein aufgrund der eigenen Spielstrategie und der Reputation der anderen Teilnehmer. Die smarten Bots passten ihre Spielstrategien an: Sie kopierten einfach die erfolgreichsten Teilnehmer des Spiels. So entstanden Gruppen, die sich ähnlich verhielten und alle anderen virtuellen Mitspieler ausschlossen. Sie erlernten ihre Vorurteile also durch simples Kopieren. Deshalb schließen die Forscher:

Dies legt nahe, dass für die Entwicklung von Vorurteilen keine höheren kognitiven Fähigkeiten notwendig sind.

Um voreingenommen zu werden, brauchen Künstliche Intelligenzen den Menschen also gar nicht – andere Computerhirne reichen dafür aus. Aber was heißt das für uns Menschen? Das Forscherteam rät zur Vorsicht: "Viele der KI-Entwicklungen beruhen auf Autonomie und Selbstkontrolle. Das heißt, das Verhalten dieser Maschinen wird auch von anderen Maschinen um sie herum beeinflusst. Zwei aktuelle Beispiele sind autonome Fahrzeuge und das Internet der Dinge. Unsere Studie zeigt, was theoretisch passieren kann, wenn diese Maschinen regelmäßig auf die Ressourcen anderer angewiesen sind.“

Ethik für Roboter

Das weckt Erinnerung an Science Fiction-Filme: Was, wenn "die anderen“ in ferner Zukunft einmal die Menschen sind? Soweit wird es wohl eher nicht kommen, sagt der Dresdner Professor Rudolph, aber, die Vorstellung, dass man schon Robotern und Computern gewisse ethische Grundprinzipien mitgeben sollte, sei durchaus sinnvoll.

Und es gibt da auch schon Forschungen und Gespräche in der wissenschaftlichen Welt dazu, wie man das am besten umsetzt. Also das halte ich schon für sinnvoll, aber jetzt eben nicht, um die wild gewordene KI zu bändigen oder so, sondern um ungewollten Effekten vorzubeugen.

Prof. Sebastian Rudolph

Die Studie wurde in Nature veröffentlicht.

Die Mitteilung der Uni Cardiff zu Bost mit Vorurteilen.

Dieses Thema im Programm: MDR AKTUELL Radio | 12. September 2018 | 06:20 Uhr

Zuletzt aktualisiert: 11. September 2018, 17:33 Uhr