Schöne neue Datenwelt Wer kann den Algorithmus beherrschen?
Hauptinhalt
01. November 2020, 09:45 Uhr
Was passiert, wenn der Mensch von der künstlichen Intelligenz überrollt werden sollte und sie ihn überfordert? Dem Einhalt zu gebieten, das fordern nun immer mehr junge Informatiker. Denn es geht um ein Geschäft, bei dem nur wenige Experten durchblicken.
Stellen Sie sich vor, Sie klicken im Internet per Suchbefehl nach bestimmten Gegenständen, kaufen später auf einer anderen Plattform ein und schauen später noch ein Video aus dem Social Web. Schon ist es fertig: Das Profil über Sie – ein Querschnitt aus Ort, Kaufverhalten, Interessen und Klickverhalten. Ein Algorithmus dahinter sagt Programmierern, wer Sie sind, was Sie mögen, wie man Sie erfolgreich ansprechen, gewinnen und eben auch überzeugen kann.
Zu Ihrem Vorteil muss das nicht unbedingt sein, meint Katharina Nocun, eine der schärfsten Kritikerinnen der "schönen neuen Datenwelt": Sie sagt, es sei höchste Zeit, den Machern hinter den Algorithmen Grenzen zu setzen: "Ich denke, wir sollten mutiger werden, auch das durchzusetzen, was wir uns ursprünglich von der Technik erhofft haben, dass sie unser Leben selbstbestimmter macht, nicht fremdbestimmter, dass wir mehr Freiheit dadurch haben und nicht eingeschränkt werden, dass es weniger Diskriminierung gibt, statt mehr." Und damit weniger Beeinflussung an den Stellen, an denen wir es nicht merken.
Manipulationen beim Kaufen möglich
Denn den richtigen Durchblick haben nur Informatiker, die sich mit Daten-Analyse beschäftigen und wissen: Der Kunde kann manipuliert werden – beim Kaufen, beim Entscheiden, beim Blick auf politische Zusammenhänge. Auch deshalb sagt die Netz-Aktivistin und Buchautorin Katharina Nocun: "Wir wollen eine Technik, die unser Leben besser macht, die unsere Entscheidungen vielleicht transparenter macht und die staatliches Handeln nachvollziehbar macht. Wir wollen Technik, die eine Bereicherung ist und nicht eine Technik, die uns einschränkt."
In ihrem aktuellen Buch "Fake Facts" analysiert sie, wie Verschwörungstheorien das Denken beeinflussen. Zuvor schrieb Katharina Nocun über einen Selbstversuch im Online-Konsum und setzte sich dabei kritisch mit der Frage auseinander, wie wir unsere Freiheit an Großkonzerne verkaufen. Geändert habe sich seitdem so gut wie nichts: "Wenn ich einen Dienst nutze, hier in der Europäischen Union, dann muss der save sein. Nicht nur für mich, sondern auch für meine Kinder. Und das ist so ein Minimalstandard, den sehe ich heute noch nicht erfüllt."
Jeder Klick eine dicke Spur der Daten
Die 34-Jährige hat Politik- und Wirtschaftswissenschaften studiert, für Kampagnen und Volksinitiativen gearbeitet und kritisiert das Verhalten der wenigen globalen Internet-Player scharf. Wer heute zum Beispiel bei Amazon einkaufe, hinterlasse mit jedem Klick eine schöne dicke Datenspur. Material, das, geschickt ausgewertet, viel über einen Menschen sagen kann und auf dem Markt wiederum einen Wert hat.
"Da sehe ich die Politik ganz klar in der Pflicht, dass sie eben rote Linien zieht. Man kann nicht sagen, der Verbraucher ist schuld, wenn er Dienste nutzt, die einfach grundsätzlich ein Businessmodell haben, was aus meiner Sicht ganz klar demokratiefeindlich ist", sagt Nocun. Mit der Datenanalystin Katja Dittrich hat sie ein Experiment gewagt und ihren persönlichen Konsum via Internet erledigt oder mit Sammelkarten Punkte registrieren lassen.
All das haben die beiden datentechnisch einmal auf den Kopf gestellt und die Unternehmen gefragt: jetzt wollen wir die Daten, die ihr von uns gesammelt habt. Ihr Fazit: verheerend. Die Menge der gespeicherten Informationen, von denen die meisten Konsumenten nie etwas ahnen würden, sei alarmierend.
Experiment: Verheerend, was Unternehmen an Infos speichern
Zwar steht der Endnutzer in der Pflicht, sich vorher schlau zu machen. Doch das, meint Katja Dittrich, ist für Nicht-Informatiker eher kompliziert. Sie entwickelt beruflich Software, visualisiert Daten und gehört zu jener jungen Generation, die heute erstens kritisch nachfragt und zweitens eine viel strengere Regulierung fordert, außerdem mehr Verantwortung derer, die künstliche Intelligenz kreieren: "Ich bin der Meinung, dass jede Studentin hinterfragen soll: was lernt sie in ihrem Studium und wie will sie es später in ihrem Leben anwenden? Denn ich denke, jeder einzelne hat eine Verantwortung der Gesellschaft gegenüber, das schließt Informatikstudentinnen nicht aus."
Die gebürtige Görlitzerin hat sich früh auch für Medizin-Informatik interessiert und ist jetzt eine gefragte Datenanalystin. Ein Business also, das mittlerweile alle Bereiche des Lebens betrifft und ökonomisch wie kaum ein anderes Gebiet Gewinne verspricht. Das Thema Gesichtserkennung ist nur eines. Was in China praktiziert wird, hat auch Software-Support aus Europa bekommen. Und China ist nur ein Beispiel von vielen, wie dieser Bericht aus Russland zeigt.
Wenn künstliche Intelligenz künftig auf immer mehr Daten angewiesen ist, braucht es Regulierungen - und eine kritische Haltung derer, die programmieren: "Es gibt einige Punkte, die sind vielleicht weniger berührt, aber wenn jemand unbedingt bei einem großen Konzern arbeiten möchte, dann sollte er sich vielleicht Gedanken machen: Wie sind die Datenschutzbestimmungen?", sagt Katja Dittrich. "Sind wir der Meinung, dass dieser große Konzern unsere Demokratie schützt oder gefährdet? Ich finde, da kann man schon mal kritisch hinterfragen, wo arbeite ich eigentlich als Informatikerin und Informatiker?"
Information mit Ethik verknüpfen
Kevin Baum geht noch einen Schritt weiter. Er sagt: Informatik ohne Ethik hilft uns künftig nicht weiter und hofft, dass man sowohl die Informatiker, die zukünftigen Entwickler und die Entscheider so ausbildet, dass diese reflektierter darüber entscheiden, wie man mit den Möglichkeiten der Informatik und der Digitalisierung umgeht. "Das ist ein Feld, das lädt dazu ein, bestellt zu werden." Er ist vermutlich einer der ersten, die diese Kombination aus Informatik und Ethik mitbringen und für andere in der Lehre vorantreiben. Derzeit promoviert er dazu und lehrt diese Kombination als Dozent an der Universität des Saarlandes.
"Der Bedarf in Wirtschaft, Politik oder Beratung ist da. Wir müssen jetzt nur die Leute ausbilden", findet Baum. "Denn im Moment ist das Problem eher andersrum: Der Bedarf ist größer als das Angebot. Ich könnte jeden Tag Vorträge halten." Ginge es nach ihm, müsste diese "digitale Mündigkeit" bereits im Schulalter konsequent auf dem Lehrplan stehen. Und er wünscht sich eine öffentliche Debatte darüber, wo die Grenzen der Digitalisierung sein müssen und wie wir sie ziehen werden.
Politik zu langsam für Internet-Konzerne?
Junge Menschen seiner Generation hätten durchaus die Risiken der schönen neuen Datenwelt auf dem Schirm. Es gebe erste Bewegungen in diese Richtung mit einem Masterstudiengang "Soziologie-Informatik" in Kaiserslautern. "Ich glaube, wir brauchen mehr Studiengänge, die wirklich die Experten ausbilden für dieses Feld", sagt Baum. Zwar gibt es den Ethikrat und Datenschützer, aber verglichen mit der Rücksichtslosigkeit globaler Konzerne sei die Politik hierzulande schlicht zu langsam.
"Der digitale Fortschritt in anderen Bereichen der Welt geht noch schneller voran als bei uns", erklärt Baum. Denn er werde dort überhaupt nicht regulatorisch gebremst, wie etwa in China oder beim "Überwachungskapitalismus eines Silicon Valley". Hinzu komme: Millionenbeträge werden für Lobbytätigkeit in Brüssel ausgegeben. Von sechs Millionen Euro ist angeblich bei Google die Rede. Und nicht nur die großen US-Internet-Konzerne kalkulieren mit der künstlichen Intelligenz gewinnbringende Geschäftsmodelle.
Der Daten-Hype ist groß und verlockend, gerade für Neueinsteiger: "Ich könnte viel Geld verdienen, wenn ich woanders arbeiten würde. Ich liebe allerdings die Herausforderung, das zu tun, was ich im Moment tue", erklärt Baum. Das Fazit von ihm: Intelligente Maschinen werden nie alles können, was der Mensch kann. Aber, man dürfe diesem System auch nicht freien Lauf lassen und den Menschen dahinter blind vertrauen. "Das heißt, wir brauchen Regulierung. Ich glaube nicht, dass das mit selbstverantwortlichen Maßen funktioniert."