Nachrichten & Themen
Mediathek & TV
Audio & Radio
Klima & UmweltMedizinPsychologieWeltraumGeschichteNaturwissenschaftBildung
Der Quantencomputer-Prototyp "Jiuzhang" wurde Ende 2020 vorgestellt. Bildrechte: imago images/Xinhua

Der lange Weg zum High-Speed-ComputerQuantencomputer: "Wir sind in einer Übergangsphase"

17. April 2021, 10:00 Uhr

Extrem schnell und super-smart: Wenn ein herkömmlicher Computer ein Spaziergang ist, dann wäre ein Quantencomputer ein Raketen-Start – so extrem groß ist der Unterschied. So ein High-Speed-Computer würde bisher undenkbare Anwendungen ermöglichen. Aber bisher existiert er nicht. Doch das Rennen ist eröffnet; Tech-Riesen wie Microsoft, Google oder IBM liefern sich einen heftigen Wettkampf. Da könnte man meinen, der Quantencomputer steht quasi vor der Tür. Aber ist das tatsächlich so?

Es klang wie eine technische Revolution, als Google im Herbst 2019 verkündete, dass sie mit einem von ihnen entwickelten Quantencomputer die sogenannte Quantenüberlegenheit demonstrieren konnten. Das heißt, dass er eine Rechenoperation erledigt hat, die ein herkömmlicher Computer nicht in einem realistischen Zeitrahmen hätte lösen können – also Jahre oder gar Jahrtausende dafür bräuchte. Googles Innovation war zwar beeindruckend, aber die Computertechnologie hat sie noch nicht revolutioniert. Wie steht es also um die Entwicklung eines universellen Quantencomputers? Oder gar eines, der unseren Laptop zuhause irgendwann ersetzen könnte? Fachleute bremsen bei diesem Gedanken deutlich: Der Quanten-Laptop ist definitiv noch sehr weit entfernt – wenn er überhaupt jemals möglich ist.

Google-Chef Sundar Pichai präsentiert Quanten-Technologie in einem Labor des Konzerns. Bildrechte: Google

Aber wozu brauchen wir eigentlich einen Quantencomputer, der in bisher unvorstellbaren Geschwindigkeiten rechnen kann? Es gibt einige Gebiete, bei denen er einen echten Unterschied machen würde; bei der Forschung nach neuen Medikamenten etwa, in der Materialforschung, bei Optimierungsprozessen oder Modellierungen. Manche Fachleute glauben, dass sich sogar ganze Abläufe in der Natur simulieren ließen. Und dann könnten sie in der Kryptographie auch aktuelle Verschlüsselungsmethoden knacken oder neue Methoden möglich machen, was auch ein Grund dafür ist, warum man sich unter anderem auch bei Militär und Nachrichtendiensten für die Technologie interessiert. Aber auch für viele weitere Anwendungen, wie etwa aus dem Bereich des maschinellen Lernens, hoffen Expertinnen und Experten auf Vorteile und neue Möglichkeiten.

Hybride Übergangsphase

Doch der Quantencomputer, der das alles kann, steht noch lange nicht vor der Tür, bremst Immanuel Bloch, Professor für experimentelle Physik an der Ludwig-Maximilians-Universität München und Direktor des Max-Planck-Instituts für Quantenoptik. Bisher sind auf allen Quantencomputern erst kleine Rechnungen gemacht worden. "Noch nichts, was einen vom Hocker reißt", sagte er in einem Gespräch des Science Media Center. Noch gebe es also nur erste Demonstrationen, der Weg zu einem universellen Quantencomputer sei dagegen noch recht lang. Doch das Ziel ist klar: ein vollständig Fehler-korrigierter, programmierbarer Quantenrechner.

Einen voll Fehler-korrigierten Quantenrechner zu entwickeln, ist die große Herausforderung der nächsten zehn, zwanzig Jahre.

Prof. Dr. Immanuel Bloch

Dennoch seien die Anwendungen der kleinen Systeme jetzt trotzdem spannend. Denn sie lassen die Fachleute lernen: Was ist etwa möglich beim Programmieren von Algorithmen? Vielleicht ist die neue "Killer-Anwendung" da ja noch gar nicht gefunden, spekuliert Bloch.

Prototyp eines IBM-Quantencomputers bei der CES 2018. Bildrechte: imago images/Xinhua

Sein Fachkollege Peter Zoller – Professor für Theoretische Physik am Center for Quantum Physics der Universität Innsbruck und Forschungsleiter am Institut für Quantenoptik und Quanteninformation der Österreichischen Akademie der Wissenschaften – weist darauf hin, dass heutige Technologien schon ein deutlicher Fortschritt seien. Vor 15 Jahren habe man in der Grundlagenforschung erste kleine Bauelemente im Labor demonstriert. Mit den "kleinen" Quantencomputern von Google, IBM oder aus den Forschungslaboren hat in den vergangenen paar Jahren eine vollkommen neue Phase begonnen, die noch zehn, fünfzehn Jahre anhalten werde. Es ist eine Übergangsphase, erläutert Zoller.

Wir werden Maschinen bauen, die in der Größenordnung so einige zehn bis einige 100 Quantenbits haben werden und die noch nicht Fehler-korrigiert sind, aber auf denen man trotzdem schon Quantenrechnungen machen kann.

Professor Peter Zoller

Der universelle Quantencomputer ist noch in weiter Ferne. Bildrechte: imago/Science Photo Library

Das werde zwar noch lange nicht so wie in der Vision passieren, in der man komplexe Algorithmen hat. Davon sei man noch weit entfernt, aber eben doch schon so, dass man an der Quantenüberlegenheit kratzen könne. Mit solchen "intermediate scale quantum devices" werde sich die Forschung die nächsten etwa 15 Jahre beschäftigen. Dabei müssen die Anwendungen der Hardware, wie sie sich momentan entwickelt, angepasst sein. Zoller zufolge spielt auch ein hybrider Ansatz eine wichtige Rolle: Durch die Kombination von herkömmlichen mit Quantencomputern könnten auch hybride Algorithmen entwickelt werden.

Wo Qubits rechnen, passieren Fehler

Das ferne Ziel ist also ein Quantencomputer, der skalierbar, programmierbar und Fehler-korrigiert ist. Skalierbar bedeutet, dass er sich auf Hunderte oder Tausende Qubits erweitern lässt, ohne dass unkontrollierbar häufig Fehler auftreten. Da er mit ganz anderen physikalischen Gesetzen funktioniert als herkömmliche Computer, muss außerdem auch das Programmieren völlig neu erfunden werden. Und dann muss er bestenfalls seine eigenen Fehler korrigieren.

Die Fehler, die ein Quantencomputer beim Rechnen macht, sind das größte ungelöste Problem. Um das zu verstehen, muss man ein bisschen in die verrückte Welt der Quantenphysik eintauchen: Überall, wo Qubits rechnen, passieren nämlich Fehler.

QubitsDer Begriff leitet sich vom physikalischen Begriff "Quant" und dem "Bit" aus der Computertechnologie ab. Das Quant ist der kleinstmögliche Wert einer physikalischen Größe - also die kleinste Einheit aus der etwas besteht, wie zum Beispiel Atome, Photonen (Lichtteilchen) oder Elektronen - in etwa also so wie die Pixel beim Digitalfoto. In der Quantenwelt gelten eigene physikalische Gesetze, die unserem Alltagswissen zum Teil sogar widersprechen und die bis heute nicht komplett verstanden sind. Ein Qubit kann zum Beispiel ein geladenes Atom - ein Ion - sein oder auch ein Elektron in einem Stromkreis. Sie sind die Grundrecheneinheit in einem Quantencomputer.

Herkömmliche Computer rechnen mit Bits in einem binären System. Das heißt, es gibt nur zwei Zustände: Strom an (0) oder Strom aus (1). Das ist bei Qubits anders. Denn aufgrund der Gesetze der Quantenphysik können sie beide dieser Zustände gleichzeitig einnehmen – und noch alle anderen, die dazwischen liegen.

Der Sycamore-Chip von Google mit 54 Qubits. Bildrechte: Google

Man kann es sich so vorstellen, wie eine Münze, die sich um die eigene Achse dreht: Ob sie Kopf oder Zahl ergibt, weiß man erst, wenn sie stoppt. Solange sie sich aber dreht, ist sie alles gleichzeitig. Die Qubits funktionieren also nur solange sie in diesem Zustand sind. Physikerinnen und Physiker nennen das Superposition. Die ermöglicht es den Qubits also 0 und 1 parallel zu verarbeiten. Werden mehrere Qubits miteinander verschränkt, wächst die Anzahl der gleichzeitig verarbeiteten Werte exponentiell an. Einige hundert Qubits können also theoretisch mehr Zahlen simultan prozessieren, als es Teilchen im Universum gibt.

Bei diesem Inhalt von Youtube werden möglicherweise personenbezogene Daten übertragen. Weitere Informationen und Einstellungen dazu finden Sie in der Datenschutzerklärung.

Doch Qubits sind echte Mimosen: Schon bei dem minimalsten Einfluss von außen – zum Beispiel durch elektrische oder magnetische Felder – schleichen sich schon nach Mikrosekunden Fehler ein. Doch die bizarren Regeln der Quantenphysik machen es schwer, sie überhaupt zu finden und zu korrigieren: Dazu müsste man den aktuellen Zustand des Qubits messen. Aber das geht nicht, während der Quantencomputer rechnet, denn das würde den fragilen quantenmechanischen Überlagerungszustand der Superposition zerstören.

Das große Problem der Fehler-Korrektur

Bei herkömmlichen Computern stellt man dem Bit zur Fehlerkorrektur jeweils zwei Kopien zur Seite. Bei einem Qubit sind für eine Fehlerkorrektur nach dieser Logik aber zahlreiche "physikalische Qubits" nötig, erläutert Quantenexperte Zoller. Um dieses Problem zu lösen, seien deshalb grundlegend neue Ideen notwendig. LMU-Professor und Max Planck-Forscher Bloch schätzt, dass es für ein fehlergeschütztes Qubit etwa 10.000 "physikalische Qubits" bräuchte. Das entspräche dem 30- bis 50-fachen von aktuellen Systemgrößen. Dementsprechend sind auch die Quantencomputer von Google, IBM und all den anderen Tech-Konzernen erst einmal nur experimentell und ohne ausreichende Fehlerkorrektur.

IBM legt beim Thema Quantencomputer auch Wert aufs Design. Bildrechte: IBM

Zur Einordnung: Der Quantencomputer IBM Q System One sieht zwar schick aus, rechnet aber "nur" mit einer Geschwindigkeit von 20-Qubits, im Fall von Google waren es schon 53-54 Qubits. In den Schatten stellen könnte sie alle das OpenSuperQ-Projekt, mit dem die Europäische Union plant, einen 100-Qubit-Computer zu bauen. Der sollte eigentlich schon fertig sein, erklärt Projektkoordinator Professor Frank Wilhelm-Mauch vom Forschungszentrum Jülich. Aufgrund der Corona-Pandemie ist es aber auch hier zu Verzögerungen gekommen: Das Datum für den Endrelease habe sich um ein halbes Jahr verschoben. Ab Herbst soll der erste größere Kreis "Alpha-Nutzer" sukzessive Zugang zum europäischen Quantencomputer OpenSuperQ bekommen.

Die Forschenden betonen jedoch einhellig: Die Anzahl der Qubits ist nicht alles. Ein Quantencomputer ist nicht automatisch besser, nur weil die Zahl der Qubits um den Faktor zehn gesteigert werden konnte, so Bloch. Es kommt immer auf deren Qualität an.

Qubits allein sind nicht das Maß der Dinge.

Prof. Dr. Peter Zoller

Förderung: Der Steuerzahler als Riskokapitalgeber?

Mit dem Blick in die Zukunft sind die Fachleute der Überzeugung, dass die Forschung weiter viel Grundlagenarbeit leisten muss – "game changing ideas" zu entwickeln, ist Zoller zufolge die Aufgabe der Forschenden. Die tatsächliche Umsetzungsarbeit und die Ingenieurleistung wird dagegen offensichtlich ja bereits von den Tech-Riesen geleistet. Zoller meint, dass das eine das andere bedingt.

Doch damit die akademische Forschung nicht von den privaten Unternehmen abgehängt wird, sind in Deutschland und Europa in den vergangenen Jahren viele Förderprojekte gestartet worden. Die Bundesregierung investiert etwa bis zu zwei Milliarden Euro in den Forschungsbereich. Und auch im Rahmen eines EU-Flagschiff-Projekts wird bis zu einer Milliarde Euro investiert. Das langfristige Ziel ist ein europäisches Quanteninternet. Das Projekt OpenSuperQ ist in diesem Rahmen entstanden. Reicht das Engagement also aus?

OpenSuperQ-Projektleiter Wilhelm-Mauch weist darauf hin, dass der Forschungsstand bei der Förderung beachtet werden muss: Da man gerade an der Schwelle vom Labor hin zu einer tatsächlichen Nutzung sei, müsse es ermöglicht werden, richtige Quantencomputer als Entwicklungs- und Großgeräte zu bauen. Dazu müssten auch die besten Leute zusammenkommen, so Wilhelm-Mauch.

Prof. Dr. Frank Wilhelm-Mauch, Leiter des Peter Grünberg Instituts, Quantum Computing Analytics  Bildrechte: Forschungszentrum Jülich / Sascha Kreklau

Das heißt, die Förderung muss immer so gestaltet sein, dass da künstliche Grenzen wie Ländergrenzen oder Bundesländergrenzen möglichst keine Rolle spielen, sondern dass wir an die harte Nuss wirklich rangehen können, dass wir jetzt nicht aufgrund von Artefakten der Förderung irgendetwas verpassen.

Um das Ziel des universellen Quantencomputers zu erreichen, sei die internationale Zusammenarbeit unabdingbar. Zumal gute Fachleute auf diesem Gebiet ohnehin schwer zu finden sind, erläutert Bloch. Das sei selbst für die großen Tech-Riesen ein Problem, die Mitarbeiter mit den nötigen Fähigkeiten zu finden. Deshalb müsse sich auch in der Ausbildung etwas ändern, denn Quanten-Ingenieure müssten ja künftig auch ausgebildet werden. Nicht zuletzt vor diesem Hintergrund mahnt Bloch deshalb auch realistische Erwartungen an das an, was in den nächsten Jahren überhaupt möglich sein wird. "Ein Hype nach dem anderen tut der Sache nicht gut", sagt der Forscher.

Ohne die Förderung durch den Steuerzahler wird die weitere Entwicklung im Feld des Quantencomputers nicht zu stemmen sein, sind sich die Forschenden einig. Risikokapitalgeber, die kleine Start-Ups in diesem Technologiefeld unterstützen, gebe es in Europa kaum. Da blicke man schon neidvoll in die USA, sagt etwa Zoller. Deshalb müsse hierzulande die Gesellschaft als Venture-Capitalist einspringen, ergänzt. Bloch. Sein Fachkollege Wilhelm-Mauch sieht dennoch eine große Chance für Deutschland mit seiner technischen Expertise hier zu punkten. Für "hidden champions" gebe es künftig viel Potential. Technologisch abgehängt haben die großen Konkurrenten USA und China Europa im Allgemeinen und Deutschland im Speziellen jedenfalls noch längst nicht.

(kie)

Kommentare

Laden ...
Alles anzeigen
Alles anzeigen