Internationales Quantenjahr der UNO
Quantencomputing klopft bei Unternehmen an

Die Vereinten Nationen haben 2025 zum Internationalen Jahr der Quantenwissenschaft und -technologie ausgerufen. Damit wird daran erinnert und gefeiert, dass die Anfänge der Quantenmechanik mittlerweile 100 Jahre zurück liegen. Anlass für eine kritische Rück- und eine optimistische Vorschau auf die Technologie Quantencomputing, auch aus Unternehmenssicht.

Chipproduktion
mask Chipproduktion

Den entscheidenden Ansatz, der die Grundlagen der Quantenmechanik begründet hat, entwickelte Werner Heisenberg im Jahr 1925. Heisenberg hat diese revolutionären Theorien jedoch nicht komplett alleine ausgearbeitet. Vielmehr wurde die Quantenmechanik als neue Theorie und als Paradigmenwechsel notwendig, nachdem bereits in den Jahren zuvor einige wegweisende Experimente durchgeführt worden waren.

Dadurch setzten sich Erkenntnisse durch, die nicht mit der damals bekannten und etablierten Physik in Einklang zu bringen waren. Ein Beispiel: 1901 erkannte Max Planck, dass die Abstrahlung von Schwarzen Körpern nur in sogenannten Energiepaketen erfolgt, das heißt in gewissen Portionen an Energie. Albert Einstein postulierte 1905 den photoelektrischen Effekt, bei dem sich durch die Bestrahlung von Materialien mit Photonen Elektronen aus den Materialien lösen.

In der Folge gewann die Physik ein wesentlich genaueres Verständnis von Atomen, insbesondere durch Niels Bohr, der zwischen 1911 und 1918 ein Modell für das Wasserstoffatom entwickelte. Herausragende Physiker arbeiteten in der Folgezeit an Erklärungen für das Verhalten von Atomen und Teilchen, die nochmals später auch experimentell bestätigt werden konnten. Als grundlegend für das Verständnis von Atomen und Teilchen erwies sich dabei der Welle-Teilchen-Dualismus, wonach ein Teilchen sowohl Welle, wie eben auch Teilchen sein kann. Wesentlich zum Tragen kommt dieser Dualismus beispielsweise bei Streuexperimenten von Teilchen: Im Gegensatz zu klassischen Teilchen (wie beispielsweise einer Kugel aus einer Schrotflinte) treten bei Beschuss eines Doppelspaltes durch Teilchen (zum Beispiel Elektronen) Interferenzmuster auf, das heißt es bilden sich hinter dem Doppelspalt Bereiche mit höherer Intensität, und andere mit niedriger Intensität in Form eines Strichmusters aus.

Eine echte Revolution des Alltags

Das in der Folge immer genauere Verständnis von Teilchen führte zu der ersten Quantenrevolution, denn mit diesem genaueren Verständnis konnten in der Folge eine Vielzahl von technologischen Innovationen realisiert werden, auf denen unser modernes Leben beruht. Darunter fallen u.a. die Entwicklungen von Transistoren und Mikroprozessoren, welche die Grundlagen von Computern darstellen. Aber auch Fotoapparate, Satelliten, Laser und die medizinische Bildgebung beruhen auf dem Verständnis von Atomen und Teilchen.

Es dauerte dann noch einige Jahrzehnte, bevor die Wissenschaft zunehmend Verständnis gewann, wie Atome und Teilchen auch manipuliert, das heißt gesteuert, werden können. Zunächst geschah das nur in Laboratorien, aber in den zurückliegenden Jahren sehen wir zunehmend Schritte zur Industrialisierung dieser Erkenntnisse und Experimente. Somit bahnt sich die zweite Quantenrevolution an. Dieses Verständnis erlaubt insbesondere das Realisieren von Quantensensoren, die etwa auch sehr kleine Magnetfelder genau vermessen können. Einen Einsatz könnten diese Quantensensoren beispielsweise in der medizinischen Bildgebung der Zukunft erleben und dazu verwendet werden, Gehirnströme zu vermessen.

Noch eine Revolution – und wir mitten drin

Auch Quantencomputer gehören zu der zweiten Quantenrevolution. Hier werden einzelne Atome oder Ionen (oder auch Teilchen) gesteuert, um damit Qubits (also Quantum Bits) zu formen. Ein Qubit benötigt zunächst erst einmal ein quantenmechanisches System mit zwei gut unterscheidbaren und präparierbaren Zuständen 0 und 1. Durch verschiedene Operationen (sogenannte Gatter) können dann diese Zustände modifiziert werden. Obwohl Quantencomputer bereits in den 1980er Jahren vorgeschlagen wurden, hat es einige Jahrzehnte gedauert, bis Quantencomputer tatsächlich in Laboratorien gebaut werden konnten, und noch etwas länger, bis sie auch externen Nutzern etwa durch Cloud-Zugänge zur Verfügung standen.

Quantencomputer verwenden die Prinzipien der Quantenmechanik, insbesondere die Überlagerung von quantenmechanischen Zuständen, die Verschränkung von Zuständen, und Interferenzeffekte, um gewisse Algorithmen im Vergleich zu klassischen Algorithmen zu beschleunigen. Wichtig ist jedoch, dass diese »Beschleunigung« sich zunächst erst einmal »nur« auf die Rechenschritte bezieht, das heißt für bestimmte Berechnungen sollte ein Quantencomputer deutlich weniger Rechenschritte brauchen als ein aktuell üblicher, klassischer Computer, aber auch als der leistungsstärkste Supercomputer der Welt. Diese theoretischen Erwartungen wurden in den vergangenen Jahren durch einige bahnbrechende Experimente befeuert: So behauptete Google beispielsweise 2019 mit seinem Quantenchip »Sycamore« mit 53 Qubits sogenannte »Quantenüberlegenheit« (Quantum Supremacy) für eine bestimmte Berechnung, die nur 200s auf »Sycamore« brauchte, aber auf damalige verfügbaren Supercomputern mit 10000 Jahren veranschlagt wurden.

Auch wenn diese Behauptung damals kontrovers diskutiert wurde, und in Folge bessere klassische Algorithmen vorgeschlagen wurden, kurbelte dieses Experiment umfassende Investitionen in den Bau von Quantencomputern an, mit der Erwartung, dass diese in Kürze zu disruptiven Veränderungen in der Industrie führen würden. Das prominenteste Beispiel hierfür ist sicherlich Shor’s Algorithmus, ein effizienter Algorithmus, um große Zahlen in ihre Primfaktoren zu zerlegen.

Wenn dieser Algorithmus irgendwann tatsächlich auf große Zahlen angewandt werden kann, so sind aktuell gängige Verschlüsselungsverfahren gefährdet, welche insbesondere darauf beruhen, dass große Zahlen eben nicht effizient in ihre Primfaktoren zerlegt werden können. Jedoch setzt Shor’s Algorithmus voraus, dass auf Quantencomputern sehr umfangreiche Algorithmen mit einer beträchtlichen Anzahl an Qubits und vielen Rechenoperationen berechnet werden können. Dies ist aktuell noch nicht der Fall – denn aktuelle Quantencomputer sind nach wie vor noch zu klein und fehleranfällig.

Finden Quantencomputer ihren Weg in die Praxis?

Neben Shor’s Algorithmus wird zudem erwartet und erhofft, dass Quantencomputer dazu beitragen können, kombinatorische Optimierungsprobleme in der Industrie effizienter zu lösen (relevant etwa für die Planung von Routen in der Logistik), Materialien genauer und schneller zu simulieren (relevant zum Beispiel für die Medikamentenentwicklung), und auch Maschinelles Lernen deutlich zu beschleunigen. Dabei stellt Quantencomputing ein komplett neues Computing-Paradigma dar.

Mit der Verfügbarkeit erster Quantencomputer, auch wenn klein und verrauscht, konnten in den vergangenen Jahren zunehmend perspektivische Anwendungen von Quantencomputern studiert und analysiert werden. Hierbei ist es von vorrangigem Interesse zu verstehen, in welchen Bereichen Quantencomputern perspektivisch tatsächlich zu einer höheren Genauigkeit oder Beschleunigung der Berechnungen führen können. Diese Analysen ergaben, dass aller Voraussicht nach Quantencomputer nicht allgemein »besser« sein werden als klassische Computer, vielmehr werden zukünftig Quantencomputer klassische Computer geeignet unterstützen und mit ihnen gemeinsam Berechnungen tätigen. Vorstellen darf man sich das wie aktuell auch für bestimmte Berechnungen ein Grafikprozessor genommen wird (wie bei Videospielen), und dabei den zentralen Prozessor unterstützt werden.

Klassische und Quantencomputer Hand in Hand

In den zurückliegenden Jahren wurden aufgrund der noch kleinen und störanfälligen Quantencomputer vor allem sogenannte variationelle Algorithmen als vielversprechend angesehen, die nur wenig Ressourcen eines Quantencomputers benötigen. Variationelle Algorithmen arbeiten in einem Wechselspiel zwischen klassischen und Quantencomputern, wobei der klassische Computer beispielsweise Parameter in der Berechnung auf dem Quantencomputer aktualisiert.

Jedoch zeigten verschiedene Arbeiten in jüngster Zeit, dass die Vorstellungen, mit variationellen Quantenalgorithmen direkt einen Quantenvorteil zu erhalten, doch etwas zu einfach ist. Dies liegt insbesondere daran, dass auch Quantenalgorithmen mit wenig Quantengattern recht anfällig für das Rauschen aktueller Quantenhardware sind. Und dass für hinreichend gute Ergebnisse variationeller Quantenalgorithmen doch diese Quantenalgorithmen recht zahlreich ausgeführt werden müssen, das heißt es müssen sehr viele »Shots«durchgeführt werden. Diese beiden Aspekte führen dazu, dass variationelle Quantenalgorithmen im Allgemeinen weder »besser« noch »schneller« sind als Berechnungen auf klassischen Computern. Zudem zeigten verschiedene Arbeiten auch noch, dass Quantencomputer recht langsame Gatter-Ausführungszeiten haben, was bedeutet, dass ein Quantencomputer möglicherweise weniger Rechenschritte benötigt, aber dafür die Rechenschritte recht langsam ausführt.

Schritt für Schritt in den Mittelstand

Was also tun? Nun, all diese Erkenntnisse der vergangenen Jahre führen immer mehr zu dem Schluss, dass der Einsatz von Quantencomputern zur Lösung von industriellen Fragestellungen sehr zielgerichtet zu erfolgen hat: Es müssen bewusst Quantenalgorithmen eingesetzt werden, die nicht zu viele Iterationen mit klassischen Computern benötigen. Auch sind die verschiedenen Rechenschritte auf klassischen Computern und Quantencomputern als Gesamtpaket zu betrachten, und gemeinsam zu optimieren – unter Berücksichtigung der verwendeten Quantenhardware, die auf die spezielle Anwendung abgestimmt sein sollte.

Dieses Co-Design zwischen Hardware, Software und Algorithmik betrachtet das Fraunhofer-Institut für Kognitive Systeme IKS beispielsweise im Projekt Bench-QC – Anwendungs-getriebenes Benchmarking von Quantencomputern –und ist hier international in einer Vorreiterrolle unterwegs. In dem gerade abgeschlossenen Projekt QuaST – Quantum-enabling Software und Tools für industrielle Anwendungen – hat das vom Fraunhofer IKS koordinierte Konsortium den Prototypen einer Abstraktionsebene entwickelt, die gewährleistet, dass sich industrielle Nutzer, vor allem auch der Mittelstand, nicht allzu tief in die »Spitzfindigkeiten« von Quantencomputing eindenken müssen, sondern vielmehr direkt eine »Lösungsanleitung« bekommen, um ihr industrielles Optimierungsproblem Quanten-gestützt zu lösen.

Verpackt in ein Software-Tool, den QuaST-Entscheidungsbaum, stellt das Fraunhofer IKS diese Lösung auf der TRANSFORM im März 2025 und auf der World of Quantum im Juni 2025 vor.

Allerdings haben auch diese Arbeiten allesamt gezeigt, dass die Quantencomputing-Hardware noch signifikant weiterentwickelt werden muss, bevor Quantencomputer tatsächlich einen wirtschaftlichen Nutzen entfalten können. Hierzu sind insbesondere sogenannte fehlerkorrigierte Qubits notwendig, sodass die resultierenden Quantencomputer weniger anfällig für Fehler und Rauschen sind, und somit auch längere Berechnungen durchführen können. Es gab im vergangenen Jahr seitens verschiedener Universitäten und Unternehmen erhebliche Fortschritte, solche fehlertoleranten Qubits zu realisieren, sodass Anlass zur Hoffnung besteht, dass uns fehlerkorrigierte Quantencomputer auch tatsächlich in einigen Jahren zur Verfügung stehen werden. Ein Beispiel dafür ist das neulich kommunizierte Experiment mit dem Willow-Chip von Google.

Somit ergibt sich im Jahr 2025 aus der Anwendungsperspektive insgesamt, doch ein recht ermutigendes Bild. Dem zunehmenden Verständnis, welche Anwendungen für Quantencomputing relevant beziehungsweise auch nicht relevant sein werden, steht auch ein kontinuierlicher und durchaus zügiger Fortschritt bei der Quantencomputing-Hardware gegenüber. Somit können Wirtschaft und Wissenschaft mehr als nur hoffen, dass die zweite Quantenrevolution in den nächsten Jahren auch konkret in der Anwendung ankommt. Die Pizza vom Lieferdienst, allerdings, wird wohl auch zukünftig eher mit Hilfe eines klassischen Computers, und eher nicht mit Hilfe eines Quantencomputers auf den Weg geschickt werden.

Nächster Artikel

Quantencomputing
Es geht ums Ganze: QuaST im Endspurt

Benedikt Poggel
Benedikt Poggel
Quantencomputing / Fraunhofer IKS
Quantencomputing