Nächster Artikel
Quantencomputing
Sind Quantenlösungen in der Produktion realistisch?
Quantum Machine Learning (QML) birgt großes Potenzial für erste Anwendungen im industriellen Umfeld. Für den produktiven Einsatz von QML-Lösungen ist ein exklusiver Zugang zu einem Quantencomputer erforderlich. Das Ökosystem der Quantenhardware entwickelt sich rasant, wobei der Großteil der Infrastruktur von Cloud-Anbietern gehostet wird. Diese Abhängigkeit von Cloud-Diensten bringt jedoch Herausforderungen in Bezug auf Latenz, Sicherheit und hohe Kosten mit sich, die Echtzeitanwendungen erschweren. Lassen sich diese Einschränkungen umgehen?
© iStock/peterschreiber media
Mit dem weltweiten Übergang zu erneuerbaren Energien werden Verbraucher zunehmend zu »Prosumenten«, also zu Verbrauchern, die gleichzeitig Produzenten sind. Das stellt Netzbetrieb und Stabilität vor zusätzliche Herausforderungen: Große Energieversorger wie E.ON müssen Volatilität durch wetterabhängige Erzeugung und sich wandelnde Nachfrage managen. Das erfordert innovative Wege, um Verbrauch und Produktion in Echtzeit zu überwachen und vorherzusagen.
Quantum Machine Learning (QML) könnte dabei helfen: Zwar sind eindeutige, großskalige Vorteile von der Wissenschaft noch nicht bewiesen, doch frühe Hinweise – etwa die quanten-gestützte Pilotanwednung für den Finanzhandel der internationalen Großbank HSBC und IBM [1] – deuten auf das Potenzial hin, und es gibt Gründe zu erwarten, dass Quanten-Lernverfahren unter bestimmten Bedingungen die Performence verbessern.
Die zentrale Herausforderung ist jedoch operativer Natur: Wie stellt man eine Quantencomputer-gestützte Lösung dezentral und sicher bereit, die über das gesamte Netz Echtzeitprognosen liefern kann?
Quantenhardware und wo man sie findet
Ein vielfältiger »Zoo« an Quantenhardware ist derzeit im Entstehen begriffen: Während ein großer Teil davon noch in Forschungslabors steht, ist ein zunehmender Anteil kommerziell zugänglich. Große Cloud-Anbieter – IBM (IBM Cloud), Amazon (AWS Braket) und Microsoft (Azure Quantum) – bauen Quantenkapazitäten auf und hosten den Zugang zu Quantenhardware auf ihren Plattformen. Anbieter wie IQM und AQT koppeln ihre Systeme an High-Performance-Computing-(HPC)-Infrastrukturen, z.B. das Leibniz-Rechnenzentrum.
Die breite Verfügbarkeit ermöglicht nahezu jedem, Prototypen zu erstellen und Quantenalgorithmen zu testen. Sie bringt jedoch auch Herausforderungen mit sich: lange Warteschlangen und daraus resultierende Latenzzeiten, die mit Echtzeitanforderungen unvereinbar sind; Sicherheitsrisiken beim Übermitteln sensibler Daten (z. B. Informationen zur elektrischen Infrastruktur) an Drittanbieter-Clouds; sowie hohe Betriebskosten, die bei häufigem Zugriff auf Quantenhardware schnell ansteigen.
Auch bei schnellem technologischen Fortschritt und einem wachsenden Anbieterökosystem bleibt ein dedizierter, hausinterner Quantencomputer für die Mehrheit der Unternehmen unrealistisch. Es ist daher naheliegend, alternative Bereitstellungsarten für Quantenlösungen zu erkunden.
Quantenlösungen auf Edge-Geräten
Um Latenz- und Sicherheitsprobleme im produktiven Betrieb zu vermeiden, empfiehlt sich die Inferenz auf klassischer Hardware. Die Simulation von Quantenschaltkreisen auf klassischen Maschinen ist bekanntermaßen komplex und macht Anwendungen in Echtzeit unrealistisch. Lässt sich daher die Eingabe-Ausgabe-Beziehung eines trainierten Quantenmodells direkt approximieren, anstatt sie (aufwendiger) zu simulieren?
Ein Konzept, bekannt als klassische Surrogate (classical surrogates) [2], ermöglicht genau das. Es beruht auf der Beobachtung, dass viele parametrisierte Quantenschaltkreise ein periodisches Verhalten in ihren Ausgaben (i. S. v. Output) zeigen. Diese Periodizität lässt sich effektiv durch eine Fourier-Reihe darstellen, die als funktionale Approximation der Modellausgaben dient.
Die Auswertung einer Fourier-Reihe ist effizient mit wenig Rechenressourcen möglich und erfordert weder einen Quantum Processing Unit (QPU) noch einen Graphics Processing Unit (GPU). Dadurch lässt sich die Inferenz der Surrogate schnell auf Standard-CPUs ausführen – auch auf ressourcenbeschränkten Edge-Geräten. Damit bilden klassische Surrogate eine Brücke zwischen dem Training auf Quantenhardware und der Integration in eine bestehende klassische Infrastruktur.
Zurück zum zuvor eingeführten Anwendungsbeispiel: Man könnte ein Quantenmodell in einer Entwicklungsumgebung trainieren, um beispielsweise die stündliche Stromproduktion und den -verbrauch eines Kraftwerks vorherzusagen (was eine essenzielle Information für die Netzstabilität ist). Zeigt das Quantenmodell Leistungsvorteile, kann anschließend ein klassisches Surrogat erstellt werden, um die direkte Bereitstellung dieses Surrogats vor Ort im Kraftwerk zu ermöglichen. Eine zentrale Frage bleibt jedoch: Wie aufwendig ist die Erstellung klassischer Surrogat-Modelle?
Surrogation v2.0
In einem gemeinsamen Forschungsprojekt zwischen E.ON und dem Fraunhofer-Institut für Kognitive Systeme IKS bestand das Ziel darin, eine End-to-End-Surrogation-Pipeline für ein Quantenmodell zu entwickeln. Dieses Modell wurde darauf trainiert, die stündliche Netto-Stromproduktion und den Verbrauch in den Kraft-Wärme-Kopplungsanlagen (KWK) von E.ON vorherzusagen. Dabei ergab sich eine wesentliche Einschränkung [3] einer zuvor vorgeschlagenen Methode für klassische Surrogate [2], die ihre Anwendbarkeit in Industrie-relevanten Maßstäben begrenzt.
Bei der Konstruktion der Fourier Reihe der ursprünglichen Methode [2] muss eine große Matrix gespeichert werden. Aufgrund der Größe der Matrix erforderte selbst ein Quantenschaltkreis mit 13 Qubits und Tiefe 2 ein High-Performance-Computing‑System. Da der Speicherbedarf exponentiell wächst, ist die Methode für industrielle Maßstäbe mit potenziell Hunderten von Qubits nicht skalierbar.
Das wichtigste Projektergebnis ist eine alternative Methode (hier als Surrogation v2.0 bezeichnet), die den Bedarf an Rechenressourcen erheblich senkt, indem sie Redundanzen entfernt, die zwar exakte Garantien liefern, in der Praxis jedoch irrelevant sind. Wir erstellten einen Proof-of-Concept auf einem Standard-Laptop mit einem 9-Qubit- 2-Schichten-Modell. Das neue Surrogat benötigte nur 0,3 x 10-9 Prozent der zuvor erforderlichen Information (etwa 10 TB wurden auf nur 16 GB Speicherbedarf reduziert). Dadurch konnten wir das Quantenmodell zur Energieverbrauchsprognose mit vernachlässigbarem Genauigkeitsverlust durch ein Surrogat Modell abbilden. Zudem weist unsere Methode eine lineare statt exponentielle Ressourcenskalierung auf.

© Fraunhofer IKS
Abb. 1: Skalierungseigenschaften des ursprünglichen Surrogationsansatzes im Vergleich zum Ansatz des Fraunhofer IK (v2.0).
Die Forscherinnen und Forscher des Fraunhofer IKS haben die im Labor entwickelte Methode eingehend getestet, Engpässe identifiziert und zu einer praxistauglichen Variante weiterentwickelt (Patentanmeldung eingereicht). Diese Methode ermöglicht die Bereitstellung von QML-Lösungen in der Produktion deutlich einfacher und kostengünstiger. Unser Vorschlag hat breite Anwendungsmöglichkeiten, die über den Energiesektor hinausgehen, etwa in den Sektoren Gesundheit, Mobilität und Verteidigung.
Referenzen
[1] HSBC, "hsbc.com," 25 September 2025. [Online]. Available: https://www.hsbc.com/news-and-.... [Accessed 26 September 2025].
[2] . J. Schreiber, J. Eisert and J. J. Meyer, "Classical Surrogates for Quantum Learning Models," Phys. Rev. Lett., p. 100803, 2023.
[3] P. A. Hernicht, A. Sakhnenko, C. O'Meara, G. Cortiana and J. M. Lorenz, "Enhancing the Scalability of Classical Surrogates for Real-World Quantum Machine Learning Applications," arXiv:2508.06131, 2025.


