Nächster Artikel
Quantencomputing
Erst Anwendungen treiben die Entwicklung von Quantentechnologien voran
Von Quantencomputing als »emerging technology« wird erwartet, dass die Technologie ein disruptives Potential in zahlreichen industriellen Anwendungsfeldern entfaltet – etwa in der Logistik, in der Pharmaindustrie und im Medizinsektor, oder auch in allen Bereichen, wo Maschinelles Lernen (ML) zum Einsatz kommt. Doch in der Praxis zeigt sich, dass dazu noch zahlreiche Entwicklungen sowohl im Bereich der Quanten-Hardware, wie auch der dazugehörigen Software geschehen müssen.
© iStock/yekorzh
Aktuelle Quantencomputer verfolgen unterschiedliche Technologie-Konzepte und stellen dementsprechend auch verschiedene Ansprüche an ihre Bedienung und Verwendung. Quantencomputer basierend auf Supraleitung beispielsweise benötigen zum Betrieb sehr tiefe Temperaturen knapp über dem absoluten Nullpunkt, erreichen aber andererseits bereits eine relativ hohe Anzahl an Qubits (IBM kann z.B. schon Chips mit 433 Qubits herstellen).
Allerdings sind diese Qubits noch recht fehleranfällig und zudem können nicht alle dieser Qubits direkt miteinander interagieren – die sogenannte Konnektivität. Eine Konnektivität zwischen den einzelnen Qubits ist jedoch eine ganz wesentliche Anforderung, um von den Vorteilen einer Quanten-Berechnung profitieren zu können. Somit können auf solchen Chips trotz ihrer scheinbaren Größe noch keine industriell relevanten Anwendungsfälle gerechnet werden.
Ionenfallen versus supraleitende Qubits
Andere Arten von Qubits zu realisieren, schließt Technologien basierend auf Ionenfallen oder kalten Atomen mit ein. Im Fall von Ionenfallen werden beispielsweise geladene Atome in elektromagnetischen Fallen eingesperrt und können dann durch Laser manipuliert werden. Bei kalten, neutralen, Atomen stellt es sich ähnlich dar, auch wenn in diesem Fall eine magneto-optische Falle, aufgebaut durch mehre Laser, zum Einsatz kommt. Quantencomputer basierend auf Ionenfallen können im Gegensatz zu solchen basierend auf supraleitenden Qubits genauere Rechenoperationen durchführen und weisen eine höhere Konnektivität auf. Dafür sind solche Quantencomputer langsamer in den Rechenschritten, und es ist deutlich schwieriger, eine hohe Anzahl an Qubits zu realisieren.
Es zeigt sich also, dass die unterschiedlichen Technologien ganz verschiedene Vorzüge und Nachteile aufweisen: Mit der einen lassen sich schon mehr Qubits realisieren als mit der anderen, dafür aber rauschanfälligere; die eine ist schneller dabei, Rechenschritte auszuführen, dafür benötigt sie aber auch mehr Rechenoperationen wegen einer niedrigeren Konnektivität. Schlussendlich ergibt sich damit die Situation, dass es aktuell unbekannt ist, welcher dieser unterschiedlichen Quantencomputer für eine spezifische Anwendung genau eingesetzt werden sollte.
Welche Quantentechnologie für welche Anwendung?
Tatsächlich haben Anwendungen hier unterschiedliche Anforderungen. Ein Quanten-klassisches Convolutional Neural Network, wie im Blog Post »Wie Quantencomputing in der medizinischen Diagnostik helfen könnte« beschrieben, benötigt sehr viele Qubits und eine sehr schnelle Ausführung der einzelnen Rechenschritte. Optimierungsprobleme dagegen, die beispielsweise in der Logistik auftreten (Blogpost »Schwere Probleme leicht lösen – aber zuverlässig!«) verwenden Algorithmen, die eine hohe Konnektivität fordern.
Nochmals anders gestaltet es sich bei der Simulation von Molekül-Eigenschaften, wofür Quantencomputer besonders gut geeignet sein sollten. Dies postulierte bereits Richard Feynman 1982 »because nature isn’t classical, dammit, and if you want to make a simulation of nature, you’d better make it quantum mechanical, and by golly it's a wonderful problem, because it doesn't look so easy.« (Richard Feynman, Simulating Physics with Computers, International Journal of Theoretical Physics 21, 467 (1982)). Die genaue Simulation von Molekülen könnte das Auffinden neuer Materialen in der Batterieentwicklung, oder neuer Medikamente ganz wesentlich beschleunigen. Hierbei geht es jedoch vorwiegend darum, dass ein Quantencomputer ein präzises Ergebnis liefert, und weniger darum, dass Berechnungen besonders schnell durchgeführt werden.
Für die Simulation von einem H2-Molekül haben mein Team am Fraunhofer-Institut für Kognitive Systeme IKS und ich in einer kürzlich vorgestellten Vorab-Publikation mit dem Titel »Benchmarking the Variational Quantum Eigensolver using different quantum hardware« explizit die Performance von Quantencomputern basierend auf supraleitendenden Qubits und basierend auf Ionenfallen verglichen. Es stellt sich heraus, dass in diesem Fall Quantencomputer basierend auf Ionenfallen genauere Ergebnisse liefern, und sich somit vielversprechend für einen Einsatz im Chemie- und Pharmasektor zeigen.
An Hybrid-Lösungen führt vorerst
kein Weg vorbei
In all diesen diskutierten Anwendungsszenarien wird zumindest noch in näherer Zukunft eine enge Verzahnung der Berechnungen auf einem Quantencomputer mit Berechnungen auf klassischen Computern in sogenannten Hybrid-Algorithmen benötigt. Beispielsweise kann der klassische Computer eingesetzt werden, um Parameter in der Berechnung auf dem Quantencomputer zu aktualisieren. Oder aber ein ML-Algorithmus rechnet Teile auf einem klassischen Computer, und lagert nur die Teile auf einen Quantencomputer aus, die direkt von der Beschleunigung einer Berechnung durch einen Quantencomputer profitieren.
Die Verwendung von Hybrid-Algorithmen bedeutet jedoch, dass auch das Zusammenspiel klassischer Computer mit Quantencomputern recht effizient erfolgen sollte, um mögliche Geschwindigkeitsvorteile durch den Einsatz eines Quantencomputers nicht wieder komplett zu verlieren. Um das zu gewährleisten, ist eine enge Integration von Quantencomputern in High-Performance-Computing-Infrastrukturen in Rechenzentren notwendig.
Überhaupt werden Quantencomputer aller Voraussicht nach nur für Teile von einem Gesamt-Algorithmus eingesetzt werden – eben genau da, wo sie ihre Vorzüge ausspielen. Für die Entwicklung des Gesamtalgorithmus ist dementsprechend Sorge zu tragen, dass klassische Teile des Algorithmus auf die Quantenalgorithmus-Teile abgestimmt sind, wie beispielsweise ein benötigter klassischer Optimierer.
Aufgrund des komplexen Zusammenspiels von unterschiedlichen Technologien und Software-Algorithmen ist es daher sinnvoll, die Performance des Gesamt-Algorithmus zu beurteilen – unter Berücksichtigung aller Komponenten. Dazu werden nun zunehmend mehr anwendungs-getriebene Benchmarking-Prozeduren entwickelt. In diesen wird für spezifische Anwendungsszenarien erforscht, welcher Quantenalgorithmus sich zusammen mit welchen klassischen Algorithmen und unter Verwendung welcher Quanten-Hardware-Technologie eignet.
Ein Beispiel für ein solches Projekt ist das bayrische Leuchtturm-Projekt „Bench-QC – anwendungsgetriebenes Benchmarking von Quantencomputern“, in dem das Fraunhofer IKS zusammen mit den Unternehmen ML Reply, BMW, Optware, Quantinuum und dem Fraunhofer IIS an einer systematischen Benchmarking-Prozedur forscht. In anderen europäischen Ländern existieren ähnliche Aktivitäten. Dementsprechend wird aktuell an einer europäischen Gesamt-Strategie zu Benchmarking-Aktivitäten gearbeitet, wobei das Fraunhofer IKS an der Erstellung dieser Strategie beteiligt ist. Das Erstellen von Benchmarks wird es dann perspektivisch auch erlauben, für Quantentechnologien Standards zu erarbeiten.
Symposium
»Applications of quantum computing«
Das Munich Quantum Valley (MQV) und das Fraunhofer IKS veranstalten das Symposium »Applications of quantum computing«. Fachleute aus Industrie sowie Wissenschaft und Forschung diskutieren über die Potenziale von Quantencomputing aus Anwendungssicht.
Wann: 10. Juli 2023 ab 14 Uhr und 11.Juli 2023,9 bis 13 Uhr
Wo: Institute for Advanced Study (IAS), Garching bei München
Somit –so vielversprechend Quantentechnologien für die Anwendung auch sind – müssen aktuell doch noch alle Komponenten des Software-Stacks und der unterschiedlichen Quanten-Hardware-Technologien für jeden einzelnen Fall getestet werden. Viele, insbesondere größere Unternehmen untersuchen aber genau aus diesem Grund zusammen mit Universitäten und Fraunhofer-Instituten das Potential von Quantencomputing für verschiedene Anwendungsfälle.
In einem Symposium zu »Applications of quantum computing«, co-organisiert vom Munich Quantum Valley (MQV) und dem Fraunhofer IKS am 10. und 11. Juli sind dann die Unternehmen und Forscher eingeladen, zu demonstrieren, welche Anwendungen auf Quantencomputern bereits realisierbar sind, und welche Entwicklungen auf Hardware- und Software-Seite benötigt werden, um perspektivisch im industriellen Kontext vom Einsatz von Quantencomputing profitieren zu können.
Dieses Forschungsprojekt ist Teil des Munich Quantum Valley (MQV), das von der Bayerischen Staatsregierung aus Mitteln der Hightech-Agenda Bayern Plus gefördert wird.