Ausblick und künftige Richtung
Bisher haben wir uns mit der Motivation beschäftigt, warum Hochleistungsrechnen (HPC) und Quantencomputing gemeinsam zur Lösung wissenschaftlicher Probleme eingesetzt werden. Wir haben klassische und Quantenrechenressourcen definiert – darunter CPUs, GPUs und QPUs – und erläutert, wie man sie mithilfe von Techniken wie vertikaler und horizontaler Skalierung, Scheduling und Workload-Management skaliert und verwaltet. Darüber hinaus haben wir Programmiermodelle sowohl für QPUs (z. B. Quantum Circuits und Primitiven wie Sampler und Estimator) als auch für klassische Computer erkundet, einschließlich paralleler Programmierpraktiken mit MPI – einem leistungsstarken Werkzeug im heterogenen Quantenklassischen Computing. Schließlich haben wir fortgeschrittene quanten-sampling-basierte Algorithmen studiert und angewandt, etwa Sample-based Quantum Diagonalization (SQD) und Sample-based Krylov Quantum Diagonalization (SKQD). Diese Algorithmen nutzen die Unterraummethode, um die Grundzustandsenergie von Molekülen und Materialien präzise zu schätzen, indem Quantenzustände präpariert und abgetastet werden, die einen Unterraum für die klassische Diagonalisierung definieren – eine Kombination verschiedener Programmiermodelle auf einem Satz heterogener Ressourcen. Mit diesen grundlegenden Konzepten des Quanten- und klassischen Supercomputings reden wir nicht mehr davon, dass das eine das andere ersetzt, sondern davon, ein leistungsstarkes, integriertes System zu schaffen, das synergetisch zusammenarbeitet – eine Kombination, die den Beginn des Quantenvorteils einläuten soll.
Warum jetzt?
Die Gemeinschaft hat den Meilenstein der „Quantennützlichkeit" bereits hinter sich gelassen – also den Zeitpunkt, an dem Quantencomputer erstmals als nützliche wissenschaftliche Werkzeuge nachgewiesen wurden, die Berechnungen jenseits klassischer Brute-Force-Simulationen ermöglichen. Diese Nützlichkeitsära begann mit dem viel beachteten Utility-Paper, das 2023 auf dem Cover von Nature erschien, und umfasste dutzende Publikationen von Partnern, Kunden und Forschenden bei IBM Quantum®. Heute hat sich der Fokus auf die nächste entscheidende Herausforderung verlagert: das Erreichen des Quantenvorteils. Lange Zeit litt der Begriff „Quantenvorteil" unter unpräzisen Definitionen. Dieses Paper hat eine konkrete Definition vorgeschlagen, die wir hier verwenden. Demnach bezeichnet Quantenvorteil die Ausführung einer Informationsverarbeitungsaufgabe auf Quantenhardware, die zwei wesentliche Kriterien erfüllt:
i) Die Korrektheit des Ergebnisses kann streng nachgewiesen werden, und
ii) Die Aufgabe wird mit einer Quantenüberlegenheit ausgeführt, die nachweislich eine höhere Effizienz, Kosteneffektivität oder Genauigkeit bietet, als mit klassischer Berechnung allein erreichbar wäre.
Es wird erwartet, dass der Quantenvorteil bis Ende 2026 erstmals auftreten wird und dass dies durch die gemeinsame Nutzung von Quanten- und HPC-Ressourcen geschehen wird. Diese Lektion skizziert die Kernvision für dieses neue Paradigma, erläutert die wichtigsten Ideen und gibt einen Ausblick, der auf einem verifizierbaren, plattformunabhängigen Framework für den Nachweis und die Realisierung eines echten Quantenvorteils beruht.
5.1 Das große Bild
Zum ersten Mal erleben wir einen bedeutenden Wendepunkt in der Geschichte des Rechnens – die Ära des quantenzentrierten Supercomputings (QCSC), ein aufkommendes Paradigma, das Quantenprozessoren (QPUs) eng mit klassischen Supercomputern integriert. Die Vision ist nicht, dass Quantensysteme klassische ersetzen, sondern zu demonstrieren, dass diese heterogene Architektur – bei der „Quanten plus Klassik" die rein klassische Berechnung übertrifft – der wirkungsvollste Weg nach vorn ist. In diesem Modell sind QPUs als spezialisierte Co-Prozessoren gedacht, die Seite an Seite mit CPUs und GPUs arbeiten, um Rechenproblemen zu bewältigen, die für klassische Computer unlösbar sind.
Das volle Potenzial dieser neuen Architektur kann nur ausgeschöpft werden, indem diese leistungsstarken Werkzeuge so vielen Nutzenden wie möglich zugänglich gemacht werden. Diese Vision nimmt bereits Gestalt an: durch den Einsatz von Quantensystemen in etablierten Hochleistungsrechenzentren und die Entwicklung von Software wie Quantum-Slurm-Plugins, die ihre Integration in bestehende klassische Workflows vereinfacht. Indem diese heterogenen Systeme für die breitere Forschungsgemeinschaft zugänglicher gemacht werden, fördern wir das Umfeld, das für Innovation und Entdeckung notwendig ist.
Diese Strategie – integrierte Technologie kombiniert mit einer breiten Nutzerbasis – ist der Weg, auf dem die Gemeinschaft in naher Zukunft den Quantenvorteil erreichen wird. Der Quantenvorteil ist kein einzelner, endgültiger Meilenstein, sondern ein Prozess – eine Folge von immer belastbareren Demonstrationen, die von der Gemeinschaft genau geprüft, reproduziert und in Frage gestellt werden, bis ein wissenschaftlicher Konsens erreicht ist. Dies ist der Weg, um bis Ende 2026 die ersten glaubwürdigen und verifizierbaren Fälle zu zeigen, in denen diese neue Art des Rechnens praktische Probleme effizienter, kostengünstiger oder genauer löst, als es mit klassischer Berechnung allein möglich wäre.
Große Ideen
Um diese Vision zu verwirklichen, müssen mehrere entscheidende Fragen und Ideen angegangen werden.
-
Optimale Workload-Partitionierung: Auf der Software-Seite liegt die Herausforderung in der Verwaltung komplexer hybrider Workflows. Die reibungslose Orchestrierung von Aufgaben über Quanten- und klassische Ressourcen hinweg erfordert ausgefeilte Werkzeuge. Dazu gehören Quantum-HPC-Middleware und Runtime-Infrastrukturen, die für Job-Scheduling, Ressourcenverwaltung und Datenfluss in dieser heterogenen Umgebung ausgelegt sind. Darüber hinaus ist die Entwicklung von Techniken zur effektiven Parallelisierung von Quantenschaltkreisen oder deren Zerlegung in kleinere, handhabbare Teile entscheidend, um den Nutzen der heutigen Quantenhardware zu maximieren.
-
Fehlertoleranz auf Systemebene: Die ultimative Lösung zum Schutz von Quanteninformation vor Rauschen ist die fehlertolerante Quantenberechnung (FTQC), bei der Information in robuste „logische Qubits" kodiert wird. Obwohl neue Quantum-Low-Density-Parity-Check-Codes (qLDPC) einen Weg bieten, den enormen Ressourcenaufwand zu reduzieren, ist die Implementierung vollständiger Fehlertoleranz im unmittelbaren Nahbereich noch nicht realisierbar. Gleichzeitig nutzt Fehlerminderung klassische Nachverarbeitung, um Verzerrungen in Berechnungen durch Rauschen zu reduzieren oder zu eliminieren – ebenfalls ein kritisches Element beim Erreichen fehlertoleranter Quantensysteme auf Systemebene. Leistungsstarke Fehlerminderungsmethoden werden bereits als Dienst eingesetzt und demonstrieren die Stärke der QCSC-Architektur. Zum Beispiel:
- Algorithmiq's Tensor Network Error Mitigation (TEM) behandelt Rauschen in der Software-Nachverarbeitung und nutzt klassische HPC-Ressourcen, um die Reichweite aktueller QPUs zu erweitern.
- Qedma's Quantum Error Suppression and Error Mitigation (QESEM) kombiniert Fehlerunterdrückung auf Hardware-Ebene mit Fehlerminderung, um die Zuverlässigkeit von Quantenberechnungen in großem Maßstab zu verbessern.
-
Demokratisierung des Zugangs: Diese leistungsstarken hybriden Systeme einem breiten Publikum zugänglich zu machen, ist der Schlüssel zur Beschleunigung von Innovation. Dies wird bereits durch die physische Installation von Quantensystemen in HPC-Zentren und die Veröffentlichung von Slurm-Plugins für eine reibungslose Integration verwirklicht. Um diese Integration zu vereinfachen, haben beide Unternehmen Slurm-Plugins veröffentlicht, damit Quanten-Workloads mit Standard-HPC-Schedulern verwaltet werden können. Darüber hinaus bieten umfassende Software-Stacks wie Qiskit eine cloudbasierte Runtime-Umgebung für die Ausführung von Quantenschaltkreisen mit geringer Latenz, die komplexe hybride Aufgaben orchestriert und Werkzeuge für Kompilierung, Optimierung und Fehlerminderung bereitstellt. Offener Zugang zu Quantenhardware und quelloffen entwickelte Softwarepakete werden dabei zweifellos eine entscheidende Rolle spielen.
IBMs Ausblick für die Zukunft
Die IBM Quantum Development Roadmap veranschaulicht dieses große Bild und diese großen Ideen gut.
IBMs Hardware-Roadmap für Quantencomputing wird durch den Fokus auf mehr Qubit-Skalierung und bessere Konnektivität vorangetrieben. Die Nighthawk-Serie (2025–2028) nutzt eine neue quadratische Gitterarchitektur zur Verbesserung der Konnektivität, während der Loon-Prozessor (2025) „c-Koppler" einführt, um nicht-lokale Qubit-Konnektivität zu ermöglichen – entscheidend für fehlertolerantes Quantencomputing (FTQC). Diese Roadmap mündet in den Systemen IBM Quantum Starling (2029) und Blue Jay (2033+), die für groß angelegte, fehlertolerante Berechnungen mit Millionen von Gates und Tausenden logischer Qubits ausgelegt sind.
Die Software- und Middleware-Strategie baut auf vier Kernzielen auf: präzise Ausführung, Orchestrierung von Workloads, Entdeckung neuer Algorithmen und deren Anwendung auf spezifische Anwendungsfälle. Die Roadmap umfasst laufende Verbesserungen wie dynamische Schaltkreise im Utility-Maßstab (2025) und neue Profiling-Werkzeuge (2026) für eine effiziente Ausführung. Für die Workload-Orchestrierung werden die C-API (2025) und künftige Workflow-Beschleuniger (2027) Quantencomputing und klassisches Hochleistungsrechnen (HPC) integrieren. Darüber hinaus wird IBM® Utility-Mapping-Werkzeuge (2026) und neue Schaltkreisbibliotheken (2029) einführen, um die Entdeckung und Anwendung neuer Algorithmen zu erleichtern.
Zusammenfassung
Wir haben das große Bild und die großen Ideen hinter dem QCSC-Ziel erkundet und uns IBMs Roadmap für die Entwicklung und Innovation im Quantencomputing angeschaut. Diese Reise ist, wie wir gesehen haben, ein Marathon, kein Sprint. Obwohl IBM sich verpflichtet hat, zunehmend leistungsfähigere Quantencomputer zu liefern, ist unser Fortschritt nur ein Teil der Gleichung. Es ist entscheidend, dass die Quantengemeinschaft weiterhin neue Algorithmen entwickelt und so den Weg für Anwendungen ebnet, die nützliches Quantencomputing wirklich in die Welt bringen.
Um dies zu erreichen, müssen wir zusammenarbeiten. Das bedeutet, standardisierte Benchmarking-Probleme mithilfe klassischer Experten zu etablieren, um Relevanz und Fairness sicherzustellen. Es erfordert auch die Veröffentlichung detaillierter Methoden und Datensätze zur Reproduzierbarkeit sowie die Pflege offener Leaderboards zur Verfolgung unseres kollektiven Fortschritts.
Es war noch nie eine aufregendere Zeit, Teil dieser Gemeinschaft zu sein. Indem wir diese Best Practices annehmen und unsere Erkundungen fortsetzen, können wir gemeinsam das volle Potenzial des Quantenvorteils verwirklichen.