Um uns besser auf die Erkundung der Möglichkeiten und Grenzen von Quantenschaltkreisen vorzubereiten, führen wir nun einige zusätzliche mathematische Konzepte ein – nämlich das innere Produkt zwischen Vektoren (und seine Verbindung zur euklidischen Norm), die Begriffe Orthogonalität und Orthonormalität für Mengen von Vektoren sowie Projektionsmatrizen, die es uns ermöglichen, eine praktische Verallgemeinerung von Standardbasismessungen einzuführen.
Zur Erinnerung: Wenn wir in der Dirac-Notation einen beliebigen Spaltenvektor als Ket bezeichnen, etwa
∣ψ⟩=α1α2⋮αn,
dann ist der entsprechende Bra-Vektor die konjugiert-transponierte Version dieses Vektors:
⟨ψ∣=(∣ψ⟩)†=(α1α2⋯αn).(1)
Wenn wir alternativ eine klassische Zustandsmenge Σ vor Augen haben und einen Spaltenvektor als Ket schreiben,
also
∣ψ⟩=a∈Σ∑αa∣a⟩,
dann ist der entsprechende Zeilen- (oder Bra-)Vektor die konjugiert-transponierte Version
⟨ψ∣=a∈Σ∑αa⟨a∣.(2)
Außerdem ergibt das Produkt eines Bra-Vektors und eines Ket-Vektors, aufgefasst als Matrizen mit einer einzelnen Zeile bzw. Spalte, einen Skalar.
Wenn wir speziell zwei Spaltenvektoren haben,
∣ψ⟩=α1α2⋮αnund∣ϕ⟩=β1β2⋮βn,
sodass der Zeilenvektor ⟨ψ∣ wie in Gleichung (1) ist, gilt:
wobei die letzte Gleichheit daraus folgt, dass ⟨a∣a⟩=1 und ⟨a∣b⟩=0 für klassische Zustände a und b mit a=b.
Der Wert ⟨ψ∣ϕ⟩ heißt das innere Produkt der Vektoren ∣ψ⟩ und ∣ϕ⟩.
Innere Produkte sind in der Quanteninformation und -berechnung von grundlegender Bedeutung;
ohne sie würde man bei einem mathematischen Verständnis der Quanteninformation nicht weit kommen.
Fassen wir nun einige grundlegende Eigenschaften innerer Produkte von Vektoren zusammen.
Zusammenhang mit der euklidischen Norm. Das innere Produkt eines beliebigen Vektors
∣ψ⟩=a∈Σ∑αa∣a⟩
mit sich selbst ist
⟨ψ∣ψ⟩=a∈Σ∑αaαa=a∈Σ∑∣αa∣2=∣ψ⟩2.
Die euklidische Norm eines Vektors lässt sich damit alternativ schreiben als
∣ψ⟩=⟨ψ∣ψ⟩.
Man beachte, dass die euklidische Norm eines Vektors stets eine nichtnegative reelle Zahl ist.
Außerdem kann die euklidische Norm eines Vektors nur dann gleich null sein, wenn jeder seiner Einträge gleich null ist, d.h. wenn der Vektor der Nullvektor ist.
Diese Beobachtungen lassen sich so zusammenfassen: Für jeden Vektor ∣ψ⟩ gilt
⟨ψ∣ψ⟩≥0,
wobei ⟨ψ∣ψ⟩=0 genau dann gilt, wenn ∣ψ⟩=0.
Diese Eigenschaft des inneren Produkts wird manchmal als positive Definitheit bezeichnet.
Konjugierte Symmetrie. Für beliebige zwei Vektoren
∣ψ⟩=a∈Σ∑αa∣a⟩und∣ϕ⟩=b∈Σ∑βb∣b⟩,
gilt
⟨ψ∣ϕ⟩=a∈Σ∑αaβaund⟨ϕ∣ψ⟩=a∈Σ∑βaαa,
und daher
⟨ψ∣ϕ⟩=⟨ϕ∣ψ⟩.
Linearität im zweiten Argument (und konjugierte Linearität im ersten).
Seien ∣ψ⟩,∣ϕ1⟩ und ∣ϕ2⟩ Vektoren und α1 und α2 komplexe Zahlen. Wenn wir einen neuen Vektor definieren als
Das innere Produkt ist also linear im zweiten Argument.
Dies lässt sich entweder durch die obigen Formeln nachweisen oder einfach damit begründen, dass die Matrizenmultiplikation in jedem Argument linear ist (und speziell im zweiten).
In Kombination mit der konjugierten Symmetrie ergibt sich, dass das innere Produkt konjugiert linear im ersten Argument ist. Das heißt: Wenn ∣ψ1⟩,∣ψ2⟩ und ∣ϕ⟩ Vektoren sind und α1 und α2 komplexe Zahlen, und wir definieren
Zwei Vektoren ∣ϕ⟩ und ∣ψ⟩ heißen orthogonal, wenn ihr inneres Produkt null ist:
⟨ψ∣ϕ⟩=0.
Geometrisch kann man sich orthogonale Vektoren als Vektoren vorstellen, die senkrecht aufeinander stehen.
Eine Menge von Vektoren {∣ψ1⟩,…,∣ψm⟩} heißt orthogonale Menge, wenn jeder Vektor in der Menge orthogonal zu jedem anderen Vektor der Menge ist.
Das heißt, die Menge ist orthogonal, wenn
⟨ψj∣ψk⟩=0
für alle j,k∈{1,…,m} mit j=k gilt.
Eine Menge von Vektoren {∣ψ1⟩,…,∣ψm⟩} heißt orthonormale Menge, wenn sie eine orthogonale Menge ist und darüber hinaus jeder Vektor in der Menge ein Einheitsvektor ist.
Äquivalent dazu ist die Menge orthonormal, wenn
⟨ψj∣ψk⟩={10j=kj=k(3)
für alle j,k∈{1,…,m} gilt.
Schließlich ist eine Menge {∣ψ1⟩,…,∣ψm⟩} eine orthonormale Basis, wenn sie zusätzlich zur Eigenschaft einer orthonormalen Menge auch eine Basis bildet.
Das ist äquivalent dazu, dass {∣ψ1⟩,…,∣ψm⟩} eine orthonormale Menge ist und m gleich der Dimension des Raums ist, aus dem ∣ψ1⟩,…,∣ψm⟩ stammen.
Zum Beispiel ist für jede klassische Zustandsmenge Σ die Menge aller Standardbasisvektoren
{∣a⟩:a∈Σ}
eine orthonormale Basis.
Die Menge {∣+⟩,∣−⟩} ist eine orthonormale Basis für den 2-dimensionalen Raum, der einem einzelnen Qubit entspricht, und die Bell-Basis {∣ϕ+⟩,∣ϕ−⟩,∣ψ+⟩,∣ψ−⟩} ist eine orthonormale Basis für den 4-dimensionalen Raum zweier Qubits.
Erweiterung orthonormaler Mengen zu orthonormalen Basen
Angenommen, ∣ψ1⟩,…,∣ψm⟩ sind Vektoren in einem n-dimensionalen Raum, und {∣ψ1⟩,…,∣ψm⟩} sei eine orthonormale Menge.
Orthonormale Mengen sind stets linear unabhängig, daher spannen diese Vektoren notwendigerweise einen Unterraum der Dimension m auf.
Daraus folgt, dass m≤n gilt, da die Dimension des von diesen Vektoren aufgespannten Unterraums nicht größer sein kann als die Dimension des gesamten Raums, aus dem sie stammen.
Wenn m<n gilt, ist es stets möglich, weitere n−m Vektoren
∣ψm+1⟩,…,∣ψn⟩ so zu wählen, dass
{∣ψ1⟩,…,∣ψn⟩} eine orthonormale Basis bildet.
Zur Konstruktion dieser Vektoren kann das Gram-Schmidt-Orthogonalisierungsverfahren verwendet werden.
Orthonormale Mengen von Vektoren sind eng mit unitären Matrizen verbunden.
Eine Möglichkeit, diese Verbindung auszudrücken, ist zu sagen, dass die folgenden drei Aussagen logisch äquivalent sind (d.h. alle wahr oder alle falsch) für eine beliebige quadratische Matrix U:
Die Matrix U ist unitär (d.h. U†U=I=UU†).
Die Zeilen von U bilden eine orthonormale Menge.
Die Spalten von U bilden eine orthonormale Menge.
Diese Äquivalenz ergibt sich recht unmittelbar, wenn man sich überlegt, wie Matrizenmultiplikation und konjugierte Transponierung funktionieren.
Angenommen, wir haben eine 3×3-Matrix wie diese: