Zum Hauptinhalt springen

Innere Produkte und Projektionen

Um uns besser auf die Erkundung der Möglichkeiten und Grenzen von Quantenschaltkreisen vorzubereiten, führen wir nun einige zusätzliche mathematische Konzepte ein – nämlich das innere Produkt zwischen Vektoren (und seine Verbindung zur euklidischen Norm), die Begriffe Orthogonalität und Orthonormalität für Mengen von Vektoren sowie Projektionsmatrizen, die es uns ermöglichen, eine praktische Verallgemeinerung von Standardbasismessungen einzuführen.

Innere Produkte

Zur Erinnerung: Wenn wir in der Dirac-Notation einen beliebigen Spaltenvektor als Ket bezeichnen, etwa

ψ=(α1α2αn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix},

dann ist der entsprechende Bra-Vektor die konjugiert-transponierte Version dieses Vektors:

ψ=(ψ)=(α1α2αn).(1)\langle \psi \vert = \bigl(\vert \psi \rangle \bigr)^{\dagger} = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix}. \tag{1}

Wenn wir alternativ eine klassische Zustandsmenge Σ\Sigma vor Augen haben und einen Spaltenvektor als Ket schreiben, also

ψ=aΣαaa,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle,

dann ist der entsprechende Zeilen- (oder Bra-)Vektor die konjugiert-transponierte Version

ψ=aΣαaa.(2)\langle \psi \vert = \sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert. \tag{2}

Außerdem ergibt das Produkt eines Bra-Vektors und eines Ket-Vektors, aufgefasst als Matrizen mit einer einzelnen Zeile bzw. Spalte, einen Skalar. Wenn wir speziell zwei Spaltenvektoren haben,

ψ=(α1α2αn)undϕ=(β1β2βn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix} \quad\text{und}\quad \vert \phi \rangle = \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix},

sodass der Zeilenvektor ψ\langle \psi \vert wie in Gleichung (1)(1) ist, gilt:

ψϕ=ψϕ=(α1α2αn)(β1β2βn)=α1β1++αnβn.\langle \psi \vert \phi \rangle = \langle \psi \vert \vert \phi \rangle = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix} \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix} = \overline{\alpha_1} \beta_1 + \cdots + \overline{\alpha_n}\beta_n.

Haben wir alternativ zwei Spaltenvektoren, die wir geschrieben haben als

ψ=aΣαaaundϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{und}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

sodass ψ\langle \psi \vert der Zeilenvektor (2)(2) ist, ergibt sich:

ψϕ=ψϕ=(aΣαaa)(bΣβbb)=aΣbΣαaβbab=aΣαaβa,\begin{aligned} \langle \psi \vert \phi \rangle & = \langle \psi \vert \vert \phi \rangle\\ & = \Biggl(\sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert\Biggr) \Biggl(\sum_{b\in\Sigma} \beta_b \vert b\rangle\Biggr)\\ & = \sum_{a\in\Sigma}\sum_{b\in\Sigma} \overline{\alpha_a} \beta_b \langle a \vert b \rangle\\ & = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a, \end{aligned}

wobei die letzte Gleichheit daraus folgt, dass aa=1\langle a \vert a \rangle = 1 und ab=0\langle a \vert b \rangle = 0 für klassische Zustände aa und bb mit ab.a\neq b.

Der Wert ψϕ\langle \psi \vert \phi \rangle heißt das innere Produkt der Vektoren ψ\vert \psi\rangle und ϕ.\vert \phi \rangle. Innere Produkte sind in der Quanteninformation und -berechnung von grundlegender Bedeutung; ohne sie würde man bei einem mathematischen Verständnis der Quanteninformation nicht weit kommen.

Fassen wir nun einige grundlegende Eigenschaften innerer Produkte von Vektoren zusammen.

  1. Zusammenhang mit der euklidischen Norm. Das innere Produkt eines beliebigen Vektors

    ψ=aΣαaa\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle

    mit sich selbst ist

    ψψ=aΣαaαa=aΣαa2=ψ2.\langle \psi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \alpha_a = \sum_{a\in\Sigma} \vert\alpha_a\vert^2 = \bigl\| \vert \psi \rangle \bigr\|^2.

    Die euklidische Norm eines Vektors lässt sich damit alternativ schreiben als

    ψ=ψψ.\bigl\| \vert \psi \rangle \bigr\| = \sqrt{ \langle \psi \vert \psi \rangle }.

    Man beachte, dass die euklidische Norm eines Vektors stets eine nichtnegative reelle Zahl ist. Außerdem kann die euklidische Norm eines Vektors nur dann gleich null sein, wenn jeder seiner Einträge gleich null ist, d.h. wenn der Vektor der Nullvektor ist.

    Diese Beobachtungen lassen sich so zusammenfassen: Für jeden Vektor ψ\vert \psi \rangle gilt

    ψψ0,\langle \psi \vert \psi \rangle \geq 0,

    wobei ψψ=0\langle \psi \vert \psi \rangle = 0 genau dann gilt, wenn ψ=0.\vert \psi \rangle = 0. Diese Eigenschaft des inneren Produkts wird manchmal als positive Definitheit bezeichnet.

  2. Konjugierte Symmetrie. Für beliebige zwei Vektoren

    ψ=aΣαaaundϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{und}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

    gilt

    ψϕ=aΣαaβaundϕψ=aΣβaαa,\langle \psi \vert \phi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a \quad\text{und}\quad \langle \phi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\beta_a} \alpha_a,

    und daher

    ψϕ=ϕψ.\overline{\langle \psi \vert \phi \rangle} = \langle \phi \vert \psi \rangle.
  3. Linearität im zweiten Argument (und konjugierte Linearität im ersten). Seien ψ,\vert \psi \rangle, ϕ1\vert \phi_1 \rangle und ϕ2\vert \phi_2 \rangle Vektoren und α1\alpha_1 und α2\alpha_2 komplexe Zahlen. Wenn wir einen neuen Vektor definieren als

    ϕ=α1ϕ1+α2ϕ2,\vert \phi\rangle = \alpha_1 \vert \phi_1\rangle + \alpha_2 \vert \phi_2\rangle,

    dann gilt

    ψϕ=ψ(α1ϕ1+α2ϕ2)=α1ψϕ1+α2ψϕ2.\langle \psi \vert \phi \rangle = \langle \psi \vert \bigl( \alpha_1\vert \phi_1 \rangle + \alpha_2\vert \phi_2 \rangle\bigr) = \alpha_1 \langle \psi \vert \phi_1 \rangle + \alpha_2 \langle \psi \vert \phi_2 \rangle.

    Das innere Produkt ist also linear im zweiten Argument. Dies lässt sich entweder durch die obigen Formeln nachweisen oder einfach damit begründen, dass die Matrizenmultiplikation in jedem Argument linear ist (und speziell im zweiten).

    In Kombination mit der konjugierten Symmetrie ergibt sich, dass das innere Produkt konjugiert linear im ersten Argument ist. Das heißt: Wenn ψ1,\vert \psi_1 \rangle, ψ2\vert \psi_2 \rangle und ϕ\vert \phi \rangle Vektoren sind und α1\alpha_1 und α2\alpha_2 komplexe Zahlen, und wir definieren

    ψ=α1ψ1+α2ψ2,\vert \psi \rangle = \alpha_1 \vert \psi_1\rangle + \alpha_2 \vert \psi_2 \rangle,

    dann gilt

    ψϕ=(α1ψ1+α2ψ2)ϕ=α1ψ1ϕ+α2ψ2ϕ.\langle \psi \vert \phi \rangle = \bigl( \overline{\alpha_1} \langle \psi_1 \vert + \overline{\alpha_2} \langle \psi_2 \vert \bigr) \vert\phi\rangle = \overline{\alpha_1} \langle \psi_1 \vert \phi \rangle + \overline{\alpha_2} \langle \psi_2 \vert \phi \rangle.
  4. Die Cauchy-Schwarz-Ungleichung. Für beliebige Vektoren ϕ\vert \phi \rangle und ψ\vert \psi \rangle mit gleicher Anzahl von Einträgen gilt:

    ψϕψϕ.\bigl\vert \langle \psi \vert \phi \rangle\bigr| \leq \bigl\| \vert\psi \rangle \bigr\| \bigl\| \vert \phi \rangle \bigr\|.

    Das ist eine außerordentlich nützliche Ungleichung, die in der Quanteninformation (und in vielen anderen Gebieten) sehr häufig eingesetzt wird.

Orthogonale und orthonormale Mengen

Zwei Vektoren ϕ\vert \phi \rangle und ψ\vert \psi \rangle heißen orthogonal, wenn ihr inneres Produkt null ist:

ψϕ=0.\langle \psi \vert \phi \rangle = 0.

Geometrisch kann man sich orthogonale Vektoren als Vektoren vorstellen, die senkrecht aufeinander stehen.

Eine Menge von Vektoren {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} heißt orthogonale Menge, wenn jeder Vektor in der Menge orthogonal zu jedem anderen Vektor der Menge ist. Das heißt, die Menge ist orthogonal, wenn

ψjψk=0\langle \psi_j \vert \psi_k\rangle = 0

für alle j,k{1,,m}j,k\in\{1,\ldots,m\} mit jkj\neq k gilt.

Eine Menge von Vektoren {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} heißt orthonormale Menge, wenn sie eine orthogonale Menge ist und darüber hinaus jeder Vektor in der Menge ein Einheitsvektor ist. Äquivalent dazu ist die Menge orthonormal, wenn

ψjψk={1j=k0jk(3)\langle \psi_j \vert \psi_k\rangle = \begin{cases} 1 & j = k\\[1mm] 0 & j\neq k \end{cases} \tag{3}

für alle j,k{1,,m}j,k\in\{1,\ldots,m\} gilt.

Schließlich ist eine Menge {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} eine orthonormale Basis, wenn sie zusätzlich zur Eigenschaft einer orthonormalen Menge auch eine Basis bildet. Das ist äquivalent dazu, dass {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} eine orthonormale Menge ist und mm gleich der Dimension des Raums ist, aus dem ψ1,,ψm\vert \psi_1\rangle,\ldots,\vert\psi_m\rangle stammen.

Zum Beispiel ist für jede klassische Zustandsmenge Σ\Sigma die Menge aller Standardbasisvektoren

{a:aΣ}\big\{ \vert a \rangle \,:\, a\in\Sigma\bigr\}

eine orthonormale Basis. Die Menge {+,}\{\vert+\rangle,\vert-\rangle\} ist eine orthonormale Basis für den 22-dimensionalen Raum, der einem einzelnen Qubit entspricht, und die Bell-Basis {ϕ+,ϕ,ψ+,ψ}\{\vert\phi^+\rangle, \vert\phi^-\rangle, \vert\psi^+\rangle, \vert\psi^-\rangle\} ist eine orthonormale Basis für den 44-dimensionalen Raum zweier Qubits.

Erweiterung orthonormaler Mengen zu orthonormalen Basen

Angenommen, ψ1,,ψm\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle sind Vektoren in einem nn-dimensionalen Raum, und {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} sei eine orthonormale Menge. Orthonormale Mengen sind stets linear unabhängig, daher spannen diese Vektoren notwendigerweise einen Unterraum der Dimension mm auf. Daraus folgt, dass mnm\leq n gilt, da die Dimension des von diesen Vektoren aufgespannten Unterraums nicht größer sein kann als die Dimension des gesamten Raums, aus dem sie stammen.

Wenn m<nm<n gilt, ist es stets möglich, weitere nmn-m Vektoren ψm+1,,ψn\vert \psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle so zu wählen, dass {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} eine orthonormale Basis bildet. Zur Konstruktion dieser Vektoren kann das Gram-Schmidt-Orthogonalisierungsverfahren verwendet werden.

Orthonormale Mengen und unitäre Matrizen

Orthonormale Mengen von Vektoren sind eng mit unitären Matrizen verbunden. Eine Möglichkeit, diese Verbindung auszudrücken, ist zu sagen, dass die folgenden drei Aussagen logisch äquivalent sind (d.h. alle wahr oder alle falsch) für eine beliebige quadratische Matrix UU:

  1. Die Matrix UU ist unitär (d.h. UU=I=UUU^{\dagger} U = \mathbb{I} = U U^{\dagger}).
  2. Die Zeilen von UU bilden eine orthonormale Menge.
  3. Die Spalten von UU bilden eine orthonormale Menge.

Diese Äquivalenz ergibt sich recht unmittelbar, wenn man sich überlegt, wie Matrizenmultiplikation und konjugierte Transponierung funktionieren. Angenommen, wir haben eine 3×33\times 3-Matrix wie diese:

U=(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)U = \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}

Die konjugiert-transponierte Matrix von UU sieht so aus:

U=(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)U^{\dagger} = \begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix}

Das Produkt der beiden Matrizen, mit der konjugiert-transponierten auf der linken Seite, ergibt:

(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)=(α1,1α1,1+α2,1α2,1+α3,1α3,1α1,1α1,2+α2,1α2,2+α3,1α3,2α1,1α1,3+α2,1α2,3+α3,1α3,3α1,2α1,1+α2,2α2,1+α3,2α3,1α1,2α1,2+α2,2α2,2+α3,2α3,2α1,2α1,3+α2,2α2,3+α3,2α3,3α1,3α1,1+α2,3α2,1+α3,3α3,1α1,3α1,2+α2,3α2,2+α3,3α3,2α1,3α1,3+α2,3α2,3+α3,3α3,3)\begin{aligned} &\begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix} \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}\\[4mm] \quad &= \begin{pmatrix} \overline{\alpha_{1,1}}\alpha_{1,1} + \overline{\alpha_{2,1}}\alpha_{2,1} + \overline{\alpha_{3,1}}\alpha_{3,1} & \overline{\alpha_{1,1}}\alpha_{1,2} + \overline{\alpha_{2,1}}\alpha_{2,2} + \overline{\alpha_{3,1}}\alpha_{3,2} & \overline{\alpha_{1,1}}\alpha_{1,3} + \overline{\alpha_{2,1}}\alpha_{2,3} + \overline{\alpha_{3,1}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,2}}\alpha_{1,1} + \overline{\alpha_{2,2}}\alpha_{2,1} + \overline{\alpha_{3,2}}\alpha_{3,1} & \overline{\alpha_{1,2}}\alpha_{1,2} + \overline{\alpha_{2,2}}\alpha_{2,2} + \overline{\alpha_{3,2}}\alpha_{3,2} & \overline{\alpha_{1,2}}\alpha_{1,3} + \overline{\alpha_{2,2}}\alpha_{2,3} + \overline{\alpha_{3,2}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,3}}\alpha_{1,1} + \overline{\alpha_{2,3}}\alpha_{2,1} + \overline{\alpha_{3,3}}\alpha_{3,1} & \overline{\alpha_{1,3}}\alpha_{1,2} + \overline{\alpha_{2,3}}\alpha_{2,2} + \overline{\alpha_{3,3}}\alpha_{3,2} & \overline{\alpha_{1,3}}\alpha_{1,3} + \overline{\alpha_{2,3}}\alpha_{2,3} + \overline{\alpha_{3,3}}\alpha_{3,3} \end{pmatrix} \end{aligned}

Wenn wir aus den Spalten von UU drei Vektoren bilden,

ψ1=(α1,1α2,1α3,1),ψ2=(α1,2α2,2α3,2),ψ3=(α1,3α2,3α3,3),\vert \psi_1\rangle = \begin{pmatrix} \alpha_{1,1}\\ \alpha_{2,1}\\ \alpha_{3,1} \end{pmatrix}, \quad \vert \psi_2\rangle = \begin{pmatrix} \alpha_{1,2}\\ \alpha_{2,2}\\ \alpha_{3,2} \end{pmatrix}, \quad \vert \psi_3\rangle = \begin{pmatrix} \alpha_{1,3}\\ \alpha_{2,3}\\ \alpha_{3,3} \end{pmatrix},

dann lässt sich das obige Produkt alternativ so ausdrücken:

UU=(ψ1ψ1ψ1ψ2ψ1ψ3ψ2ψ1ψ2ψ2ψ2ψ3ψ3ψ1ψ3ψ2ψ3ψ3)U^{\dagger} U = \begin{pmatrix} \langle \psi_1\vert \psi_1 \rangle & \langle \psi_1\vert \psi_2 \rangle & \langle \psi_1\vert \psi_3 \rangle \\ \langle \psi_2\vert \psi_1 \rangle & \langle \psi_2\vert \psi_2 \rangle & \langle \psi_2\vert \psi_3 \rangle \\ \langle \psi_3\vert \psi_1 \rangle & \langle \psi_3\vert \psi_2 \rangle & \langle \psi_3\vert \psi_3 \rangle \end{pmatrix}

Mit Blick auf Gleichung (3)(3) erkennen wir nun, dass die Bedingung, dass diese Matrix gleich der Einheitsmatrix ist, äquivalent zur Orthonormalität der Menge {ψ1,ψ2,ψ3}\{\vert\psi_1\rangle,\vert\psi_2\rangle,\vert\psi_3\rangle\} ist.

Dieses Argument lässt sich auf unitäre Matrizen beliebiger Größe verallgemeinern. Dass die Zeilen einer Matrix genau dann eine orthonormale Basis bilden, wenn die Matrix unitär ist, folgt daraus, dass eine Matrix genau dann unitär ist, wenn ihre Transponierte unitär ist.

Aus der beschriebenen Äquivalenz und der Tatsache, dass jede orthonormale Menge zu einer orthonormalen Basis ergänzt werden kann, ergibt sich die folgende nützliche Tatsache: Für jede orthonormale Menge von Vektoren {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} aus einem nn-dimensionalen Raum gibt es eine unitäre Matrix UU, deren erste mm Spalten die Vektoren ψ1,,ψm\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle sind. Bildlich gesprochen lässt sich stets eine unitäre Matrix dieser Form finden:

U=(ψ1ψ2ψmψm+1ψn).U = \left( \begin{array}{ccccccc} \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt}\\ \vert\psi_1\rangle & \vert\psi_2\rangle & \cdots & \vert\psi_m\rangle & \vert\psi_{m+1}\rangle & \cdots & \vert\psi_n\rangle\\[2mm] \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} \end{array} \right).

Dabei werden die letzten nmn-m Spalten mit beliebigen Vektoren ψm+1,,ψn\vert\psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle gefüllt, die {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} zu einer orthonormalen Basis machen.

Projektionen und projektive Messungen

Projektionsmatrizen

Eine quadratische Matrix Π\Pi heißt Projektion, wenn sie zwei Eigenschaften erfüllt:

  1. Π=Π.\Pi = \Pi^{\dagger}.
  2. Π2=Π.\Pi^2 = \Pi.

Matrizen, die die erste Bedingung erfüllen – d.h. gleich ihrer eigenen konjugiert-transponierten Matrix sind – werden hermitesche Matrizen genannt; Matrizen, die die zweite Bedingung erfüllen – d.h. beim Quadrieren unverändert bleiben – heißen idempotente Matrizen.

Zur Klarstellung: Das Wort Projektion wird manchmal verwendet, um jede Matrix zu bezeichnen, die nur die zweite Bedingung erfüllt, aber nicht notwendigerweise die erste. In diesem Fall wird der Begriff orthogonale Projektion typischerweise für Matrizen verwendet, die beide Eigenschaften erfüllen. Im Kontext der Quanteninformation und -berechnung beziehen sich die Begriffe Projektion und Projektionsmatrix jedoch in der Regel auf Matrizen, die beide Bedingungen erfüllen.

Ein Beispiel einer Projektion ist die Matrix

Π=ψψ(4)\Pi = \vert \psi \rangle \langle \psi \vert \tag{4}

für jeden Einheitsvektor ψ.\vert \psi\rangle. Dass diese Matrix hermitesch ist, sieht man wie folgt:

Π=(ψψ)=(ψ)(ψ)=ψψ=Π.\Pi^{\dagger} = \bigl( \vert \psi \rangle \langle \psi \vert \bigr)^{\dagger} = \bigl( \langle \psi \vert \bigr)^{\dagger}\bigl( \vert \psi \rangle \bigr)^{\dagger} = \vert \psi \rangle \langle \psi \vert = \Pi.

Um die zweite Gleichheit zu erhalten, haben wir die Formel

(AB)=BA(A B)^{\dagger} = B^{\dagger} A^{\dagger}

verwendet, die stets gilt, für beliebige Matrizen AA und BB, für die das Produkt ABAB definiert ist.

Um zu sehen, dass die Matrix Π\Pi in (4)(4) idempotent ist, nutzen wir die Voraussetzung, dass ψ\vert\psi\rangle ein Einheitsvektor ist, also ψψ=1\langle \psi \vert \psi\rangle = 1 erfüllt. Damit gilt:

Π2=(ψψ)2=ψψψψ=ψψ=Π.\Pi^2 = \bigl( \vert\psi\rangle\langle \psi\vert \bigr)^2 = \vert\psi\rangle\langle \psi\vert\psi\rangle\langle\psi\vert = \vert\psi\rangle\langle\psi\vert = \Pi.

Allgemeiner gilt: Wenn {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} eine beliebige orthonormale Menge von Vektoren ist, dann ist die Matrix

Π=k=1mψkψk(5)\Pi = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert \tag{5}

eine Projektion. Konkret gilt:

Π=(k=1mψkψk)=k=1m(ψkψk)=k=1mψkψk=Π,\begin{aligned} \Pi^{\dagger} &= \biggl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr)^{\dagger} \\ &= \sum_{k = 1}^m \bigl(\vert\psi_k\rangle\langle\psi_k\vert\bigr)^{\dagger} \\ &= \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ &= \Pi, \end{aligned}

und

Π2=(j=1mψjψj)(k=1mψkψk)=j=1mk=1mψjψjψkψk=k=1mψkψk=Π,\begin{aligned} \Pi^2 & = \biggl( \sum_{j = 1}^m \vert \psi_j\rangle \langle \psi_j \vert\Bigr)\Bigl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr) \\ & = \sum_{j = 1}^m\sum_{k = 1}^m \vert \psi_j\rangle \langle \psi_j \vert \psi_k\rangle \langle \psi_k \vert \\ & = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ & = \Pi, \end{aligned}

wobei die Orthonormalität von {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} die vorletzte Gleichheit impliziert.

Tatsächlich sind damit alle Möglichkeiten erschöpft: Jede Projektion Π\Pi lässt sich in der Form (5)(5) für eine geeignete orthonormale Menge {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} schreiben. (Technisch gesehen ist die Nullmatrix Π=0\Pi=0, die eine Projektion ist, ein Sonderfall. Um sie in die allgemeine Form (5)(5) einzupassen, muss man die Möglichkeit einer leeren Summe zulassen, die die Nullmatrix ergibt.)

Projektive Messungen

Der Begriff einer Messung eines Quantensystems ist allgemeiner als nur Standardbasismessungen. Projektive Messungen sind Messungen, die durch eine Sammlung von Projektionen beschrieben werden, deren Summe gleich der Einheitsmatrix ist. In Formeln: Eine Sammlung {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} von Projektionsmatrizen beschreibt eine projektive Messung, wenn

Π0++Πm1=I.\Pi_0 + \cdots + \Pi_{m-1} = \mathbb{I}.

Wenn eine solche Messung an einem System X\mathsf{X} durchgeführt wird, während es sich im Zustand ψ\vert\psi\rangle befindet, passieren zwei Dinge:

  1. Für jedes k{0,,m1}k\in\{0,\ldots,m-1\} ist das Ergebnis der Messung kk mit Wahrscheinlichkeit

    Pr(Ergebnis ist k)=Πkψ2.\operatorname{Pr}\bigl(\text{Ergebnis ist $k$}\bigr) = \bigl\| \Pi_k \vert \psi \rangle \bigr\|^2.
  2. Je nachdem, welches Ergebnis kk die Messung liefert, wird der Zustand von X\mathsf{X} zu

    ΠkψΠkψ.\frac{\Pi_k \vert\psi\rangle}{\bigl\|\Pi_k \vert\psi\rangle\bigr\|}.

Für projektive Messungen können auch andere Ergebnisse als {0,,m1}\{0,\ldots,m-1\} gewählt werden. Allgemeiner: Für jede endliche und nichtleere Menge Σ\Sigma gilt: Wenn wir eine Sammlung von Projektionsmatrizen haben,

{Πa:aΣ}\{\Pi_a:a\in\Sigma\}

die die Bedingung

aΣΠa=I\sum_{a\in\Sigma} \Pi_a = \mathbb{I}

erfüllt, dann beschreibt diese Sammlung eine projektive Messung, deren mögliche Ergebnisse mit der Menge Σ\Sigma übereinstimmen, wobei dieselben Regeln gelten wie zuvor:

  1. Für jedes aΣa\in\Sigma ist das Ergebnis der Messung aa mit Wahrscheinlichkeit

    Pr(Ergebnis ist a)=Πaψ2.\operatorname{Pr}\bigl(\text{Ergebnis ist $a$}\bigr) = \bigl\| \Pi_a \vert \psi \rangle \bigr\|^2.
  2. Je nachdem, welches Ergebnis aa die Messung liefert, wird der Zustand von X\mathsf{X} zu

    ΠaψΠaψ.\frac{\Pi_a \vert\psi\rangle}{\bigl\|\Pi_a \vert\psi\rangle\bigr\|}.

Zum Beispiel sind Standardbasismessungen äquivalent zu projektiven Messungen, bei denen Σ\Sigma die Menge der klassischen Zustände des betreffenden Systems X\mathsf{X} ist und unsere Sammlung von Projektionsmatrizen {aa:aΣ}\{\vert a\rangle\langle a\vert:a\in\Sigma\} lautet.

Ein weiteres Beispiel einer projektiven Messung, diesmal auf zwei Qubits (X,Y),(\mathsf{X},\mathsf{Y}), ist die Menge {Π0,Π1}\{\Pi_0,\Pi_1\}, wobei

Π0=ϕ+ϕ++ϕϕ+ψ+ψ+undΠ1=ψψ.\Pi_0 = \vert \phi^+\rangle\langle \phi^+ \vert + \vert \phi^-\rangle\langle \phi^- \vert + \vert \psi^+\rangle\langle \psi^+ \vert \quad\text{und}\quad \Pi_1 = \vert\psi^-\rangle\langle\psi^-\vert.

Wenn mehrere Systeme gemeinsam in einem Quantenzustand sind und eine projektive Messung nur an einem der Systeme durchgeführt wird, ist die Wirkung ähnlich wie bei Standardbasismessungen – und tatsächlich lässt sich diese Wirkung jetzt viel einfacher beschreiben als zuvor.

Genauer gesagt: Angenommen, wir haben zwei Systeme (X,Y)(\mathsf{X},\mathsf{Y}) im Quantenzustand ψ\vert\psi\rangle, und eine projektive Messung, die durch die Sammlung {Πa:aΣ}\{\Pi_a : a\in\Sigma\} beschrieben wird, wird am System X\mathsf{X} durchgeführt, während an Y\mathsf{Y} nichts getan wird. Das ist dann äquivalent zur Durchführung der durch die Sammlung

{ΠaI:aΣ}\bigl\{ \Pi_a \otimes \mathbb{I} \,:\, a\in\Sigma\bigr\}

beschriebenen projektiven Messung am gemeinsamen System (X,Y).(\mathsf{X},\mathsf{Y}). Jedes Messergebnis aa tritt mit Wahrscheinlichkeit

(ΠaI)ψ2\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|^2

auf, und bedingt auf das Ergebnis aa wird der Zustand des gemeinsamen Systems (X,Y)(\mathsf{X},\mathsf{Y}) zu

(ΠaI)ψ(ΠaI)ψ.\frac{(\Pi_a \otimes \mathbb{I})\vert \psi\rangle}{\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|}.

Implementierung projektiver Messungen

Beliebige projektive Messungen können mithilfe unitärer Operationen, Standardbasismessungen und eines zusätzlichen Hilfsystems implementiert werden, wie nun erklärt wird.

Sei X\mathsf{X} ein System und {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} eine projektive Messung auf X.\mathsf{X}. Diese Diskussion lässt sich leicht auf projektive Messungen mit anderen Ergebnismengen verallgemeinern, aber der Einfachheit halber nehmen wir an, dass die Menge der möglichen Ergebnisse {0,,m1}\{0,\ldots,m-1\} ist.

Es sei ausdrücklich darauf hingewiesen, dass mm nicht notwendigerweise gleich der Anzahl der klassischen Zustände von X\mathsf{X} ist – wir bezeichnen die Anzahl der klassischen Zustände von X\mathsf{X} mit nn, was bedeutet, dass jede Matrix Πk\Pi_k eine n×nn\times n-Projektionsmatrix ist.

Da wir voraussetzen, dass {Π0,Πm1}\{\Pi_0\ldots,\Pi_{m-1}\} eine projektive Messung darstellt, gilt notwendigerweise:

k=0m1Πk=In.\sum_{k = 0}^{m-1} \Pi_k = \mathbb{I}_n.

Unser Ziel ist es, einen Prozess durchzuführen, der denselben Effekt hat wie diese projektive Messung auf X\mathsf{X}, aber nur unitäre Operationen und Standardbasismessungen zu verwenden.

Dafür nutzen wir ein zusätzliches Hilfsystem Y\mathsf{Y}; konkret wählen wir die klassische Zustandsmenge von Y\mathsf{Y} als {0,,m1}\{0,\ldots,m-1\} – dieselbe wie die Ergebnismenge der projektiven Messung. Die Idee ist, eine Standardbasismessung auf Y\mathsf{Y} durchzuführen und das Ergebnis dieser Messung als äquivalent zum Ergebnis der projektiven Messung auf X\mathsf{X} zu interpretieren. Wir nehmen an, dass Y\mathsf{Y} auf einen festen Zustand initialisiert wird, den wir als 0\vert 0\rangle wählen. (Jede andere feste Quantenzustandswahl würde ebenfalls funktionieren, aber 0\vert 0\rangle macht die folgende Erklärung deutlich einfacher.)

Damit eine Standardbasismessung von Y\mathsf{Y} uns etwas über X\mathsf{X} verrät, müssen wir natürlich zulassen, dass X\mathsf{X} und Y\mathsf{Y} vor der Messung von Y\mathsf{Y} durch eine unitäre Operation auf dem System (Y,X)(\mathsf{Y},\mathsf{X}) miteinander wechselwirken. Betrachten wir zunächst diese Matrix:

M=k=0m1k0Πk.M = \sum_{k = 0}^{m-1} \vert k \rangle \langle 0 \vert \otimes \Pi_k.

Als sogenannte Blockmatrix – also eine Matrix von Matrizen, die wir als eine einzelne, größere Matrix interpretieren – sieht MM so aus:

M=(Π000Π100Πm100).M = \begin{pmatrix} \Pi_0 & 0 & \cdots & 0\\[1mm] \Pi_1 & 0 & \cdots & 0\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & 0 & \cdots & 0 \end{pmatrix}.

Dabei steht jede 00 für eine n×nn\times n-Matrix, die vollständig mit Nullen gefüllt ist, sodass die gesamte Matrix MM eine nm×nmnm\times nm-Matrix ist.

Nun ist MM sicherlich keine unitäre Matrix (außer wenn m=1m=1, da dann Π0=I\Pi_0 = \mathbb{I} gilt und M=IM = \mathbb{I} in diesem trivialen Fall), denn unitäre Matrizen können keine Spalten (oder Zeilen) haben, die vollständig aus Nullen bestehen; unitäre Matrizen haben Spalten, die orthonormale Basen bilden, und der Nullvektor ist kein Einheitsvektor.

Allerdings ist es der Fall, dass die ersten nn Spalten von MM orthonormal sind – das ergibt sich aus der Annahme, dass {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} eine Messung ist. Um das zu überprüfen, beachte: Für jedes j{0,,n1}j\in\{0,\ldots,n-1\} lautet der Vektor, der durch Spalte jj von MM gebildet wird:

ψj=M0,j=k=0m1kΠkj.\vert \psi_j\rangle = M \vert 0, j\rangle = \sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert j\rangle.

Dabei nummerieren wir die Spalten beginnend bei Spalte 0.0. Das innere Produkt der Spalte ii mit der Spalte jj für i,j{0,,n1}i,j\in\{0,\ldots,n-1\} ergibt:

ψiψj=(k=0m1kΠki)(l=0m1lΠlj)=k=0m1l=0m1kliΠkΠlj=k=0m1iΠkΠkj=k=0m1iΠkj=iIj={1i=j0ij,\begin{aligned} \langle \psi_i \vert \psi_j \rangle & = \biggl(\sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert i\rangle\biggr)^{\dagger} \biggl(\sum_{l = 0}^{m-1} \vert l \rangle \otimes \Pi_l \vert j\rangle\biggr) \\ & = \sum_{k = 0}^{m-1} \sum_{l = 0}^{m-1} \langle k \vert l \rangle \langle i \vert \Pi_k \Pi_l \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \Pi_k \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \vert j\rangle\\ & = \langle i \vert \mathbb{I} \vert j \rangle\\ & = \begin{cases} 1 & i = j\\ 0 & i\neq j, \end{cases} \end{aligned}

was zu zeigen war.

Da die ersten nn Spalten der Matrix MM orthonormal sind, können wir alle verbleibenden Nulleinträge durch andere komplexe Zahlen ersetzen, sodass die gesamte Matrix unitär wird:

U=(Π0??Π1??Πm1??)U = \begin{pmatrix} \Pi_0 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \Pi_1 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Wenn die Matrizen Π0,,Πm1\Pi_0,\ldots,\Pi_{m-1} gegeben sind, können wir mit dem Gram-Schmidt-Verfahren geeignete Matrizen für die mit ?\fbox{?} gekennzeichneten Blöcke berechnen – aber für unsere Zwecke spielt es keine Rolle, was genau diese Matrizen sind.

Schließlich können wir den Messprozess beschreiben: Wir wenden zuerst UU auf das gemeinsame System (Y,X)(\mathsf{Y},\mathsf{X}) an und messen dann Y\mathsf{Y} mit einer Standardbasismessung. Für einen beliebigen Zustand ϕ\vert \phi \rangle von X\mathsf{X} erhalten wir den Zustand

U(0ϕ)=M(0ϕ)=k=0m1kΠkϕ,U \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = M \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = \sum_{k = 0}^{m-1} \vert k\rangle \otimes \Pi_k \vert\phi\rangle,

wobei die erste Gleichheit daraus folgt, dass UU und MM auf ihren ersten nn Spalten übereinstimmen. Wenn wir eine Standardbasismessung auf Y\mathsf{Y} durchführen, erhalten wir jedes Ergebnis kk mit Wahrscheinlichkeit

Πkϕ2,\bigl\| \Pi_k \vert \phi\rangle \bigr\|^2,

und in diesem Fall wird der Zustand von (Y,X)(\mathsf{Y},\mathsf{X}) zu

kΠkϕΠkϕ.\vert k\rangle \otimes \frac{\Pi_k \vert \phi\rangle}{\bigl\| \Pi_k \vert \phi\rangle \bigr\|}.

Damit speichert Y\mathsf{Y} eine Kopie des Messergebnisses, und X\mathsf{X} verändert sich genau so, wie es der Fall wäre, wenn die durch {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} beschriebene projektive Messung direkt auf X\mathsf{X} angewendet worden wäre.