Zum Hauptinhalt springen

Äquivalenz der Darstellungen

Wir haben nun drei verschiedene Möglichkeiten kennengelernt, Kanäle mathematisch darzustellen: Stinespring-Darstellungen, Kraus-Darstellungen und Choi-Darstellungen. Außerdem haben wir die Definition eines Kanals, die besagt, dass ein Kanal eine lineare Abbildung ist, die Dichtematrizen stets in Dichtematrizen umwandelt — auch wenn der Kanal nur auf einen Teil eines zusammengesetzten Systems angewendet wird. Der Rest dieser Lektion ist einem mathematischen Beweis gewidmet, der zeigt, dass die drei Darstellungen äquivalent sind und die Definition genau erfassen.

Überblick über den Beweis

Unser Ziel ist es, die Äquivalenz einer Sammlung von vier Aussagen zu zeigen. Wir beginnen damit, sie präzise aufzuschreiben. Alle vier Aussagen folgen denselben Konventionen, die in der gesamten Lektion verwendet wurden: Φ\Phi ist eine lineare Abbildung von quadratischen Matrizen auf quadratische Matrizen, die Zeilen und Spalten der Eingabematrizen sind den klassischen Zuständen eines Systems X\mathsf{X} (dem Eingabesystem) zugeordnet, und die Zeilen und Spalten der Ausgabematrizen sind den klassischen Zuständen eines Systems Y\mathsf{Y} (dem Ausgabesystem) zugeordnet.

  1. Φ\Phi ist ein Kanal von X\mathsf{X} nach Y\mathsf{Y}. Das heißt, Φ\Phi wandelt Dichtematrizen stets in Dichtematrizen um, auch wenn es auf einen Teil eines größeren zusammengesetzten Systems wirkt.

  2. Die Choi-Matrix J(Φ)J(\Phi) ist positiv semidefinit und erfüllt die Bedingung TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

  3. Es gibt eine Kraus-Darstellung für Φ\Phi. Das heißt, es existieren Matrizen A0,,AN1A_0,\ldots,A_{N-1}, für die die Gleichung Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} für jede Eingabe ρ\rho gilt, und die die Bedingung k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}} erfüllen.

  4. Es gibt eine Stinespring-Darstellung für Φ\Phi. Das heißt, es existieren Systeme W\mathsf{W} und G\mathsf{G}, so dass die Paare (W,X)(\mathsf{W},\mathsf{X}) und (G,Y)(\mathsf{G},\mathsf{Y}) dieselbe Anzahl klassischer Zustände haben, zusammen mit einer unitären Matrix UU, die eine unitäre Operation von (W,X)(\mathsf{W},\mathsf{X}) nach (G,Y)(\mathsf{G},\mathsf{Y}) darstellt, sodass Φ(ρ)=TrG(U(00ρ)U).\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}}\bigl( U (\vert 0\rangle\langle 0 \vert \otimes \rho) U^{\dagger} \bigr).

Der Beweis funktioniert, indem eine Kette von Implikationen gezeigt wird: Die erste Aussage impliziert die zweite, die zweite impliziert die dritte, die dritte impliziert die vierte, und die vierte Aussage impliziert die erste. Damit ist die Äquivalenz aller vier Aussagen bewiesen — das heißt, sie sind für eine gegebene Wahl von Φ\Phi entweder alle wahr oder alle falsch — denn die Implikationen können transitiv von jeder Aussage zu jeder anderen verfolgt werden.

Das ist eine übliche Strategie beim Beweis der Äquivalenz einer Sammlung von Aussagen. Ein nützlicher Trick dabei ist, die Implikationen so zu wählen, dass sie möglichst einfach zu beweisen sind. Das ist hier der Fall — und tatsächlich sind zwei der vier Implikationen schon bekannt.

Von Kanälen zu Choi-Matrizen

Die erste zu beweisende Implikation (mit Bezug auf die nummerierten Aussagen) ist 1 \Rightarrow 2. Diese Implikation wurde bereits im Zusammenhang mit dem Choi-Zustand eines Kanals besprochen. Hier fassen wir die mathematischen Details zusammen.

Sei die klassische Zustandsmenge des Eingabesystems X\mathsf{X} gleich Σ\Sigma und sei n=Σn = \vert\Sigma\vert. Betrachte die Situation, in der Φ\Phi auf die zweite von zwei Kopien von X\mathsf{X} angewendet wird, die sich gemeinsam im Zustand

ψ=1naΣaa,\vert \psi \rangle = \frac{1}{\sqrt{n}} \sum_{a \in \Sigma} \vert a \rangle \otimes \vert a \rangle,

befinden, was als Dichtematrix

ψψ=1na,bΣabab\vert \psi \rangle \langle \psi \vert = \frac{1}{n} \sum_{a,b \in \Sigma} \vert a\rangle\langle b \vert \otimes \vert a\rangle\langle b \vert

lautet.

Das Ergebnis lässt sich schreiben als

(IdΦ)(ψψ)=1na,b=0n1abΦ(ab)=J(Φ)n,(\operatorname{Id}\otimes \,\Phi) \bigl(\vert \psi \rangle \langle \psi \vert\bigr) = \frac{1}{n} \sum_{a,b = 0}^{n-1} \vert a\rangle\langle b \vert \otimes \Phi\bigl(\vert a\rangle\langle b \vert\bigr) = \frac{J(\Phi)}{n},

und unter der Annahme, dass Φ\Phi ein Kanal ist, muss dies eine Dichtematrix sein. Wie alle Dichtematrizen ist sie positiv semidefinit, und die Multiplikation einer positiv semidefiniten Matrix mit einer positiven reellen Zahl ergibt erneut eine positiv semidefinite Matrix; daher gilt J(Φ)0.J(\Phi) \geq 0.

Darüber hinaus muss Φ\Phi als Kanal die Spur erhalten, weshalb gilt:

TrY(J(Φ))=a,bΣTr(Φ(ab))ab=a,bΣTr(ab)ab=aΣaa=IX.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\Phi( \vert a\rangle\langle b \vert)\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert a\rangle\langle b \vert\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a\in\Sigma} \vert a\rangle\langle a \vert\\ & = \mathbb{I}_{\mathsf{X}}. \end{aligned}

Von Choi- zu Kraus-Darstellungen

Die zweite Implikation (wiederum bezogen auf die nummerierten Aussagen) ist 2 \Rightarrow 3. Dabei ignorieren wir die anderen Aussagen — insbesondere dürfen wir nicht annehmen, dass Φ\Phi ein Kanal ist. Alles, womit wir arbeiten, ist, dass Φ\Phi eine lineare Abbildung ist, deren Choi-Darstellung J(Φ)0J(\Phi) \geq 0 und TrY(J(Φ))=IX\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}} erfüllt.

Das reicht jedoch aus, um zu schließen, dass Φ\Phi eine Kraus-Darstellung

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

besitzt, für die die Bedingung

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

erfüllt ist.

Wir beginnen mit der entscheidenden Annahme, dass J(Φ)J(\Phi) positiv semidefinit ist. Das bedeutet, dass es möglich ist, J(Φ)J(\Phi) in der Form

J(Φ)=k=0N1ψkψk(1)J(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \tag{1}

für eine geeignete Wahl der Vektoren ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle auszudrücken. Im Allgemeinen gibt es mehrere solcher Darstellungen — was direkt der Freiheit entspricht, die man bei der Wahl einer Kraus-Darstellung für Φ\Phi hat.

Eine Möglichkeit, eine solche Darstellung zu erhalten, ist die Verwendung des Spektralsatzes:

J(Φ)=k=0N1λkγkγk,J(\Phi) = \sum_{k = 0}^{N-1} \lambda_k \vert \gamma_k \rangle \langle \gamma_k \vert,

wobei λ0,,λN1\lambda_0,\ldots,\lambda_{N-1} die Eigenwerte von J(Φ)J(\Phi) sind (die wegen der positiven Semidefinitheit von J(Φ)J(\Phi) notwendigerweise nichtnegative reelle Zahlen sind) und γ0,,γN1\vert\gamma_0\rangle,\ldots,\vert\gamma_{N-1}\rangle normierte Eigenvektoren zu den Eigenwerten λ0,,λN1\lambda_0,\ldots,\lambda_{N-1} sind.

Zu beachten ist, dass die Eigenwerte (abgesehen von der Reihenfolge) keine Freiheit lassen, während bei der Wahl der Eigenvektoren Freiheit besteht — insbesondere wenn Eigenwerte mit Vielfachheit größer als eins auftreten. Diese Darstellung von J(Φ)J(\Phi) ist also nicht eindeutig — wir setzen lediglich voraus, dass wir eine solche haben. Da die Eigenwerte nichtnegative reelle Zahlen sind, haben sie nichtnegative Quadratwurzeln, und wir können

ψk=λkγk\vert\psi_k\rangle = \sqrt{\lambda_k} \vert \gamma_k\rangle

für jedes k=0,,N1k = 0,\ldots,N-1 wählen, um eine Darstellung der Form (1)(1) zu erhalten.

Es ist jedoch nicht erforderlich, dass die Darstellung (1)(1) auf diese Weise aus einer Spektralzerlegung stammt. Insbesondere müssen die Vektoren ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle im Allgemeinen nicht orthogonal sein. Es ist jedoch bemerkenswert, dass wir diese Vektoren bei Bedarf orthogonal wählen können — und wir brauchen NN nie größer als nmnm zu nehmen (wobei nn und mm die Anzahl der klassischen Zustände von X\mathsf{X} bzw. Y\mathsf{Y} bezeichnen).

Als Nächstes lässt sich jeder der Vektoren ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle weiter zerlegen als

ψk=aΣaϕk,a,\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle,

wobei die Vektoren {ϕk,a}\{ \vert \phi_{k,a}\rangle \} Einträge haben, die den klassischen Zuständen von Y\mathsf{Y} entsprechen, und explizit durch die Gleichung

ϕk,a=(aIY)ψk\vert \phi_{k,a}\rangle = \bigl( \langle a \vert \otimes \mathbb{I}_{\mathsf{Y}}\bigr) \vert \psi_k\rangle

für jedes aΣa\in\Sigma und k=0,,N1k=0,\ldots,N-1 bestimmt werden können. Obwohl ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle nicht notwendigerweise normierte Vektoren sind, ist dies derselbe Prozess, den wir verwenden würden, um zu analysieren, was bei einer Standardbasismessung des Systems X\mathsf{X} bei einem gegebenen Quantenzustandsvektor des Paares (X,Y)(\mathsf{X},\mathsf{Y}) passiert.

Nun kommen wir zu dem Trick, der diesen Teil des Beweises zum Funktionieren bringt. Wir definieren unsere Kraus-Matrizen A0,,AN1A_0,\ldots,A_{N-1} gemäß folgender Gleichung:

Ak=aΣϕk,aaA_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

Wir können diese Formel rein symbolisch betrachten: a\vert a\rangle wird gewissermaßen umgedreht zu a\langle a\vert und auf die rechte Seite verschoben, wodurch eine Matrix entsteht. Für die Verifizierung des Beweises ist die Formel alles, was wir brauchen.

Es gibt jedoch eine einfache und anschauliche Beziehung zwischen dem Vektor ψk\vert\psi_k\rangle und der Matrix AkA_k: durch Vektorisierung von AkA_k erhält man ψk\vert\psi_k\rangle. Unter der Vektorisierung von AkA_k versteht man das Stapeln der Spalten übereinander (von der linksten Spalte oben bis zur rechtsten unten), um einen Vektor zu bilden. Wenn X\mathsf{X} und Y\mathsf{Y} beispielsweise beide Qubits sind und für eine bestimmte Wahl von kk gilt

ψk=α0000+α0101+α1010+α1111=(α00α01α10α11),\begin{aligned} \vert\psi_k\rangle & = \alpha_{00} \vert 0\rangle \otimes \vert 0\rangle + \alpha_{01} \vert 0\rangle \otimes \vert 1\rangle + \alpha_{10} \vert 1\rangle \otimes \vert 0\rangle + \alpha_{11} \vert 1\rangle \otimes \vert 1\rangle\\[2mm] & = \begin{pmatrix} \alpha_{00} \\[1mm] \alpha_{01} \\[1mm] \alpha_{10} \\[1mm] \alpha_{11} \end{pmatrix}, \end{aligned}

dann gilt

Ak=α0000+α0110+α1001+α1111=(α00α10α01α11).\begin{aligned} A_k & = \alpha_{00} \vert 0\rangle\langle 0\vert + \alpha_{01} \vert 1\rangle\langle 0\vert + \alpha_{10} \vert 0\rangle\langle 1\vert + \alpha_{11} \vert 1\rangle\langle 1\vert\\[2mm] & = \begin{pmatrix} \alpha_{00} & \alpha_{10}\\[1mm] \alpha_{01} & \alpha_{11} \end{pmatrix}. \end{aligned}

(Achtung: Manchmal wird die Vektorisierung einer Matrix leicht abweichend definiert, nämlich so, dass die Zeilen der Matrix transponiert und übereinander gestapelt werden, um einen Spaltenvektor zu bilden.)

Zunächst überprüfen wir, dass diese Wahl von Kraus-Matrizen die Abbildung Φ\Phi korrekt beschreibt; danach überprüfen wir die andere erforderliche Bedingung. Um die Übersicht zu behalten, definieren wir eine neue Abbildung Ψ\Psi wie folgt:

Ψ(ρ)=k=0N1AkρAk\Psi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

Unser Ziel ist also zu zeigen, dass Ψ=Φ\Psi = \Phi.

Dazu vergleichen wir die Choi-Darstellungen dieser Abbildungen. Choi-Darstellungen sind treu, also gilt Ψ=Φ\Psi = \Phi genau dann, wenn J(Φ)=J(Ψ)J(\Phi) = J(\Psi). Wir berechnen J(Ψ)J(\Psi) mithilfe der Ausdrücke

ψk=aΣaϕk,aundAk=aΣϕk,aa\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle \quad\text{und}\quad A_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

zusammen mit der Bilinearität von Tensorprodukten zur Vereinfachung:

J(Ψ)=a,bΣabk=0N1AkabAk=a,bΣabk=0N1ϕk,aϕk,b=k=0N1(aΣaϕk,a)(bΣbϕk,b)=k=0N1ψkψk=J(Φ)\begin{aligned} J(\Psi) & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} A_k \vert a\rangle \langle b \vert A_k^{\dagger}\\[2mm] & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} \vert \phi_{k,a} \rangle \langle \phi_{k,b} \vert \\[2mm] & = \sum_{k = 0}^{N-1} \biggl(\sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a} \rangle\biggr) \biggl(\sum_{b\in\Sigma} \langle b\vert \otimes \langle \phi_{k,b} \vert\biggr)\\[2mm] & = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \\[2mm] & = J(\Phi) \end{aligned}

Unsere Kraus-Matrizen beschreiben Φ\Phi also korrekt.

Es bleibt zu überprüfen, dass die erforderliche Bedingung an A0,,AN1A_0,\ldots,A_{N-1} erfüllt ist. Es stellt sich heraus, dass diese äquivalent zur Annahme TrY(J(Φ))=IX\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}} ist (die wir bisher noch nicht verwendet haben). Was wir zeigen werden, ist diese Beziehung:

(k=0N1AkAk)T=TrY(J(Φ))(2)\Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr)^{T} = \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) \tag{2}

(wobei links die Matrixtransposition gemeint ist).

Wir beginnen auf der linken Seite und beobachten zunächst:

(k=0N1AkAk)T=(k=0N1a,bΣbϕk,bϕk,aa)T=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T & = \Biggl(\sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert b \rangle \langle \phi_{k,b} \vert \phi_{k,a} \rangle \langle a \vert\Biggr)^T\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

Die letzte Gleichung folgt aus der Tatsache, dass die Transposition linear ist und ba\vert b\rangle\langle a \vert auf ab\vert a\rangle\langle b \vert abbildet.

Auf der rechten Seite unserer Gleichung haben wir

J(Φ)=k=0N1ψkψk=k=0N1a,bΣabϕk,aϕk,bJ(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k\rangle\langle\psi_k \vert = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert

und daher

TrY(J(Φ))=k=0N1a,bΣTr(ϕk,aϕk,b)ab=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert \bigr)\, \vert a\rangle \langle b \vert\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

Wir haben dasselbe Ergebnis erhalten, und damit ist Gleichung (2)(2) bewiesen. Aus der Annahme TrY(J(Φ))=IX\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}} folgt daher

(k=0N1AkAk)T=IX\Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T = \mathbb{I}_{\mathsf{X}}

und somit, da die Einheitsmatrix ihre eigene Transponierte ist, ist die erforderliche Bedingung erfüllt:

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

Von Kraus- zu Stinespring-Darstellungen

Angenommen, wir haben eine Kraus-Darstellung einer Abbildung

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

für die gilt

k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

Unser Ziel ist es, eine Stinespring-Darstellung für Φ\Phi zu finden.

Als erstes möchten wir das Müllsystem G\mathsf{G} so wählen, dass seine klassische Zustandsmenge {0,,N1}\{0,\ldots,N-1\} ist. Damit (W,X)(\mathsf{W},\mathsf{X}) und (G,Y)(\mathsf{G},\mathsf{Y}) dieselbe Größe haben, muss jedoch nn ein Teiler von mNm N sein, sodass wir W\mathsf{W} mit klassischen Zuständen {0,,d1}\{0,\ldots,d-1\} für d=mN/nd = mN/n wählen können.

Für eine beliebige Wahl von nn, mm und NN muss mN/nmN/n keine ganze Zahl sein, also sind wir nicht ohne Weiteres frei, G\mathsf{G} mit der klassischen Zustandsmenge {0,,N1}\{0,\ldots,N-1\} zu wählen. Aber wir können NN in der Kraus-Darstellung beliebig vergrößern, indem wir Ak=0A_k = 0 für beliebig viele zusätzliche Werte von kk setzen.

Wenn wir also stillschweigend annehmen, dass mN/nmN/n eine ganze Zahl ist — was äquivalent dazu ist, dass NN ein Vielfaches von m/gcd(n,m)m/\operatorname{gcd}(n,m) ist — sind wir frei, G\mathsf{G} mit der klassischen Zustandsmenge {0,,N1}\{0,\ldots,N-1\} zu wählen. Insbesondere können wir für den Fall N=nmN = nm das System W\mathsf{W} mit m2m^2 klassischen Zuständen wählen.

Es bleibt, UU zu wählen, was wir anhand des folgenden Musters tun:

U=(A0??A1??AN1??)U = \begin{pmatrix} A_{0} & \fbox{?} & \cdots & \fbox{?} \\[1mm] A_{1} & \fbox{?} & \cdots & \fbox{?} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] A_{N-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Zur Klarstellung: Dieses Muster soll eine Blockmatrix darstellen, bei der jeder Block (einschließlich A0,,AN1A_{0},\ldots,A_{N-1} sowie der mit Fragezeichen markierten Blöcke) mm Zeilen und nn Spalten hat. Es gibt NN Blockzeilen, was d=mN/nd = mN/n Blockspalten ergibt.

In einer formelbasierten Darstellung definieren wir UU als

U=k=0N1j=0d1kjMk,j=(M0,0M0,1M0,d1M1,0M1,1M1,d1MN1,0MN1,1MN1,d1)\begin{aligned} U & = \sum_{k=0}^{N-1} \sum_{j=0}^{d-1} \vert k \rangle \langle j \vert \otimes M_{k,j} \\[4mm] & = \begin{pmatrix} M_{0,0} & M_{0,1} & \cdots & M_{0,d-1} \\[1mm] M_{1,0} & M_{1,1} & \cdots & M_{1,d-1} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] M_{N-1,0} & M_{N-1,1} & \cdots & M_{N-1,d-1} \end{pmatrix} \end{aligned}

wobei jede Matrix Mk,jM_{k,j} mm Zeilen und nn Spalten hat, und insbesondere setzen wir Mk,0=AkM_{k,0} = A_k für k=0,,N1k = 0,\ldots,N-1.

Diese Matrix muss unitär sein, und die mit Fragezeichen markierten Blöcke — also Mk,jM_{k,j} für j>0j>0 — müssen so gewählt werden, dass UU unitär wird. Abgesehen davon, dass sie die Unitarität von UU ermöglichen, spielen die mit Fragezeichen markierten Blöcke für den Beweis keine Rolle.

Lassen wir vorübergehend die Frage der Unitarität von UU beiseite und konzentrieren uns auf den Ausdruck

TrG(U(00Wρ)U),\operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr),

der den Ausgabezustand von Y\mathsf{Y} bei Eingabezustand ρ\rho von X\mathsf{X} in unserer Stinespring-Darstellung beschreibt. Alternativ können wir schreiben

U(00ρ)U=U(0IW)ρ(0IW)U,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) \rho (\langle 0\vert \otimes \mathbb{I}_{\mathsf{W}}) U^{\dagger},

und aus unserer Wahl von UU ergibt sich

U(0IW)=k=0N1kAk.U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k.

Damit erhalten wir

U(00ρ)U=j,k=0N1kjAkρAj,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = \sum_{j,k = 0}^{N-1} \vert k\rangle\langle j\vert \otimes A_k \rho A_j^{\dagger},

und folglich

TrG(U(00Wρ)U)=j,k=0N1Tr(kj)AkρAj=k=0N1AkρAk=Φ(ρ).\begin{aligned} \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho) U^{\dagger}\bigr) & = \sum_{j,k = 0}^{N-1} \operatorname{Tr}\bigl(\vert k\rangle\langle j\vert\bigr) \, A_k \rho A_j^{\dagger} \\ & = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} \\ & = \Phi(\rho). \end{aligned}

Wir haben also eine korrekte Darstellung der Abbildung Φ\Phi, und es bleibt zu zeigen, dass UU unitär gewählt werden kann.

Betrachte die ersten nn Spalten von UU gemäß dem obigen Muster. Allein diese Spalten bilden eine Blockmatrix

(A0A1AN1).\begin{pmatrix} A_0\\[1mm] A_1\\[1mm] \vdots\\[1mm] A_{N-1} \end{pmatrix}.

Es gibt nn Spalten, eine für jeden klassischen Zustand von X\mathsf{X}, und als Vektoren nennen wir sie γa\vert \gamma_a \rangle für jedes aΣa\in\Sigma. Hier ist eine Formel für diese Vektoren, die mit der Blockmatrixdarstellung übereinstimmt:

γa=k=0N1kAka\vert \gamma_a\rangle = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k \vert a \rangle

Berechnen wir nun das Skalarprodukt zweier beliebiger dieser Vektoren, also für eine beliebige Wahl von a,bΣa,b\in\Sigma:

γaγb=j,k=0N1kjaAkAjb=a(k=0N1AkAk)b\langle \gamma_a \vert \gamma_b \rangle = \sum_{j,k = 0}^{N-1} \langle k \vert j \rangle \, \langle a \vert A_k^{\dagger} A_j \vert b\rangle = \langle a \vert \Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr) \vert b\rangle

Aus der Annahme

k=0m1AkAk=IX\sum_{k = 0}^{m-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

schließen wir, dass die nn Spaltenvektoren {γa:aΣ}\{\vert\gamma_a\rangle\,:\,a\in\Sigma\} eine Orthonormalbasis bilden:

γaγb={1a=b0ab\langle \gamma_a \vert \gamma_b \rangle = \begin{cases} 1 & a = b\\ 0 & a\neq b \end{cases}

für alle a,bΣa,b\in\Sigma.

Das bedeutet, dass die restlichen Spalten von UU so ergänzt werden können, dass UU eine unitäre Matrix wird. Konkret kann das Gram-Schmidt-Orthogonalisierungsverfahren verwendet werden, um die restlichen Spalten zu wählen. Etwas Ähnliches wurde in der Lektion Quantenschaltkreise des Kurses „Grundlagen der Quanteninformation" im Zusammenhang mit dem Zustandsunterscheidungsproblem gemacht.

Von Stinespring-Darstellungen zurück zur Definition

Die letzte Implikation ist 4 \Rightarrow 1. Das heißt, wir nehmen an, dass eine unitäre Operation existiert, die ein Systempaar (W,X)(\mathsf{W},\mathsf{X}) in ein Paar (G,Y)(\mathsf{G},\mathsf{Y}) transformiert, und unser Ziel ist zu zeigen, dass die Abbildung

Φ(ρ)=TrG(U(00Wρ)U)\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

ein gültiger Kanal ist. Aus ihrer Form ist ersichtlich, dass Φ\Phi linear ist, und es bleibt zu zeigen, dass sie Dichtematrizen stets in Dichtematrizen umwandelt. Das ist recht straightforward und die wesentlichen Punkte haben wir bereits besprochen.

Konkret: Wenn wir mit einer Dichtematrix σ\sigma eines zusammengesetzten Systems (Z,X)(\mathsf{Z},\mathsf{X}) beginnen und ein zusätzliches Arbeitssystem W\mathsf{W} hinzufügen, erhalten wir wieder eine Dichtematrix. Nach Neuanordnung der Systeme (W,Z,X)(\mathsf{W},\mathsf{Z},\mathsf{X}) zur Vereinfachung können wir diesen Zustand als

00Wσ\vert 0\rangle\langle 0\vert_{\mathsf{W}} \otimes \sigma

schreiben.

Anschließend wenden wir die unitäre Operation UU an, die — wie bereits besprochen — ein gültiger Kanal ist und daher Dichtematrizen auf Dichtematrizen abbildet. Schließlich ist die partielle Spur einer Dichtematrix erneut eine Dichtematrix.

Eine andere Sichtweise ist, folgende Beobachtung zu machen: Jede der folgenden Operationen ist ein gültiger Kanal:

  1. Einführung eines initialisierten Arbeitssystems.
  2. Durchführung einer unitären Operation.
  3. Spurbildung über ein System.

Und jede Komposition von Kanälen ist wieder ein Kanal — was unmittelbar aus der Definition folgt, aber auch für sich genommen eine wichtige Beobachtung ist.

Damit ist der Beweis der letzten Implikation abgeschlossen, und wir haben die Äquivalenz der vier zu Beginn des Abschnitts aufgelisteten Aussagen bewiesen.