Zum Hauptinhalt springen

Klassische Information

Wie in der vorherigen Lektion beginnen wir auch hier mit einer Betrachtung klassischer Information. Wieder einmal sind die probabilistische und die quantenmechanische Beschreibung mathematisch ähnlich, und es ist hilfreich zu verstehen, wie die Mathematik im vertrauten Rahmen der klassischen Information funktioniert – das erleichtert das Verständnis, warum Quanteninformation so beschrieben wird, wie sie beschrieben wird.

Klassische Zustände über das kartesische Produkt

Wir beginnen auf einem sehr grundlegenden Niveau: mit klassischen Zuständen mehrerer Systeme. Der Einfachheit halber betrachten wir zunächst nur zwei Systeme und verallgemeinern anschließend auf mehr als zwei Systeme.

Genauer gesagt sei X\mathsf{X} ein System mit der klassischen Zustandsmenge Σ,\Sigma, und Y\mathsf{Y} ein zweites System mit der klassischen Zustandsmenge Γ.\Gamma. Da wir diese Mengen als klassische Zustandsmengen bezeichnen, setzen wir voraus, dass Σ\Sigma und Γ\Gamma beide endlich und nichtleer sind. Es kann sein, dass Σ=Γ\Sigma = \Gamma gilt, muss aber nicht — unabhängig davon ist es sinnvoll, für diese Mengen unterschiedliche Namen zu verwenden, um die Klarheit zu wahren.

Stellen wir uns nun vor, dass die beiden Systeme X\mathsf{X} und Y\mathsf{Y} nebeneinander platziert sind, mit X\mathsf{X} links und Y\mathsf{Y} rechts. Wenn wir möchten, können wir diese zwei Systeme so betrachten, als bildeten sie ein einziges System, das wir je nach Vorliebe mit (X,Y)(\mathsf{X},\mathsf{Y}) oder XY\mathsf{XY} bezeichnen können. Eine naheliegende Frage zu diesem Verbundsystem (X,Y)(\mathsf{X},\mathsf{Y}) lautet: „Was sind seine klassischen Zustände?"

Die Antwort ist, dass die klassische Zustandsmenge von (X,Y)(\mathsf{X},\mathsf{Y}) das kartesische Produkt von Σ\Sigma und Γ\Gamma ist, also die Menge

Σ×Γ={(a,b):aΣ  und  bΓ}. \Sigma\times\Gamma = \bigl\{(a,b)\,:\,a\in\Sigma\;\text{und}\;b\in\Gamma\bigr\}.

Das kartesische Produkt ist genau das mathematische Konzept, das die Idee erfasst, ein Element einer Menge und ein Element einer zweiten Menge zusammen zu betrachten, als bildeten sie ein einzelnes Element einer einzigen Menge. Im vorliegenden Fall bedeutet „(X,Y)(\mathsf{X},\mathsf{Y}) befindet sich im klassischen Zustand (a,b)Σ×Γ(a,b)\in\Sigma\times\Gamma", dass X\mathsf{X} im klassischen Zustand aΣa\in\Sigma und Y\mathsf{Y} im klassischen Zustand bΓb\in\Gamma ist; und wenn der klassische Zustand von X\mathsf{X} gleich aΣa\in\Sigma und der klassische Zustand von Y\mathsf{Y} gleich bΓb\in\Gamma ist, dann ist der klassische Zustand des gemeinsamen Systems (X,Y)(\mathsf{X},\mathsf{Y}) gleich (a,b).(a,b).

Bei mehr als zwei Systemen lässt sich die Situation auf natürliche Weise verallgemeinern. Wenn X1,,Xn\mathsf{X}_1,\ldots,\mathsf{X}_n Systeme mit klassischen Zustandsmengen Σ1,,Σn\Sigma_1,\ldots,\Sigma_n sind, dann ist die klassische Zustandsmenge des nn-Tupels (X1,,Xn),(\mathsf{X}_1,\ldots,\mathsf{X}_n), aufgefasst als ein gemeinsames System, das kartesische Produkt

Σ1××Σn={(a1,,an):a1Σ1,,anΣn}. \Sigma_1\times\cdots\times\Sigma_n = \bigl\{(a_1,\ldots,a_n)\,:\, a_1\in\Sigma_1,\:\ldots,\:a_n\in\Sigma_n\bigr\}.

Natürlich können wir die Systeme beliebig benennen und beliebig anordnen. Wenn wir beispielsweise nn Systeme wie oben haben, könnten wir sie stattdessen X0,,Xn1\mathsf{X}_{0},\ldots,\mathsf{X}_{n-1} nennen und von rechts nach links anordnen, sodass das gemeinsame System zu (Xn1,,X0)(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0) wird. Mit demselben Benennungsmuster für die zugehörigen klassischen Zustände und Zustandsmengen würden wir dann auf einen klassischen Zustand

(an1,,a0)Σn1××Σ0(a_{n-1},\ldots,a_0) \in \Sigma_{n-1}\times \cdots \times \Sigma_0

dieses Verbundsystems verweisen. Dies ist die Konvention, die Qiskit bei der Benennung mehrerer Qubits verwendet. Wir werden in der nächsten Lektion auf diese Konvention und ihren Zusammenhang mit Quantum Circuits zurückkommen, fangen aber schon jetzt damit an, um uns daran zu gewöhnen.

Es ist oft praktisch, einen klassischen Zustand der Form (an1,,a0)(a_{n-1},\ldots,a_0) als String an1a0a_{n-1}\cdots a_0 zu schreiben, besonders in der typischen Situation, dass die klassischen Zustandsmengen Σ0,,Σn1\Sigma_0,\ldots,\Sigma_{n-1} mit Mengen von Symbolen oder Zeichen assoziiert sind. In diesem Kontext wird der Begriff Alphabet häufig für Mengen von Symbolen verwendet, aus denen Strings gebildet werden — die mathematische Definition eines Alphabets ist jedoch genau dieselbe wie die einer klassischen Zustandsmenge: Es ist eine endliche und nichtleere Menge.

Angenommen zum Beispiel, X0,,X9\mathsf{X}_0,\ldots,\mathsf{X}_9 sind Bits, sodass die klassischen Zustandsmengen all dieser Systeme gleich sind.

Σ0=Σ1==Σ9={0,1} \Sigma_0 = \Sigma_1 = \cdots = \Sigma_9 = \{0,1\}

Das gemeinsame System (X9,,X0)(\mathsf{X}_9,\ldots,\mathsf{X}_0) hat dann 210=10242^{10} = 1024 klassische Zustände, nämlich die Elemente der Menge

Σ9×Σ8××Σ0={0,1}10. \Sigma_9\times\Sigma_8\times\cdots\times\Sigma_0 = \{0,1\}^{10}.

Als Strings geschrieben sehen diese klassischen Zustände so aus:

000000000000000000010000000010000000001100000001001111111111 \begin{array}{c} 0000000000\\ 0000000001\\ 0000000010\\ 0000000011\\ 0000000100\\ \vdots\\[1mm] 1111111111 \end{array}

Beim klassischen Zustand 00000001100000000110 beispielsweise sehen wir, dass X1\mathsf{X}_1 und X2\mathsf{X}_2 im Zustand 11 sind, während alle anderen Systeme im Zustand 00 sind.

Probabilistische Zustände

Aus der vorherigen Lektion wissen wir, dass ein probabilistischer Zustand jedem klassischen Zustand eines Systems eine Wahrscheinlichkeit zuweist. Dementsprechend weist ein probabilistischer Zustand mehrerer Systeme — kollektiv als ein System betrachtet — jedem Element des kartesischen Produkts der klassischen Zustandsmengen der einzelnen Systeme eine Wahrscheinlichkeit zu.

Angenommen zum Beispiel, X\mathsf{X} und Y\mathsf{Y} sind beide Bits, sodass ihre klassischen Zustandsmengen Σ={0,1}\Sigma = \{0,1\} und Γ={0,1}\Gamma = \{0,1\} sind. Hier ist ein probabilistischer Zustand des Paares (X,Y):(\mathsf{X},\mathsf{Y}):

Pr((X,Y)=(0,0))=1/2Pr((X,Y)=(0,1))=0Pr((X,Y)=(1,0))=0Pr((X,Y)=(1,1))=1/2 \begin{aligned} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,0)\bigr) & = 1/2 \\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,1)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,0)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,1)\bigr) & = 1/2 \end{aligned}

Bei diesem probabilistischen Zustand sind X\mathsf{X} und Y\mathsf{Y} beide zufällige Bits — jedes ist mit Wahrscheinlichkeit 1/21/2 gleich 00 und mit Wahrscheinlichkeit 1/21/2 gleich 11 — aber die klassischen Zustände der beiden Bits stimmen immer überein. Dies ist ein Beispiel für eine Korrelation zwischen diesen Systemen.

Anordnung kartesischer Produktzustandsmengen

Probabilistische Zustände von Systemen lassen sich durch Wahrscheinlichkeitsvektoren darstellen, wie in der vorherigen Lektion besprochen. Dabei stehen die Einträge des Vektors für die Wahrscheinlichkeiten, dass sich das System in den jeweiligen klassischen Zuständen befindet, und es wird eine Zuordnung zwischen den Einträgen und den klassischen Zuständen festgelegt.

Diese Zuordnung zu wählen bedeutet effektiv, eine Reihenfolge der klassischen Zustände festzulegen, die oft natürlich oder durch eine Standardkonvention vorgegeben ist. Das binäre Alphabet {0,1}\{0,1\} ist zum Beispiel von Natur aus so geordnet, dass 00 an erster und 11 an zweiter Stelle steht. Daher ist der erste Eintrag eines Wahrscheinlichkeitsvektors für ein Bit die Wahrscheinlichkeit für den Zustand 00 und der zweite Eintrag die Wahrscheinlichkeit für den Zustand 1.1.

Im Kontext mehrerer Systeme ändert sich daran nichts grundlegend, aber es gibt eine Entscheidung zu treffen. Die klassische Zustandsmenge mehrerer Systeme zusammen, als ein System betrachtet, ist das kartesische Produkt der klassischen Zustandsmengen der einzelnen Systeme — daher müssen wir festlegen, wie die Elemente der kartesischen Produkte klassischer Zustandsmengen geordnet werden sollen.

Wir folgen einer einfachen Konvention: Wir beginnen mit den bereits vorhandenen Ordnungen der einzelnen klassischen Zustandsmengen und ordnen die Elemente des kartesischen Produkts dann alphabetisch. Anders ausgedrückt: Die Einträge in jedem nn-Tupel (beziehungsweise die Symbole in jedem String) werden so behandelt, als ob ihre Bedeutung von links nach rechts abnimmt. Gemäß dieser Konvention wird das kartesische Produkt {1,2,3}×{0,1}\{1,2,3\}\times\{0,1\} beispielsweise so geordnet:

(1,0),  (1,1),  (2,0),  (2,1),  (3,0),  (3,1). (1,0),\; (1,1),\; (2,0),\; (2,1),\; (3,0),\; (3,1).

Wenn nn-Tupel als Strings geschrieben und so geordnet werden, erkennen wir vertraute Muster: So wird {0,1}×{0,1}\{0,1\}\times\{0,1\} als 00,01,10,1100, 01, 10, 11 angeordnet, und die Menge {0,1}10\{0,1\}^{10} ist so geordnet, wie sie früher in dieser Lektion dargestellt wurde. Als weiteres Beispiel ergibt die Menge {0,1,,9}×{0,1,,9},\{0, 1, \dots, 9\} \times \{0, 1, \dots, 9\}, als Strings betrachtet, die zweistelligen Zahlen 0000 bis 9999 in numerischer Reihenfolge. Das ist kein Zufall: Unser Dezimalsystem verwendet genau diese alphabetische Sortierung, wobei das Wort alphabetisch im weiteren Sinne zu verstehen ist und neben Buchstaben auch Ziffern umfasst.

Zurück zum obigen Beispiel mit zwei Bits: Der dort beschriebene probabilistische Zustand wird daher durch folgenden Wahrscheinlichkeitsvektor dargestellt, wobei die Einträge zur besseren Übersichtlichkeit explizit beschriftet sind.

(120012)probability of being in the state 00probability of being in the state 01probability of being in the state 10probability of being in the state 11(1) \begin{pmatrix} \frac{1}{2}\\[1mm] 0\\[1mm] 0\\[1mm] \frac{1}{2} \end{pmatrix} \begin{array}{l} \leftarrow \text{probability of being in the state 00}\\[1mm] \leftarrow \text{probability of being in the state 01}\\[1mm] \leftarrow \text{probability of being in the state 10}\\[1mm] \leftarrow \text{probability of being in the state 11} \end{array} \tag{1}

Unabhängigkeit zweier Systeme

Eine besondere Art von probabilistischem Zustand zweier Systeme ist derjenige, bei dem die Systeme unabhängig sind. Intuitiv sind zwei Systeme unabhängig, wenn das Wissen über den klassischen Zustand eines Systems die Wahrscheinlichkeiten des anderen Systems nicht beeinflusst. Anders gesagt: Der Zustand des einen Systems liefert keinerlei Information über den Zustand des anderen.

Um diesen Begriff präzise zu definieren, seien X\mathsf{X} und Y\mathsf{Y} Systeme mit klassischen Zustandsmengen Σ\Sigma und Γ.\Gamma. Bezüglich eines gegebenen probabilistischen Zustands dieser Systeme heißen sie unabhängig, wenn gilt:

Pr((X,Y)=(a,b))=Pr(X=a)Pr(Y=b)(2) \operatorname{Pr}((\mathsf{X},\mathsf{Y}) = (a,b)) = \operatorname{Pr}(\mathsf{X} = a) \operatorname{Pr}(\mathsf{Y} = b) \tag{2}

für jede Wahl von aΣa\in\Sigma und bΓ.b\in\Gamma.

Um diese Bedingung in Wahrscheinlichkeitsvektoren auszudrücken, nehmen wir an, dass der gegebene probabilistische Zustand von (X,Y)(\mathsf{X},\mathsf{Y}) durch einen Wahrscheinlichkeitsvektor in Dirac-Notation beschrieben wird:

(a,b)Σ×Γpabab.\sum_{(a,b) \in \Sigma\times\Gamma} p_{ab} \vert a b\rangle.

Die Bedingung (2)(2) für Unabhängigkeit ist dann äquivalent zur Existenz zweier Wahrscheinlichkeitsvektoren

ϕ=aΣqaaundψ=bΓrbb,(3)\vert \phi \rangle = \sum_{a\in\Sigma} q_a \vert a \rangle \quad\text{und}\quad \vert \psi \rangle = \sum_{b\in\Gamma} r_b \vert b \rangle, \tag{3}

die die Wahrscheinlichkeiten der klassischen Zustände von X\mathsf{X} bzw. Y\mathsf{Y} darstellen, sodass

pab=qarb(4)p_{ab} = q_a r_b \tag{4}

für alle aΣa\in\Sigma und bΓb\in\Gamma gilt.

Der probabilistische Zustand eines Bit-Paares (X,Y)(\mathsf{X},\mathsf{Y}), dargestellt durch den Vektor

1600+11201+1210+1411, \frac{1}{6} \vert 00 \rangle + \frac{1}{12} \vert 01 \rangle + \frac{1}{2} \vert 10 \rangle + \frac{1}{4} \vert 11 \rangle,

ist zum Beispiel einer, bei dem X\mathsf{X} und Y\mathsf{Y} unabhängig sind. Die Unabhängigkeitsbedingung ist nämlich für die Wahrscheinlichkeitsvektoren

ϕ=140+341undψ=230+131 \vert \phi \rangle = \frac{1}{4} \vert 0 \rangle + \frac{3}{4} \vert 1 \rangle \quad\text{und}\quad \vert \psi \rangle = \frac{2}{3} \vert 0 \rangle + \frac{1}{3} \vert 1 \rangle

erfüllt. Um zum Beispiel die Wahrscheinlichkeiten für den Zustand 0000 zu überprüfen: Wir benötigen 16=14×23,\frac{1}{6} = \frac{1}{4} \times \frac{2}{3}, und das stimmt tatsächlich. Die anderen Einträge können auf ähnliche Weise überprüft werden.

Der probabilistische Zustand (1),(1), den wir auch als

1200+1211(5) \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle \tag{5}

schreiben können, stellt hingegen keine Unabhängigkeit zwischen den Systemen X\mathsf{X} und Y\mathsf{Y} dar. Das lässt sich wie folgt einfach einsehen.

Angenommen, es gäbe Wahrscheinlichkeitsvektoren ϕ\vert \phi\rangle und ψ\vert \psi \rangle wie in Gleichung (3)(3), für die Bedingung (4)(4) für jede Wahl von aa und bb erfüllt ist. Dann müsste gelten:

q0r1=Pr((X,Y)=(0,1))=0. q_0 r_1 = \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (0,1)\bigr) = 0.

Das bedeutet, dass entweder q0=0q_0 = 0 oder r1=0r_1 = 0 gilt, denn wenn beide von null verschieden wären, wäre auch das Produkt q0r1q_0 r_1 von null verschieden. Daraus folgt, dass entweder q0r0=0q_0 r_0 = 0 (falls q0=0q_0 = 0) oder q1r1=0q_1 r_1 = 0 (falls r1=0r_1 = 0) gilt. Wir sehen jedoch, dass keine dieser Gleichheiten wahr sein kann, da wir q0r0=1/2q_0 r_0 = 1/2 und q1r1=1/2q_1 r_1 = 1/2 haben müssen. Es gibt also keine Vektoren ϕ\vert\phi\rangle und ψ,\vert\psi\rangle, die die für Unabhängigkeit erforderliche Eigenschaft erfüllen.

Nachdem wir Unabhängigkeit zweier Systeme definiert haben, können wir jetzt auch Korrelation definieren: Sie ist das Fehlen von Unabhängigkeit. Da die zwei Bits im probabilistischen Zustand des Vektors (5)(5) nicht unabhängig sind, sind sie per Definition korreliert.

Tensorprodukte von Vektoren

Die gerade beschriebene Unabhängigkeitsbedingung lässt sich prägnant durch den Begriff des Tensorprodukts ausdrücken. Obwohl Tensorprodukte ein sehr allgemeines Konzept sind und recht abstrakt definiert sowie auf verschiedene mathematische Strukturen angewendet werden können, lässt sich im vorliegenden Fall eine einfache und konkrete Definition angeben.

Für zwei Vektoren

ϕ=aΣαaaundψ=bΓβbb\vert \phi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{und}\quad \vert \psi \rangle = \sum_{b\in\Gamma} \beta_b \vert b \rangle

ist das Tensorprodukt ϕψ\vert \phi \rangle \otimes \vert \psi \rangle der Vektor

ϕψ=(a,b)Σ×Γαaβbab. \vert \phi \rangle \otimes \vert \psi \rangle = \sum_{(a,b)\in\Sigma\times\Gamma} \alpha_a \beta_b \vert ab\rangle.

Die Einträge dieses neuen Vektors entsprechen den Elementen des kartesischen Produkts Σ×Γ,\Sigma\times\Gamma, die in der obigen Gleichung als Strings geschrieben sind. Äquivalent dazu ist der Vektor π=ϕψ\vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle durch die Gleichung

abπ=aϕbψ\langle ab \vert \pi \rangle = \langle a \vert \phi \rangle \langle b \vert \psi \rangle

definiert, die für alle aΣa\in\Sigma und bΓb\in\Gamma gilt.

Wir können die Unabhängigkeitsbedingung jetzt neu formulieren: Für ein gemeinsames System (X,Y)(\mathsf{X}, \mathsf{Y}) in einem probabilistischen Zustand, der durch einen Wahrscheinlichkeitsvektor π\vert \pi \rangle beschrieben wird, sind die Systeme X\mathsf{X} und Y\mathsf{Y} genau dann unabhängig, wenn π\vert\pi\rangle als Tensorprodukt

π=ϕψ \vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle

von Wahrscheinlichkeitsvektoren ϕ\vert \phi \rangle und ψ\vert \psi \rangle der Teilsysteme X\mathsf{X} und Y\mathsf{Y} geschrieben werden kann. In diesem Fall heißt π\vert \pi \rangle ein Produktzustand oder Produktvektor.

Wir lassen das Symbol \otimes beim Tensorprodukt von Kets häufig weg und schreiben ϕψ\vert \phi \rangle \vert \psi \rangle statt ϕψ.\vert \phi \rangle \otimes \vert \psi \rangle. Diese Konvention bringt zum Ausdruck, dass das Tensorprodukt in diesem Kontext die natürlichste oder standardmäßige Art ist, zwei Vektoren zu multiplizieren. Weniger gebräuchlich ist die Notation ϕψ,\vert \phi\otimes\psi\rangle, die aber gelegentlich auch verwendet wird.

Unter Verwendung der alphabetischen Konvention zur Anordnung der Elemente kartesischer Produkte ergibt sich folgende explizite Formel für das Tensorprodukt zweier Spaltenvektoren:

(α1αm)(β1βk)=(α1β1α1βkα2β1α2βkαmβ1αmβk) \begin{pmatrix} \alpha_1\\ \vdots\\ \alpha_m \end{pmatrix} \otimes \begin{pmatrix} \beta_1\\ \vdots\\ \beta_k \end{pmatrix} = \begin{pmatrix} \alpha_1 \beta_1\\ \vdots\\ \alpha_1 \beta_k\\ \alpha_2 \beta_1\\ \vdots\\ \alpha_2 \beta_k\\ \vdots\\ \alpha_m \beta_1\\ \vdots\\ \alpha_m \beta_k \end{pmatrix}

Als wichtige Bemerkung sei auf folgende Formel für Tensorprodukte von Standardbasisvektoren hingewiesen:

ab=ab.\vert a \rangle \otimes \vert b \rangle = \vert ab \rangle.

Man könnte (a,b)(a,b) alternativ als geordnetes Paar schreiben und erhielte dann ab=(a,b).\vert a \rangle \otimes \vert b \rangle = \vert (a,b) \rangle. Üblicher ist es jedoch, die Klammern wegzulassen und stattdessen ab=a,b\vert a \rangle \otimes \vert b \rangle = \vert a,b \rangle zu schreiben. Das ist in der Mathematik allgemein üblich: Klammern, die weder Klarheit noch Eindeutigkeit erhöhen, werden einfach weggelassen.

Das Tensorprodukt zweier Vektoren hat die wichtige Eigenschaft, bilinear zu sein, d.h., es ist linear in jedem der beiden Argumente separat, wenn das andere Argument festgehalten wird. Diese Eigenschaft lässt sich durch folgende Gleichungen ausdrücken:

1. Linearität im ersten Argument:

(ϕ1+ϕ2)ψ=ϕ1ψ+ϕ2ψ(αϕ)ψ=α(ϕψ)\begin{aligned} \bigl(\vert\phi_1\rangle + \vert\phi_2\rangle\bigr)\otimes \vert\psi\rangle & = \vert\phi_1\rangle \otimes \vert\psi\rangle + \vert\phi_2\rangle \otimes \vert\psi\rangle \\[1mm] \bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle & = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr) \end{aligned}

2. Linearität im zweiten Argument:

ϕ(ψ1+ψ2)=ϕψ1+ϕψ2ϕ(αψ)=α(ϕψ)\begin{aligned} \vert \phi \rangle \otimes \bigl(\vert \psi_1 \rangle + \vert \psi_2 \rangle \bigr) & = \vert \phi \rangle \otimes \vert \psi_1 \rangle + \vert \phi \rangle \otimes \vert \psi_2 \rangle\\[1mm] \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) & = \alpha \bigl(\vert\phi\rangle\otimes\vert\psi\rangle\bigr) \end{aligned}

Betrachtet man die jeweils zweite Gleichung der beiden Paare, so sieht man, dass Skalare im Tensorprodukt „frei schweben":

(αϕ)ψ=ϕ(αψ)=α(ϕψ).\bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle = \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr).

Es ist daher eindeutig, einfach αϕψ,\alpha\vert\phi\rangle\otimes\vert\psi\rangle, oder alternativ αϕψ\alpha\vert\phi\rangle\vert\psi \rangle oder αϕψ,\alpha\vert\phi\otimes\psi\rangle, für diesen Vektor zu schreiben.

Unabhängigkeit und Tensorprodukte für drei oder mehr Systeme

Die Begriffe Unabhängigkeit und Tensorprodukt lassen sich direkt auf drei oder mehr Systeme verallgemeinern. Wenn X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} Systeme mit klassischen Zustandsmengen Σ0,,Σn1\Sigma_0,\ldots,\Sigma_{n-1} sind, dann ist ein probabilistischer Zustand des Verbundsystems (Xn1,,X0)(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0) ein Produktzustand, wenn der zugehörige Wahrscheinlichkeitsvektor die Form

ψ=ϕn1ϕ0 \vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

annimmt, wobei ϕ0,,ϕn1\vert \phi_0 \rangle,\ldots,\vert \phi_{n-1}\rangle Wahrscheinlichkeitsvektoren sind, die probabilistische Zustände von X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} beschreiben. Die Definition des Tensorprodukts verallgemeinert sich dabei auf natürliche Weise: Der Vektor

ψ=ϕn1ϕ0\vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

ist durch die Gleichung

an1a0ψ=an1ϕn1a0ϕ0 \langle a_{n-1} \cdots a_0 \vert \psi \rangle = \langle a_{n-1} \vert \phi_{n-1} \rangle \cdots \langle a_0 \vert \phi_0 \rangle

definiert, die für alle a0Σ0,an1Σn1a_0\in\Sigma_0, \ldots a_{n-1}\in\Sigma_{n-1} gilt.

Eine andere, aber äquivalente Möglichkeit, das Tensorprodukt von drei oder mehr Vektoren zu definieren, ist rekursiv über Tensorprodukte von zwei Vektoren:

ϕn1ϕ0=ϕn1(ϕn2ϕ0). \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle = \vert \phi_{n-1} \rangle \otimes \bigl( \vert \phi_{n-2} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle \bigr).

Ähnlich wie das Tensorprodukt von zwei Vektoren ist das Tensorprodukt von drei oder mehr Vektoren linear in jedem einzelnen Argument, wenn alle anderen Argumente festgehalten werden. In diesem Fall sagt man, dass das Tensorprodukt von drei oder mehr Vektoren multilinear ist.

Wie im Fall zweier Systeme könnten wir sagen, die Systeme X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} seien unabhängig, wenn sie sich in einem Produktzustand befinden — der Begriff gegenseitig unabhängig ist jedoch präziser. Es gibt auch andere Unabhängigkeitsbegriffe für drei oder mehr Systeme, wie etwa paarweise Unabhängigkeit, die durchaus interessant und wichtig sind — im Rahmen dieses Kurses aber nicht behandelt werden.

Verallgemeinert man die frühere Beobachtung über Tensorprodukte von Standardbasisvektoren, so gilt für jede positive ganze Zahl nn und beliebige klassische Zustände a0,,an1a_0,\ldots,a_{n-1}:

an1a0=an1a0.\vert a_{n-1} \rangle \otimes \cdots \otimes \vert a_0 \rangle = \vert a_{n-1} \cdots a_0 \rangle.

Messungen probabilistischer Zustände

Kommen wir nun zu Messungen probabilistischer Zustände mehrerer Systeme. Wenn wir mehrere Systeme gemeinsam als ein einziges System betrachten, ergibt sich daraus unmittelbar, wie Messungen für mehrere Systeme funktionieren müssen — vorausgesetzt, alle Systeme werden gemessen.

Wenn beispielsweise der probabilistische Zustand zweier Bits (X,Y)(\mathsf{X},\mathsf{Y}) durch den Wahrscheinlichkeitsvektor

1200+1211 \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle

beschrieben wird, dann wird das Ergebnis 0000 — also 00 für die Messung von X\mathsf{X} und 00 für die Messung von Y\mathsf{Y} — mit Wahrscheinlichkeit 1/21/2 erhalten, und das Ergebnis 1111 ebenfalls mit Wahrscheinlichkeit 1/21/2. In jedem Fall aktualisieren wir die Wahrscheinlichkeitsvektorbeschreibung entsprechend, sodass der probabilistische Zustand zu 00|00\rangle bzw. 11|11\rangle wird.

Man könnte sich jedoch entscheiden, nicht alle Systeme zu messen, sondern nur einige davon. Das führt für jedes gemessene System zu einem Messergebnis und beeinflusst im Allgemeinen auch unser Wissen über die verbleibenden Systeme, die nicht gemessen wurden.

Um zu erklären, wie das funktioniert, konzentrieren wir uns auf den Fall zweier Systeme, von denen eines gemessen wird. Die allgemeinere Situation — bei der eine echte Teilmenge von drei oder mehr Systemen gemessen wird — lässt sich auf den Fall zweier Systeme zurückführen, indem man die gemessenen Systeme kollektiv als ein System und die nicht gemessenen Systeme als ein zweites System betrachtet.

Genauer gesagt seien X\mathsf{X} und Y\mathsf{Y} Systeme mit klassischen Zustandsmengen Σ\Sigma und Γ,\Gamma, und die beiden Systeme befinden sich zusammen in einem probabilistischen Zustand. Wir betrachten, was passiert, wenn wir nur X\mathsf{X} messen und Y\mathsf{Y} unberührt lassen. Der symmetrische Fall, in dem nur Y\mathsf{Y} gemessen wird, ist analog zu behandeln.

Zunächst muss die Wahrscheinlichkeit, einen bestimmten klassischen Zustand aΣa\in\Sigma bei der Messung von X\mathsf{X} zu beobachten, mit den Wahrscheinlichkeiten übereinstimmen, die wir erhalten würden, wenn Y\mathsf{Y} ebenfalls gemessen würde. Das heißt, es muss gelten:

Pr(X=a)=bΓPr((X,Y)=(a,b)). \operatorname{Pr}(\mathsf{X} = a) = \sum_{b\in\Gamma} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (a,b) \bigr).

Dies ist die Formel für den sogenannten reduzierten (oder marginalen) probabilistischen Zustand von X\mathsf{X} allein.

Diese Formel macht auf intuitiver Ebene vollkommen Sinn: Es müsste etwas sehr Seltsames passieren, damit sie falsch wäre. Wäre sie falsch, bedeutete das, dass die Messung von Y\mathsf{Y} die Wahrscheinlichkeiten für verschiedene Messergebnisse von X\mathsf{X} beeinflussen könnte — unabhängig vom tatsächlichen Ergebnis der Messung von Y\mathsf{Y}. Falls Y\mathsf{Y} an einem weit entfernten Ort befände, etwa irgendwo in einer anderen Galaxie, würde das eine überlichtschnelle Signalübertragung ermöglichen — was wir aufgrund unseres physikalischen Verständnisses ausschließen. Eine weitere Möglichkeit, das zu verstehen, ergibt sich aus der Interpretation von Wahrscheinlichkeit als Ausdruck einer Überzeugung. Die bloße Tatsache, dass jemand anderes Y\mathsf{Y} beobachten könnte, kann den klassischen Zustand von X\mathsf{X} nicht verändern. Ohne Informationen darüber, was die Person gesehen hat oder nicht gesehen hat, sollten sich die eigenen Überzeugungen über den Zustand von X\mathsf{X} dadurch nicht ändern.

Wenn nur X\mathsf{X} gemessen wird und Y\mathsf{Y} nicht, kann es nach wie vor Unsicherheit über den klassischen Zustand von Y\mathsf{Y} geben. Aus diesem Grund aktualisieren wir die probabilistische Zustandsbeschreibung von (X,Y)(\mathsf{X},\mathsf{Y}) nicht zu ab\vert ab\rangle für irgendeine Wahl von aΣa\in\Sigma und bΓ,b\in\Gamma, sondern auf eine Weise, die diese Unsicherheit über Y\mathsf{Y} angemessen widerspiegelt.

Die folgende bedingte Wahrscheinlichkeits-Formel berücksichtigt diese Unsicherheit:

Pr(Y=bX=a)=Pr((X,Y)=(a,b))Pr(X=a) \operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) = \frac{ \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (a,b)\bigr) }{ \operatorname{Pr}(\mathsf{X} = a) }

Hier bezeichnet Pr(Y=bX=a)\operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) die Wahrscheinlichkeit, dass Y=b\mathsf{Y} = b gilt, bedingt auf (oder gegeben, dass) X=a\mathsf{X} = a gilt. Technisch gesehen macht dieser Ausdruck nur Sinn, wenn Pr(X=a)\operatorname{Pr}(\mathsf{X}=a) ungleich null ist; falls Pr(X=a)=0,\operatorname{Pr}(\mathsf{X}=a) = 0, teilen wir durch null und erhalten die unbestimmte Form 00.\frac{0}{0}. Das ist aber kein Problem: Wenn die Wahrscheinlichkeit für aa gleich null ist, wird aa nie als Messergebnis von X\mathsf{X} auftreten, und wir müssen uns um diesen Fall keine Gedanken machen.

Um diese Formeln in Wahrscheinlichkeitsvektoren auszudrücken, betrachten wir einen Wahrscheinlichkeitsvektor π,\vert \pi \rangle, der einen gemeinsamen probabilistischen Zustand von (X,Y)(\mathsf{X},\mathsf{Y}) beschreibt:

π=(a,b)Σ×Γpabab \vert\pi\rangle = \sum_{(a,b)\in\Sigma\times\Gamma} p_{ab} \vert ab\rangle

Die alleinige Messung von X\mathsf{X} ergibt jedes mögliche Ergebnis aΣa\in\Sigma mit der Wahrscheinlichkeit

Pr(X=a)=cΓpac. \operatorname{Pr}(\mathsf{X} = a) = \sum_{c\in\Gamma} p_{ac}.

Der Vektor, der den probabilistischen Zustand von X\mathsf{X} allein darstellt, ist daher

aΣ(cΓpac)a. \sum_{a\in\Sigma} \biggl(\sum_{c\in\Gamma} p_{ac}\biggr) \vert a\rangle.

Nachdem ein bestimmtes Ergebnis aΣa\in\Sigma der Messung von X\mathsf{X} erhalten wurde, wird der probabilistische Zustand von Y\mathsf{Y} gemäß der Formel für bedingte Wahrscheinlichkeiten aktualisiert und durch folgenden Wahrscheinlichkeitsvektor dargestellt:

ψa=bΓpabbcΓpac. \vert \psi_a \rangle = \frac{\sum_{b\in\Gamma}p_{ab}\vert b\rangle}{\sum_{c\in\Gamma} p_{ac}}.

Wenn die Messung von X\mathsf{X} den klassischen Zustand aa ergeben hat, aktualisieren wir unsere Beschreibung des probabilistischen Zustands des gemeinsamen Systems (X,Y)(\mathsf{X},\mathsf{Y}) also zu aψa.\vert a\rangle \otimes \vert\psi_a\rangle.

Eine Möglichkeit, diese Definition von ψa\vert\psi_a\rangle zu verstehen, ist sie als Normierung des Vektors bΓpabb\sum_{b\in\Gamma} p_{ab} \vert b\rangle zu betrachten: Wir dividieren durch die Summe der Einträge dieses Vektors, um einen Wahrscheinlichkeitsvektor zu erhalten. Diese Normierung trägt effektiv der Bedingung Rechnung, dass die Messung von X\mathsf{X} das Ergebnis aa geliefert hat.

Als konkretes Beispiel sei die klassische Zustandsmenge von X\mathsf{X} gleich Σ={0,1},\Sigma = \{0,1\}, die klassische Zustandsmenge von Y\mathsf{Y} gleich Γ={1,2,3},\Gamma = \{1,2,3\}, und der probabilistische Zustand von (X,Y)(\mathsf{X},\mathsf{Y}) sei

π=120,1+1120,3+1121,1+161,2+161,3. \vert \pi \rangle = \frac{1}{2} \vert 0,1 \rangle + \frac{1}{12} \vert 0,3 \rangle + \frac{1}{12} \vert 1,1 \rangle + \frac{1}{6} \vert 1,2 \rangle + \frac{1}{6} \vert 1,3 \rangle.

Unser Ziel ist es, die Wahrscheinlichkeiten der beiden möglichen Ergebnisse (00 und 11) zu bestimmen und zu berechnen, welchen probabilistischen Zustand Y\mathsf{Y} für die beiden Ergebnisse annimmt, wenn X\mathsf{X} gemessen wird.

Unter Verwendung der Bilinearität des Tensorprodukts — insbesondere der Linearität im zweiten Argument — können wir den Vektor π\vert \pi \rangle wie folgt umschreiben:

π=0(121+1123)+1(1121+162+163). \vert \pi \rangle = \vert 0\rangle \otimes \biggl( \frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle\biggr) + \vert 1\rangle \otimes \biggl( \frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle\biggr).

Was wir getan haben, ist, die verschiedenen Standardbasisvektoren des ersten Systems (desjenigen, das gemessen wird) zu isolieren und jeden mit der Linearkombination der Standardbasisvektoren des zweiten Systems zu tensoren, die wir erhalten, indem wir die Einträge des ursprünglichen Vektors herausgreifen, die mit dem jeweiligen klassischen Zustand des ersten Systems konsistent sind. Kurzes Nachdenken zeigt, dass das immer möglich ist, egal mit welchem Vektor wir beginnen.

Nachdem wir unseren Wahrscheinlichkeitsvektor so umgeschrieben haben, lassen sich die Auswirkungen der Messung des ersten Systems leicht analysieren. Die Wahrscheinlichkeiten der beiden Ergebnisse erhält man durch Aufsummieren der Wahrscheinlichkeiten in den Klammern:

Pr(X=0)=12+112=712Pr(X=1)=112+16+16=512 \begin{aligned} \operatorname{Pr}(\mathsf{X} = 0) & = \frac{1}{2} + \frac{1}{12} = \frac{7}{12}\\[3mm] \operatorname{Pr}(\mathsf{X} = 1) & = \frac{1}{12} + \frac{1}{6} + \frac{1}{6} = \frac{5}{12} \end{aligned}

Diese Wahrscheinlichkeiten summieren sich zu eins, wie erwartet — was aber auch als nützliche Überprüfung unserer Rechnungen dient.

Der probabilistische Zustand von Y\mathsf{Y} bedingt auf jedes mögliche Ergebnis ergibt sich nun durch Normierung der Vektoren in den Klammern: Wir teilen diese Vektoren durch die zugehörigen Wahrscheinlichkeiten, die wir gerade berechnet haben, sodass sie zu Wahrscheinlichkeitsvektoren werden.

Bedingt auf X=0\mathsf{X} = 0 wird der probabilistische Zustand von Y\mathsf{Y} also zu

121+1123712=671+173, \frac{\frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle}{\frac{7}{12}} = \frac{6}{7} \vert 1 \rangle + \frac{1}{7} \vert 3 \rangle,

und bedingt auf X=1\mathsf{X} = 1 wird der probabilistische Zustand von Y\mathsf{Y} zu

1121+162+163512=151+252+253. \frac{\frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle}{\frac{5}{12}} = \frac{1}{5} \vert 1 \rangle + \frac{2}{5} \vert 2 \rangle + \frac{2}{5} \vert 3 \rangle.

Operationen auf probabilistischen Zuständen

Zum Abschluss dieser Betrachtung klassischer Information für mehrere Systeme betrachten wir Operationen auf mehreren Systemen in probabilistischen Zuständen. Nach demselben Grundprinzip wie zuvor können wir mehrere Systeme kollektiv als einzelne Verbundsysteme betrachten und dann auf die vorherige Lektion zurückgreifen, um zu sehen, wie das funktioniert.

Kehren wir zur typischen Konfiguration mit zwei Systemen X\mathsf{X} und Y\mathsf{Y} zurück und betrachten wir klassische Operationen auf dem Verbundsystem (X,Y).(\mathsf{X},\mathsf{Y}). Aus der vorherigen Lektion und den obigen Ausführungen folgt, dass jede solche Operation durch eine stochastische Matrix dargestellt wird, deren Zeilen und Spalten durch das kartesische Produkt Σ×Γ\Sigma\times\Gamma indiziert sind.

Angenommen zum Beispiel, X\mathsf{X} und Y\mathsf{Y} sind Bits, und betrachte eine Operation mit folgender Beschreibung:

Operation

Wenn X=1,\mathsf{X} = 1, wird eine NOT-Operation auf Y\mathsf{Y} angewendet.
Andernfalls geschieht nichts.

Das ist eine deterministische Operation, die als kontrolliertes NOT (controlled-NOT) bekannt ist, wobei X\mathsf{X} das Kontroll-Bit ist, das bestimmt, ob eine NOT-Operation auf das Ziel-Bit Y\mathsf{Y} angewendet wird oder nicht. Die Matrixdarstellung dieser Operation lautet:

(1000010000010010).\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0 \end{pmatrix}.

Die Wirkung auf Standardbasisvektoren ist wie folgt:

0000010110111110\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 01 \rangle\\ \vert 10 \rangle & \mapsto \vert 11 \rangle\\ \vert 11 \rangle & \mapsto \vert 10 \rangle \end{aligned}

Wenn wir die Rollen von X\mathsf{X} und Y\mathsf{Y} tauschen — Y\mathsf{Y} wird das Kontroll-Bit und X\mathsf{X} das Ziel-Bit —, ändert sich die Matrixdarstellung der Operation zu

(1000000100100100)\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0\\[2mm] 0 & 1 & 0 & 0 \end{pmatrix}

und ihre Wirkung auf Standardbasisvektoren sieht so aus:

0000011110101101\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 11 \rangle\\ \vert 10 \rangle & \mapsto \vert 10 \rangle\\ \vert 11 \rangle & \mapsto \vert 01 \rangle \end{aligned}

Ein weiteres Beispiel ist die Operation mit folgender Beschreibung:

Operation

Führe eine der folgenden zwei Operationen aus, jede mit Wahrscheinlichkeit 1/2:1/2:

  1. Setze Y\mathsf{Y} gleich X.\mathsf{X}.
  2. Setze X\mathsf{X} gleich Y.\mathsf{Y}.

Die Matrixdarstellung dieser Operation lautet:

(11212000000000012121)=12(1100000000000011)+12(1010000000000101).\begin{pmatrix} 1 & \frac{1}{2} & \frac{1}{2} & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & \frac{1}{2} & \frac{1}{2} & 1 \end{pmatrix} = \frac{1}{2} \begin{pmatrix} 1 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 1 & 1 \end{pmatrix} + \frac{1}{2} \begin{pmatrix} 1 & 0 & 1 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 1 \end{pmatrix}.

Die Wirkung dieser Operation auf Standardbasisvektoren ist wie folgt:

0000011200+1211101200+12111111\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\[1mm] \vert 01 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[3mm] \vert 10 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[2mm] \vert 11 \rangle & \mapsto \vert 11 \rangle \end{aligned}

In diesen Beispielen betrachten wir einfach zwei Systeme zusammen als ein einzelnes System und gehen wie in der vorherigen Lektion vor.

Dasselbe lässt sich für beliebig viele Systeme tun. Stellen wir uns zum Beispiel vor, wir haben drei Bits und inkrementieren sie modulo 88 — das heißt, wir interpretieren die drei Bits als Darstellung einer Zahl zwischen 00 und 77 in Binärnotation, addieren 11 und nehmen den Rest bei der Division durch 88. Eine Möglichkeit, diese Operation darzustellen:

001000+010001+011010+100011+101100+110101+111110+000111.\begin{aligned} & \vert 001 \rangle \langle 000 \vert + \vert 010 \rangle \langle 001 \vert + \vert 011 \rangle \langle 010 \vert + \vert 100 \rangle \langle 011 \vert\\[1mm] & \quad + \vert 101 \rangle \langle 100 \vert + \vert 110 \rangle \langle 101 \vert + \vert 111 \rangle \langle 110 \vert + \vert 000 \rangle \langle 111 \vert. \end{aligned}

Eine andere Darstellung ist:

k=07(k+1)mod8k,\sum_{k = 0}^{7} \vert (k+1) \bmod 8 \rangle \langle k \vert,

wenn wir vereinbart haben, dass Zahlen von 00 bis 77 in Kets auf deren dreistellige Binärdarstellung verweisen. Als dritte Möglichkeit lässt sich die Operation als Matrix ausdrücken:

(0000000110000000010000000010000000010000000010000000010000000010)\begin{pmatrix} 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1\\ 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \end{pmatrix}

Unabhängige Operationen

Angenommen, wir haben mehrere Systeme und führen unabhängig verschiedene Operationen auf den einzelnen Systemen durch.

In unserem gewohnten Aufbau mit zwei Systemen X\mathsf{X} und Y\mathsf{Y} mit klassischen Zustandsmengen Σ\Sigma und Γ\Gamma sei zum Beispiel angenommen, dass wir eine Operation auf X\mathsf{X} und, vollständig unabhängig davon, eine andere Operation auf Y\mathsf{Y} durchführen. Wie wir aus der vorherigen Lektion wissen, werden diese Operationen durch stochastische Matrizen dargestellt — und genau gesagt sei die Operation auf X\mathsf{X} durch die Matrix MM und die Operation auf Y\mathsf{Y} durch die Matrix NN dargestellt. Die Zeilen und Spalten von MM sind dabei durch die Elemente von Σ\Sigma indiziert, und die Zeilen und Spalten von NN durch die Elemente von Γ.\Gamma.

Eine naheliegende Frage ist folgende: Wenn wir X\mathsf{X} und Y\mathsf{Y} zusammen als ein einziges Verbundsystem (X,Y)(\mathsf{X},\mathsf{Y}) betrachten — welche Matrix stellt dann die kombinierte Wirkung der beiden Operationen auf dieses Verbundsystem dar? Um diese Frage zu beantworten, müssen wir zunächst Tensorprodukte von Matrizen einführen, die Tensorprodukten von Vektoren ähnlich sind und analog definiert werden.

Tensorprodukte von Matrizen

Das Tensorprodukt MNM\otimes N der Matrizen

M=a,bΣαabab M = \sum_{a,b\in\Sigma} \alpha_{ab} \vert a\rangle \langle b\vert

und

N=c,dΓβcdcd N = \sum_{c,d\in\Gamma} \beta_{cd} \vert c\rangle \langle d\vert

ist die Matrix

MN=a,bΣc,dΓαabβcdacbd M \otimes N = \sum_{a,b\in\Sigma} \sum_{c,d\in\Gamma} \alpha_{ab} \beta_{cd} \vert ac \rangle \langle bd \vert

Äquivalent dazu ist das Tensorprodukt von MM und NN durch die Gleichung

acMNbd=aMbcNd\langle ac \vert M \otimes N \vert bd\rangle = \langle a \vert M \vert b\rangle \langle c \vert N \vert d\rangle

definiert, die für jede Wahl von a,bΣa,b\in\Sigma und c,dΓc,d\in\Gamma gilt.

Alternativ, aber äquivalent, lässt sich MNM\otimes N als diejenige eindeutige Matrix beschreiben, die die Gleichung

(MN)(ϕψ)=(Mϕ)(Nψ) (M \otimes N) \bigl( \vert \phi \rangle \otimes \vert \psi \rangle \bigr) = \bigl(M \vert\phi\rangle\bigr) \otimes \bigl(N \vert\psi\rangle\bigr)

für jede mögliche Wahl von Vektoren ϕ\vert\phi\rangle und ψ\vert\psi\rangle erfüllt, wobei die Indizes von ϕ\vert\phi\rangle den Elementen von Σ\Sigma und die Indizes von ψ\vert\psi\rangle den Elementen von Γ\Gamma entsprechen.

Unter Verwendung der zuvor beschriebenen Konvention zur Anordnung der Elemente kartesischer Produkte lässt sich das Tensorprodukt zweier Matrizen auch explizit wie folgt angeben:

(α11α1mαm1αmm)(β11β1kβk1βkk)=(α11β11α11β1kα1mβ11α1mβ1kα11βk1α11βkkα1mβk1α1mβkkαm1β11αm1β1kαmmβ11αmmβ1kαm1βk1αm1βkkαmmβk1αmmβkk)\begin{gathered} \begin{pmatrix} \alpha_{11} & \cdots & \alpha_{1m} \\ \vdots & \ddots & \vdots \\ \alpha_{m1} & \cdots & \alpha_{mm} \end{pmatrix} \otimes \begin{pmatrix} \beta_{11} & \cdots & \beta_{1k} \\ \vdots & \ddots & \vdots\\ \beta_{k1} & \cdots & \beta_{kk} \end{pmatrix} \hspace{6cm}\\[8mm] \hspace{1cm} = \begin{pmatrix} \alpha_{11}\beta_{11} & \cdots & \alpha_{11}\beta_{1k} & & \alpha_{1m}\beta_{11} & \cdots & \alpha_{1m}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{11}\beta_{k1} & \cdots & \alpha_{11}\beta_{kk} & & \alpha_{1m}\beta_{k1} & \cdots & \alpha_{1m}\beta_{kk} \\[2mm] & \vdots & & \ddots & & \vdots & \\[2mm] \alpha_{m1}\beta_{11} & \cdots & \alpha_{m1}\beta_{1k} & & \alpha_{mm}\beta_{11} & \cdots & \alpha_{mm}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{m1}\beta_{k1} & \cdots & \alpha_{m1}\beta_{kk} & & \alpha_{mm}\beta_{k1} & \cdots & \alpha_{mm}\beta_{kk} \end{pmatrix} \end{gathered}

Tensorprodukte von drei oder mehr Matrizen sind analog definiert. Wenn M0,,Mn1M_0, \ldots, M_{n-1} Matrizen sind, deren Indizes klassischen Zustandsmengen Σ0,,Σn1\Sigma_0,\ldots,\Sigma_{n-1} entsprechen, dann ist das Tensorprodukt Mn1M0M_{n-1}\otimes\cdots\otimes M_0 durch die Bedingung

an1a0Mn1M0bn1b0=an1Mn1bn1a0M0b0\langle a_{n-1}\cdots a_0 \vert M_{n-1}\otimes\cdots\otimes M_0 \vert b_{n-1}\cdots b_0\rangle = \langle a_{n-1} \vert M_{n-1} \vert b_{n-1} \rangle \cdots\langle a_0 \vert M_0 \vert b_0 \rangle

für jede Wahl von klassischen Zuständen a0,b0Σ0,,an1,bn1Σn1a_0,b_0\in\Sigma_0,\ldots,a_{n-1},b_{n-1}\in\Sigma_{n-1} definiert. Alternativ lassen sich Tensorprodukte von drei oder mehr Matrizen rekursiv über Tensorprodukte zweier Matrizen definieren, ähnlich wie wir es für Vektoren beobachtet haben.

Das Tensorprodukt von Matrizen wird manchmal als multiplikativ bezeichnet, da die Gleichung

(Mn1M0)(Nn1N0)=(Mn1Nn1)(M0N0) (M_{n-1}\otimes\cdots\otimes M_0)(N_{n-1}\otimes\cdots\otimes N_0) = (M_{n-1} N_{n-1})\otimes\cdots\otimes (M_0 N_0)

für beliebige Matrizen M0,,Mn1M_0,\ldots,M_{n-1} und N0,Nn1N_0\ldots,N_{n-1} stets gilt, sofern die Produkte M0N0,,Mn1Nn1M_0 N_0, \ldots, M_{n-1} N_{n-1} definiert sind.

Unabhängige Operationen (Fortsetzung)

Wir können nun die zuvor gestellte Frage beantworten: Wenn MM eine probabilistische Operation auf X\mathsf{X}, NN eine probabilistische Operation auf Y\mathsf{Y} ist und die beiden Operationen unabhängig voneinander ausgeführt werden, dann ist die resultierende Operation auf dem Verbundsystem (X,Y)(\mathsf{X},\mathsf{Y}) das Tensorprodukt MN.M\otimes N.

Für probabilistische Zustände und probabilistische Operationen gilt also gleichermaßen: Tensorprodukte stellen Unabhängigkeit dar. Wenn zwei Systeme X\mathsf{X} und Y\mathsf{Y} unabhängig in den probabilistischen Zuständen ϕ\vert\phi\rangle und ψ\vert\psi\rangle sind, befindet sich das Verbundsystem (X,Y)(\mathsf{X},\mathsf{Y}) im probabilistischen Zustand ϕψ;\vert\phi\rangle\otimes\vert\psi\rangle; und wenn wir probabilistische Operationen MM und NN unabhängig auf die beiden Systeme anwenden, wird die resultierende Wirkung auf das Verbundsystem (X,Y)(\mathsf{X},\mathsf{Y}) durch die Operation MNM\otimes N beschrieben.

Betrachten wir ein Beispiel, das eine probabilistische Operation auf ein einzelnes Bit aus der vorherigen Lektion aufgreift: Ist der klassische Zustand des Bits 0,0, so bleibt es unverändert; ist er 1,1, so wird es mit Wahrscheinlichkeit 1/21/2 auf 00 zurückgesetzt. Diese Operation wird durch die Matrix

(112012) \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix}

dargestellt.

Wenn diese Operation auf ein Bit X\mathsf{X} angewendet wird und (unabhängig davon) eine NOT-Operation auf ein zweites Bit Y,\mathsf{Y}, dann hat die gemeinsame Operation auf das Verbundsystem (X,Y)(\mathsf{X},\mathsf{Y}) folgende Matrixdarstellung:

(112012)(0110)=(01012101200001200120). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix} \otimes \begin{pmatrix} 0 & 1\\[1mm] 1 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 & \frac{1}{2} \\[1mm] 1 & 0 & \frac{1}{2} & 0 \\[1mm] 0 & 0 & 0 & \frac{1}{2} \\[1mm] 0 & 0 & \frac{1}{2} & 0 \end{pmatrix}.

Durch Inspektion stellen wir fest, dass dies eine stochastische Matrix ist. Das ist immer so: Das Tensorprodukt zweier oder mehr stochastischer Matrizen ist stets stochastisch.

Häufig kommt es vor, dass auf ein System eine Operation angewendet wird, während nichts mit dem anderen System geschieht. In diesem Fall geht man genauso vor und beachtet, dass Nichtstun durch die Einheitsmatrix dargestellt wird. Das Zurücksetzen des Bits X\mathsf{X} auf den Zustand 00 bei gleichzeitigem Nichtstun mit Y\mathsf{Y} ergibt zum Beispiel die probabilistische (und tatsächlich deterministische) Operation auf (X,Y),(\mathsf{X},\mathsf{Y}), dargestellt durch die Matrix

(1100)(1001)=(1010010100000000). \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix} \otimes \begin{pmatrix} 1 & 0\\[1mm] 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 1 & 0 \\[1mm] 0 & 1 & 0 & 1 \\[1mm] 0 & 0 & 0 & 0 \\[1mm] 0 & 0 & 0 & 0 \end{pmatrix}.