Klassische Information
Um Quanteninformation und ihre Funktionsweise zu beschreiben, beginnen wir mit einem Überblick über klassische Information. Es mag sich natürlich anfühlen zu fragen, warum in einem Kurs über Quanteninformation so viel Aufmerksamkeit auf klassische Information verwendet wird – doch dafür gibt es gute Gründe.
Zum einen sind die mathematischen Beschreibungen von Quanten- und klassischer Information trotz einiger spektakulärer Unterschiede einander tatsächlich sehr ähnlich. Klassische Information dient beim Studium der Quanteninformation außerdem als vertrauter Bezugspunkt sowie als Quelle für Analogien, die überraschend weit tragen. Häufig stellen Menschen Fragen zur Quanteninformation, die natürliche klassische Entsprechungen haben – und oft haben diese Fragen einfache Antworten, die sowohl Klarheit als auch Einsicht in die ursprünglichen Fragen zur Quanteninformation bieten. Tatsächlich ist es nicht übertrieben zu behaupten, dass man Quanteninformation nicht wirklich verstehen kann, ohne klassische Information zu verstehen.
Einige Lesende sind mit dem in diesem Abschnitt behandelten Material möglicherweise bereits vertraut, andere nicht – die Ausführungen richten sich jedoch an beide Gruppen. Neben der Hervorhebung der Aspekte klassischer Information, die für eine Einführung in die Quanteninformation am relevantesten sind, führt dieser Abschnitt die Dirac-Notation ein, die häufig zur Beschreibung von Vektoren und Matrizen in der Quanteninformation und -berechnung verwendet wird. Dabei ist die Dirac-Notation nicht spezifisch für die Quanteninformation; sie lässt sich ebenso gut im Kontext klassischer Information sowie in vielen anderen Situationen verwenden, in denen Vektoren und Matrizen auftreten.
Klassische Zustände und Wahrscheinlichkeitsvektoren
Angenommen, wir haben ein System, das Information speichert. Genauer gesagt nehmen wir an, dass dieses System zu jedem Zeitpunkt einen von endlich vielen klassischen Zuständen einnehmen kann. Der Begriff klassischer Zustand ist dabei intuitiv zu verstehen: als eine Konfiguration, die eindeutig erkannt und beschrieben werden kann.
Das archetypische Beispiel, auf das wir immer wieder zurückkommen werden, ist das Bit – ein System, dessen klassische Zustände und sind. Weitere Beispiele sind ein normaler sechsseitiger Würfel, dessen klassische Zustände und sind (dargestellt durch die entsprechende Anzahl von Punkten auf der oben liegenden Seite); eine Nukleobase in einem DNA-Strang, deren klassische Zustände A, C, G und T sind; sowie der Schalter eines Elektrolüfters, dessen klassische Zustände üblicherweise hoch, mittel, niedrig und aus sind. Mathematisch gesehen sind die klassischen Zustände eines Systems der eigentliche Ausgangspunkt: Wir definieren ein Bit als ein System mit den klassischen Zuständen und und entsprechend für Systeme mit anderen Zustandsmengen.
Der Einfachheit halber nennen wir das betrachtete System und verwenden das Symbol für die Menge seiner klassischen Zustände. Zusätzlich zur bereits erwähnten Endlichkeit von setzen wir natürlich voraus, dass nicht leer ist – denn es wäre sinnlos, ein physikalisches System ohne Zustände anzunehmen. Obwohl es durchaus sinnvoll ist, physikalische Systeme mit unendlich vielen klassischen Zuständen zu betrachten, werden wir diese Möglichkeit hier außer Acht lassen, da sie zwar interessant, für diesen Kurs aber nicht relevant ist. Aus diesen Gründen und der Einfachheit halber werden wir den Begriff klassische Zustandsmenge von nun an für jede endliche und nicht leere Menge verwenden.
Hier einige Beispiele:
- Wenn ein Bit ist, dann Diese Menge nennt man das binäre Alphabet.
- Wenn ein sechsseitiger Würfel ist, dann
- Wenn ein Lüfterschalter ist, dann
Wenn wir als Träger von Information betrachten, können den verschiedenen klassischen Zuständen von bestimmte Bedeutungen zugewiesen werden, die zu unterschiedlichen Ergebnissen oder Konsequenzen führen. In solchen Fällen kann es ausreichen zu beschreiben, dass schlicht einen seiner möglichen klassischen Zustände einnimmt. Wenn zum Beispiel ein Lüfterschalter ist, könnten wir mit Sicherheit wissen, dass er auf hoch gestellt ist, und ihn dann auf mittel umschalten.
In der Informationsverarbeitung ist unser Wissen jedoch häufig unvollständig. Eine Möglichkeit, unser Wissen über den klassischen Zustand eines Systems darzustellen, besteht darin, seinen verschiedenen möglichen klassischen Zuständen Wahrscheinlichkeiten zuzuordnen, was wir als probabilistischen Zustand bezeichnen.
Angenommen, ist ein Bit. Basierend auf dem, was wir über die Vergangenheit von wissen oder erwarten, könnten wir glauben, dass mit Wahrscheinlichkeit im klassischen Zustand und mit Wahrscheinlichkeit im Zustand ist. Diese Überzeugungen lassen sich wie folgt darstellen:
Eine kompaktere Darstellung dieses probabilistischen Zustands ist ein Spaltenvektor.
Die Wahrscheinlichkeit, dass das Bit ist, steht oben im Vektor, und die Wahrscheinlichkeit, dass es ist, steht unten, da dies die übliche Reihenfolge der Menge ist.
Allgemein lässt sich ein probabilistischer Zustand eines Systems mit beliebiger klassischer Zustandsmenge auf dieselbe Weise als Wahrscheinlichkeitsvektor darstellen. Die Wahrscheinlichkeiten können in beliebiger Reihenfolge angeordnet werden, wobei es meist eine natürliche oder vorgegebene Reihenfolge gibt. Genauer gesagt kann jeder probabilistische Zustand durch einen Spaltenvektor mit zwei Eigenschaften dargestellt werden:
- Alle Einträge des Vektors sind nichtnegative reelle Zahlen.
- Die Summe der Einträge ist gleich
Umgekehrt kann jeder Spaltenvektor, der diese beiden Eigenschaften erfüllt, als Darstellung eines probabilistischen Zustands aufgefasst werden. Von nun an bezeichnen wir Vektoren dieser Form als Wahrscheinlichkeitsvektoren.
Neben der Kompaktheit dieser Notation hat die Identifikation probabilistischer Zustände mit Spaltenvektoren den Vorteil, dass Operationen auf probabilistischen Zuständen durch Matrix-Vektor-Multiplikation dargestellt werden können, wie wir gleich besprechen werden.
Messung probabilistischer Zustände
Als Nächstes betrachten wir, was passiert, wenn wir ein System messen, das sich in einem probabilistischen Zustand befindet. In diesem Zusammenhang bedeutet das Messen eines Systems lediglich, dass wir es betrachten und den klassischen Zustand, in dem es sich befindet, eindeutig erkennen. Intuitiv gesprochen können wir einen probabilistischen Zustand nicht „sehen"; wenn wir hinschauen, sehen wir einfach einen der möglichen klassischen Zustände.
Durch das Messen eines Systems können wir auch unser Wissen darüber verändern, sodass sich der probabilistische Zustand, den wir ihm zuweisen, ändern kann. Wenn wir erkennen, dass im klassischen Zustand ist, wird der neue Wahrscheinlichkeitsvektor, der unser Wissen über den Zustand von darstellt, zum Vektor mit einer im Eintrag, der entspricht, und für alle anderen Einträge. Dieser Vektor zeigt an, dass mit Sicherheit im klassischen Zustand ist – was wir wissen, nachdem wir ihn soeben erkannt haben. Wir bezeichnen diesen Vektor mit gelesen als „Ket ", aus einem Grund, der gleich erklärt wird. Vektoren dieser Art nennt man auch Standardbasisvektoren.
Wenn das betrachtete System beispielsweise ein Bit ist, sind die Standardbasisvektoren:
Jeder zweidimensionale Spaltenvektor lässt sich als Linearkombination dieser beiden Vektoren ausdrücken. Zum Beispiel:
Diese Tatsache lässt sich auf beliebige klassische Zustandsmengen verallgemeinern: Jeder Spaltenvektor kann als Linearkombination von Standardbasisvektoren geschrieben werden. Sehr oft drücken wir Vektoren genau auf diese Weise aus.
Kommen wir zurück zur Änderung eines probabilistischen Zustands bei einer Messung und zur Verbindung mit unserem Alltagserleben. Angenommen, wir werfen eine faire Münze, bedecken sie aber, bevor wir hinschauen. Dann würden wir sagen, dass ihr probabilistischer Zustand
ist. Dabei ist die klassische Zustandsmenge unserer Münze Wir ordnen diese Zustände: Kopf zuerst, Zahl zweite.
Wenn wir die Münze aufdecken und hinschauen, sehen wir einen der beiden klassischen Zustände: Kopf oder Zahl. Nehmen wir an, das Ergebnis wäre Zahl, dann würden wir unsere Beschreibung des probabilistischen Zustands der Münze natürlich so aktualisieren, dass er wird. Würden wir die Münze dann wieder bedecken, aufdecken und erneut hinschauen, wäre der klassische Zustand immer noch Zahl – was mit dem probabilistischen Zustand übereinstimmt.
Das mag trivial erscheinen, und in gewissem Sinne ist es das auch. Quantensysteme verhalten sich jedoch auf eine völlig analoge Weise, obwohl ihre Messeigenschaften häufig als seltsam oder ungewöhnlich empfunden werden. Indem wir die entsprechenden Eigenschaften klassischer Systeme aufzeigen, wird das Verhalten von Quanteninformation weniger befremdlich.
Eine letzte Anmerkung zu Messungen probabilistischer Zustände: Probabilistische Zustände beschreiben Wissen oder Überzeugungen, nicht notwendigerweise eine tatsächliche Realität, und das Messen verändert nur unser Wissen, nicht das System selbst. Der Zustand einer Münze, nachdem sie geworfen wurde, aber bevor wir hinschauen, ist entweder Kopf oder Zahl – wir wissen es nur nicht, bis wir nachsehen. Wenn wir sehen, dass der klassische Zustand Zahl ist, würden wir den Vektor, der unser Wissen beschreibt, natürlich zu aktualisieren – aber für jemanden, der die Münze beim Aufdecken nicht gesehen hat, bleibt der probabilistische Zustand unverändert. Das ist kein Problem; verschiedene Personen können unterschiedliches Wissen oder unterschiedliche Überzeugungen über ein bestimmtes System haben und es daher durch verschiedene Wahrscheinlichkeitsvektoren beschreiben.
Klassische Operationen
Im letzten Teil dieser kurzen Einführung in klassische Information betrachten wir die Arten von Operationen, die auf einem klassischen System durchgeführt werden können.
Deterministische Operationen
Zunächst gibt es deterministische Operationen, bei denen jeder klassische Zustand in für eine Funktion der Form überführt wird.
Wenn zum Beispiel gibt es vier solche Funktionen und die sich durch Wertetabellen wie folgt darstellen lassen:
Die erste und die letzte dieser Funktionen sind konstant: und für alle Die mittleren beiden sind nicht konstant, sondern balanciert: jeder der beiden Ausgabewerte tritt gleich oft auf (hier einmal), wenn wir über alle möglichen Eingaben iterieren. Die Funktion ist die Identitätsfunktion: für jedes Und ist die Funktion und die besser als NICHT-Funktion (NOT) bekannt ist.
Die Wirkungen deterministischer Operationen auf probabilistische Zustände lassen sich durch Matrix-Vektor-Multiplikation darstellen. Konkret ist die Matrix die eine gegebene Funktion darstellt, diejenige, die
für jedes erfüllt. Eine solche Matrix existiert stets und ist durch diese Bedingung eindeutig bestimmt. Matrizen, die deterministische Operationen darstellen, haben in jeder Spalte genau eine und für alle anderen Einträge.
Die Matrizen die den Funktionen entsprechen, sind wie folgt:
Hier ist eine kurze Überprüfung, die zeigt, dass die erste Matrix korrekt ist. Die anderen drei lassen sich analog überprüfen.
Eine praktische Möglichkeit, Matrizen dieser und anderer Formen darzustellen, nutzt eine analoge Notation für Zeilenvektoren zu der zuvor diskutierten für Spaltenvektoren: Wir bezeichnen mit den Zeilenvektor mit einer im Eintrag, der entspricht, und null für alle anderen Einträge, für jedes Dieser Vektor wird als „Bra " gelesen.
Wenn zum Beispiel dann gilt:
Für eine beliebige klassische Zustandsmenge können wir Zeilen- und Spaltenvektoren als Matrizen betrachten und die Matrixmultiplikation durchführen. Wir erhalten eine quadratische Matrix mit einer im Eintrag, der dem Paar entspricht (die Zeile entspricht dem klassischen Zustand und die Spalte dem klassischen Zustand ), und für alle anderen Einträge. Zum Beispiel:
Mit dieser Notation lässt sich die Matrix die einer gegebenen Funktion entspricht, wie folgt ausdrücken:
Betrachten wir beispielsweise die Funktion von oben, für die Wir erhalten die Matrix:
Der Grund, warum das funktioniert, ist folgender. Wenn wir Vektoren wieder als Matrizen betrachten und diesmal die Multiplikation durchführen, erhalten wir eine -Matrix, die wir als Skalar (also eine Zahl) auffassen können. Der Übersichtlichkeit halber schreiben wir dieses Produkt als statt Dieses Produkt erfüllt die folgende einfache Formel:
Mit dieser Beobachtung und der Tatsache, dass die Matrixmultiplikation assoziativ und linear ist, ergibt sich:
für jedes was genau das ist, was wir von der Matrix verlangen.
Wie wir in einer späteren Lektion ausführlicher besprechen werden, kann auch als inneres Produkt der Vektoren und aufgefasst werden. Innere Produkte sind in der Quanteninformation von entscheidender Bedeutung, aber wir vertagen ihre Diskussion, bis wir sie brauchen.
An dieser Stelle dürfte klar sein, warum die Begriffe „Bra" und „Ket" so heißen: Setzt man ein „Bra" mit einem „Ket" zusammen, erhält man ein „Bracket" (Klammer) Diese Notation und Terminologie geht auf Paul Dirac zurück und wird daher als Dirac-Notation bezeichnet.
Probabilistische Operationen und stochastische Matrizen
Neben deterministischen Operationen gibt es probabilistische Operationen.
Betrachten wir dazu folgende Operation auf einem Bit. Wenn der klassische Zustand des Bits ist, bleibt er unverändert; ist der klassische Zustand wird er mit Wahrscheinlichkeit zu und mit Wahrscheinlichkeit zu umgekehrt. Diese Operation wird durch die Matrix
dargestellt. Man kann überprüfen, dass diese Matrix das Richtige tut, indem man die beiden Standardbasisvektoren mit ihr multipliziert.
Für eine beliebige klassische Zustandsmenge lassen sich alle probabilistischen Operationen mathematisch als diejenigen beschreiben, die durch stochastische Matrizen dargestellt werden – also Matrizen mit diesen zwei Eigenschaften:
- Alle Einträge sind nichtnegative reelle Zahlen.
- Die Einträge jeder Spalte summieren sich zu
Äquivalent dazu sind stochastische Matrizen Matrizen, deren Spalten allesamt Wahrscheinlichkeitsvektoren bilden.
Probabilistische Operationen lassen sich intuitiv als Operationen verstehen, bei denen Zufälligkeit irgendwie genutzt oder eingeführt wird – genau wie im obigen Beispiel. Bei der stochastischen Matrixdarstellung einer probabilistischen Operation kann jede Spalte als Vektordarstellung des probabilistischen Zustands angesehen werden, der erzeugt wird, wenn der klassische Zustand als Eingabe der entsprechenden Spalte entspricht.
Stochastische Matrizen lassen sich auch als genau diejenigen Matrizen charakterisieren, die Wahrscheinlichkeitsvektoren stets auf Wahrscheinlichkeitsvektoren abbilden. Das heißt: Stochastische Matrizen bilden Wahrscheinlichkeitsvektoren immer auf Wahrscheinlichkeitsvektoren ab, und jede Matrix, die das tut, muss stochastisch sein.
Schließlich lassen sich probabilistische Operationen auch als zufällige Auswahl von deterministischen Operationen auffassen. Die Operation im obigen Beispiel kann zum Beispiel als Anwendung entweder der Identitätsfunktion oder der konstanten 0-Funktion, jeweils mit Wahrscheinlichkeit betrachtet werden. Das stimmt mit der Gleichung
überein. Eine solche Zerlegung ist stets möglich, für eine beliebige klassische Zustandsmenge und jede stochastische Matrix, deren Zeilen und Spalten mit dieser Zustandsmenge indiziert sind.
Kompositionen probabilistischer Operationen
Angenommen, ist ein System mit der klassischen Zustandsmenge und sind stochastische Matrizen, die probabilistische Operationen auf dem System darstellen.
Wenn die erste Operation auf den durch einen Wahrscheinlichkeitsvektor dargestellten probabilistischen Zustand angewendet wird, ergibt sich der neue probabilistische Zustand als der Vektor Wenn wir dann die zweite probabilistische Operation auf diesen neuen Wahrscheinlichkeitsvektor anwenden, erhalten wir den Wahrscheinlichkeitsvektor
Die Gleichheit folgt aus der Tatsache, dass die Matrixmultiplikation (die die Matrix-Vektor-Multiplikation als Spezialfall einschließt) eine assoziative Operation ist. Die probabilistische Operation, die durch die Komposition der ersten und zweiten probabilistischen Operation entsteht (wobei zuerst und dann angewendet wird), wird also durch die Matrix dargestellt, die notwendigerweise stochastisch ist.
Allgemeiner gilt: Die Komposition der durch die Matrizen dargestellten probabilistischen Operationen in dieser Reihenfolge – d. h. wird zuerst angewendet, als zweites und so weiter, mit als letzter Operation – wird durch das Matrizenprodukt
dargestellt.
Die Reihenfolge ist dabei wichtig: Obwohl die Matrixmultiplikation assoziativ ist, ist sie keine kommutative Operation. Wenn zum Beispiel
dann gilt:
Das heißt, die Reihenfolge, in der probabilistische Operationen komponiert werden, ist entscheidend; eine Änderung der Reihenfolge kann die resultierende Operation verändern.