Ich werde darauf hinweisen, dass ich kein Stringtheoretiker bin und Susskinds Arbeit daher nicht vollständig an mich gewöhnt ist (und ich könnte es wahrscheinlich nicht verstehen, wenn es so wäre), sodass ich den Kontext (des angeblichen Zitats) nicht vollständig kenne Diese Entropie ist verborgene Information.
Aber was er vielleicht mit "versteckter" Information meint, ist eines oder beide von zwei Dingen: das erste theoretische, das zweite praktische:
- Die Kolmogorov-Komplexität $ K (\ Omega) $ span> für ein bestimmtes System $ \ Omega $ (genauer: die Komplexität der eindeutigen Beschreibung des Systems) ist im Allgemeinen nicht berechenbar . $ K (\ Omega) $ span> bezieht sich auf das Konzept der Shannon-Entropie $ S_ {Sha } (\ Omega) $ span> (siehe Fußnote);
- Sowohl die Kolmogorov-Komplexität eines Systems als auch die Shannon-Entropie werden durch statistische Korrelationen zwischen mikroskopischen Komponenten der Systeme vor makroskopischen Beobachtungen maskiert: Thermodynamische Systeme die messbare Entropie $ S_ {exp} (\ Omega) $ span> (normalerweise der Boltzmann) entspricht der wahren Shannon-Entropie $ S_ {Sha } (\ Omega) $ span> plus alle gegenseitigen Informationen $ M (\ Omega) $ span> (logarithmisches Maß für die statistische Korrelation) zwischen den Systemkomponenten: $ S_ {exp} (\ Omega) = S_ {Sha} (\ Omega) + M (\ Omega) $ span>
ol> Hoffentlich das Folgende Erklärungen zeigen Ihnen, warum diese Vorstellungen von "versteckt" in keiner Weise damit zusammenhängen, "zerstört" oder sogar "nicht wiederherstellbar" zu sein.
Die Kolmogorov-Komplexität eines Systems ist die Größe (gewöhnlich in Bits gemessen) der kleinstmöglichen Beschreibung des Systemzustands. Oder, wie Benutzer @Johannes es wunderbar ausdrückte: Es ist die Mindestanzahl von Ja / Nein-Fragen, die beantwortet werden müssten, um das System eindeutig zu spezifizieren. Selbst wenn Sie den Status eines Systems eindeutig und perfekt beschreiben können, gibt es im Allgemeinen keinen Algorithmus, um zu entscheiden, ob eine komprimiertere Beschreibung äquivalent sein kann. Siehe zum Beispiel die Diskussion des Uncomputability-Theorems für eine Kolmogorov-Komplexität auf Wikipedia. In diesem Sinne ist die wahre Entropie eines Dings einem Betrachter verborgen, obwohl das Ding und eine perfekte Beschreibung für ihn vollständig beobachtbar sind.
Soviel zur Verborgenheit der Entropie (Informationsmenge). Aber was ist mit den Informationen selbst? Die Unberechnbarkeit der Kolmogorov-Komplexität betrifft auch diese Frage: Da die Menge der Entropie, die einen Systemzustand beschreibt, nicht berechenbar ist, kann im Allgemeinen nicht festgestellt werden, ob der Zustand dieses Systems in unserem ursprünglichen System reversibel in den Zustand eines erweiterten Systems kodiert wurde verschmilzt mit anderen Systemen: ansonsten in Worten ausgedrückt, die eher für Schwarze Löcher gelten: Es gibt keinen Algorithmus, der erkennen kann, ob der Zustand unseres ursprünglichen Systems im Zustand eines anderen Systems codiert ist, das das erste verschluckt.
Eine Diskussion über den zweiten Punkt, dh wie sich die experimentell gemessene Entropie und die Kolmogorov-Komplexität unterscheiden, finden Sie unter meine Antwort hier. Dort diskutiere ich auch, warum Informationen in bestimmten einfachen Situationen möglicherweise nicht zerstört werden Die relevanten Gesetze der Physik sind reversibel, dann
Die Welt muss sich auf irgendeine Weise daran erinnern, wie sie zu einem Zustand zurückkehren kann, aus dem sie sich entwickelt hat (die Zuordnung zwischen Systemzuständen bei verschiedenentimes is one-to-one und on).
Dies ist eine allgemeinere Methode, um die in anderen Antworten angegebene Beschreibung der einheitlichen Evolution zu verwenden.
Nachwort : Charles Bennett stellt in seinem Artikel "Die Thermodynamik der Berechnung - eine Überprüfung" die faszinierende und befriedigende Theorie vor, dass der Grund, warum physikalische Chemiker nicht kommen können Ein ausfallsicherer Algorithmus zur Berechnung der Entropien der Moleküle, mit denen sie sich befassen, ist genau dieser Unberechnbarkeitssatz (beachten Sie, dass Algorithmen für bestimmte Fälle nicht ausgeschlossen sind, sodass der Satz nicht beweisen kann, dass physikalische Chemiker Entropien nicht berechnen können. Aber es ist in dem gleichen Sinne sehr plausibel, dass man sagen könnte, dass ein Grund, warum das Debuggen von Software ein schwieriges Problem ist, Turings Unentscheidbarkeit des Satzes über das Anhalten des Problems ist.
Fußnote : Die Shannon-Entropie ist ein Konzept, das leichter auf Systeme anwendbar ist, die als zu einem stochastischen Prozess gehörend angesehen werden, wenn eine detaillierte statistische Beschreibung des Prozesses vorliegt. Im Gegensatz dazu gilt die Komplexität von Kolmogorov eher für "Beschreibungen", und man muss die Sprache der Beschreibung definieren, um $ K (\ Omega) $ span> vollständig zu definieren. Wie genau sie in Fragen wie denen, die im Informationsparadoxon des Schwarzen Lochs angesprochen werden, zusammenhängen (oder auch wenn sie relevant sind), ist eine Frage, deren Antwort wahrscheinlich auf weitere Arbeiten wartet, die über die "Ansichten" der Physikgemeinschaft (wie in einer anderen Antwort angegeben) hinausgehen, ob oder Keine Information überlebt die zugrunde liegende Materie und Energie, die in ein Schwarzes Loch geworfen wird.
Eine weitere Fußnote (26. Juli 13): Siehe auch die Wikipedia-Seite zum Berry Paradox und einen wunderbaren Vortrag von Gregory Chaitin "The Berry Paradox" und gehalten bei einem Kolloquium zwischen Physik und Informatik an der Universität von New Mexico. Das Berry-Paradoxon führt (wenn auch unvollständig, aber in alltäglichen Worten) die Anfänge der Ideen ein, die der Kolmogorov-Komplexität zugrunde liegen, und führt Chaitin tatsächlich zu seiner unabhängigen Entdeckung der Kolmogorov-Komplexität, obwohl das unformalisierte Berry-Paradoxon tatsächlich nicht eindeutig ist. Der Vortrag enthält auch einige ergreifende kleine Beispiele für den persönlichen Umgang mit Kurt Gödel.
Bearbeiten 2. August 2013 Antworten auf Prathyushs Fragen :
Ich könnte Ich verstehe den Zusammenhang zwischen thermodynamischer Entropie und Kolmogorov-Komplexität nicht. Bitte können Sie dies kommentieren. Besonders der Teil "In diesem Sinne ist die wahre Entropie eines Dings vor einem Beobachter verborgen, obwohl das Ding und eine perfekte Beschreibung für ihn vollständig beobachtbar sind." Wenn Sie den genauen Zustand des Systems kennen, dann in Physik-Entropie ist Null, ob wir die Beschreibung vereinfachen können, kommt nicht ins Bild
Versuchen wir zunächst, mit
umzugehen, wenn Sie den genauen Zustand von kennen das System, dann in der Physik Entropie ist Null, ob wir die Beschreibung vereinfachen können, kommt nicht ins Bild
Tatsächlich ist es für das vorliegende Problem zentral , ob eine mögliche Vereinfachung möglich ist oder nicht. Angenommen, unsere Beschreibung unseres Systems $ \ Omega $ span> ist $ N_ \ Omega $ span> Bit lang. Nehmen wir außerdem an, wir haben sehr hart gearbeitet, um die kürzestmögliche vollständige Beschreibung zu erhalten, und hoffen, dass $ N_ \ Omega $ span> irgendwo in der Nähe der Kolmogorov-Komplexität $ K (\ Omega) < N_ \ Omega $ span>. Es folgt ein weiteres "Schluck" -System $ \ Sigma $ span>, das wir sehr sorgfältig untersuchen, bis wir eine vollständige Beschreibung von $ \ Sigma $ span>, das ist $ N_ \ Sigma $ span> Bits lang. Wieder glauben wir, dass $ N_ \ Sigma $ span> in der Nähe der Kolmogorov-Komplexität $ \ Sigma $ span> liegt class = "math-container"> $ K (\ Sigma) < N_ \ Sigma $ span> Der Schlucker $ \ Sigma $ span> absorbiert das System $ \ Omega $ span> - Die beiden Systeme werden also nach einem physischen Prozess zusammengeführt. Jetzt studieren wir unser zusammengeführtes System sehr sorgfältig und stellen fest, dass wir irgendwie eine vollständige Beschreibung erhalten können, deren Länge $ N _ {\ Omega \ cup \ Sigma} $ span> viel kürzer ist als $ N_ \ Omega + N_ \ Sigma $ span> Bits lang. Können wir sagen, dass der Zusammenführungsprozess irreversibel war, in dem Sinne, dass, wenn wir die Zeit rückwärts liefen, die ursprünglichen, getrennten $ \ Omega $ span> und $ \ Sigma $ span> würde nicht wieder auftauchen? Der Punkt ist, dass wir es nicht können, selbst wenn $ N _ {\ Omega \ cup \ Sigma} \ ll N_ \ Omega + N_ \ Sigma $ span>. Warum? Weil wir nie sicher sein können, dass wir wirklich die kürzestmöglichen Beschreibungen von $ \ Omega $ span> und $ \ Sigma $ . Es gibt keine Möglichkeit zu sagen, ob $ K (\ Omega) = N_ \ Omega, K (\ Sigma) = N_ \ Sigma $ span>.
Letztendlich geht es hier um die Frage, ob Zeitentwicklungen in der Physik Eins-zu-Eins-Funktionen sind, d. h. wenn ein Endzustand für ein System gegeben ist, impliziert dies immer eindeutig einen eindeutigen Anfangszustand? Unser großes zentrales Problem hierbei ist, dass wir nicht wissen, wie die Natur die Zustände ihrer Systeme codiert. Im übertragenen Sinne sind das Codierungsschema und das Codebuch das, was Physiker für ihr Geschäft tun. Kolmogorov-Komplexität oder verwandte Konzepte werden hier als relevant angenommen, da angenommen wird, dass man, wenn man wirklich weiß, wie die Natur funktioniert, weiß, was der maximal komprimierte (im informationstheoretischen Sinne) Konfigurationsraum für ein gegebenes System ist und somit der Die kürzestmögliche Beschreibung des Systemzustands ist eine Zahl, die angibt, an welchen Punkten im Konfigurationsbereich sich ein bestimmtes System befindet. Wenn die Anzahl der möglichen Punkte im Endkonfigurationsraum - die Endkomplexität von Kolmogorov (Modulo eine additive Konstante) - geringer ist als die Anzahl der möglichen Punkte im Anfangsraum, können wir im Allgemeinen sagen, dass der Prozess Informationen zerstört, weil zwei oder mehr Anfangszustände werden einem Endzustand zugeordnet. Das Finden einer verborgenen Reihenfolge in scheinbar zufälligem Verhalten ist ein schwieriges Problem: Diese Tatsache lässt die Kryptographie funktionieren. Scheinbar zufällige Sequenzen können aus exquisit einfachen Gesetzen erzeugt werden: Zeuge Blum Blum Shub oder Mersenne Twisters. Wir könnten eine scheinbar zufällige oder auf andere Weise feine Struktur in etwas beobachten und annehmen, dass wir eine äußerst komplizierte Theorie haben müssen, um sie zu beschreiben, während die Natur die ganze Zeit über einen metaphorischen Mersenne-Twister verwenden und die exquisite Struktur in ein paar Bits in ihrem Codebuch zusammenfassen könnte!
Versuchen wir nun Folgendes zu behandeln:
Ich konnte den Zusammenhang zwischen thermodynamischer Entropie und Kolmogorov-Komplexität nicht verstehen. Bitte können Sie dies kommentieren.
Eine Interpretation der thermodynamischen Entropie ist, dass es sich um eine Annäherung an den "Informationsgehalt" des Systems oder an die Anzahl der Bits handelt, die erforderlich sind, um ein System aufgrund seiner makroskopischen Eigenschaften vollständig zu spezifizieren. Eigentlich ist Ihr Kommentar "Ich konnte den Zusammenhang zwischen thermodynamischer Entropie und Kolmogorov-Komplexität nicht verstehen" eine sehr gute Antwort auf diese ganze Frage! - Wir kennen die Verbindung zwischen beiden im Allgemeinen nicht und das vereitelt die Bemühungen, zu wissen, wie viele Informationen wirklich erforderlich sind, um den Status eines Systems eindeutig zu kodieren.
In einigen Fällen sind die Konzepte jedoch miteinander verknüpft. Das klassische Beispiel hierfür ist die Boltzmann $ H $ span> -Entropie für ein Gas aus statistisch unabhängigen Partikeln:
$ H = - \ sum_i p_i \ log_2 p_i $ span>
wobei $ p_i $ span> ist die Wahrscheinlichkeit, dass sich ein Partikel im Status Nummer $ i $ span> befindet. Der obige Ausdruck ist in Bits pro Partikel angegeben (hier habe ich gerade Einheiten neu skaliert, sodass die Boltzmann-Konstante $ k_B = \ log_e 2 $ span>).
Wenn die Besetzung der Zustände durch die Partikel tatsächlich zufällig und statistisch unabhängig ist, kann durch den Shannon Noiseless Coding Theorem gezeigt werden, dass die Anzahl der Bits zum Codieren der Zustände eines großen Zustands erforderlich ist Die Anzahl $ N $ span> von ihnen ist genau $ H $ span> Bits pro Partikel. Dies ist die minimale Anzahl von Bits in dem Sinne, dass, wenn man versucht, einen Code zu konstruieren, der $ H- \ epsilon $ span> Bits pro Partikel als $ N \ rightarrow \ infty $ span> Die Wahrscheinlichkeit eines Codierungsfehlers nähert sich der Einheit für jeden $ \ epsilon > 0 $ span>. Wenn wir dagegen bereit sind, $ H + \ epsilon $ span> zuzuweisen, gibt es immer einen Code, bei dem sich die Wahrscheinlichkeit einer vollständig eindeutigen Codierung der Einheit als $ N \ rightarrow \ infty $ span> für jeden $ \ epsilon > 0 $ span>. In diesem speziellen Fall entspricht die Boltzmann-Entropie der Kolmogorov-Komplexität als $ N \ rightarrow \ infty $ span>: Wir müssen $ H + \ epsilon $ span> Bits pro Partikel sowie ein konstanter Overhead, um zu beschreiben, wie die Codierung in der Sprache funktioniert, mit der wir arbeiten. Dieser über alle Partikel verteilte Overhead nähert sich null Bits pro Partikel als $ N \ rightarrow \ infty $ span>.
Wenn sich ein thermodynamisches System im Gleichgewicht befindet "und die statistisch unabhängigen Partikelzustandsberufe können wir die Boltzmann-Wahrscheinlichkeitsverteilung
$ p_i = \ mathcal {Z} ^ {- 1} e ^ {- \ beta E_i} $ span>
in den $ H $ span> und zeigen, dass es dasselbe gibt wie die Clausius-Entropie $ S_ {exp} $ span> abgeleitet von experimentellen Makrostaten.
Wenn es eine Korrelation zwischen Partikelbesetzungen gibt, gelten im Prinzip ähnliche Kommentare für die Gibbs-Entropie, wenn die Wahrscheinlichkeitsverteilungen des Gelenkzustands für alle Partikel bekannt sind. Die gemeinsamen Wahrscheinlichkeitsverteilungen sind jedoch im Allgemeinen zumindest aus makroskopischen Messungen nicht zu finden. Siehe das Papier Gibbs vs Boltzmann Entropy von E. T. Jaynes sowie viele andere Werke von ihm zu diesem Thema. Darüber hinaus hat Benutzer Nathaniel von Physics Stack Exchange eine ausgezeichnete Doktorarbeit sowie mehrere Artikel, die von Interesse sein könnten. Die Schwierigkeit, die Gibbs'sche Entropie zu messen, ist eine weitere Schwierigkeit bei diesem ganzen Problem. Ich habe auch eine andere Antwort gegeben, die dieses Problem zusammenfasst.
Ein letzter Weg, um KC mit anderen Entropiekonzepten zu verknüpfen: Wenn Sie möchten, können Sie den Begriff KC verwenden, um zu definieren, was wir unter "zufällig" und "statistisch unabhängig" verstehen. Motiviert durch den Satz von Shannon Noiseless Coding können wir damit sogar Wahrscheinlichkeiten definieren. Eine Folge von Variablen ist zufällig, wenn es kein Modell (keine Beschreibung) gibt, mit dem ihre Werte beschrieben werden können, außer um ihre Werte zu benennen. Der Grad der "Zufälligkeit" in einer Zufallsvariablen kann so gedacht werden: Sie können ein Modell finden, das die Reihenfolge der Variablen etwas beschreibt - aber es ist nur ungefähr. Eine kürzere Beschreibung einer Zufallssequenz besteht darin, ein Modell und seine Randbedingungen zu definieren und dann dieses Modell und die Bedingungen sowie die Diskrepanzen zwischen den beobachteten Variablen und dem Modell zu codieren. Wenn das Modell besser ist als zu raten, ist dies eine aussagekräftigere Beschreibung, als nur die Werte vollständig zu benennen. Variablen sind "statistisch unabhängig", wenn es selbst im Prinzip keine Beschreibung gibt, die modellieren kann, wie sich der Wert einiger Variablen auf die anderen auswirkt, und daher besteht die markanteste Beschreibung der Sequenz darin, alle einzelnen Variablen vollständig zu benennen. Dies ist, was Korrelationsfunktionen zwischen rvs tun, zum Beispiel: Die Kenntnis des Wertes von X kann verwendet werden, um die Varianz einer zweiten korrelierten Variablen Y durch ein lineares Modell zu reduzieren, das den Korrelationskoeffizienten beinhaltet (ich meine, reduzieren Sie die Varianz in der bedingte Wahrscheinlichkeitsverteilung ). Schließlich können wir das Shannon Noiseless Coding Theorem auf den Kopf stellen und es verwenden, um Wahrscheinlichkeiten durch das KC zu definieren: die Wahrscheinlichkeit, dass diskrete rv $ X $ span> entspricht $ x $ span> ist $ p $ span>, wenn Folgendes gilt. Nehmen Sie eine Folge von rvs und notieren Sie für jeden die Folge von Wahrheitswerten $ X = x $ span> "oder $ X \ neq x $ span> und "finde die markigste Beschreibung" (wir werden wegen der Unberechnbarkeit von KK ein "Orakel" brauchen) dieser Wahrheitswertsequenz und ihrer Länge in Bits und Bits pro Sequenzmitglied. Die Wahrscheinlichkeit "p" ist dann die Zahl, so dass $ - p \ log_2 p - (1-p) \ log_2 (1-p) $ span> diesen Bits pro Sequenzmitglied als Sequenz entspricht Länge $ \ rightarrow \ infty $ span> (die Begrenzung verbessert sowohl die statistischen Schätzungen als auch verteilt den Overhead der festen Länge bei der Beschreibung des Codierungsschemas auf viele Sequenzmitglieder, so dass dieser Overhead nicht zu den Bits pro Sequenzmitglied beiträgt). Dieser Ansatz umgeht einige der philosophischen Minenfelder, die bei der Definition von Zufälligkeit und Wahrscheinlichkeit entstehen - siehe das Stanford Dictionary of Philosophy Eintrag "Chance versus Zufälligkeit für einen Vorgeschmack darauf.
Zuletzt :
Wenn Sie den genauen Zustand des Systems kennen, ist die Entropie in der Physik Null
Hier Unsere Probleme sind die subtilen Unterscheidungen (1) zwischen einer Instanz eines Ensembles von Systemen, von denen angenommen wird, dass sie Mitglieder desselben zufälligen Prozesses oder derselben "Population" sind, und dem Ensemble selbst, (2) Informations- und thermodynamischen Entropien und (3) bedingungslosen und bedingte informationstheoretische Entropien.
Als ich sagte, dass "die wahre Entropie eines Dings vor einem Beobachter verborgen ist, obwohl das Ding und eine perfekte Beschreibung davon für sie vollständig beobachtbar sind", konditionierte natürlich die informationstheoretische Shannon-Entropie über die volle Kenntnis des Beobachters des Systems ist nichts. Im Gegensatz dazu ist die thermodynamische Entropie für alle gleich. In einem weiteren Gegensatz dazu ist die informationstheoretische Entropie für einen anderen Beobachter, der nicht über das volle Wissen verfügt, ungleich Null. Was ich in diesem Fall gefahren bin, ist die Kolmogorov-Komplexität oder die Anzahl der Ja / Nein-Fragen, die erforderlich sind, um ein System aus derselben zugrunde liegenden statistischen Population zu spezifizieren, da diese Größe, wenn sie vor und nach einem physikalischen Prozess berechnet werden kann, ist Was kann man verwenden, um festzustellen, ob der Prozess reversibel war (im Sinne einer Eins-zu-Eins-Funktion der Systemkonfiguration)?
Ich hoffe, dass diese Reflexionen Ihnen Prathyush bei Ihrem Streben nach Verständnis helfen die Unzerstörbarkeit oder auf andere Weise von Informationen in der Physik.