%path = "Physik/S=E*t" %kind = 1 %level = 12

Ein System kann als Variable gesehen werden. Der Zustand eines Systems ist ein Wert der Variable.

Entropie ist die Information einer Variable. Entropie ist die Anzahl der Werte einer Variable.

Was mit Zustand gemeint ist, spielt keine Rolle, d.h. wurde weg abstrahiert. Nur die Anzahl spielt hier eine Rolle.

Die Zustände müssen vorkommen. Das heißt, das System muss sich ändern. Energie ist die Anzahl der Zustände pro Zeit.

\[S = Et\]

Man kann das auch anders herum betrachten: Energie erzeugt die Zeit durch das Ändern der Werte. Wenn das System aus vielen unabhängigen Variablen besteht, wird so eine System-Zeitauflösung erzeugt, welche in keiner unabhängigen Variablen vorkommt.

Eine konstante Menge an Energie kann

Ein System besteht oft aus Schichten.

In einem idealen Gas, ist die Energie \(Q=TS\) gegeben durch

Dies teilt das System in zwei Schichten:

Der Logarithmus in der Entropie kommt davon, dass Information auf mehrere gleichartige Variablen verteilt wird (etwa Bit). In der anderen Richtung folgt daraus der Exponent \(e^S\).

Die Richtung der Teilchenbewegung unterteilt die Anzahl \(N\) der Teilchen

Deshalb:

\[Q = ST = 3/2NkT = 3/2RT = 3/2pV\]

Für eine ideales Gas ist die Innere Energie gleich der Arbeit, die an der Umgebung verrichtet wurde: \(3/2 pV\).

Die mittlere Energie eines Teilchens \(E\) ist:

\[E = 1/2 m v^2 = 3/2 kT\]

Die Boltzmannkonstante \(k\) konvertiert zwischen Einheiten der Energie. \(v^2\) kann besser mit Ereignissen in Beziehung gebracht werden als \(T\), aber auch \(E\) ist nur die Energie in der Schicht und nicht die ultimative Einheit des elementaren Informationsereignisses pro Zeit.

Das elementare Ereignis ist durch das Plancksches Wirkungsquantum gegeben. Die Summe dieser Ereignisse erzeigen Raum und Zeit: E-t, x-v, …