%path = "Physik/S=E*t" %kind = 1 %level = 12

Entropie ist die Information in einem System. Entropie ist die Anzahl der Zustände eines Systems. Was mit Zustand gemeint ist, spielt keine Rolle, d.h. wurde weg abstrahiert. Nur die Anzahl spielt hier eine Rolle.

Die Zustände müssen vorkommen, d.h. das System muss sich ändern (Informationsereignisse). Energie ist die Anzahl der Zustände pro Zeit. Energie definiert die Zeit durch die Zustandsänderungen.

\[S = Et\]

Eine konstante Menge an Energie kann

Aber ein System besteht aus Schichten.

In einem idealen Gas, ist die Energie \(Q=TS\) gegeben durch

Dies teilt das System in zwei Schichten:

Der Logarithmus in der Entropie kommt davon, dass Information auf mehrere gleichartige Variablen verteilt wird (etwas Bit). In der anderen Richtung folgt daraus der Exponent \(e^S\).

Die Richtung der Teilchenbewegung unterteilt die Anzahl \(N\) der Teilchen

Deshalb:

\[Q = ST = 3/2NkT = 3/2RT = 3/2pV\]

Für eine ideales Gas ist die Innere Energie gleich der Arbeit, die an der Umgebung verrichtet wurde: \(3/2 pV\).

Die mittlere Energie eines Teilchens \(E\) ist:

\[E = 1/2 m v^2 = 3/2 kT\]

Die Boltzmannkonstante \(k\) konvertiert zwischen Einheiten der Energie. \(v^2\) kann besser mit Ereignissen in Beziehung gebracht werden als \(T\), aber auch \(E\) ist nur die Energie in der Schicht und nicht die ultimative Einheit des elementaren Informationsereignisses pro Zeit.

Das elementare Ereignis ist durch das Plancksches Wirkungsquantum gegeben. Die Summe dieser Ereignisse erzeigen Raum und Zeit: E-t, x-v, …