[ - Collapse All ]
Entropie  

En|tro|pie die; -, ...ien <gr.-nlat.>:

1.physikalische Größe, die die Verlaufsrichtung eines Wärmeprozesses kennzeichnet.


2.(Informationstheorie) a)Größe des Nachrichtengehalts einer nach statistischen Gesetzen gesteuerten Nachrichtenquelle;

b)mittlerer Informationsgehalt der Zeichen eines bestimmten Zeichenvorrats.



3.Maß für den Grad der Ungewissheit über den Ausgang eines Versuchs
Entropie  

En|tro|pie, die; -, -n [zu griech. en = innerhalb u. tropḗ = Wendung, Umkehr]:

1.physikalische Größe als Bezeichnung für den Grad der Nichtumkehrbarkeit physikalischer Vorgänge.


2.(Informationst.) mittlerer Informationsgehalt einer Zeichenmenge.
Entropie  

En|tro|pie, die; -, ...ien <griech.> (Physik Größe der Thermodynamik; Informationstheorie Größe des Nachrichtengehalts einer Zeichenmenge)
Entropie  

En|tro|pie, die; -, -n [zu griech. en = innerhalb u. tropḗ = Wendung, Umkehr]:

1.physikalische Größe als Bezeichnung für den Grad der Nichtumkehrbarkeit physikalischer Vorgänge.


2.(Informationst.) mittlerer Informationsgehalt einer Zeichenmenge.
Entropie  

Entropie, Maß der Unordnung, Maß für den Informationsgehalt
[Maß der Unordnung, Maß für den Informationsgehalt]
Entropie  

n.
<f. 19; Phys.> Zustandsgröße der Thermodynamik; Maß für die „Unordnung“ in einem abgeschlossenen System; Sy Syntropie; <Kommunikationstheorie> Größe des Nachrichtengehaltes einer nach statist. Gesetzen gesteuerten Nachrichtenquelle; <Wahrscheinlichkeitsrechnung> Maß für den Grad der Ungewissheit für den Ausgang eines Versuches [zu grch. entrepein „umkehren, umwenden“]
[En·tro'pie]
[Entropien]