Definition

Entropie

Der Begriff Entropie hat unterschiedliche Bedeutungen und wird vor allem in der Physik und der Kommunikationstheorie verwendet. Allgemein gesehen steht er für einen Prozess, bei dem die Ordnung im Laufe der Zeit abnimmt. In der Datenkommunikation hat er jedoch mehrere darüber hinausgehende Bedeutungen.

Viele Wissenschaftler sind überzeugt, dass sich das Universum auf einen Status der maximalen Entropie hinzu bewegt. Das am häufigsten dafür als Beleg zitierte Beispiel bezieht sich auf thermische Unterschiede, die nach und nach verschwinden sollen. Nach der sogenannten Informationstheorie, die auf dem Entropie-Konzept basiert, wird alles im Universum irgendwann dieselbe Temperatur haben. Es soll dann auch keine Energiequellen und -verbraucher mehr geben. Sterne und Galaxien, wie wir sie jetzt noch kennen, werden dann nicht mehr existieren. Es wird auch kein Leben mehr geben.

In der Datenkommunikation bezieht sich der Begriff Entropie auf einen relativen Grad an Zufälligkeit. Je höher die Entropie ist, desto höher sind demzufolge auch die Fehler bei der Übertragung von Signalen. Die Entropie verhält sich damit direkt proportional zu der maximal erreichbaren Geschwindigkeit in Bit/s. Entropie ist ebenfalls direkt proportional zum Rauschen in Netzwerkverbindungen und zur erreichbaren Bandbreite. Die Entropie innerhalb eines Signals ist dagegen umgekehrt proportional zu seiner Komprimierbarkeit. Je größer die Entropie hier ist, desto kleiner ist der Faktor, um den die betroffenen Daten komprimiert werden können. Entropie bezieht sich zudem auch auf eine angenommene Unordnung, die absichtlich zu Daten hinzugefügt werden kann, die verschlüsselt werden sollen.

Diese Definition wurde zuletzt im April 2020 aktualisiert

Erfahren Sie mehr über IT-Berufe und Weiterbildung