✖Die Informationsrate ist definiert als das Produkt aus dem durchschnittlichen Informationsgehalt pro Symbol und der Nachrichtensymbolrate.ⓘ Informationsrate [R] | | | +10% -10% |
✖Entropie ist ein Maß für die Unsicherheit einer Zufallsvariablen. Konkret misst es die durchschnittliche Informationsmenge, die in jedem möglichen Ergebnis der Zufallsvariablen enthalten ist.ⓘ Entropie [H[S]] | | | +10% -10% |