✖Entropie ist ein Maß für die Unsicherheit einer Zufallsvariablen. Konkret misst es die durchschnittliche Informationsmenge, die in jedem möglichen Ergebnis der Zufallsvariablen enthalten ist.ⓘ Entropie [H[S]] | | | +10% -10% |
✖Symbole sind die grundlegenden Informationseinheiten, die übertragen oder verarbeitet werden können. Diese Symbole können jede diskrete Einheit darstellen, beispielsweise Buchstaben, Ziffern oder andere abstrakte Konzepte.ⓘ Symbole [r] | | | +10% -10% |