✖La entropía es una medida de la incertidumbre de una variable aleatoria. Específicamente, mide la cantidad promedio de información contenida en cada resultado posible de la variable aleatoria.ⓘ entropía [H[S]] | | | +10% -10% |
✖La máxima entropía se define como que la distribución de probabilidad que mejor representa el estado actual de conocimiento sobre un sistema es la que tiene la mayor entropía.ⓘ Entropía máxima [H[S]max] | | | +10% -10% |