✖A entropia é uma medida da incerteza de uma variável aleatória. Especificamente, ele mede a quantidade média de informações contidas em cada resultado possível da variável aleatória.ⓘ Entropia [H[S]] | | | +10% -10% |
✖A entropia máxima é definida como estados em que a distribuição de probabilidade que melhor representa o estado atual de conhecimento sobre um sistema é aquela com maior entropia.ⓘ Entropia Máxima [H[S]max] | | | +10% -10% |