✖L'entropie est une mesure de l'incertitude d'une variable aléatoire. Plus précisément, il mesure la quantité moyenne d'informations contenues dans chaque résultat possible de la variable aléatoire.ⓘ Entropie [H[S]] | | | +10% -10% |
✖L'entropie maximale est définie comme indiquant que la distribution de probabilité qui représente le mieux l'état actuel des connaissances sur un système est celle qui a la plus grande entropie.ⓘ Entropie maximale [H[S]max] | | | +10% -10% |