✖L'entropia è una misura dell'incertezza di una variabile casuale. In particolare, misura la quantità media di informazioni contenute in ogni possibile risultato della variabile casuale.ⓘ Entropia [H[S]] | | | +10% -10% |
✖L'entropia massima è definita come afferma che la distribuzione di probabilità che meglio rappresenta lo stato attuale delle conoscenze su un sistema è quella con la massima entropia.ⓘ Entropia massima [H[S]max] | | | +10% -10% |