| ✖Энтропия — это мера неопределенности случайной величины. В частности, он измеряет среднее количество информации, содержащейся в каждом возможном результате случайной величины.ⓘ Энтропия [H[S]] |  |  | +10% -10% | 
| ✖Максимальная энтропия определяется как состояние, согласно которому распределение вероятностей, которое лучше всего представляет текущее состояние знаний о системе, имеет наибольшую энтропию.ⓘ Максимальная энтропия [H[S]max] |  |  | +10% -10% |