✖Энтропия — это мера неопределенности случайной величины. В частности, он измеряет среднее количество информации, содержащейся в каждом возможном результате случайной величины.ⓘ Энтропия [H[S]] | | | +10% -10% |
✖Символы — это основные единицы информации, которые могут быть переданы или обработаны. Эти символы могут представлять любой дискретный объект, такой как буквы, цифры или другие абстрактные понятия.ⓘ Символы [r] | | | +10% -10% |