Энтропия (entropy, average information content) — в теории информации — мера неопределенности состояния объекта; мера неопределенности некоторой ситуации (случайной величины) с конечным или счетным числом исходов.
[ГОСТ 33707-2016. (ISO/IEC 2382:2015) Информационные технологии (ИТ). Словарь]
Энтропия (entropy) — вероятностная мера неопределенности пребывания объекта или системы в данном состоянии. Э. используется для определения количества информации в сообщении.
[Словарь понятий по информатике от Т до Я. (Электронный ресурс). Режим доступа: http:// http://topuch.ru/slovare-ponyatij-po-informatike-ot-t-do-ya/index.html/, свободный.]
Энтропия (Entrophy) — в теории информации мера неопределенности состояния объекта или некоторой ситуации (случайной величины) с конечным числом исходов. Понятие энтропии введено Шенноном. Используется для определения количества информации в сообщении. Так, количество информации при равно вероятности всех значений сообщения определяется по формуле H=k*log m, где Н энтропия, k число знаков в сообщении, m число знаков в алфавите источника.
[Словарь терминов по информационной безопасности. УГАТУ. (Электронный ресурс). Режим доступа: http:// studfile.net›preview/951057/, свободный.]