Я тут задание по теории информационных процессов делаю. Возникли вопросы. Здесь люди образованные обитают, может кто и подскажет, а то мне больше не у кого спросить...
1. Нужно вычислить условные дифференциальные энтропии h(X+Y|Y) и h(Y|X+Y), где X и Y - независимые непрерывные источники, ... (не важно)
а) Что значит h(X+Y|Y)? Я это понимаю как выражение для энтропии, т.е. случайную величину, которая характеризует неопределённость , приходящуюся на одно сообщение источника X+Y (т.е. объединения источников X и Y) при условии, что уже известно сообщение источника Y.
б) Где я ошибаюсь:
- Т.к. X и Y - независимы, то h(X+Y|Y)=h(X|Y)=h(X) и далее вычисляю её...
- h(Y|X+Y)=0 полюбому и всегда
2. "Докажите, что кодовые расстояния Хэмминга и Ли совпадают при сравнении двоичных и троичных кодовых комбинаций."
а) Не понял смысл вопроса - кого с чем сравнивают (Хэмминга с Ли или двоичные с троичными комбинациями)
б) Кто такой Ли? У меня есть пара умных книжек - нет такого нигде. В сети искал - Хэмминг есть, Ли нет. Т.е. что такое кодовые расстояния по Ли? Я нашёл что такое кодовые расстояния по Хэммингу - число символов, в которых кодовые комбинации отличаются друг от друга. Может, это и называется так "кодовые расстояния Хэмминга и Ли"?
в) Как считать кодовые расстояния для троичных кодовых комбинаций?
Спасибо.
PS. А может у кого есть хорошая книжка по этому делу? Я не нашёл.
PPS. Модераторы, не удаляйте топик, пожалуйста.