Лекция 8. Основы классической теории информации. Часть 2
- 02:01Ограничения на величину шенноновской энтропии
- 12:27Двоичная энтропия
- 22:22Неравенство Йенсена и вогнутость энтропии Шеннона
- 29:14Классическая относительная энтропия и неравенство Гиббса
- 45:12Классическая совместная энтропия и субаддитивность
- 59:29Условная вероятность и теорема Байеса
- 01:00:43Классическая условная энтропия
- 01:12:03Доказательство субаддитивности
- 01:17:54Классическая взаимная информация
- 01:21:26Наглядная связь между различными энтропиями и взаимной информацией
- 01:24:32Сильная субаддитивность
