Модель ДСК со стиранием описывается графом на рис. 3.2. Поскольку независимо от входного состояния условные вероятности выходных состояний образуют один и тот же набор
(канал симметричен), условная энтропия
вновь не зависит от входной статистики и потому максимизация средней взаимной информации между входом и выходом опять сводится к максимизации безусловной энтропии на выходе
.
При прежнем обозначении
вероятности нулевого символа на входе, безусловные вероятности выходных символов выразятся как
. (4.5)
Обозначим
. Тогда из (4.5)
, и безусловная энтропия на выходе

Прибавляя и вычитая в правой части последнего соотношения величину
, получим

В последнем выражении от
зависит только аргумент функции
в первом слагаемом. Поскольку максимум энтропии двоичного ансамбля достигается при вероятности одного из состояний, равной 1/2, для максимизации
достаточно положить
, что как видно из (4.5), означает
, т.е. равновероятность входных символов.
При равновероятных входных символах условная энтропия выхода относительно входа определяется в виде


.
Тогда информационной емкостью канала будет
. (4.6)