Сумма; 2) произведение; 3) разность
10. Энтропия объединения двух зависимых сигналов {X, Y} определяется по формуле: H(X, Y) = H(X) + H(Y/X) = H(Y) + H(X/Y), где H(X/Y) или H(Y/X) называется: Безусловной энтропией; 2) условной энтропией; Совместной энтропией.
11. Энтропия объединения двух зависимых сигналов {X, Y} определяется по формуле: H(X, Y) = H(X) + H(Y/X) (1). В случае независимости сигналов X и Y формула энтропии объединения (1) примет вид: 1) H(X, Y) = H(X); 2) H(X, Y) = H(X) +H(Y); 3) H(X, Y) = H(Y) + H(X/Y).
12. Энтропия объединения двух зависимых сигналов {X, Y} определяется по формуле: H(X, Y) = H(X) + H(Y/X) (1). В случае когда сигнал X принял значение xK. При этом известно, что сигнал Y с необходимостью примет значение yK. Формула энтропии объединения (1) примет вид: 1) H(X, Y) = H(X); 2) H(X, Y) = H(X) + H(Y); 3) H(X, Y) = H(X) + H(Y/X). 13. Совокупность устройств и физических сред, обеспечивающих передачу дискретных сообщений из одного места в другое называется: Система связи; 2) канала связи; 3) линия связи. ТЕМА: «Информационные характеристики источника дискретных сообщений». 14. Для описания вероятностных характеристик дискретных или непрерывных последовательностей состояний источника используется математические модели в виде ________ процессов: Случайных; 2) детерминированных; 3) регулярных. 15. Для построения математической модели источника сообщений необходимо знать: Объем алфавита; Объем алфавита и вероятности создания источником отдельных знаков; 3) вероятности создания источником отдельных знаков. 16. Дискретная последовательность состояний источника, в которой вероятности отдельных знаков и их сочетаний не зависит от расположения последних по длине называется: Стационарной; 2) регулярной; 3) детерминированной. 17. Источник сообщений, статистические характеристики в котором, полученные при исследовании одного достаточно длинного сообщения с вероятностью близкой к единице, справедливы для всех сообщений, создаваемых источником, называют: Эргодическим; 2) постоянным; 3) детерминированным. 18. Цепь Маркова порядка n характеризует последовательность дискретных событий, вероятности которых зависят от того, какие n событий предшествовали данному. При n = 1 цепь Маркова называется: Короткой; 2) простой; 3) сложной. 19. Дискретные последовательности источника, каждая из которых имеет настолько ничтожную вероятность, что даже суммарная вероятность всех таких последовательностей очень мала, называют: Типичными; 2) нетипичными; 3) регулярными.
20. Дискретные последовательности источника, которые при достаточно большом их числе отличается тем, что вероятности их появления практически одинаковы, называют:
|