Тесты по дисциплине Информатика Легкие [1] Информация, отражающая соотношения между объектами с участием человека – это 1) техническая информация 2) управляющая информация 3) относительная информация 4) научная информация [2] Простейшим элементом информационного поля является 1) взаимодействие 2) событие 3) бит 4) нуль [3] В двоичном коде и коде Грея минимальное кодовое расстояние d равно 1) 4 2) 3 3) 2 4) 1 [4] Канал связи, в котором скорость передачи информации равна пропускной способности , называется 1) каналом Шеннона 2) идеальным 3) максимально быстрым 4) независимым от помех [5] Под пропускной способностью канала передачи информации понимается 1) количество информации, которое фактически передается по каналу в единицу времени 2) максимальный уровень сигнала 3) максимальное количество информации, которое может быть передано по каналу в единицу времени 4) фактический уровень сигнала [6] Весом w( A ) кодовой комбинации A называется 1) необходимое количество избыточных разраядов для кодирования 2) количество количество содержащихся в ней двоичных нулей 3) минимальное кодовое расстояние 4) количество количество содержащихся в ней двоичных единиц [7] Польузясь кодом с минимальным кодовым расстоянием 2, можно 1) исправить одиночную ошибку 2) обнаружить одиночную ошибку 3) обнаружить и исправить одиночную ошибку 4) обнаружить две ошибки [8] для обнаружения t одиночных ошибок ( t ошибок в различных разрядах) кодовой комбинации, необходимо применять код с минимальным расстоянием 1) d = t 2) d = t + 1 3) d = 2t + 1 4) d = t + 2 [9] для исправления t одиночных ошибок ( t ошибок в различных разрядах) кодовой комбинации, необходимо применять код с минимальным расстоянием 1) d = 2t 2) d = t + 1 3) d = 2t + 1 4) d = t + 2 [10] Совокупность элементов, (алгебраическая система), в которой определена одна основная операция и операция ей обратная, называется 1) Группой 2) Кольцом 3) Полем 4) подмножеством [11] Множество элементов, на котором определены две операции: сложение и умножение, и операция, обратная первой – вычитание, называется: 1) Группой 2) Кольцом 3) Полем 4) подмножеством [12] для каждого параметра, влияющего на состояние объекта, необходимо знать наименьшую величину, в пределах которой состояние объекта можно считать неизиенным. Такая величина называется 1) бит 2) импульс 3) потенциал 4) квант Средние [13] Отношение вероятностеи ошибок в данной операции при отсутствии коррекции и вероятности ошибок приналичии коррекции определяет 1) потенциальную эффективность кода 2) минимальное кодовое расстояние 3) вероятность ошибки 4) помехоустойчивость [14] Запись H(X , Y) означает 1) энтропия множества отправляемых символов 2) энтропия множества принимаемых символов 3) энтропия множества всевозможных пар символов X и Y 4) энтропия всевозможных символов X т Y [15] Минимальная избыточность, необходимая для восстановления переданной информации до достоверной, определяется энтропией H(X / Y) и, в общем случае , должна быть 1) равна ей 2) меньше 3) больше 4) равна энтропии H(Y/X) [16] Действие помех приводит к тому, что известных символах X появляется неопределённость исхода событий Y. Эта неопределённость характеризуется энтропией помех на выходе канала 1) H(X) 2) H(Y) 3) H(X/Y) 4) H(Y/X) [17] Для систем простых независимых образов энтропия 1) равна нулю 2) постоянна 3) не определена 4) аддитивна [18] Если известны результаты выбора из статистически связанной с ней совокупности образов, энтропия всегда 1) равна нулю 2) увеличивается 3) уменьшается 4) уменьшается либо увеличивается в зависимости от результатов выбора [19] Информация, в которой человеку и обществу в отражении объектов материального мира отводится решающая роль, относится к 1) технической информация 2) управляющей информация 3) визуальной информация 4) научной информация [20] Если n - общее число знаков в коде, l - число информационных знаков, то избыточность кода определяется как 1) k = n + l 2) k = l – n 3) k = n – l 4) k = n / l [21] Если n - общее число знаков в коде, l - число информационных знаков, то относительной избыточностью называется называется отношение 1) R = k / l 2) R = l / k 3) R = k - l 4) R = l*k [22] коды с проверкой на четность образуются добавлением неизбыточному коду 1) такого количества нулей чтобы их число было четным 2) такого количество единиц, чтобы их общее число было четным 3) одного контрольного знака (0 или 1), чтобы общее число единиц было чётным 4) одного контрольного знака (0 или 1), чтобы общее число нулей было нечётным [23] Кодовый вектор или кодовое число представляется полиномом (n – 1) - й степени некоторой переменной величины x , причем коэффициентами полинома являются двоичные знаки соответствующих разрядов (0, 1). Как называется такой код? 1) циклический код 2) код с проверкой на четность 3) код Хемминга 4) код Грея [24] К главныем видам и формам существования информации не относится: 1) техническая информация 2) управляющая информация 3) визуальная информация 4) научная информация Тяжелые [25] В общем виде рассмотренное свойство энтропии совокупности сложных образов можно выразить соотношением 1) H(X, Y, Z) = H(X)*H(Y)*H(Z) + … 2) H(X, Y, Z) = H(X/Y) + H(X/Z) + H(Y/Z) 3) H(X, Y, Z) = H(X)*H(Y)*H(Z) – (H(X/Y) + H(X/Z) + H(Y/Z)) 4) H(X, Y, Z) = H(X) + H(Y) + H(Z) + … [26] Энтропия совокупности сложных образов, каждый из которых определяется двумя простыми зависимыми образами, определяется: 1) H(X, Y) = H(X) + H(Y/X) = H(Y) + H(X/Y) 2) H(X, Y) = H(X) + H(Y) + H(X/Y) + H(Y/X) 3) H(X, Y) = H(X) + H(X/Y) = H(Y) + H(Y/X) 4) H(X, Y) = H(X/Y) + H(Y/X) [27] Если на сообщение длиной m символов, идущее от информационнй системы, не влияют помехи и шумы, то количество информации в сообщении равно 1) I(X) = H(X)m 2) I(X) = I(m) – H(m) 3) I(X) = m H( X ) 4) I(X) = m-1 H(X) [28] Количество информации, получаемое при приёме символа Yi по определению равно: 1) Ij = H(X) - H(X / Yj) 2) Ij = H(X) - H(Yj / X) 3) Ij = H(Yj / X) - H( X / Yj ) 4) Ij = H( X / Yj ) - H(Yj / X) [29] Если для передачи "1" в двоичном коде, применяется сигнал, по энергии значительно превосходящий уровень шумов, то этот метод обеспечения помехоустойчивости называется: 1) Применение избыточности информации 2) Метод многократной передачи собщения и выбора по "максимуму правдоподобия" нужного сообщения 3) Передача сообщения с повышенной энергией элементарного сигнала 4) Применение для передачи сообщений ортогональных сигналов или кодов с ортогональными признаками [30] Канал оказывается перегруженным и часть информации при передаче по такому каналу будет потеряна, если: 1) C( X , Y ) < S( X ) 2) C( X , Y ) > S( X ) 3) C( X , Y ) < H( X ) 4) C( X , Y ) > H( X ) [31] Полезное количество информации на выходе канала, когда источник информации и источник помех независимы, определяется как 1) I(X, Y) = H(X) – H(Y/X) = H(X) – H(S) 2) I(X, Y) = H(X) – H(X/Y) = H(X) – H(S) 3) I(X, Y) = H(Y) - H(Y/ X) = H(Y) - H(S) 4) I(X, Y) = H(Y) – H(X) = H(X) – H(S) [32] Количество информации, создаваемое источникои в 1 секунду, равно 1) S(X) = m0H(X / Y) 2) S(X) = m0H(Y / X) 3) S(X) = m0H(X) 4) S(X) = m0H(Y) [33] Величину m0H( X / Y), где mo - среднее число символов сообщения, создаваемых за 1 секунду, называют 1) ненадёжнстью передачи информации 2) скоростью передачи информации 3) средней энтропией помех 4) скорость разрушения ложной информации [34] Продолжите формулировку теоремы Шеннона: Если пропускная способность канала передачи информации превосходит количетво информации, поступающей от источника на выход канала в единицу времени, то соответствующим кодированием вся поступающая информация может быть передана по каналу со скоростью, ... 1) равной неопределенности, определяемой действием помех 2) сколь угодно близкой к пропускной способности канала 3) большей, чем энтропия источника 4) равной скорости образования информации [35] метод для обеспечения помехоустойчивости , специально направленной для устранения ошибок в так называемых корректирующих кодах, называется 1) Применение избыточности информации 2) Метод многократной передачи собщения и выбора по "максимуму правдоподобия" нужного сообщения 3) Передача сообщения с повышенной энергией элементарного сигнала 4) Применение для передачи сообщений ортогональных сигналов или кодов с ортогональными признаками [36] Кодовую комбинацию в n символов условно представляют n - мерным вектором. Весом сектора также, как и весом кодовой комбинации, будет число единиц в нём, число ординат, имеющих ненулевое значение. Как называются такой коды? 1) Коды с ортогональными признаками 2) коды с проверкой на четность 3) код Хемминга 4) код Грея Список правильных ответов 1-2 2-2 3-4 4-2 5-3 6-4 7-2 8-2 9-3 10-1 11-2 12-4 13-1 14-3 15-1 16-1 17-4 18-3 19-4 20-3 21-1 22-3 23-1 24-3 25-4 26-1 27-3 28-1 29-3 30-1 31-3 32-3 33-1 34-2 35-1 36-1