S =
Q
/
T
где
S
– энтропия,
Q -
количество тепла,
Т-
- абсолютная температура
B)
S = 0
C)
H = ln
N !
где
N
- общее число молекул газа, находящегося в рассматриваемом объеме
N
i
-
число молекул, движущихся со скоростями, соответствующими
i
-ой
ячейке условного пространства скоростей.
D)
S< 0
E)
H = ln
N
{Правильный ответ}=A
{Сложность}=1
{Тема}=1
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$071 Введение какой величины позволило использовать формулу энтропии
за пределами термодинамики молекулярных систем:
A) значений вероятностей
B) различное состояние элементов систем
C) вероятность движения молекул
D) усредненное значение энтропии
E) величина, характеризующая энергию движения
{Правильный ответ}=A
{Сложность}=1
{Тема}=1
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$072 Что означает символ
i
p
в формуле энтропии:
A) символ
i
p
может обозначать вероятность не только тех или иных состояний
молекул, но и различных состояний элементов
B) в частности, вероятность появления букв текста предаваемых сообщений
C) в частности, вероятность появления символов предаваемых сообщений
D) символ
i
p
может обозначать вероятность не только тех или иных состояний
молекул, но и различных состояний элементов, вероятность появления букв
текста предаваемых сообщений, вероятность появления символов предаваемых
сообщений
E) символ
i
p
может обозначать вероятность различных состояний элементов
различных систем
{Правильный ответ}=D
0507_Основы инф. систем
Подпись эксперта_____________
{Сложность}=2
{Тема}=1
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$073 Цифровыми называются сигналы, которые:
A) Могут представлять бесчисленное количество значений некоторой величины
в пределах ограниченного диапазона
B) Могут иметь одно значений или конечный набор значений
C) Несет синусоидальные колебания
D) Представлены в виде моделирующего сигнала
E) Имеют бесконечное число значений
{Правильный ответ}=B
{Сложность}=3
{Тема}=6
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$074 Как может быть достигнуто уменьшение избыточности, обусловленной
неравномерностью сообщений:
A) применением неравномерных кодов
B) корреляцией сообщения
C) увеличением пропускной способности
D) статистическим кодированием
E) дифференциальной энтропией
{Правильный ответ}=A
{Сложность}=1
{Тема}=8
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$075 Назовите причины обуславливающие избыточность дискретных
источников:
A) памятью источника
B) неравномерность сообщений
C) помеха устойчивость сообщений
D) памятью источников и неравномерностью сообщений
E) памятью источников и тоже устойчивостью и сообщений
{Правильный ответ}=D
{Сложность}=1
{Тема}=4
{Код специальности}=050703
0507_Основы инф. систем
Подпись эксперта_____________
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$076 Энтропия –это мера … в некоторой ситуации
А) неопределенности
В) известности
С) определенности
D) вероятности
Е) равнозначности
{Правильный ответ}=A
{Сложность}=1
{Тема}=1
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$077 Свойства энтропии:
А) неопределенность, хаотичность
В) субаддитивность, хаотичность
C) симметричность, гибкость
D) энтропия всегда отрицательна
E) неопределенность, субаддитивность, симметричность, энтропия всегда
неотрицательна
{Правильный ответ}=E
{Сложность}=1
{Тема}=1
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$078 Безусловная энтропия –это:
A) максимальная информация, потенциально содержащаяся в системе
B) пропускная способность канала
C) число, на которое увеличивается неопределенность
D) число, на которое увеличивается информация
E) однозначная зависимости входного и выходного сигналов
{Правильный ответ}=A
{Сложность}=2
{Тема}=2
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$079 Аналоговыми называются сигналы, которые:
0507_Основы инф. систем
Подпись эксперта_____________
A) Могут представлять бесчисленное количество значений некоторой величины
в пределах ограниченного диапазона
B) Могут иметь одно значений или конечный набор значений
C) Несут синусоидальные колебания
D) Представлены в виде моделирующего сигнала
E) Не имеют меры измерения
{Правильный ответ}=A
{Сложность}=2
{Тема}=3
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$080 Для удобства исчисления энтропии сообщений, передаваемых
двоичным кодом, Шеннон заменил используемый термодинамикой …
двоичным логарифмом log
2
:
A) функцию синус
B) вероятность исчисления
C) натуральный логарифм
D) функцию косинус
E) энтропию
{Правильный ответ}=C
{Сложность}=2
{Тема}=2
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$081 В структурном подходе к измерению информации различаются
следующие меры информации:
A) геометрическая, синтаксическая
B) комбинаторная, логическая
C) аддитивная, синусоидальная
D) геометрическая, комбинаторная и аддитивная
E) геометрическая, комбинаторная, простая
{Правильный ответ}=D
{Сложность}=1
{Тема}=1
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$082 Назовите способы модуляции сигналов:
A) Амплитудная модуляция, косвенная
B) Частотная модуляция, синусоидальная
0507_Основы инф. систем
Подпись эксперта_____________
C) Фазовая модуляция, программная
D) Амплитудная, частотная, фазовая модуляции
E) простая, сложная
{Правильный ответ}=D
{Сложность}=3
{Тема}=5
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$083 Величина кодового расстояния в помехоустойчивом коде зависит от
числа … кодов
A) проверочных разрядов
B) неодинаковых двух разрядов
C) равномерных разрядов
D) блочных разрядов
E) разрешенных разрядов
{Правильный ответ}=A
{Сложность}=1
{Тема}=8
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$084
Количество информации, согласно теории информации до
опубликования теории Шеннона предложил:
A) Р.Хартли
B) Б.Паскаль
C) И.Ньютон
D) Б.Гейтс
E) Б.Клинтон
{Правильный ответ}=A
{Сложность}=2
{Тема}=1
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$085 Формула I=-logP вычисляет:
A) число возможных сообщений
B) количество информации
C) вероятность неожиданных сообщений
D) количество байт памяти ПК
E) вероятность ошибок
{Правильный ответ}=B
0507_Основы инф. систем
Подпись эксперта_____________
{Сложность}=1
{Тема}=1
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$086 Для уменьшения избыточности сообщений:
A) необходимо сократить объем сообщений в 2 раза
B) следует все сообщения разделить на важные и неважные
C) следует учитывать вероятности их сочетаний
D) увеличивают объем дополнительных сообщений
E) увеличивают вероятность ошибок
{Правильный ответ}=C
{Сложность}=3
{Тема}=8
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$087 Одна из теорем Шеннона свидетельствует об …. информационной
энтропии множества, образованного в результате взаимодействий двух
исходных упорядоченных множеств
A) уменьшении
B) увеличении
C) сохранении объема
D) уменьшении или увеличении
E) многократном увеличении
{Правильный ответ}=A
{Сложность}=2
{Тема}=2
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$088 Какой закон служит началом идеи применения физических законов в
теории информационных процессов:
A) Второе начало термодинамики
B) Пятое начало термодинамики
C) Третье начало термодинамики
D) Законы тепла
E) Законы изменения тепла
{Правильный ответ}=A
{Сложность}=2
{Тема}=1
{Код специальности}=050703
0507_Основы инф. систем
Подпись эксперта_____________
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$089 Как иначе называется аддитивная мера информации:
A) Мера Хартли
B) Мера Паскаля
C) Мера Гейтса
D) Мера Планка
E) Мера термодинамики
{Правильный ответ}=A
{Сложность}=2
{Тема}=1
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$090 Выберите правильное определение понятия глубины числа «q»:
A) количество символов (элементов), принятых для представления информации
B) количество энтропии
C) число, измеряющее меру изменения энтропии
D) количество позиций в числе
E) число, измеряющее глубину информации
{Правильный ответ}=A
{Сложность}=2
{Тема}=8
{Код специальности}=050703
{Учебник}=Введение в теорию информационных систем. / Под ред. Юрьевич
Е.В.- М.: ИД технологии, 2004.
$$$091 Согласно Шеннону, средняя энтропия одной буквы текста вычисляется
по формуле:
A) H = –
p
i
ln p
i
= - (p
0
log p
0
+ p
1
log p
1
+…+ p
n
log p
n
)
B) H = Nln N –
N
i
ln N
i
C) H = –
p
i
ln
Достарыңызбен бөлісу: |