Лекция №1. Теория информации. Понятие видов информации



жүктеу 1,15 Mb.
бет1/11
Дата31.03.2022
өлшемі1,15 Mb.
#37962
түріЛекция
  1   2   3   4   5   6   7   8   9   10   11
Лекции - Теория информации



ЛЕКЦИЯ №1. ТЕОРИЯ ИНФОРМАЦИИ.


    1. Понятие видов информации.

В интересах технических проблем удобно информацию классифицировать по структурно-метрическим свойствам.


Вид информации



Формы представления информации

Топологическая

Абстрактная

Лингвистическая

1.События

точка

суждение

знак

2. Величина

линия

понятие

буква

3. Функция

поверхность

образ

слово

4 Комплекс информации

объем

система

предложение

5.Поле

пространство

универсуум

фонд

Событие- это первичный и неделимый двоичный элемент информации. Как правило, это выбор из двух возможных состояний. Учитывая двоичный характер события, условно его можно представить в геометрической символике точкой или пробелом, в арифметике- 0 или 1, в сигнальной- импульсом или паузой. Еще говорят, что событие- это категория нулевой меры. Все другие категории информации могут быть представлены как совокупность отдельных событий.

Величина есть упорядоченное множество событий в одном измерении. Величина – одномерное поле событий. Функция- это соотношение между двумя величинами. Функция – двумерное поле событий. Комплекс информации – это соотношение между тремя величинами и, соответственно, трехмерное поле событий. Поле- это зависимость между большим количеством величин (больше трех).
1.2 Основные понятия комбинаторики.
Комбинаторика- это раздел математики, посвященный решению задач выбора и расположения элементов некоторого обычного конечного множества в соответствии с заданными правилами. Каждое такое правило определяет способ построения некоторой конструкции исходного множества, которое называется комбинаторной конфигурацией. К таким конфигурациям относятся перестановки, сочетание и размещение.

1.Перестановка.


Qn = n! ( без повторений элементов)

Правило организации перестановок: комбинации отличаются порядком следования элементов и не зависит от состава.


Qnn= 
2. Сочетание- формирование из исходного множества n элементов комбинаторных конфигураций из m элементов, причем эти конфигурации отличаются только составом элементов и не зависят от порядка их следования.
Qc=  (без повторений элементов)
Qc= 
3. Размещения
Qp =  (без повторений элементов)

Qp = 


Главное свойство размещений в том, что комбинации отличаются как составом элементов, так и порядком их следования.
1.3 Случайные модели в теории информации.
Случайное событие – это любой факт, который в результате опыта может произойти, а может и не произойти.

Пусть А – некоторое событие, P(A)- вероятность этого события.







Если   , а событие U=1,тогда U-достоверное, а события Ai образуют полную группу событий.
Если  , ,V-невозможное, то А и B являются несовместными.
 -обратные, если они несовместные и образуют полную группу.

Пусть N-серия опытов,  , N-большое.




Во многих случаях случайное событие А является следствием происхождения некоторой совокупности





Случайная величина-переменная, которая в результате опыта может принимать то или иное неизвестное значение из известного множества значений. Случайные величины могут быть непрерывными и дискретными.

Полной статистической характеристикой случайной величины является закон распределения вероятностей (это зависимость между возможными значениями дискретной величины и вероятностями).

Пусть   – дискретная случайная величина.



pi








x

x1 x2 ……xi....xn


Функция распределения: 

Свойства  :

1. .

2. , если x2 ≥ x1.

3. 
Математическое ожидание:  (ДСВ)
Дисперсия:   (ДСВ)
Чаще используют плотность распределения информации, которая является дифференциальной функцией распределения вероятности:

Свойства плотность распределения:


  1.  ≥ 0.

  2.  .

  3.  .

  (HCB)

  (HCB)

1.4 Основные понятия теории информации


В середине 20-века происходит стремительный переход от индустриального общества к информационному. Этот процесс называется информатизацией. В Японии и странах Европы принимается программы информатизации. Целью таких программ явилось наиболее полное использование информационных ресурсов для ускорения экономического, социального, экологического и т.д. развития общества.

В России эта программа была принята в 1989 году. Её завершение планировалось в 2050-е годы. Если страна с любым уровнем индустриального развития опоздает с информатизацией всех сфер жизни, то она переходит в разряд стран третьего мира.

Базовым понятием процессов автоматизации, как и всей теории информации, является понятие информации. Информация трактуется как осведомленность. В широком смысле информация- это отражение реального мира, в узком - сведения, являющиеся объектом хранения, преобразования и передачи.

Теория информации (ТИ) – это наука о получении, накоплении, преобразовании, отображении и передачи информации.

В теории информации можно выделить три направления:


  1. Структурная теория - рассматривает структуру построения информационных сообщений, массивов и их измерения подсчетом информационных элементов или комбинаторным методом. Основной структурной единицей информации считается квант.

  2. Статистическая теория - оценивает информацию с точки зрения мер неопределенности. В этой теории оперируют понятием энтропии, которая учитывает вероятностные свойства и характеристики информационных элементов.

  3. Семантическая теория - занимается изучением смысловых характеристик информации (ценность, содержательность информации).

Строго говоря, наука теории информации состоит из:

  1. ТИ, где рассматривают характеристики информационных сообщений, меры измерения информации, а также модели и методы описания сообщений и их свойства.

  2. Теория кодирования- рассматривает способы кодирования источников сообщений, сигналов, а также модели и особенности передачи информации по каналам связи, характеристики и свойства кодов.

  3. Прикладная ТИ – рассматривает модели и способы организации базовых информационных процессов.

Возникновение ТИ, как науки, связано с появлением работы К.Шеннона « Математическая теория связи» в 1948 году. В 1933 году Котельников предложил теорию представления непрерывной функции виде её дискретных отсчетов.

Основной формой представления информации является сообщение. Под сообщением понимают информацию, представленную в определенной форме и подлежащую передачи. Сообщение может быть как непрерывным, так и дискретным. Сообщение само по себе передаваться не может. Носителем сообщений является сигнал. Сигнал- это материальный переносчик сообщений, т.е. это физическая величина, у которой один или несколько параметров изменяются в соответствии с отображаемым или предаваемым сообщением.


Этапы обращения информации:


жүктеу 1,15 Mb.

Достарыңызбен бөлісу:
  1   2   3   4   5   6   7   8   9   10   11




©g.engime.org 2024
әкімшілігінің қараңыз

    Басты бет
рсетілетін қызмет
халықаралық қаржы
Астана халықаралық
қызмет регламенті
бекіту туралы
туралы ережені
орталығы туралы
субсидиялау мемлекеттік
кеңес туралы
ніндегі кеңес
орталығын басқару
қаржы орталығын
қаржы орталығы
құрамын бекіту
неркәсіптік кешен
міндетті құпия
болуына ерікті
тексерілу мемлекеттік
медициналық тексерілу
құпия медициналық
ерікті анонимді
Бастауыш тәлім
қатысуға жолдамалар
қызметшілері арасындағы
академиялық демалыс
алушыларға академиялық
білім алушыларға
ұйымдарында білім
туралы хабарландыру
конкурс туралы
мемлекеттік қызметшілері
мемлекеттік әкімшілік
органдардың мемлекеттік
мемлекеттік органдардың
барлық мемлекеттік
арналған барлық
орналасуға арналған
лауазымына орналасуға
әкімшілік лауазымына
инфекцияның болуына
жәрдемдесудің белсенді
шараларына қатысуға
саласындағы дайындаушы
ленген қосылған
шегінде бюджетке
салығы шегінде
есептелген қосылған
ұйымдарға есептелген
дайындаушы ұйымдарға
кешен саласындағы
сомасын субсидиялау