ПРИБОРОСТРОЕНИЯ И ИНФОРМАТИКИ

МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

ПРИБОРОСТРОЕНИЯ И ИНФОРМАТИКИ

Кафедра
ИС 5
Информационное обеспечение робототехнических и мехатронных систем.

 

 

Для студентов 1 курса факультета Интеллектуальных систем
специальности 2203.01.

 

Кандидат технических наук, доцент Стефанович Александр Евгеньевич.

 

ЛЕКЦИИ

ПО ИНФОРМАТИКЕ

(дисциплина 3457)

 

МГУПИ – 200__г.


 

УДК

Лекции по информатике. Конспект лекций. Учебно-методическое пособие по дисциплине Информатика. Составитель А.Е. Стефанович. М: МГУПИ, 2007. 107 с.

 

Цель методического пособия систематическое изложение основных сведений по информатике. В основу конспекта положена работа с большим объемом учебно-педагогической и научно-технической литературы (список прилагается). Рассмотрены вопросы определения понятия информации, вероятностного и объемного подходов к определению количества информации, энтропии в информатике и физике, кодирования и передачи информации, помехоустойчивости аналоговых и дискретных процессов, основы защиты информации, локальные и глобальные сети, спутниковая связь и др.


ПРЕДИСЛОВИЕ.

В методическом пособии систематически изложены основные сведения по информатике. Рассмотрены вопросы определения понятия информации, вероятностного и объемного подходов к определению количества информации, энтропии в информатике и физике, кодирования и передачи информации, помехоустойчивости аналоговых и дискретных процессов, основы защиты информации, локальные и глобальные сети, спутниковая связь и др. В основу конспекта положена работа со следующей учебно-педагогической и научно-технической литературой:

1. Макарова Н.В., Матвеев Л.А., Бройдо В.Л. и др. Информатика. Учебник.- М.: Финансы и статистика, 2004

2. Макарова Н.В., Матвеев Л.А., Бройдо В.Л. и др. Информатика. Практикум.- М.: Финансы и статистика, 2004

3. Могилев А.В., Пак Н.И., Хеннер Е.К.Информатика. Учебное пособие.- М.: Академия, 2003

4. Могилев А.В., Пак Н.И., Хеннер Е.К.Информатика. Практикум.- М.: Академия, 2003

5. Свириденко С.С.Современные информационные технологии.- М.: Радио и Связь, 1989.

6. Колонтаевский Ю.Ф.Радиоэлектроника. Учебное пособие.-.М.: Высшая школа, 1988.

7. Зиновьев А.Л., Филиппов Л.И.Введение в специальность радиоинженера.- М.: Высшая школа, 1989.

8. Поляков В.Т.Посвящение в радиоэлектронику.- М.: Радио и связь, 1988.

9. Андреева Е., Фалина И.Системы счисления и компьютерная арифметика. Учебное пособие.- М.: Лаборатория базовых знаний, 2000.

10. Касаткин В.Н.Новое о системах счисления.- Киев: Вища школа, 1982.

11. Макаренко А.Е. и др.Готовимся к экзамену по информатике.- М.: Айрис пресс, 2003.

12. Соломатин Н.М. Логические элементы ЭВМ- М: Высшая школа, 1987.

13. Сена Л.А.Единицы визических величин и их размерности. Учебное пособие.- М.: Наука, 1977.

14. Сысун В.И.Теория сигналов и цепей.- Петрозаводск: 2003.

15. Серый С. Клод Элвуд Шеннон. Газета Компьютерные вести. № 21, 1998.

16. Керниган Б., Ритчи Д. Язык программирования Си / Пер. с англ. - М.: Финансы и статистика, 1992.

17. Подбельский В.В., Фомин С.С. Программирование на языке Си - М: Финансы и статистика, 2000.

18. Уэйт М., Прата С., Мартин Д. Язык Си / Пер. с англ. - М.:Мир, 1988.

19. Белецкий Я. Энциклопедия языка Си / Пер. с англ. - М.:Мир, 1992.

20. Березин Б.И., Березин С.Б. Начальный курс С и С++ - М: ДИАЛОГ-МИФИ, 2003.

21. Шилдт Г. Полный справочник по С, 4-е издание/ Пер. с англ. – М, С-Пб, Киев: Издательский дом Вильямс, 2002.


ВВЕДЕНИЕ.

В основанной американским ученым Клодом Шенноном Математической теории информации (около 1948 года) под информацией понимались не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность (неизвестность). Каждому сигналу в теории Шеннона соответствует вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя. В обыденном понимании, чем неожиданнее новость, тем больше ее информативность. Была предложена и формула для вычисления количества информации в передаваемом сообщении.

Математическая теория информации не охватывает всего богатства содержания информации, поскольку она отвлекается от содержательной (смысловой, семантической) стороны сообщения. С точки зрения этой теории фраза в 100 слов из газеты, пьесы Шекспира или теории Эйнштейна имеют приблизительно одинаковое количество информации.

Советский математик Ю. Шрейдер предложил оценивать информацию по увеличению объема знаний у человека под воздействием информационного сообщения.

Академик А.А. Харкевич предложил измерять содержательность информации по увеличению вероятности достижения цели после получения информации человеком или машиной.

В некоторых физических и химических теориях информация определяется как отраженное разнообразие. Отражение заключается в таком изменении одного материального объекта под воздействием другого, при котором все особенности отражаемого объекта каким-либо образом воспроизводятся отражающим объектом. В процессе отражения и происходит передача информации. То есть информация - это результат отражения. В соответствии с этим взглядом информация существовала и будет существовать вечно, она содержится во всех элементах и системах материального мира. Информация, наряду с веществом и энергией, является неотъемлемым атрибутом материи.

В кибернетике - науке об управлении в живых, неживых и искусственных системах связывают понятие информации воедино с понятием управления (Н.Винер, Б.Н.Петров). Информация является обозначением содержания, полученного из внешнего мира в процессе приспособления к нему наших чувств. Информацию составляет та часть знаний, которая используется для ориентирования, принятия решений, активного действия, управления, то есть в целях сохранения, совершенствования и развития системы. Данная концепция отрицает существование информации в неживой природе, не дает ответы на вопросы: являются ли информацией неиспользуемые знания, являются ли неосмысленные (как в ЭВМ) данные информацией.

Для преодоления этих трудностей академик В.П.Афанасьев ввел понятие информационных данных. Информационные данные - это всякие сведения, сообщения, знания. Они могут храниться, перерабатываться, передаваться, но характер информации они приобретают лишь тогда, когда получают содержание и форму, пригодную для управления и используются в управлении.

Дальнейшим развитием математического подхода к феномену "информация" послужили работы логиков Р.Карнапа и И.Бар-Хиллела, отечественного математика А.Н.Колмогорова и других. В их теориях понятие информации не связано ни с формой, ни с содержанием сообщений, передаваемых по каналу связи. Информация - абстрактная величина, не существующая в физической реальности, подобно тому, как не существует мнимое число или не имеющая линейных размеров точка.

В отличие от абстрактно мыслящих математиков и логиков инженеры, а также биологи, генетики, психологи и др. отождествляют информацию с теми сигналами, импульсами, кодами, которые наблюдаются в технических и биологических системах.

Для радиотехников, телемехаников, программистов информация - рабочий объект, который можно обрабатывать, транспортировать, так же как электричество в электротехнике или жидкость в гидравлике. Этот рабочий объект состоит из упорядоченных (модулированных) дискретных или непрерывных сигналов, с которыми и имеет дело информационная техника. Содержание принимаемых и обрабатываемых сигналов инженера не интересует. Достаточно того, что формулы Шеннона хорошо работают при расчетах технической коммуникации.

Другой активной сферой применения понятия информации явилась генетика, в рамках которой было сформулировано понятие генетической информации - как программы (кода) биосинтеза белков, представленных цепочками ДНК. Реализуется эта информация в ходе развития особи.

В социальных науках (социологии, психологии, политологии и др.) под информацией понимаются сведения, данные, понятия, отраженные в нашем сознании и изменяющие наши представления о реальном мире. Эту информацию, передающуюся в человеческом обществе и участвующую в формировании общественного сознания, называют социальной информацией.

С точки зрения индивидуального человеческого сознания информация - это то, что поступает в наш мозг из многих источников и во многих формах и, взаимодействуя там, образует нашу структуру знания. Информацией для человека являются не только сухие факты, строгие инструкции, но и то, что радует нас, волнует, печалит, заставляет переживать, восторгаться, негодовать, сочувствовать и любить.

Более половины общего объема сведений, полученных в процессе разговора, приходится на так называемую невербальную информацию, которую говорящий по желанию, а иногда непроизвольно сообщает нам особой тональностью разговора, своей возбужденностью, жестикуляцией, выражением лица, глаз и т.д.

Информатикой называется фундаментальная естественная наука, изучающая процессы, средства и методы сбора, хранения, обработки, передачи и отображения информации.

К фундаментальным наукам относятся такие науки, основные понятия которых имеют общенаучный характер (математика, философия).

К естественным наукам относятся науки, изучающие объективные сущности мира, которые существуют независимо от нашего сознания (физика, химия, биология).

КОЛИЧЕСТВО ИНФОРМАЦИИ.

Количеством информации называется степень уменьшения неопределенности в результате передачи информации.

· БИТ – минимальная единица количества информации, один ответ типа «ДА-НЕТ». Бит - сокращение от английских слов binary digit, что означает двоичная цифра.

· I – количество единиц информации (бит), количество ответов типа «ДА-НЕТ» (бит), число разрядов двоичного кода (бит).

· N – количество возможных событий в системе, количество возможных состояний системы.

· H – Энтропия, степень (мера) неопределенности реализации конкретного состояния системы (бит).

Конкретные состояния, в которых может находиться система, могут быть равновероятными и не равновероятными.

При расчете энтропии системы с равновероятными состояниями (возможными событиями) используется формула Хартли. При расчете энтропии системы с не равновероятными состояниями (возможными событиями) используется формула Шеннона.

ФОРМУЛА ХАРТЛИ.

N=2I; log2N=Ilog22; log2N=I; I=log2N; Количество информации I, минимально необходимой для устранения… При реализации конкретного события (состояния) количество единиц полученной информации I равно энтропии H. При этом…

ФОРМУЛА ШЕННОНА.

Если

N - количество состояний системы,

p1, p2,…pN - соответствующие вероятности этих состояний,

pi >=0, - вероятность i- го состояния больше или равна 0,

- сумма вероятностей всех состояний равна 1.

Тогда формально энтропия определяется формулой Шеннона:

Формула Шеннона переходит в формулу Хартли, если все N состояний системы являются равновероятными. В этом случае вероятность любого i - го состояния pi=1/N. Поэтому

СВОЙСТВА ЭНТРОПИИ.

· Энтропия равна нулю (H = 0) в том случае, когда вероятность наступления какого-либо события (состояния) pi = 1, а вероятность наступления остальных событий (состояний) равна 0.

· Энтропия максимальна (H = Max), когда при данном количестве возможных событий в системе (количестве возможных состояний системы) N все события (состояния) равновероятны (формула Хартли).

· Энтропия суммы независимых опытов (двух, трех и т д.) равна сумме их энтропий (аддитивность количества информации).


ЭНТРОПИЯ В ИНФОРМАТИКЕ И ФИЗИКЕ.

Формула Шеннона совпадает с формулой Больцмана для энтропии физической системы. По Второму закону термодинамики энтропия замкнутой системы… - общее число молекул,

ВЕРОЯТНОСТНЫЙ И ОБЪЕМНЫЙ ПОДХОДЫ К ИЗМЕРЕНИЮ КОЛИЧЕСТВА ИНФОРМАЦИИ.

ПРИМЕР ВЕРОЯТНОСТНОГО ПОДХОДА. Определим количество информации, связанное с появлением каждого символа в… Величина энтропии H, вычисляемая по формуле Хартли, является максимальным количеством информации, которое могло бы…

РАЗЛИЧНЫЕ АСПЕКТЫ АНАЛИЗА ИНФОРМАЦИИ.

Человеку свойственно субъективное восприятие информации через некоторый набор ее свойств: важность, достоверность, своевременность, доступность и… Использование терминов «больше информации» или «меньше информации»… Такое становится невозможным при введении объективных характеристик, из которых для информации важнейшей является…

ПРИНЦИПЫ КОДИРОВАНИЯ И ДЕКОДИРОВАНИЯ ИНФОРМАЦИИ.

БУКВА (ЗНАК, СИМВОЛ). АЛФАВИТ.

Буквой называется элемент некоторого конечного множества отличных друг от друга знаков (символов). Алфавитом называется множество букв (знаков, символов), в котором определен их… Рассмотрим некоторые примеры алфавитов.

КОДИРОВЩИК И ДЕКОДИРОВЩИК.

УПРОЩЕННАЯ СХЕМА ПРОЦЕССА ПЕРЕДАЧИ СООБЩЕНИЯ. ИСТОЧНИК КОДИРОВЩИК СООБЩЕНИЕ ДЕКОДИРОВЩИК ПРИЕМНИК … Рассмотрим некоторые примеры кодов. · Код (азбука) Морзе. В азбуке Морзе каждой букве (знаку) поставлена в соответствие совокупность точек и тире. Азбука…

МЕЖДУНАРОДНЫЕ СИСТЕМЫ БАЙТОВОГО КОДИРОВАНИЯ.

Компьютер является универсальным преобразователем информации. Тексты на естественных языках, числа, математические и специальные символы, другие… При внутреннем представлении информации в компьютере кодирование символов… Подсчитаем наиболее короткую длину такой группы при кодировании символов естественного алфавита, например английского.…

ПОМЕХОУСТОЙЧИВОЕ КОДИРОВАНИЕ ИНФОРМАЦИИ.

ПРОВЕРКА КОДОВОЙ КОМБИНАЦИИ НА ИДЕНТИЧНОСТЬ. Допустим, что необходимо передавать сообщения: А, Б, В и Г. Для передачи этих… Сообщения: А Б В Г

ПЕРЕДАЧА ИНФОРМАЦИИ.

Основными разделами в теории сигналов и передачи информации вначале были разделы по структуре сигналов, их анализ и синтез, включая вопросы оценки…

ИЗ ИСТОРИИ РАЗВИТИЯ ПЕРЕДАЧИ ИНФОРМАЦИИ.

В 1832 г. русский академик П. Шиллинг построил первую линию телеграфной связи. В 1837 г. американец Морзе разработал систему телеграфного аппарата и… В 1876 г. американец Белл получил патент на изобретение телефона, положив… Изобретение радио явилось логическим следствием развития науки и техники. В 1831 г. Майкл Фарадей открыл явление…

ОБЩАЯ СХЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ.

Сообщение – это информация, выраженная в определенной форме и предназначенная для передачи от передатчика к приемнику текстов, фотографий, речи, музыки, телевизионных изображений и др. Информация (сообщение) передается в виде сигналов.

Сигнал – это физический процесс, распространяющийся в пространстве и времени и несущий в себе информацию. Сигнал может быть звуковым, световым, в виде почтового отправления и др. Наиболее распространен сигнал в электрической форме.

Помехи – это процессы, искажающие сообщение.

СХЕМА ПРОЦЕССА ПЕРЕДАЧИ СООБЩЕНИЯ.

ПЕРЕДАЮЩЕЕ УСТРОЙСТВО
ИИ ПИ КУ ГНЧ М Аи

 

КАНАЛ ПЕРЕДАЧИ ИНФОРМАЦИИ

 

 

ПРИЕМНОЕ УСТРОЙСТВО
РУ ДУ УНЧ Д УВЧ ИВЦ Ап

 

ИИ - источник информации (сообщение).

ПИ – преобразователь информации в электрический сигнал.

КУ – кодирующее устройство.

ГНЧ - генератор несущей частоты.

М – модулятор.

Аи – антенна источника информации (передающая).

Ап – антенна приемника информации (приемная).

ИВЦ – избирательная входная цепь.

УВЧ – усилитель высокой частоты.

Д – детектор (демодулятор).

УНЧ – усилитель низкой частоты.

ДУ – декодирующее устройство.

РУ - регистрирующее устройство.

При многоканальной связи одно передающее и приемное устройства используются для параллельной (одновременной) передачи сигналов от нескольких источников информации с устройствами их смешения до передачи, выделения и разделения после приема.

ПЕРЕДАЮЩЕЕ УСТРОЙСТВО.

Источник информации (ИИ) является источником текстов, фотографий, речи, музыки, телевизионных изображений и др.

Преобразователь информации в электрический сигнал (ПИ) осуществляет преобразование исходного сигнала в электрический. Например, микрофон преобразует звуковой сигнал в электрический. Телевизионная передающая трубка преобразует изображение в электрический сигнал.

Кодирующее устройство (КУ) преобразует аналоговый сигнал в цифровой код. При этом может производиться шифровка сообщения.

Генератор несущей частоты (ГНЧ) осуществляет генерацию несущей частоты. Основные требования: обеспечение заданного диапазона частоты; обеспечение заданной стабильности частоты; обеспечение заданной мощности излучения (до мегаватт);

Электромагнитные волны разделяются по частотам (длинам волн) на следующие диапазоны:

· Длинные

· Средние

· Короткие

· Ультракороткие (сверхвысокие частоты - СВЧ)

Ультракороткие (СВЧ) в свою очередь делятся на:

· Метровые

· Дециметровые

· Сантиметровые

· Миллиметровые

Зависимость между длиной волны и частотой: l = c/f

l – длина волны, c – скорость света, f - частота

ДИАПАЗОНЫ ЭЛЕКТРОМАГНИТНЫХ ВОЛН.

Длинные 10 - 1 км 30 – 300 кГц
Средние 1000 - 100 м 300 кГц – 3 мГц
Короткие 100 - 10 м 3 мГц – 30 мГц
Ультракороткие (СВЧ)
Метровые 10 – 1 м 30 – 300 мГц
Дециметровые 1,0 м – 0,1 м 300 мГц – 3 гГц
Сантиметровые 10 см – 1 см 3 гГц – 30 гГц
Миллиметровые 10 мм – 1 мм 30 гГц – 300 гГц

На выбор того или иного диапазона частоты для каждой конкретной системы связи оказывают влияние следующие факторы:

· Особенности распространения электромагнитных волн данного диапазона, состояние пространства, в котором распространяется волна. Длинные волны сильно поглощаются землей, короткие и ультракороткие не огибают препятствия. Длинные, средние и короткие могут отражаться от верхних слоев атмосферы.

· Технические условия, направленность излучения, применение антенной системы соответствующих размеров, генерирование мощных колебаний и управление ими, схема приемного устройства. Направленность излучения можно обеспечить, если антенное устройство по размерам существенно превышает длину волны. Направленность имеет большое значение в радиолокации, радионавигации. Большая мощность колебаний требуется на длинных волнах вследствие поглощения землей, а на других диапазонах - при сверхдальней космической связи. Освоение новых диапазонов требует новых технических средств, вследствие чего переход в коротковолновую область происходил постепенно по мере освоения генерирующих устройств.

· Характер шумов и помех в данном диапазоне. Регулярно проводятся исследования прохождения радиоволн различных диапазонов.

· Характер сообщения (количество информации и связанная с этим ширина спектра (диапазон частот)). Телевидение ввиду большой передаваемой информации должно иметь широкий спектр частот, поэтому оно возможно только на УКВ.

Модулятор (М) осуществляет модуляцию - изменение одного или нескольких параметров высокочастотного колебания по закону передаваемого сообщения. Частоты модулирующего сигнала должны быть малы по сравнению с частотой несущей.

Гармоническая (синусоидальная) несущая частота имеет три информационных параметра, которые можно модулировать - амплитуду, частоту и фазу. Соответственно этому при передаче сигналов используют амплитудную, частотную и фазовую модуляцию, которая в случае дискретных сигналов называется манипуляцией.

Наиболее помехоустойчивой, т. е. невосприимчивой к помехам, оказывается фазовая модуляция или манипуляция (ФМ). Это объясняется "амплитудным" характером воздействующих помех. Фазоманипулированный сигнал представляет собой отрезок гармонического колебания с изменяющейся на 180° фазой.

Антенна источника информации (передающая) (АИ) осуществляет передачу сообщений.

ПРИЕМНОЕ УСТРОЙСТВО.

Антенна приемника информации (приемная) (АП) осуществляет прием сообщений.

Избирательная входная цепь (ИВЦ) осуществляет выделение нужного сигнала в приемнике из всех колебаний в эфире с помощью резонансных колебательных систем (Df/f до 10-5 – 10-6).

Усилитель высокой частоты (УВЧ) осуществляет усиление слабых сигналов в приемнике. Антенна принимает сигнал мощностью 10-10 – 10-14 Вт (~ 10-6 В). На выходе приемника для надежной регистрации сигнала требуется мощность порядка единиц ватт, т. е. необходимо усиление по мощности до 1010 – 1014, а по напряжению до 107 раз. Это достигается с помощью многокаскадных усилителей высокой, промежуточной и низкой частот.

Детектор (демодулятор Д) - осуществляет выделение низкочастотного сообщения (информационного электрического сигнала) из модулированного высокочастотного сигнала с помощью различного рода детекторов (синхронных, амплитудных, квадратичных).

Усилитель низкой частоты (УНЧ) – усиливает выделенный низкочастотный сигнал.

Декодирующее устройство (ДУ) - восстанавливает исходную форму информационного сообщения из электрических сигналов стандартной формы после детектирования. Для зашифрованных сигналов производится расшифровка. В простейшей системе связи кодирующее и декодирующее устройства могут отсутствовать. При передаче сообщения по проводам (телеграф) могут отсутствовать радиопередающее и радиоприемное устройства.

Регистрирующее устройство (РУ) осуществляет регистрацию (запись) сообщений: текстов, фотографий, речи, музыки, телевизионного изображения и др.

В современных цифровых системах связи основные функции передатчика и приемника выполняет устройство, называемое модемом. Он представляет собой совокупность передатчика и приемника в одном корпусе (в своем собственном или в корпусе компьютера) для осуществления проводной дуплексной связи. Если терминал находится на значительном расстоянии от компьютера, например в соседнем здании или другом городе, или связь пользователя с компьютером происходит через обычную телефонную сеть, необходимы приемопередатчики на оконечных пунктах линии и их функции выполняет модем.

Выпускаемые в настоящее время модемы различны по конструкции, но, как правило, состоят из интерфейсной части для соединения с компьютером, кодера и декодера модулятора и демодулятора. Часто в состав модема входят шифрующее и дешифрующее устройства, обеспечивающие секретность передаваемой информации. Имеются также способы, обеспечивающие скрытность передачи. В зависимости от типа модема он производит амплитудную, частотную или фазовую модуляцию. С целью уплотнения полосы канала чаще всего используют многократную фазовую манипуляцию. Типовые скорости передачи модемов 300, 1200, 2400, 4800, 9600, 56000 бит/с.

Кроме модема, передатчиком и приемником может служить как сам компьютер (точнее мультикарта), так и сетевая карта. Но у этих двух средств есть ограничения по расстоянию, на котором должны находиться компьютеры. Для сетевых карт - в пределах здания, а для мультикарт, а точнее, соединения двух компьютеров по последовательным или параллельным портам ввода-вывода, в пределах комнаты. Однако у сетевых карт есть преимущество над модемом и мультикартой - возможность одновременного подсоединения огромного числа пользователей (обычно это число ограниченно программным обеспечением до 100 пользователей одновременно), тогда как у модема и мультикарты количество пользователей ограниченно двумя.

Каналом передачи информации называют совокупность технических средств, обеспечивающую передачу электрических сигналов от одного пункта к другому. Входы канала подключаются к передатчику, а выходы - к приемнику. Непременной составной частью любого канала является линия связи - проводная, кабельная, радио, микроволновая, оптическая, спутниковая.

К основным параметрам, характеризующим канал передачи информации, относятся:

· ширина полосы пропускания,

· допустимый динамический диапазон изменений амплитуды сигнала,

· время передачи сигнала,

· уровень помех.

ТЕОРЕМА КОТЕЛЬНИКОВА.

Теорема Котельникова определяет минимальную частоту взятия отсчетов при равномерной дискретизации сигнала с ограниченным спектром, т.е. величину,… Сигнал, не содержащий в своем спектре частот выше Fm, полностью определяется… Эта теорема позволяет на интервале длительности передачи сообщения ts заменить непрерывный сигнал с ограниченным…

ИНФОРМАЦИОННАЯ ЕМКОСТЬ ДИСКРЕТНОГО СИГНАЛА (СООБЩЕНИЯ). ФОРМУЛА ШЕННОНА.

N=, где - средняя мощность сигнала; - средняя мощность шума;

ПРЕДЕЛЬНАЯ СКОРОСТЬ ПЕРЕДАЧИ ИНФОРМАЦИИ ПО ШЕННОНУ. ФОРМУЛА ХАРТЛИ - ШЕННОНА.

Предельная скорость передачи информации относится к фундаментальным понятиям теории связи. Она служит одной из главных характеристик канала передачи информации.

(бит/с)

Основными факторами, ограничивающими скорость передачи информации, являются полоса частот Fm и уровень помех Pn. Полоса частот Fm и мощность сигнала Ps входят в формулу таким образом, что для C=Const при сужении полосы Fm необходимо увеличивать мощность сигнала Ps и наоборот.

Оценка скорости передачи информации и предельных возможностей канала связи представляет большой практический и теоретический интерес. Выявление принципиальных ограничений в передаче информации является интересной физической и математической задачей.

ТЕОРЕМА ШЕННОНА ДЛЯ ДИСКРЕТНОГО КАНАЛА С ПОМЕХАМИ.

Скорость C является максимальной величиной скорости передачи информации. Чтобы достигнуть такой скорости передачи информация должна быть закодирована наиболее эффективным образом. Утверждение, что такое кодирование, в принципе, возможно, является важнейшим результатом созданной Шенноном теории информации. Шеннон доказал принципиальную возможность такого кодирования, не определив, однако, конкретных путей ее реализации.

Если скорость передачи сообщений меньше предельной скорости передачи информации для данного информационного канала, то существует код, обеспечивающий передачу сообщений со сколь угодно малой частотой ошибок.

ДИСКРЕТНЫЕ ДВОИЧНЫЕ (БИНАРНЫЕ) СИГНАЛЫ.

Сигнал в его простейшей форме может принимать два дискретных и вполне определенных значения. Например, на сигнальной башне огонь есть - огня нет. Яркость огня никакого значения не имеет, лишь бы огонь было ясно видно. В телеграфной азбуке Морзе сигнал тоже может принимать только два дискретных значения: звучит - не звучит, есть ток - нет тока, передатчик излучает электромагнитную волну - не излучает. Во всех указанных случаях использован простейший двоичный или бинарный код. Наличие сигнала удобно обозначать символом «1», отсутствие – символом «0». Не бывает сигнала, принимающего только одно дискретное значение. Например, если костер на сигнальной башне жгут постоянно или не зажигают вовсе, то такой сигнал не передает никакой информации.

РЕГЕНЕРАЦИЯ ДВОИЧНЫХ СИГНАЛОВ.

Так же легко регенерировать код Морзе. В простейшем случае это делает телеграфист - принимает на слух сообщение и отстукивает его ключом дальше по…

ПОМЕХОЗАЩИЩЕННОСТЬ ДВОИЧНЫХ СИГНАЛОВ.

То же и в электрическом телеграфе. Вследствие воздействия атмосферного электричества, электризации трением от ветра, из-за случайных полей… Отношение сигнал - шум или сигнал - помеха, требуемое для получения заданного…

КОДИРОВАНИЕ ДВОИЧНЫХ СИГНАЛОВ.

Ни переданная энергия, ни посланное вещество сами по себе никакого значения не имеют, они служат лишь носителями информации. По мере удаления от… Во время второй мировой войны подобные вопросы заинтересовали шифровальщика… Любое сообщение можно свести к передаче чисел. Влюбленный, находясь в разлуке с объектом своей любви, посылает…

АНАЛОГОВЫЕ И ДИСКРЕТНЫЕ ПРОЦЕССЫ.

АНАЛОГОВЫЕ И ДИСКРЕТНЫЕ СИГНАЛЫ.

Параметрами сигнала называются его характеристики, которые используется для представления сообщений. В случае, когда параметр сигнала принимает… Пример дискретного сообщения - процесс чтения книги, информация в которой… Типичный пример аналогового сигнала - напряжение на выходе из микрофона при разговоре перед ним, пении или игре на…

ДИСКРЕТИЗАЦИЯ И КОДИРОВАНИЕ АНАЛОГОВОГО СИГНАЛА.

Для этого из бесконечного множества значений этой функции (параметра сигнала) выбирается их определенное число, которое приближенно может… Следующий шаг - проецирование значений «ступенек» на ось значений функции y1,… ПРОЦЕДУРА ДИСКРЕТИЗАЦИИ НЕПРЕРЫВНОГО СООБЩЕНИЯ.

ЦИФРОВАЯ ТЕЛЕФОННАЯ СВЯЗЬ.

«Несколько лет назад мне довелось пройти на гидрографическом судне от Владивостока до Петропавловска-Камчатского. Естественно, что из каждого порта… ДИСКРЕТИЗАЦИЯ ПО ВРЕМЕНИ. Так как же обычная человеческая речь превращается в поток цифр, ведь на выводах микрофона имеется быстро изменяющийся…

ЦИФРОВАЯ ТЕЛЕГРАФНАЯ СВЯЗЬ.

С = 1,5 * 5 * 5 = 37,5 бит/с Это более, чем в тысячу раз меньше, чем 40,8 кбит/c! Вот во что обходятся… Мы предположили, что каждый последующий отсчет сигнала независим от предыдущего и может принимать любые значения. Для…

ЦИФРОВОЕ ТЕЛЕВИДЕНИЕ.

Теперь можно приближенно оценить необходимую скорость передачи или ширину спектра цифровых телевизионных сигналов. Из теоремы о выборках известно,… Один из способов снижения скорости передачи телевизионных изображений… Изменения в передаваемом сигнале определяются в результате сравнения выборки сигнала в данный момент с ее…

СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ

ПАРАМЕТРЫ РАДИОСИГНАЛОВ.

Параметрами сигнала называются его характеристики, которые используется для представления сообщений: - длительность сигнала (время передачи сигнала) в секундах. - динамический диапазон : (дБ) или (дБ).

МНОГОКАНАЛЬНЫЕ ЛИНИИ СВЯЗИ. УПЛОТНЕНИЕ ИНФОРМАЦИИ.

В нашей стране развивается и совершенствуется Единая автоматизированная сеть связи (ЕАСС). Ее основу составляют кабельные и радиорелейные линии… Как же это делается? Раньше поступали просто: надо организовать два телефонных… При частотном уплотнении лишь один телефонный канал передастся по линии связи в его «собственной» полосе частот 300..…

ОПТОВОЛОКОННАЯ СВЯЗЬ.

ИЗ ИСТОРИИ КАБЕЛЬНОЙ СВЯЗИ.

В начале XX века было изобретено радио. Возникла надежда, что эфир заменит кабель. К сожалению, радио не свободно от недостатков. Атмосферные и… Освоение диапазона ультракоротких волн позволило создать радиорелейные линии,…

ПРИНЦИП ОПТОВОЛОКОННОЙ СВЯЗИ.

Разработка в 1960 - 1961 гг. лазера - источника когерентного излучения в световом диапазоне - стимулировала широкий интерес к использованию света… Телевизионный сигнал модулирует оптическое излучение лазера. При этом в одном… Световод представляет собой широкополосную передающую среду. Толщина световода незначительна - он тоньше человеческого…

ЛОКАЛЬНЫЕ СЕТИ.

АППАРАТНЫЕ СРЕДСТВА.

Большое влияние на развитие ЛС оказало создание автоматизированных систем управления предприятиями (АСУ). АСУ включают несколько автоматизированных… Характерная особенность ЛС - наличие связывающего всех абонентов… Основные параметры канала: скорость передачи данных, максимальная длина линии, уровень помехозащищенности, степень…

КОНФИГУРАЦИЯ ЛОКАЛЬНЫХ СЕТЕЙ.

Однако в крупных сетях с большим числом компьютеров оказывается целесообразным выделять один (или несколько) мощных компьютеров для обслуживания… Все остальные компьютеры называются рабочими станциями. Рабочие станции могут… ЛС в зависимости от назначения и технических решений могут иметь различные конфигурации (или, как еще говорят,…

ОРГАНИЗАЦИЯ ОБМЕНА ИНФОРМАЦИЕЙ.

Процесс передачи данных по сети определяют: компьютер-источник, блок протокола, передатчик, кабельная сеть; приемник, компьютер-адресат.… Цикл передачи данных начинается с компьютера-источника, передающего исходные… СХЕМА ПЕРЕНОСА ИНФОРМАЦИИ В СЕТИ.

СПУТНИКОВАЯ СВЯЗЬ.

ОБЩАЯ ХАРАКТЕРИСТИКА СПУТНИКОВОЙ СВЯЗИ.

Первый спутник связи с пассивным отражателем Score был запущен в 1958 г. В США. Связь с использованием спутниковых активных ретрансляторов началась… Преимущества спутниковой связи были сразу же по достоинству оценены. Линия… Спутниковая система состоит из множества наземных станций и ретранслятора, находящегося на спутнике. При движении…

ПРИНЦИПЫ СПУТНИКОВОЙ СВЯЗИ.

Ретрансляторы не одинаковы по своим функциям. Наиболее простые ретрансляторы усиливают принимаемые сигналы и излучают их на Землю на другой несущей… Самые простые ретрансляторы усиливают сигналы и осуществляют частотное… Ретрансляторы с коммутирующей матрицей "освещают" различные участки Земли и передают по командам с Земли…

СИСТЕМЫ СЧИСЛЕНИЯ.

Система счисления - способ записи чисел и сопоставления этим записям значений этих чисел. Алфавитом системы счисления называется совокупность отличных друг от друга знаков (символов, цифр), которые используется для записи чисел в этой системе счисления. Синтаксисом системы счисления называется правила, позволяющие однозначно записывать числа, используя алфавит системы счисления. Системы счисления можно разделить на непозиционные и позиционные.

НЕПОЗИЦИОННЫЕ СИСТЕМЫ СЧИСЛЕНИЯ.

Левый символ может быть меньше правого максимум на один порядок: Ø перед L(50) и C(100) из младших может стоять только X(10); Ø перед D(500) и M(1000) может стоять только C(100);

ПОЗИЦИОННЫЕ СИСТЕМЫ СЧИСЛЕНИЯ.

Основанием системы счисления называетсяколичество различных знаков (символов, цифр), используемых в каждом разряде числа для его записи в данной… Наиболее употребительные системы счисления. Основание Система… Разрядом системы счисления называется номер позиции в записи числа.

ПЕРЕВОД ЧИСЕЛ ИЗ ДЕСЯТИЧНОЙ СИСТЕМЫ В ДРУГУЮ СИСТЕМУ.

Ø Чтобы перевести целую часть числа из десятичной системы в систему с основанием В, необходимо разделить ее на В. Остаток даст младший разряд… Ø Для перевода дробной части ее необходимо умножить на В. Целая часть… ПЕРЕВОД ИЗ ДЕСЯТИЧНОЙ СИСТЕМЫ В ДВОИЧНУЮ.

ПЕРЕВОД ЧИСЕЛ В ДЕСЯТИЧНУЮ СИСТЕМУ ИЗ ДРУГИХ СИСТЕМ.

23510=2*102+3*101+5*100; 011012=0*24+1*23+1*22+0*21+1*20=8+4+1=1310; 2358=2*82+3*81+5*80=128+24+1=28110;

ВЗАИМНЫЕ ПРЕОБРАЗОВАНИЯ ДВОИЧНЫХ, ВОСЬМЕРИЧНЫХ И ШЕСТНАДЦАТЕРИЧНЫХ ЧИСЕЛ.

Для перевода целого двоичного числа в восьмеричное необходимо: Ø разбить его справа налево на группы по 3 цифры (двоичные триады),… Ø каждой группе поставить в соответствие ее восьмеричный эквивалент.

ДВОИЧНО-ДЕСЯТИЧНАЯ СИСТЕМА.

В двоично-десятичной системе каждая десятичная цифра кодируется комбинацией цифр двоичной системы. Обозначение каждой десятичной цифры называется тетрадой.

12510=0001 0010 01012-10

ЯЗЫКИ ПРОГРАММИРОВАНИЯ.

ЯЗЫКИ ПРОГРАММИРОВАНИЯ. ОБЩАЯ ХАРАКТЕРИСТИКА.

Языки программирования можно разделить на машинно-ориентированные языки низкого уровня (ассемблеры) и машинно-независимые языки высокого уровня… Ассемблеры представляют собой системы обозначений, предназначенные для точного… Языки высокого уровня рассмотрим на примере языка Си, широко применяемому в настоящее время для создания системного и…

ЯЗЫК ПРОГРАММИРОВАНИЯ СИ. ИСТОРИЯ СОЗДАНИЯ. ОБЩАЯ ХАРАКТЕРИСТИКА.

Ближайшими родственниками и предками языка программирования Си являются языки программирования: · Алгол 60 (ALGOL – ALGOrithmic Language - -алгоритмический язык),… · CPL (Combined Programming Language), разработанный Кембриджским и Лондонским университетами в 1963 году;

ЯЗЫК ПРОГРАММИРОВАНИЯ СИ. ПРОЦЕСС СОЗДАНИЯ ИСПОЛНЯЕМОГО ФАЙЛА.

· Расширенный исходный файл получается на этапе, предшествующем компиляции исходного файла, с помощью программы препроцессор (входит в компилятор).… · Объектный файл получается на этапе компиляции расширенного исходного файла… · Исполняемый файл (загрузочный модуль) получается на этапе компоновки объектных файлов с помощью программы линкер…

ЯЗЫК ПРОГРАММИРОВАНИЯ СИ. РАСПРЕДЕЛЕНИЕ ПАМЯТИ ПРОГРАММЫ.

Скомпилированная программа Си имеет четыре логически обособленные области памяти:

область стека для хранения переменных (адресов возврата функций, аргументов функций, локальных переменных и др.)
область динамически распределяемой памяти (куча)
область глобальных переменных
область исполняемого кода программы

ЯЗЫК ПРОГРАММИРОВАНИЯ СИ. ОСНОВНЫЕ ПОНЯТИЯ.

Функция main() – функция, с которой всегда начинается выполнение программы. Круглые скобки () – признак функции. В общем случае в скобках может… Фигурные скобки {} – отмечают начало и конец тела функции или блока (совокупности) операторов. Фигурные скобки в языке…

ЯЗЫК ПРОГРАММИРОВАНИЯ СИ. ДАННЫЕ.

Базовые типы данных;

· int - целые; · float – с плавающей точкой; · double – с плавающей точкой двойной длины;

Целые константы.

· Десятичные целые константы определены как последовательности десятичных цифр, начинающиеся не с нуля (если это не число нуль). Например: 584, 0, 1024.

· Восьмеричные целые константы определены как последовательности десятичных цифр, начинающиеся с нуля и не содержащие десятичных цифр, старших семи. Например: 016 (0168=1410).

· Шестнадцатеричные целые константы определены как последовательности цифр (1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F), начинающиеся с 0x или 0X. Например: 016 (01616=2210).


Вещественные константы.

Вещественные константы представлены в памяти ЭВМ в форме с плавающей точкой. Например: 44., 3.1415E1, 45e0, 0.0.

Перечисляемые константы (enum).

Enumeration – перечисление.

Перечисляемые константы вводят целые именованные константы:

enum DAY{SUNDAY, MONDAY, TUESDAY, WEDNESDAY, THURSDAY, FRIDAY, SATURDAY};

enum BOOLEAN{NO, YES};

Если в списке нет ни одного элемента со знаком =, то значения констант начинаются с нуля и увеличиваются на единицу слева направо. Поэтому SUNDAY=0, FRIDAY=5, NO=0, YES=1.

enum {ONE=1, TWO, THREE, FOUR};

Если в списке есть элемент со знаком =, то значения констант начинаются с этого значения и увеличиваются на единицу слева направо. Поэтому TWO=2, THREE=3, FOUR=4.

Символьные константы (символы).

Символьные константы используются для изображения отдельных знаков, имеющих индивидуальные коды. Каждая символьная константа – это лексема (единица текста программы, которая при компиляции программы воспринимается, как единое целое и не может быть разделена на более мелкие элементы), которая состоит из символа и ограничивающих апострофов. Например: ‘A’, ‘a’, ‘8’, ‘+’, ‘,’, ‘&’.

Строковые константы.

ПРИМЕЧАНИЕ: См. 4. СТРОКИ И СТРОКОВЫЕ КОНСТАНТЫ. Константа нулевой указатель (Null – указатель). Нулевой указатель неарифметическая константа (см. указатели).

Инициализаторы.

Инициализаторы имеют форму: = значение; = {список значений}; /* сложные значения */

ЯЗЫК ПРОГРАММИРОВАНИЯ СИ. СТРУКТУРА ПРОСТОЙ ПРОГРАММЫ.

information.c – пример вывода сообщения. /* 1 */ */ /*#############################################*/ /* 2 */

ЛИТЕРАТУРА.

ОСНОВНАЯ ЛИТЕРАТУРА.

ИНФОРМАТИКА.

1. Макарова Н.В., Матвеев Л.А., Бройдо В.Л. и др. Информатика. Учебник.- М.: Финансы и статистика, 2004

2. Макарова Н.В., Матвеев Л.А., Бройдо В.Л. и др. Информатика. Практикум.- М.: Финансы и статистика, 2004

3. Могилев А.В., Пак Н.И., Хеннер Е.К.Информатика. Учебное пособие.- М.: Академия, 2003

4. Могилев А.В., Пак Н.И., Хеннер Е.К.Информатика. Практикум.- М.: Академия, 2003

5. Андреева Е., Фалина И.Системы счисления и компьютерная арифметика. Учебное пособие.- М.: Лаборатория базовых знаний, 2000.

6. Макаренко А.Е. и др. Готовимся к экзамену по информатике.- М.: Айрис пресс, 2003.

7. Сысун В.И.Теория сигналов и цепей.- Петрозаводск: 2003.

8. Сена Л.А.Единицы визических величин и их размерности. Учебное пособие.- М.: Наука, 1977.

9. Алекс Экслер Укрощение компьютера, или самый полный и понятный самоучитель ПК. - М.: NT Press, 2006.

10. Грег Пери Windows XP. Все в одном. 2-е издание. Пер. с англ. - М., С-Пб., Киев: Издательский дом «Вильямс», 2006.

ПРОГРАММИРОВАНИЕ.

11. Керниган Б., Ритчи Д. Язык программирования Си / Пер. с англ. - М.: Финансы и статистика, 1992.

12. Подбельский В.В., Фомин С.С. Программирование на языке Си - М: Финансы и статистика, 2000.

13. Уэйт М., Прата С., Мартин Д. Язык Си / Пер. с англ. - М.:Мир, 1988.

14. Белецкий Я. Энциклопедия языка Си / Пер. с англ. - М.:Мир, 1992.

15. Левкин Г.Н., Левкина В.Е. ДЕМО ТУРБО СИ - М: ПРОК, 1992.

16. Березин Б.И., Березин С.Б. Начальный курс С и С++ - М: ДИАЛОГ-МИФИ, 2003.

17. Шилдт Г. Полный справочник по С, 4-е издание/ Пер. с англ. – М, С-Пб, Киев: Издательский дом Вильямс, 2002.

18. Стефанович А.Е. Программный имитатор электронных схем (ПИЭС). Учебно-методическое пособие по дисциплине “Программирование и основы алгоритмизации”. – М: МГАПИ, 2005.

19. . Стефанович А.Е Программирование систем автоматического управления мехатронными объектами: Учебно-методическое пособие по дисциплине "Компьютерное управление мехатронными системами". -.М.: МГУПИ, 2006. 98 с.

РОБОТОТЕХНИЧЕСКИЕ И МЕХАТРОННЫЕ СИСТЕМЫ.

20. Чернов Е.А. Проектирование станочной электроавтоматики. – М: Машиностроение, 1989.

ДОПОЛНИТЕЛЬНАЯ ЛИТЕРАТУРА.

ИНФОРМАТИКА.

21. Свириденко С.С.Современные информационные технологии.- М.: Радио и Связь, 1989.

22. Колонтаевский Ю.Ф.Радиоэлектроника. Учебное пособие.-.М.: Высшая школа, 1988.

23. Зиновьев А.Л., Филиппов Л.И.Введение в специальность радиоинженера.- М.: Высшая школа, 1989.

24. Поляков В.Т.Посвящение в радиоэлектронику.- М.: Радио и связь, 1988.

25. Касаткин В.Н.Новое о системах счисления.- Киев: Вища школа, 1982.

26. Соломатин Н.М. Логические элементы ЭВМ- М: Высшая школа, 1987.

27. Серый С. Клод Элвуд Шеннон. Газета Компьютерные вести. № 21, 1998.

ПРОГРАММИРОВАНИЕ.

28. Джехани Н. Программирование на языке Си. / Пер. с англ. Справочник. - М.: Радио и связь, 1988.

29. Уинер Р. Язык Турбо Си / Пер. с англ. - М.:Мир, 1991.

30. М.И. Болски. Язык программирования Си / Пер с англ. Справочник. – М.: Радио и связь, 1988.

31. Р. Бери, Б. Микинз. Язык Си. Введение для программистов / Пер. с англ. – М.: Финансы и статистика, 1988.

32. З.С. Погорелый, Т.Ф. Слободянюк. Программное обеспечение микропроцессорных систем. Справочник. – Киев: Техника, 1988.

33. Бошкин А.В., Дубнер П.Н. Работа в Турбо СИ – М: ЮКИС, 1991.

34. Б.П. Прокофьев, Н.Н. Сухарев, Ю.Е. Храмов Графические средства Турбо С и Турбо С++ - М: Финансы и статистика, 1992.

35. Трой Д. Программирование на языке Си для персонального компьютера IBM PC/ Пер. с англ. – М: Радио и связь, 1991.

36. Касаткин А.И., Вальвачев А.Н. От Turbo C к Borland C++ Справочное пособие – Минск: Вышэйшая школа, 1992

37. Касаткин А.И. Управление ресурсами Справочное пособие – Минск: Вышэйшая школа, 1992.

38. Касаткин А.И. Системное программирование Справочное пособие – Минск: Вышэйшая школа, 1993.


ОГЛАВЛЕНИЕ.

1. ВВЕДЕНИЕ.
2. КОЛИЧЕСТВО ИНФОРМАЦИИ.
2.1. Формула Хартли.
2.2. Формула Шеннона.
2.3. Свойства энтропии.
2.4. Энтропия в информатике и физике.
2.5. Вероятностный и объемный подходы к измерению количества информации.
2.6. Различные аспекты анализа информации.
3. ПРИНЦИПЫ КОДИРОВАНИЯ И ДЕКОДИРОВАНИЯ ИНФОРМАЦИИ.
3.1. Буква (знак, символ). Алфавит.
3.2. Кодировщик и декодировщик.
3.3. Международные системы байтового кодирования.
3.4. Помехоустойчивое кодирование информации.
4. ПЕРЕДАЧА ИНФОРМАЦИИ.
4.1. Из истории развития передачи информации.
4.2 . Общая схема передачи информации.
4.3. Теорема Котельникова.
4.4. Информационная емкость дискретного сигнала (сообщения). Формула Шеннона.
4.5. Предельная скорость передачи информации по Шеннону. Формула Хартли - Шеннона.
4.6. Теорема Шеннона для дискретного канала с помехами.
5. ДИСКРЕТНЫЕ ДВОИЧНЫЕ (БИНАРНЫЕ) СИГНАЛЫ.
5.1. Регенерация двоичных сигналов.
5.2. Помехозащищенность двоичных сигналов.
5.3. Кодирование двоичных сигналов.
6. АНАЛОГОВЫЕ И ДИСКРЕТНЫЕ ПРОЦЕССЫ.
6.1. Аналоговые и дискретные сигналы.
6.2. Измерение отношения сигнал – шум.
6.3. Дискретизация и кодирование аналогового сигнала.
7. ЦИФРОВАЯ ТЕЛЕФОННАЯ СВЯЗЬ.
8. ЦИФРОВАЯ ТЕЛЕГРАФНАЯ СВЯЗЬ.
9. ЦИФРОВОЕ ТЕЛЕВИДЕНИЕ.
10. СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ
10.1. Параметры радиосигналов.
10.2. Многоканальные линии связи. Уплотнение информации (многоканальные телефонные линии, цифровые системы передачи сообщений).
11. ОПТОВОЛОКОННАЯ СВЯЗЬ.
11.1. Из истории кабельной связи.
11.2. Принцип оптоволоконной связи.
12. ЛОКАЛЬНЫЕ СЕТИ.
12.1. Аппаратные средства (проводные кабельные каналы, беспроводные радиоканалы, адаптеры сети).
12.2. Конфигурация локальных сетей.
12.3. Организация обмена информацией (схема переноса информации в сети).
13. СПУТНИКОВАЯ СВЯЗЬ.
13.1. Общая характеристика спутниковой связи.
13.2. Принципы спутниковой связи.
14. СИСТЕМЫ СЧИСЛЕНИЯ.
14.1. Непозиционные системы счисления.
14.2. Позиционные системы счисления.
14.3. Перевод чисел из десятичной системы в другую систему (двоичную, восьмеричную, шестнадцатеричную).
14.4. Перевод чисел в десятичную систему из других систем (двоичной, восьмеричной,. Шестнадцатеричной).
14.5. Взаимные преобразования двоичных, восьмеричных и шестнадцатеричных чисел.
14.6. Двоично-десятичная система.
15. ЯЗЫКИ ПРОГРАММИРОВАНИЯ.
15.1. Языки программирования. Общая характеристика.
15.2. Язык программирования Си. История создания. Общая характеристика.
15.3. Язык программирования Си. Процесс создания исполняемого файла.
15.4. Язык программирования Си. Распределение памяти программы.
15.5. Язык программирования Си. Основные понятия.
15.6. Язык программирования Си. Данные.
15.7. Язык программирования Си. Структура простой программы.
16. ПРИЛОЖЕНИЕ 1. СИСТЕМА СЕМИБИТНОГО КОДИРОВАНИЯ.
17. ПРИЛОЖЕНИЕ 2. МОДИФИЦИРОВАННАЯ АЛЬТЕРНАТИВНАЯ КОДИРОВКА.
18. ПРИЛОЖЕНИЕ 3: КЛОД ЭЛВУД ШЕННОН.
  ЛИТЕРАТУРА
  ОСНОВНАЯ ЛИТЕРАТУРА.
  ДОПОЛНИТЕЛЬНАЯ ЛИТЕРАТУРА.