Расчет и анализ основных характеристик простой дискретной системы связи
Вероятностное описание символов, аналого-цифровое преобразование непрерывных сигналов. Информационные характеристики источника и канала, блоковое кодирование источника. Кодирование и декодирование кодом Лемпела-Зива. Регенерация цифрового сигнала.
Рубрика | Коммуникации, связь, цифровые приборы и радиоэлектроника |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 22.09.2014 |
Размер файла | 1,2 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru
Размещено на http://www.allbest.ru
Введение
Базовой дисциплиной для бакалавров по направлению 210700 «Инфокоммуникационные технологии и системы связи» специальностей «Системы радиосвязи и радиодоступа» является «Общая теория связи».
Содержание курсовой работы охватывает значительную часть дисциплины и направлено на закрепление и более глубокое усвоение теоретических знаний, полученных в течение семестра.
При выполнении работы идет расчет основных характеристик простых дискретных систем связи и их анализ, углубленное ознакомление с теорией передачи информации, и освоение основных принципов и методов:
форматирования - преобразования сообщения источника в цифровой сигнал;
кодирования источника (или эффективного кодирования) - сжатия информации для экономии ресурсов систем передачи информации;
кодирования канала (или помехоустойчивого кодирования) - введения регулярной избыточности, для устранения ошибок.
Работа состоит в виде четырех индивидуальных заданий, которые в свою очередь содержат задачи по определенным темам. Задачей первой работы является качественное освоение дисциплин предыдущих курсов, так как нет смысла приступать, к изучению курса, не вспомнив хотя бы основные понятия теории вероятностей.
Вторая работа направлена на изучение методов сжатия данных, а также знакомству с информационными характеристиками источников сообщений и каналов связи, в общем, на решение одной из больших проблем теорий передачи информации - избыточности сообщений для достижения максимальной скорости передачи.
Целью третьей работы является борьба с ошибками при передаче информации. Освоение основных принципов кодирования канала. Идеи эти легче всего рассматривать на примере линейно-блочных кодов, что и приведены в данной работе.
И наконец, четвертая работа нацелена на способы обработки импульса, который при заданных характеристиках сигналов и помех обеспечивал минимум полной вероятности ошибки. Это и есть главный критерий качества приема в цифровой системе передачи информации.
Самостоятельное и сознательное решение всех поставленных задач обеспечивает подготовку к успешной защите курсовой работы и сдаче экзамена.
цифровой сигнал кодирование регенерация
1. Индивидуальное задание 1
1.1 Задача 1. Вероятностное описание символа
Для дискретной случайной величины , принимающей одно из трех значений с вероятностями , записать ряд распределения и функцию распределения, привести соответствующие графики и найти следующие числовые характеристики: математическое ожидание и СКО, математическое ожидание модуля , , , , .
Исходные данные:
Вариант 19. Исходные данные представлены в таблице 1.1.
Таблица 1.1 - Исходные данные
Решение:
Ряд распределения заданной дискретной случайной величины:
Многоугольник распределений данного ряда показан на рисунке 1.1.
Рисунок 1.1 - Многоугольник распределений
Функция распределения определяется как
Для данного случая,
при
График функции распределения изображен на рисунке 1.2.
Рисунок 1.2 - График функции распределения
Математическое ожидание случайной величины :
Математическое ожидание :
Математическое ожидание :
Математическое ожидание :
Математическое ожидание :
Математическое ожидание минус :
СКО:
Ответы:
Полученные данные занесены в таблицу 1.2.
Таблица 1.2 - Результаты вычисления ()
0,9 |
3,09 |
3,06 |
10,36 |
3 |
1,53 |
22,3 |
1.2 Задача 2. Вероятностное описание двух символов
Два символа и имеют возможные значения и соответственно. Задана матрица совместных вероятностей с элементами . Найти:
ряд распределения случайной величины , а также . Повторить то же при каждом из условий и , то есть определить условные ряды распределения и числовые характеристики случайной величины .
Исходные данные:
Вариант 19. Исходные данные представлены в таблице 1.3.
Таблица 1.3 - Исходные данные
N |
|||||||
19 |
3 |
9 |
0,16 |
0,04 |
0,47 |
0,33 |
Решение:
Закон распределения вероятностей двумерной случайной величины :
0,16 |
0,04 |
||
0,47 |
0,33 |
Безусловный ряд распределения случайной величины :
0,63 |
0,37 |
Условный ряд распределения при :
0,8 |
0,2 |
Условный ряд распределения при :
0,59 |
0,41 |
Математическое ожидание случайной величины :
СКО:
Математическое ожидание минус :
Ответы:
Полученные данные занесены в таблицу 1.4.
Таблица 1.4 - Результаты вычисления ()
0,63 |
0,37 |
0,8 |
0,2 |
0,59 |
0,41 |
|
5,22 |
2,9 |
1,65 |
12,77 |
1.3 Задача 3. АЦП непрерывных сигналов
-разрядный АЦП рассчитан на входные напряжения в интервале и проводит квантование во времени с шагом . Записать последовательность, состоящую из 5 двоичных комбинаций на выходе АЦП, если на вход поступает сигнал , для . Найти среднеквадратическую величину ошибки квантования по уровню для данного сигнала , и затем ее теоретическое значение , где - шаг квантования по уровню.
Полученные двоичные комбинации представить в форме целых неотрицательных десятичных чисел , например.
Построить графики функции и погрешности восстановления сигнала .
Теоретические сведения:
Цель аналого-цифрового преобразования (АЦП) - заменить непрерывный сигнал последовательностью символов. АЦП осуществляется в два этапа: дискретизация по времени и квантование по уровню. Обратное преобразование (ЦАП) также проводится в два этапа: формирование импульсов, соответствующих каждой цифре, и преобразование серии импульсов-отсчетов в непрерывный сигнал при помощи ФНЧ с прямоугольной частотной характеристикой. При этом восстановить исходный сигнал удается лишь с некоторой погрешностью.
Исходные данные:
Вариант 19. Исходные данные представлены в таблице 1.5.
Таблица 1.5 - Исходные данные
Решение:
Число интервалов по напряжению для 4-х разрядного АЦП:
Рисунок 1.3 - Дискретизация сигнала
Шаг квантования по уровню:
Дискретизация по времени входного сигнала с шагом :
Процесс дискретизации показан на рисунке 1.3.
Номер интервала, который в свою очередь переводится в двоичный код, находится по формуле:
в нашем случае, сигнал на выходе АЦП:
Таким образом, приемник получает лишь номер интервала и по нему восстанавливает исходный сигнал.
Сигнал восстанавливается по формуле:
Восстановление оцифрованного сигнала:
Погрешность восстановления сигнала (ошибка квантования) определяется по формуле:
1.4 Задача 4. Нормальные случайные величины
Система случайных величин имеет нормальное распределение , которое характеризуется вектором-строкой математических ожиданий и ковариационной матрицей . Найти: , коэффициент ковариации ; значение условного СКО и математического ожидания ; - наиболее вероятное значение при заданном ; значение
Теоретические сведения:
Из законов распределения системы двух случайных величин имеет смысл рассмотреть нормальный закон (часто называют законом Гаусса), как имеющий наибольшее распространение на практике.
Этот закон играет исключительно важную роль в теории связи (и не только). Главная особенность, выделяющая нормальный закон среди других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях.
Исходные данные:
Начальные условия даны в таблице 1.7.
Таблица 1.7 - Исходные данные
N |
|||||||
19 |
0,4 |
1,31 |
0,17 |
0,63 |
0,31 |
2,33 |
Решение:
СКО:
Коэффициент ковариации:
При , случайные величины являются линейно зависимыми.
Перед тем как найти условное СКО, рассмотрим условный закон распределения:
В общем случае плотность нормального распределения двух случайных величин выражается формулой:
А плотность распределения случайной величины :
То есть величина подчинена нормальному закону с центром рассеивания и средним квадратическим отклонением .
Тогда условный закон распределения:
Нетрудно убедиться, что
Для нахождения условного математического ожидания, преобразуем выражение условной плотности к виду:
Очевидно, центр рассеивания данного распределения:
2 Индивидуальное задание 2
2.1 Задача 1. Информационные характеристики источника и канала
Статистические свойства совокупности сигналов на входе () и выходе () канала с шумом определяются матрицей совместных вероятностей, заданной в задаче 2 индивидуального задания 1. Определить информационные характеристики источника и канала, а именно: производительность (мощность) источника, скорость передачи и скорость потери информации в канале, скорость создания в канале ложной информации, энтропию на выходе канала в расчете на один символ и в единицу времени. Бодовая скорость в Бод определяется номером студента в объединенном списке.
Теоретические сведения:
Информационные характеристики источников сообщений и каналов связи позволяют установить пути повышения эффективности систем передачи информации, и, в частности, определить условия, при которых можно достигнуть максимальной скорости передачи сообщений по каналу связи.
Исходные данные:
Вариант 19.
Рисунок 2.1 - Структурная схема:
m - основание кода;
По условию задания известна матрица совместных вероятностей (таблица 2.1).
Таблица 2.1 - Матрица совместных вероятностей
Согласно номеру варианта бодовая скорость равна .
Решение:
1.1 Производительность (мощность) источника или мощность создания информации (энтропия источника):
или
1.2 Энтропия на выходе канала:
или
1.3 Энтропия системы двух случайных величин:
1.4 Скорость передачи информации по каналу (средняя взаимная информация):
или
1.5 Скорость потери информации в канале (ненадёжность канала):
или
1.6 Скорость создания ложной информации в канале:
или
Ответы:
Полученные результаты занесены в таблицу 2.2.
Таблица 2.2 - Полученные результаты ()
2.2 Задача 2. Блоковое кодирование источника
Статистические свойства троичного источника без памяти определяются рядом распределения, заданного в задаче 1 индивидуальной работы 1.
Определить энтропию источника и его избыточность.
Произвести блоковое кодирование источника блоками по два символа двоичными кодами Хаффмана, Шеннона-Фано и равномерным кодом.
Сравнить коды по эффективности.
Определить вероятности появления 0 и 1 в последовательностях символов на выходе кодеров.
Теоретические сведения:
Сообщение на выходе любого реального источника информации (текст, речь, изображение и т.д.) обладает избыточностью. Эффективное кодирование (кодирование источника) осуществляется с целью повышения скорости передачи информации и приближения ее к пропускной способности канала за счет уменьшения избыточности. Поэтому перед тем, как проводить какие-то преобразования сообщения, лучше от этой избыточности избавиться.
Избыточность при побуквенном кодировании может оказаться слишком большой. Причины - неравномерное распределение вероятностей и наличие статистической зависимости между буквами. В этом случае осуществляется кодирование блоков, содержащие буквы, то есть каждая буквенная комбинация рассматривается как символ нового алфавита источника и производится эффективное кодирование известными методами.
Исходные данные:
Вариант 19.
Таблица 1.3 - Ряд распределения
Известен ряд распределения (таблица 2.3).
Рисунок 1.2 - Структурная схема
M - основание алфавита; m - основание кода;
Решение:
2.2.1 Определение энтропий источника и его избыточности
Максимальная энтропия источника:
Энтропия источника:
Избыточность источника:
2.2.2 Блоковое кодирование источника по два символа
Длина блока равен 2.
Объем нового алфавита:
Всевозможные комбинации в блоке и их вероятности даны в таблице 2.4.
Таблица 2.4 - Варианты комбинации в блоке и их вероятности
Комбинация |
Вероятность |
|
Полная вероятность:
Энтропия кодера:
Минимальная возможная длина кода:
2.2.2.1 Код Шеннона-Фано
Алгоритм кода Шеннона-Фано (рисунок 2.3, таблица 2.5):
Буквы алфавита сообщений вписываются в таблицу в порядке убывания вероятностей - упорядочивание алфавита;
Алфавит разделяется на две приблизительно равновероятные группы - дробление алфавита;
Всем буквам верхней половины в качестве первого символа приписывают 1, а всем нижним - 0;
Процесс повторяют до тех пор, пока в каждой подгруппе останется по одной букве;
Записывают код.
Рисунок 2.3 - Кодирование алгоритмом Шеннона-Фано
Таблица 2.5 - Кодирование алгоритмом Шеннона-Фано
I |
II |
III |
IV |
Код |
|||
(1) |
(1) |
||||||
(0) |
(1) |
||||||
(0) |
|||||||
(0) |
(1) |
(1) |
|||||
(0) |
|||||||
(0) |
(1) |
(1) |
|||||
(0) |
|||||||
(0) |
(1) |
||||||
(0) |
Код Хаффмана
Алгоритм кода Хаффмана:
Буквы алфавита сообщений также вписываются в столбец в порядке убывания вероятностей;
Две последние буквы объединяются в одну вспомогательную букву, которой приписывается суммарная вероятность - укрупнение алфавита;
Буквам верхней группы присваивают значение 1, а нижней - 0;
Процесс продолжают до тех пор, пока не останется единственная вспомогательная буква с вероятностью, равной единице.
Процесс кодирования удобно графически иллюстрировать при помощи горизонтально расположенного дерева (слева - ветви, справа - корень, рисунок 2.4), у которого всегда две ветви объединяются в одну, более крупную. Объединяемые ветви обозначаются двоичными цифрами: верхняя - 1, нижняя - 0. Чтобы записать кодовое слово, соответствующее данной букве, нужно двигаться к ней от корня дерева и считывать эти двоичные цифры.
Рисунок 2.4 - Кодовое дерево метода Хаффмана
2.2.2.3 Равномерный код
Средняя длина кодового слова:
то есть
Таблица 2.6 - Равномерное кодирование
Комбинация |
Вероятность |
Код |
|
2.2.3 Сравнение кодов по эффективности
2.2.3.1 Анализ кода Шеннона-Фано
Средняя длина кода:
Эффективность:
Полученные данные занесены в таблицу 2.7.
2.2.3.2 Анализ кода Хаффмана
Средняя длина кода:
Эффективность:
Полученные данные занесены в таблицу 2.7.
2.2.3.3 Анализ равномерного кода
Средняя длина кода:
Эффективность:
Полученные данные занесены в таблицу 2.7.
2.2.4 Вероятности появления «0» и «1»
2.2.4.1 Вероятности появления на выходе «0» и «1» у кода Шеннона-Фано
Средняя длина единиц:
Вероятность появления «1»:
Вероятность появления «0»:
Полученные данные занесены в таблицу 2.7.
2.2.4.2 Вероятности появления на выходе «0» и «1» у кода Хаффмана
Средняя длина единиц:
Вероятность появления «1»:
Вероятность появления «0»:
Полученные данные занесены в таблицу 2.7.
Искать вероятности появлении нуля или единицы у равномерного кодирования нет смысла, так как осуществляется произвольный выбор кода.
Таблица 2.7 - Сравнение кодов
Код Шеннона-Фано |
Код Хаффмана |
Равномерный код |
||
Эффективность источника:
Выводы:
Равномерное кодирование источника понизило его эффективность. Когда в свою очередь у кодов Шеннона-Фано и Хаффмана наблюдается существенное увеличение.
Коды Шеннона-Фано и Хаффмана имеют явные преимущества перед равномерным кодом по средней длине кода (доходят почти до минимальной длины).
Средняя длина кодового слова у Шеннона-Фано и Хаффмана одинакова, но учитывая вероятности появления «0» и «1», то последний является более предпочтительным. То есть у кода Хаффмана вероятности появления нуля и единицы (примерно) равновероятна, а это означает, что он носит больше информации.
Алгоритмы Хаффмана и Шеннона-Фано используют избыточность сообщения, заключенную в неоднородном распределении частот символов его (первичного) алфавита, то есть, заменяют коды более частых символов короткими двоичными последовательностями, а коды более редких символов - более длинными двоичными последовательностями.
Главный недостаток кодов Шеннона-Фано и Хаффмана заключаются в том, что для их применения нужно знать вероятности появления букв (или их комбинации при кодировании блоками), а на практике такая благоприятная ситуация возникает чрезвычайно редко.
При использовании обоих кодов любая, даже одиночная ошибка в принятой последовательности лишает приемник возможности правильно декодировать ее оставшуюся часть.
2.3 Задача 3. Кодирование и декодирование кодом Лемпела-Зива
Задан ряд из 4-х десятичных чисел.
Представить каждое число с помощью 6 символов равномерного двоичного кода
Закодировать полученную последовательность двоичных символов кодом Лемпела - Зива.
Произвести декодирование.
Теоретические сведения:
В отличие от предыдущих кодов (Шеннона-Фано и Хаффмана) в данном кодировании не нужно знать вероятность появления букв. Здесь кодовая таблица, изначально почти пустая, заполняется одновременно в пунктах передачи и приема в процессе кодирования (декодирования), причем в эту таблицу вносятся лишь такие все более длинные отрезки передаваемого сообщения, которые еще не встречались ранее. Каждому отрезку в таблице присваивается свой номер.
Исходные данные:
Вариант 19.
Четыре десятичных числа, заданные руководителем, представлены в таблице 2.8.
Таблица 2.8 - Заданные числа
Вариант |
Данные |
||||
19 |
17 |
42 |
27 |
29 |
Решение:
2.3.1 Представление заданных чисел равномерным двоичным кодом
В таблице 2.9 показаны двоичные коды соответствующих чисел.
.
Таблица 2.9 - Представление в двоичном виде
Десятичное число |
17 |
42 |
27 |
29 |
|
Двоичный код |
010001 |
101010 |
011011 |
011101 |
2.3.2 Кодирование кодом Лемпела-Зива
Входная последовательность кодера: 010001 101010 011011 011101
В таблице 2.10 показаны последовательности двоичных символов на входе и выходе кодера, где подчеркнутые символы находятся в словаре (входные комбинации) или взяты из нее (выходные коды).
Таблица 2.10 - Последовательности двоичных символов на входе и выходе кодера
Вх |
_0 |
_1 |
00 |
01 |
10 |
101 |
001 |
1011 |
011 |
101 |
|
Вых |
00000 |
00001 |
00010 |
00011 |
00100 |
01011 |
00111 |
01101 |
01001 |
0110 |
Таблица 2.11 представляет собой словарь. В кодировании идет запись словаря.
Рассмотрим подробнее. На кодер первым поступает «_0», так как до этого не было на входе сигнала, на выходе будет «0000» из словаря и входной «0», который подается на выход (то есть «00000»), при этом нуль записывается в словарь (код «0001»). Далее на входе «_1», которого нет в словаре. С ним кодер поступает также как и с нулем, но символ в словарь уже записывается под другим кодом. На входе третий символ - «0». Так как код данного символа присутствует в словаре, он переходит к следующему символу последовательности (также «0»), то есть на входе уже «00». Последняя комбинация записывается в словарь («0011»), а на выход подается «00010»: код первого нуля из словаря и второй нуль. Остальные комбинации кодируются таким же образом, при этом кодируемая комбинация увеличивается.
Таблица 2.11 - Словарь
Комбинация |
Код |
|
- |
0000 |
|
0 |
0001 |
|
1 |
0010 |
|
00 |
0011 |
|
01 |
0100 |
|
10 |
0101 |
|
101 |
0110 |
|
001 |
0111 |
|
1011 |
1000 |
|
011 |
1001 |
2.3.3 Декодирование кодом Лемпела-Зива
Входная последовательность декодера:
00000 00001 00010 00011 00100 01011 00111 01101 01001 0110
В таблице 2.12 показаны последовательности двоичных символов на входе и выходе декодера, где подчеркнутые символы находятся в словаре (входные коды) или взяты из нее (выходные комбинации).
Таблица 2.12 - Последовательности двоичных символов на входе и выходе декодера
Вх |
00000 |
00001 |
00010 |
00011 |
00100 |
01011 |
00111 |
01101 |
01001 |
0110 |
|
Вых |
_0 |
_1 |
00 |
01 |
10 |
101 |
001 |
1011 |
011 |
101 |
Принцип декодирования в большом счете не отличается от кодирования. Разница в том, что при декодировании идет считывание из словаря. В данном случае входная последовательность будет рассматриваться по пять символов: первые четыре комбинации сравниваются со словарным кодом, и на выход подается соответствующая комбинация из него, а последний, пятый, идет на выход декодера.
Выводы:
При кодировании коротких сообщений код Лемпела-Зива увеличивает избыточность. Однако, асимптотически (при увеличении длины сообщения) избыточность стремится к нулю.
Все рассмотренные выше методы - это универсальные методы, позволяющие кодировать любое цифровое сообщение без потери информации. Эти методы кодирования избегают неоднозначности кода, то есть следуют условию, которое гласит: ни одно кодовое слово не должно быть началом другого, более длинного.
3. Индивидуальное задание 3
3.1 Задача 1. Корректирующие коды
Строки производящей матрицы линейного блочного -кода - это три -разрядные комбинаций (младший разряд - справа), которые в двоичной форме представляют десятичные числа , , . Найти: кодовое расстояние , максимальные кратности гарантированно обнаруживаемых и исправляемых ошибок. Закодировать двоичную комбинацию, соответствующую десятичному числу , и двоичную комбинацию на выходе кодера представить в форме десятичного числа .
Примечание: верхняя строка производящей матрицы соответствует младшему разряду комбинации на входе кодера.
Теоретические сведения:
Физическая среда, по которой передаются данные, не может быть абсолютно надежной. Более того, уровень шума бывает очень высоким, например, в беспроводных системах связи и телефонных системах. В результате помех могут исчезать биты или наоборот - появляться лишние. Целью помехоустойчивого кодирования является обнаружение и/или исправление ошибок при приеме сигнала в канале с помехой. Если при декодировании производится обнаружение ошибки, то обязательно нужен канал переспроса (обратный канал). Если исправление ошибок - канал переспроса не нужен.
Основная идея помехоустойчивого кодирования - введение регулярной избыточности, при использовании которых процент ошибочных комбинации на выходе декодера сводилось бы к минимуму.
Корректирующим называется такой код, использование которого дает возможность в процессе приема цифрового сигнала обнаруживать в нем наличие ошибок и, возможно, даже исправлять некоторые из ошибочных символов. Среди корректирующих кодов наибольшее распространение получили блочные двоичные коды, то есть передача двоичного сообщения производится блоками. Кодирование и декодирование каждого блока производится независимо от других блоков.
Исходные данные:
Вариант . В таблице 3.1 представлены исходные данные.
Таблица 3.1 - Исходные данные
N |
n |
in |
||||
Решение:
В таблице 3.2 показаны заданные десятичные числа в двоичной форме записи.
Таблица 3.2 - Соответствие десятеричного и двоичного представлений заданных чисел
Десятичная система счисления |
488 |
683 |
866 |
|
Двоичная система счисления |
01111 01000 |
10101 01011 |
11011 00010 |
Согласно варианту производящая матрица выглядит следующим образом:
Производящая матрица состоит из линейно независимых разрешенных векторов, которые образуют базис пространства разрешенных кодовых комбинаций.
При использовании линейно блочных кодов расстояние между кодами можно находить (как расстояние между строками) из производящей матрицы, приписав к нему строку, состоящую из нулей. Кодовое расстояние определяется по формуле:
где - кодовое расстояние между i-ой и j-ой строками матрицы .
Это расстояние определяется в пространстве Хэмминга. Оно равно количеству позиций с различными символами. Для двоичного кода определяется весом суммарного вектора, суммирование осуществляется по модулю два.
Для данной матрицы они равны:
Отсюда,
Кратность гарантированно обнаруживаемой ошибки:
Кратность гарантированно исправляемой ошибки:
то есть
Проведя анализ полученных значений можно убедиться в том, что ресурсы кода используются полнее, если является нечетным числом.
Кодирование заданной двоичной комбинации. Кодируемое десятичное число в двоичной форме записи с учетом количества информационных символов , который определен из размерности производящей матрицы как число строк, выглядит следующим образом:
Кодирование осуществляется по формуле:
Учитывая условие, что верхняя строка производящей матрицы соответствует младшему разряду комбинации на выходе, задания, при вычислении переставим строки матрицы соответственно разрядам кодируемого числа, иными словами:
или в десятичной системе счисления.
Ответы:
Все найденные значения занесены в таблицу 3.3.
Таблица 3.3 - Полученные результаты ()
4 |
3 |
1 |
488 |
496 |
3.2 Задача 2. Линейные блочные коды
Двоичные комбинации, соответствующие пяти десятичным числам из задачи , считать строками проверочной матрицы H кода .
Определить:
способен ли этот код обнаружить любую однократную ошибку (, если способен, в противном случае);
способен ли этот код исправить любую однократную ошибку (, если способен, в противном случае).
Теоретические сведения:
Код линейный, если проверочные символы получены в результате линейных операций над информационными. В двоичной арифметике линейной операцией является операция суммирования по модулю 2. Следствием линейности является тот факт, что суммирование по модулю 2 разрешенных комбинаций дает разрешенную кодовую комбинацию.
Любой линейный блочный код обозначается как , где: - количество символов в комбинации на выходе кодера; - количество информационных символов.
Для любого линейного блочного кода существуют проверочная () и производящая () матрицы.
Исходные данные:
Вариант . В таблице 3.4 представлены исходные данные.
Таблица 3.4 - Исходные данные
Система счисления |
||||||
десятичная |
10 |
1 |
||||
двоичная |
0000001010 |
0000000001 |
0111101000 |
1010101011 |
1101100010 |
Код . Задан с помощью проверочной матрицы .
Решение:
Будем считать двоичные комбинации исходных данных элементами соответствующих векторов . Тогда согласно условию задачи проверочная матрица будет выглядеть следующим образом:
Транспонированная проверочная матрица :
Чтобы проверить обнаружение однократной ошибки воспользуемся фундаментальным свойством:
где - вектор синдрома;
- передаваемый вектор;
- вектор ошибки.
Учитывая всевозможные однократные ошибки, получим:
где - матрица синдромов;
- единичная матрица размера (единицы стоят на позициях ошибок).
Или
Данная матрица содержит две нулевые строки и поэтому не может обнаружить гарантированно все однократные ошибки. Следовательно, код и не способен исправить однократную ошибку.
Ответы:
Таблица 3.5 - Полученные результаты ()
0 |
0 |
0 |
3.3 Задача 3. Неравенство Хэмминга для линейного блочного кода
Требуется построить линейный блочный -код. Определить теоретический предел для этого кода - найти максимальную кратность исправляемых ошибок .
Определить вероятность ошибочного декодирования кодовой комбинации , если ошибки в отдельных символах в канале передачи происходят с вероятностью , а ошибки в разных символах независимы. В ответе для величины оставить знаков после десятичной точки.
Теоретические сведения:
Идея неравенства Хэмминга заключается в том, что количество вариантов гарантированно исправляемых ошибок должно быть меньше или равно количества вариантов ненулевых синдромов :
Если неравенство превращается в равенство, код обладает минимальной избыточностью и является оптимальным. Такой код называется кодом Хэмминга.
Исходные данные:
Вариант . В таблице 3.6 представлены исходные данные.
Таблица 3.6 - Исходные данные
- количество проверочных символов.
Код (23, 6).
Решение:
Максимальное количество гарантированно исправляемых ошибок:
где определяется формулой:
а как:
В последнем выражении вычитание единицы обусловлено из условия ненулевых синдромов, другими словами отнимается нулевая комбинация.
Отсюда,
Максимальную кратность гарантированно исправляемых ошибок найдем из неравенства Хэмминга:
Полученные выражения при занесены в таблицу 3.7.
Таблица 3.7 - Количество гарантированно исправляемых ошибок в зависимости от кратности исправляемых ошибок
1 |
2 |
3 |
4 |
5 |
6 |
||
23 |
276 |
2047 |
10902 |
44551 |
145498 |
Из данной таблицы видно, что данный код уже не способен гарантированно исправлять шестикратные ошибки, просто не хватит синдромов. А вот пятикратные ошибки исправит, но код будет чрезвычайно избыточен, так как неиспользуемых синдромов будет:
Следуя, .
Вероятность ошибочного декодирования, если код гарантированно исправляет пятикратные ошибки:
Ответы: Все полученные значения занесены в таблицу 3.8.
Таблица 3.8 - Полученные результаты ()
5 |
5,015493 |
4. Индивидуальное задание 4
4.1 Задача 1. Битовая вероятность ошибки при передаче цифрового потока
Источник информации создает цифровой поток мегабит в секунду. На вход радиолинии с выхода передатчика подается последовательность двоичных радиоимпульсов, модулированных по закону ( для АМ, для ЧМ с ортогональными сигналами, для ФМ). Средняя мощность передаваемых сигналов обоих видов () равна . Задана величина ослабления в линии . На входе приемника присутствует аддитивный белый гауссовский шум со спектральной плотностью . Определить битовую вероятность ошибки на выходе идеальной когерентной системы связи без использования корректирующего кода () и при использовании -кода Хэмминга в режиме обнаружения ошибки () и в режиме исправления ошибки ().
При расчетах считать, что вероятность ошибки в канале переспроса (режим обнаружения ошибки) пренебрежимо мала по сравнению с вероятностью появления искаженной комбинации на выходе декодера.
Теоретические сведения:
Значение каждого импульса передается с помощью радиоимпульса прямоугольной формы, с использованием одного из методов модуляции. В процессе передачи сигнала по линии эти импульсы случайным образом искажаются (обычно это происходит из-за наличия мультипликативной помехи) и появляется аддитивная помеха.
Демодулятор к моменту окончания очередного принимаемого импульса должен указать (вернее угадать), которое из возможных значений символа было передано с данным импульсом. Очевидно, что иногда демодулятор будет выдавать ошибочные решения, поэтому желательно применять такой способ обработки импульса, который обеспечивал минимум полной вероятности ошибки.
Полная вероятность ошибки (битовая вероятность ошибки) - объективная характеристика качества приема, которая зависит от энергии разностного сигнала к спектральной плотности шума и, разумеется, уменьшается при увеличении этого отношения.
Исходные данные:
Вариант . В таблице 4.1 представлены исходные данные.
Таблица 4.1 - Исходные данные
Код Хэмминга (63, 57). Частотная модуляция.
Решение:
4.1.1 Без использования корректирующего кода
Ослабление в линии по мощности:
Длительность одного бита:
Средняя энергия сигнала на выходе передатчика:
Средняя энергия сигнала на входе приемника:
Отношение сигнал/шум по мощности, то есть отношение средней энергии импульса на входе демодулятора к спектральной плотности мощности белого шума:
Отношение сигнал/шум по мощности на выходе корреляционного приемника, равный отношению энергии разностного сигнала к спектральной плотности мощности шума:
или по энергии
Битовая вероятность ошибки на выходе идеальной когерентной системы связи:
где - интеграл вероятностей Гаусса (при заданной значение определяется по таблице или находится самостоятельно решением интеграла).
4.1.2 При использовании кода Хэмминга в режиме обнаружения
Скорость цифрового потока при использовании -кода:
Средняя энергия сигнала на входе приемника:
Отношение сигнал/шум по мощности на выходе корреляционного приемника:
Битовая вероятность ошибки на выходе системы:
При наличии однократной (или двукратной, для кода Хэмминга ) ошибки по обратному каналу сгенерируется сигнал подтверждения. Если же полученная на выходе кодовая комбинация является запрещенной, то оно стирается, а по обратному каналу посылается сигнал переспроса. Таким образом, на выходе системы будет ошибка, только в том случае, если в цифровом потоке возникла трехкратная или более ошибка.
В канале с независимыми ошибками вероятность, того, что ровно бит в принятой комбинации являются ошибочными можно найти по биноминальной формуле Бернулли.
Найдем вероятность появления ошибки более двух кратностей:
Тогда битовая вероятность ошибки на выходе системы в режиме обнаружения:
4.1.3 При использовании кода Хэмминга в режиме исправления
Код Хэмминга в режиме исправления отличается тем, что при нахождении ошибки (в данном случае только однократной) автоматически исправляет ее. Очевидно, что на выходе системы будет ошибка, если в цифровом потоке возникнет двукратная или более ошибка. Найдем соответствующую вероятность:
А значит, битовая вероятность ошибки на выходе системы в режиме исправления:
Численные расчеты показывают, что при той же величине избыточности системы передачи информации с обратным каналом обеспечивают большую помехоустойчивость, если ошибки в канале переспроса пренебрежимо малы.
Ответы: Полученные данные занесены в таблицу 4.2.
Таблица 4.2 - Полученные данные
4.2 Задача 2. Регенерация цифрового сигнала при передаче на большие расстояния
На кабельной линии, содержащей регенерационных участков, регенерация двоичных импульсов в полном смысле этого слова проводится лишь в обслуживаемых регенерационных пунктах (ОРП), размещенных на каждом m-м участке. На остальных участках размещены необслуживаемые регенерационные пункты (НРП), в которых входной сигнал лишь усиливается. Определить вероятность ошибки при демодуляции сигнала на выходе некогерентной линии , если при эта величина равна:
где - отношение сигнал/шум по мощности на входе первого НРП, а все участки и приемники идентичны.
Найти отношение сигнал/шум , которое потребовалось бы для обеспечения той же вероятности ошибки на выходе линии для двух случаев:
все регенераторы - это НРП (, дБ);
все регенераторы - это ОРП (, дБ).
Теоретические сведения:
При передаче на большие расстояния сигнал может быть ослаблен настолько, что прием становится невозможным. Чтобы избежать этого, на определенных расстояниях вдоль линий связи устанавливают промежуточные пункты, в которых проводится восстановление ослабленного сигнала: либо обычное усиление, либо усиление с регенерацией сигнала.
Исходные данные:
Вариант 19. Начальные условия даны в таблице 4.3.
Таблица 4.3 - Исходные данные
19 |
18 |
162 |
24 |
Решение:
4.2.1 Вероятность ошибки на выходе некогерентной линии
Отношение сигнал/шум по мощности на входе первого НРП:
При усилении сигнала без регенерации импульсов происходит аддитивное накопление шума, то есть, отношение сигнал/шум по мощности на входе первого ОРП:
Рисунок 4.1 - Линия связи с одной регенерацией сигнала
Битовая вероятность ошибки на выходе ОРП, то есть ошибка на выходе линий связи с одной регенерацией сигнала (рисунок 4.1):
Именно здесь, при восстановлении сигнала, происходит накопление ошибок, возникающих при демодуляции.
Учитывая, что таких участков , определим вероятность ошибки на выходе линий связи:
4.2.2 Все регенераторы - НРП
Отношение сигнал/шум по мощности на входе приемника , выразим из уравнения:
Отношение сигнал/шум по мощности на входе первого НРП:
или .
4.2.3 Все регенераторы - ОРП
Вероятность ошибки на выходе первого ОРП выразим из соотношения:
Отношение сигнал/шум по мощности на входе первого ОРП , выразим из уравнения:
Ответы:
Найденные значения занесены в таблицу 4.4.
Таблица 4.4 - Полученные данные ()
0,042 |
31,9 |
10,39 |
42,332 |
Заключение
Курсовая работа была посвящена расчету и анализу основных характеристик простой дискретной системы связи для передачи сообщений. Изучены принципы и методы передачи информации по каналам связи. Рассмотрены вопросы математического описания сообщений, сигналов и каналов связи, кодирования и декодирования, основы теории информации, анализ помехоустойчивости каналов связи, методы помехоустойчивого кодирования, оптимального приема дискретных сообщений, основы цифровой обработки сигналов, вопросы оптимизации.
Основные результаты теории информации имеют вид неравенств, то есть, они определяют предельные, потенциальные характеристики систем передачи информации. Любая теория информации оперирует лишь вероятностными характеристиками сигналов и является математической теорией. Поэтому она универсальна, то есть может быть применена к любым сигналам независимо от их физической формы.
В заключение следует отметить, что никакое методическое руководство не может заменить посещения лекций и систематической самостоятельной работы с учебником и дополнительной литературой.
Список использованных источников
1 Бернгардт, А.С. ТЭС-14 Ч 5 (6, 7.1, 10): электронные презентации PDF / А.С. Бернгардт. - Томск: Томский государственный университет систем управления и радиоэлектроники.
2 Теория и техника передачи информации: учебное пособие / Ю.П.Акулиничев, А.С.Бернгардт. - Томск: ЭльКонтент, 2012. - 210с.
3 Булгаков, Р.В. Индивидуальное задание №3 / Р.В. Булгаков. - Томск: Томский государственный университет систем управления и радиоэлектроники, 2013. - 4 с.
4 Дамдинжапов, Э.Ц. Тетрадь по лекционным занятиям / Э.Ц. Дамдинжапов - Томск: Томский государственный университет систем управления и радиоэлектроники, 2014. - 48 л.
5 Дамдинжапов, Э.Ц. Тетрадь по практическим занятиям / Э.Ц. Дамдинжапов - Томск: Томский государственный университет систем управления и радиоэлектроники, 2014. - 48 л.
6 Вентцель, Е.С. Теория вероятностей: учебник для студ. вузов / Е.С. Вентцель. - 10-е изд., стер. - М.: Издательский центр - «Академия», 2005. - 576 с.
Размещено на Allbest.ru
Подобные документы
Информационные характеристики и структурная схема системы передачи; расчет параметров аналого-цифрового преобразователя и выходного сигнала. Кодирование корректирующим кодом. Определение характеристик модема; сравнение помехоустойчивости систем связи.
курсовая работа [79,6 K], добавлен 28.05.2012Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений. Теоретические и эмпирические вероятности появления цепочек символов на выходе источника. Статистическое двоичное кодирование.
курсовая работа [1,4 M], добавлен 07.09.2014Словарные методы кодирования. Сущность их состоит в том, что фразы в сжимаемом тексте заменяются указателем на то место, где они в этом тексте уже pанее появлялись. Декодирование сжатого текста. Алгоритм Абрахама Лемпела и Якоба Зива - LZ77, LZ-сжатие.
реферат [30,5 K], добавлен 11.02.2009Понятие сигнала, его взаимосвязь с информационным сообщением. Дискретизация, квантование и кодирование как основные операции, необходимые для преобразования любого аналогового сигнала в цифровую форму, сферы их применения и основные преимущества.
контрольная работа [30,8 K], добавлен 03.06.2009Системы передачи дискретной информации – системы, в которых реализации сообщений являют собой последовательности символов алфавита источника. Информационные характеристики непрерывных сообщений. Дифференциальная энтропия источника непрерывных сообщений.
реферат [166,3 K], добавлен 01.02.2009Расчет информационных характеристик источников дискретных сообщений и канала. Согласование дискретного источника с дискретным каналом без шума, методы кодирования и их эффективность. Информационные характеристики источников сообщений, сигналов и кодов.
курсовая работа [503,7 K], добавлен 14.12.2012Расчет спектральных и энергетических характеристик сигналов. Параметры случайного цифрового сигнала канала связи. Пропускная способность канала и требуемая для этого мощность сигнала на входе приемника. Спектр модулированного сигнала и его энергия.
курсовая работа [482,4 K], добавлен 07.02.2013Временные функции, частотные характеристики и энергия сигналов. Граничные частоты спектров сигналов. Технические характеристики аналого-цифрового преобразователя. Информационная характеристика канала и расчёт вероятности ошибки оптимального демодулятора.
курсовая работа [1,2 M], добавлен 06.11.2011Расчет основных характеристик передачи информации - ширины и пропускной способности непрерывного канала. Выбор аналого-цифрового и цифроаналогового преобразователей, кодера и модулятора. Алгоритм работы и структурная схема оптимального демодулятора.
курсовая работа [776,7 K], добавлен 13.08.2013Расчет энергетической ширины спектра сообщения. Показатели средней квадратической погрешности квантования. Кодирование значения дискретного сигнала двоичным блочным примитивным кодом. Спектр модулированного сигнала. Структурная схема системы связи.
контрольная работа [1,6 M], добавлен 17.11.2012