Расчет характеристик системы связи
Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений. Теоретические и эмпирические вероятности появления цепочек символов на выходе источника. Статистическое двоичное кодирование.
Рубрика | Коммуникации, связь, цифровые приборы и радиоэлектроника |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 07.09.2014 |
Размер файла | 1,4 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Размещено на http://www.allbest.ru/
Министерство транспорта Российской Федерации
Федеральное агентство железнодорожного транспорта
ГОУ ВПО «Дальневосточный Государственный Университет Путей Сообщения»
Кафедра: «Телекоммуникации»
Курсовой проект
по дисциплине «Теория передачи сигналов»
Расчет характеристик системы связи
Выполнила: Синица В.С.
Шифр: 10-АТС-087
4 курс
Руководитель: Строев О.Я
2014г. Хабаровск
- Содержание
- 1. Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений
- 2. Оценка теоретических и эмпирических вероятностей появления цепочек символов на выходе источника
- 3. Вычисление безусловной и условной энтропии источника.
- 4. Статистическое двоичное кодирование источника
- 5. Построение графиков модулирующего и модулированного сигналов
- 6. Расчет графиков спектров модулирующего и модулированного сигналов.
- 7. Расчет средней мощности и практической ширины спектра модулирующего сигнала
- 8. Расчет пропускной способности двоично-симметричного канала
- 9. Расчет коэффициента использования канала связи.
- 10. Расчет эквивалентной вероятности ошибочного приема двоичного элемента.
- Список литературы.
1. Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений
Дискретным источником сообщений называют источник, выдающий последовательность символов, принадлежащих некоторому алфавиту
,
где K - объем алфавита; - символы алфавита.
Статистический анализ свойств источника заключается в нахождении указанных вероятностей. Для этого следует воспользоваться классической формулой определения вероятности:
Отсюда априорную вероятность появления отдельных символов можно найти как:
где - количество символов в тексте сообщения; =200 - общее количество символов в тексте сообщения.
Аналогично переходные вероятности появления символов для простейшего источника с памятью (марковский источник 1-го порядка) могут быть определены по формуле
где - вероятность появления символа , если перед ним был символ ; - количество появлений пар сочетаний символов в тексте.
N(AA)=9;
N(AB)=45;
N(BB)=99;
N(BA)=46;
Априорные вероятности источника сообщений.
N() |
|||
a1=A |
55 |
||
a2=B |
145 |
Переходные вероятности источника сообщений
a1=A |
|||
a2=B |
Для найденных вероятностей выполняются условия:
;
;
2. Оценка теоретических и эмпирических вероятностей появления цепочек символов на выходе источника
Эмпирическая вероятность - это вероятность, получаемая в результате практических испытаний. В нашем случае эмпирическая вероятность некоторой цепочки символов будет определяться по формулам.
Определим вероятность цепочки ВВ:
где N(`BB') - количество появлений цепочки `BB' в тексте; N-1 - количество пар со смещением в тексте.
Вероятность цепочки ВВВ:
где N(`BBB') - количество появлений цепочки `BBB' в тексте; N-2 - количество полных троек со смещением в тексте.
Вероятность цепочки ВВВA:
Теоретическая вероятность - это вероятность, определяемая с помощью формул и теорем теории вероятностей. Tеоретическая вероятность может быть определена из формулы произведения вероятностей наступления совместных событий.
Расчёт количества информации содержащейся в цепочке проводится согласно определению: количество информации - это величина, определяющая число двоичных символов, необходимых для передачи цепочки, и вычисляемая в соответствии с мерой информации по К.Шеннону:
где - здесь и далее обозначает двоичный логарифм; Р(цепочка) - вероятность цепочки.
Отметим, что количество информации не зависит от качественного содержания сообщения (цепочки), в частности от степени его важности для получателя, возможных последствий его передачи и т.д. Количество информации, содержащейся в сообщении , есть логарифмическая функция от вероятности . Количество информации в достоверном событии (имеющем вероятность = 1) равно нулю, а количество информации в невозможном событии (имеющем вероятность = 0) равно бесконечности. Отсюда можно сделать вывод, что чем меньше вероятность сообщения (цепочки), тем большее количество информации оно содержит.
3. Вычисление безусловной и условной энтропии источника
Поскольку сообщения случайные, то и количество информации является случайной величиной. Для того чтобы охарактеризовать источник более полно используют среднюю меру, называемую энтропией. Отсюда, энтропия - это математическое ожидание по частным количествам информации сообщений, генерируемых источником. Безусловная энтропия источника вычисляется по формуле:
Если наибольшая неопределенность выбора при заданном объёме алфавита K соответствует ситуации, когда априорные вероятности всех выборов равны между собой. В этом случае энтропия равна:
Между значениями величин энтропий должно соблюдаться условие:
Учет статистических связей между символами, последовательно выбираемых источником ведет к дальнейшему уменьшению энтропии. На самом деле, чем больше вероятностные связи символов, тем меньше свобода выбора последующих символов, тем меньше в среднем информации приходится на каждый вновь выбираемый символ источника и тем меньше энтропия. Энтропия, учитывающая статистическую зависимость между символами, называется условной и находится по формуле:
Где
- условная частная энтропия, вычисляемая для каждого символа i.
Между условной энтропией и безусловной должно соблюдаться неравенство:
По сравнению с безусловной энтропией, условная энтропия учитывает более тонкую структуру вероятностных свойств источника, поэтому, является более точной характеристикой источника.
Наличие в сообщении большего числа букв или в кодовой комбинации большего числа элементов, чем это минимально необходимо для передачи содержащегося в них количества информации, называют избыточностью. Расчет избыточности проводится по формуле:
Производительность источника - это среднее количество информации, создаваемой источником в единицу времени:
где - средняя длительность одного символа, выдаваемого источником.
4. Статистическое двоичное кодирование источника
Статистическое (или эффективное) кодирование используется для существенного уменьшения избыточности сообщений, обусловленной неравновероятностью и зависимостью символов, вырабатываемых источником. Суть статистического кодирования сводится к кодированию символов источника неравномерным двоичным кодом по следующему правилу: для часто встречающихся символов присваиваются короткие двоичные кодовые комбинации, а для редко встречающихся - длинные кодовые комбинации.
Одним из распространенных алгоритмов статистического кодирования, является код Хаффмана. Кодирование по Хаффману выполняется в следующем порядке:
1. Размещают символы алфавита источника в первом столбце таблицы в порядке убывания их вероятностей.
2. Суммируют в полученном столбце две последние (наименьшие) вероятности и в результате получают новый столбец таблицы, в котором количество (с учетом суммарной вероятности) значений вероятностей на одну меньше.
3. Располагают все вероятности в новом столбце порядке убывания.
4. Повторяют шаги 2) и 3) до тех пор, пока не получим столбец, состоящий из одной вероятности, равной 1.
5. По полученным столбцам строится двоичное дерево-граф, начальным узлом которого является последний столбец (вероятность = 1), а выходящие из каждого узла по две ветви отражают процесс объединения вероятностей, выполненный в пунктах 2) и 3).
6. Затем каждой выходящей из любого узла ветви приписывается 1, если она обладает большей вероятностью и 0, если ее вероятность меньше или равна.
7. Теперь искомые двоичные кодовые комбинации, соответствующие каждому из символов алфавита источника, можно прочесть из графа, двигаясь по ветвям дерева из начального узла к концевым точкам-вероятностям, отвечающих первому столбцу таблицы.
Если исходный алфавит источника имеет малый объем , то для повышения эффекта сжатия применяют метод укрупнения алфавита. Для этого соседние пары, тройки, четверки и т.д. символы в тексте сообщения считают за один «укрупненный» символ. При этом образуется новый (вторичный) алфавит, состоящий из укрупненных символов. Очевидно, что объем вторичного алфавита , будет равен объему первичного алфавита , возведенному в степень m - количество объединяемых букв первичного алфавита при укрупнении, то есть
К1=2, будем укрупнять данный алфавит в символы (блоки), состоящие из m = 4 букв первичного алфавита каждый. К2=24=16 символов. Обозначим данные символы, как .
Вероятность символов вторичного алфавита |
||||
Символ вторичного алфавита bi |
Комбинация |
Число появлений в тексте |
Вероятность появления |
|
b1 |
AAAA |
0 |
0,0000 |
|
b2 |
AAAB |
0 |
0,0000 |
|
b3 |
AABA |
3 |
0,0152 |
|
b4 |
AABB |
6 |
0,0305 |
|
b5 |
ABAA |
3 |
0,0152 |
|
b6 |
ABAB |
14 |
0,0711 |
|
b7 |
ABBA |
8 |
0,0406 |
|
b8 |
ABBB |
19 |
0,0964 |
|
b9 |
BAAA |
0 |
0,0000 |
|
b10 |
BAAB |
9 |
0,0457 |
|
b11 |
BABA |
15 |
0,0761 |
|
b12 |
BABB |
21 |
0,1066 |
|
b13 |
BBAA |
6 |
0,0305 |
|
b14 |
BBAB |
21 |
0,1066 |
|
b15 |
BBBA |
19 |
0,0964 |
|
b16 |
BBBB |
53 |
0,2690 |
|
197 |
1,0000 |
bi |
P(bi) |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
кодовые комбинации |
|
b16 |
0,2690 |
0,2690 |
0,2690 |
0,2690 |
0,2690 |
0,2690 |
0,2690 |
0,2690 |
0,2690 |
0,2690 |
0,2690 |
0,2690 |
0,3147 |
0,4162 |
0,5838 |
1,0000 |
10 |
|
b12 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1421 |
0,1726 |
0,2030 |
0,2132 |
0,2690 |
0,3147 |
0,4162 |
011 |
||
b14 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1066 |
0,1421 |
0,1726 |
0,2030 |
0,2132 |
0,2690 |
010 |
|||
b8 |
0,0964 |
0,0964 |
0,0964 |
0,0964 |
0,0964 |
0,0964 |
0,0964 |
0,1066 |
0,1066 |
0,1066 |
0,1421 |
0,1726 |
0,2030 |
000 |
||||
b15 |
0,0964 |
0,0964 |
0,0964 |
0,0964 |
0,0964 |
0,0964 |
0,0964 |
0,0964 |
0,1066 |
0,1066 |
0,1066 |
0,1421 |
1111 |
|||||
b11 |
0,0761 |
0,0761 |
0,0761 |
0,0761 |
0,0761 |
0,0761 |
0,0761 |
0,0964 |
0,0964 |
0,1066 |
0,1066 |
1110 |
||||||
b6 |
0,0711 |
0,0711 |
0,0711 |
0,0711 |
0,0711 |
0,0711 |
0,0711 |
0,0761 |
0,0964 |
0,0964 |
1100 |
|||||||
b10 |
0,0457 |
0,0457 |
0,0457 |
0,0457 |
0,0457 |
0,0609 |
0,0711 |
0,0711 |
0,0761 |
0010 |
||||||||
b7 |
0,0406 |
0,0406 |
0,0406 |
0,0406 |
0,0406 |
0,0457 |
0,0609 |
0,0711 |
11001 |
|||||||||
b4 |
0,0305 |
0,0305 |
0,0305 |
0,0305 |
0,0305 |
0,0406 |
0,0457 |
11000 |
||||||||||
b13 |
0,0305 |
0,0305 |
0,0305 |
0,0305 |
0,0305 |
0,0305 |
00110 |
|||||||||||
b3 |
0,0152 |
0,0152 |
0,0152 |
0,0152 |
0,0305 |
001100 |
||||||||||||
b5 |
0,0152 |
0,0152 |
0,0152 |
0,0152 |
0011001 |
|||||||||||||
b1 |
0,0000 |
0,0000 |
0,0000 |
00110000 |
||||||||||||||
b2 |
0,0000 |
0,0000 |
001100000 |
|||||||||||||||
b9 |
0,0000 |
001100000 |
||||||||||||||||
Дерево-граф |
||||||||||||||||||
1,0000 |
||||||||||||||||||
0,5838 |
0,4162 |
|||||||||||||||||
0,3147 |
0,2690 |
0,2030 |
0,2132 |
|||||||||||||||
0,1726 |
0,1421 |
b16 |
0,1066 |
0,0964 |
0,1066 |
0,1066 |
||||||||||||
0,0964 |
0,0761 |
0,0711 |
0,0711 |
0,0609 |
0,0457 |
b8 |
b12 |
b14 |
||||||||||
b15 |
b11 |
0,0406 |
0,0305 |
b6 |
0,0305 |
0,0305 |
b10 |
|||||||||||
b7 |
b4 |
b13 |
0,0152 |
0,0152 |
||||||||||||||
b3 |
0,0152 |
0,0000 |
||||||||||||||||
b5 |
0,0000 |
0,0000 |
||||||||||||||||
1 |
b1 |
0,0000 |
0,0000 |
|||||||||||||||
0 |
b2 |
b9 |
Для того чтобы оценить эффективность полученного статистического кода, вычислим среднюю длину кодовой комбинации и коэффициент сжатия по формулам:
где - общая длина исходного текста в двоичных разрядах, получаемая при простом равномерном (нестатистическом) кодировании символов источника; двоичных разрядов для дискретного источника с двумя {A,B} символами в алфавите
- количество укрупненных символов в исходном тексте, разбитом на блоки по m символов в каждом.
bi |
Комбинация |
Вероятность появлений |
Кодовая комбинация |
li |
||||
b1 |
AAAA |
0,0000 |
00110000 |
8 |
0,0000 |
0 |
0 |
|
b2 |
AAAB |
0,0000 |
001100000 |
9 |
0,0000 |
0 |
0 |
|
b3 |
AABA |
0,0152 |
001100 |
6 |
0,0914 |
2 |
12 |
|
b4 |
AABB |
0,0305 |
11000 |
5 |
0,1523 |
0 |
0 |
|
b5 |
ABAA |
0,0152 |
0011001 |
7 |
0,1066 |
2 |
14 |
|
b6 |
ABAB |
0,0711 |
1100 |
4 |
0,2843 |
3 |
12 |
|
b7 |
ABBA |
0,0406 |
11001 |
5 |
0,2030 |
0 |
0 |
|
b8 |
ABBB |
0,0964 |
000 |
3 |
0,2893 |
3 |
9 |
|
b9 |
BAAA |
0,0000 |
001100000 |
9 |
0,0000 |
0 |
0 |
|
b10 |
BAAB |
0,0457 |
0010 |
4 |
0,1827 |
2 |
8 |
|
b11 |
BABA |
0,0761 |
1110 |
4 |
0,3046 |
3 |
12 |
|
b12 |
BABB |
0,1066 |
011 |
3 |
0,3198 |
6 |
18 |
|
b13 |
BBAA |
0,0305 |
00110 |
5 |
0,1523 |
3 |
15 |
|
b14 |
BBAB |
0,1066 |
010 |
3 |
0,3198 |
7 |
21 |
|
b15 |
BBBA |
0,0964 |
1111 |
4 |
0,3858 |
5 |
20 |
|
b16 |
BBBB |
0,2690 |
10 |
2 |
0,5381 |
14 |
28 |
|
3,3299 |
169 |
К_сж=(200-169)/200*100%=15,5 %
Найденные величины должны приближенно удовлетворять соотношениям:
Причем, чем точнее выполняются соотношения, тем более эффективным можно считать результат статистического кодирования:
3,3299;
5. Построение графиков модулирующего и модулированного сигналов
Вычислим длительность для двоичной посылки модулирующего (первичного) сигнала из условия:
Т=3*0,001=0,003 с; Q=3 - скважность.
Определим частоту несущей частоты по формуле:
,
где р=3 - количество периодов, укладываемых на длительности одной посылки модулированного сигнала. Для частотно-модулированного сигнала следует также рассчитать несущие характеристические частоты для 0 и 1:
Рис. Графики модулирующего и модулированного сигналов.
6. Расчет графиков спектров модулирующего и модулированного сигналов
Спектром сигнала называют функцию, показывающую зависимость интенсивности различных гармоник в составе сигнала от частоты этих гармоник. Спектр периодического сигнала - это зависимость коэффициентов ряда Фурье от частот гармоник, которым эти коэффициенты соответствуют. Исходя из определения, найдём амплитуды гармоник спектра модулирующего сигнала
где k - номер гармоники; значение её круговой частоты; - значение обычной частоты.
Подставляя в формулу в качестве сигнала d(t) периодическую последовательность прямоугольных импульсов с амплитудой =1 В и скважностью Q=3, после интегрирования, получаем:
для k=1,2,… и
для нулевой гармоники k=0.
Амплитуды гармоник модулирующего сигнала.
k |
Fк, [Гц] |
Aк, [B] |
|
0 |
0 |
0,333 |
|
1 |
333,33 |
0,551 |
|
2 |
666,67 |
0,276 |
|
3 |
1000,00 |
0,000 |
|
4 |
1333,33 |
0,138 |
|
5 |
1666,67 |
0,110 |
|
6 |
2000,00 |
0,000 |
|
7 |
2333,33 |
0,079 |
|
8 |
2666,67 |
0,069 |
|
9 |
3000,00 |
0,000 |
|
10 |
3333,33 |
0,055 |
|
11 |
3666,67 |
0,050 |
|
12 |
4000,00 |
0,000 |
|
13 |
4333,33 |
0,042 |
|
14 |
4666,67 |
0,039 |
|
15 |
5000,00 |
0,000 |
Рис. Первичный сигнал и его спектр.
Построение спектра АМ сигнала.
Учитывая известную теорему о спектре произведения сигнала на гармоническое колебание, можно заключить, что спектр АМ сдвигается вправо по оси частот на частоту несущей, а форма спектра АМ будет повторять форму спектра модулирующего сигнала с точностью до множителя (1/2). То есть, для получения графика спектра необходимо:
взять из таблицы гармоники модулирующего сигнала, начиная с первой;
умножить амплитуды гармоник на 0.5:
расположить их на оси частот симметрично относительно частоты несущей:
нулевую гармонику без изменений её амплитуды разместить на частоте несущей.
Отметим, что физическое объяснение происхождения множителя 0.5 заключается в наличие двух боковых полос («верхней» и «нижней») у АМ спектра по сравнению со спектром модулирующего сигнала, поэтому амплитуды боковых гармоник уменьшаются в два раза.
k |
Fк, [Гц] |
Aк(AM), [B] |
|
0 |
0 |
0,333 |
|
1 |
333,33 |
0,276 |
|
2 |
666,67 |
0,138 |
|
3 |
1000,00 |
0,000 |
|
4 |
1333,33 |
0,069 |
|
5 |
1666,67 |
0,055 |
|
6 |
2000,00 |
0,000 |
|
7 |
2333,33 |
0,039 |
|
8 |
2666,67 |
0,034 |
|
9 |
3000,00 |
0,000 |
|
10 |
3333,33 |
0,028 |
|
11 |
3666,67 |
0,025 |
|
12 |
4000,00 |
0,000 |
|
13 |
4333,33 |
0,021 |
|
14 |
4666,67 |
0,020 |
|
15 |
5000,00 |
0,000 |
На рисунке изображено:
а) модулирующий двоичный сигнал d(t); б) гармонический сигнал-переносчик (несущая частота); в) АМ сигнал; г) спектр АМ сигнала.
Построение спектра ЧМ сигнала.
Определим скважность:
- амплитуды гармоник:
.
Из свойства аддитивности спектров следует, что график спектра ЧМ ж) будет равен сумме графиков спектров д) и е) для составляющих и .
k |
A(ЧM), [B] |
A(ЧM)0, [B] |
|
0 |
0,33333333 |
1,5 |
|
1 |
0,276 |
0,318 |
|
2 |
0,138 |
0,000 |
|
3 |
0,000 |
0,106 |
|
4 |
0,069 |
0,000 |
|
5 |
0,055 |
0,064 |
|
6 |
0,000 |
0,000 |
|
7 |
0,039 |
0,045 |
|
8 |
0,034 |
0,000 |
|
9 |
0,000 |
0,035 |
|
10 |
0,028 |
0,000 |
|
11 |
0,025 |
0,029 |
|
12 |
0,000 |
0,000 |
|
13 |
0,021 |
0,024 |
|
14 |
0,020 |
0,000 |
|
15 |
0,000 |
0,021 |
На рисунке изображено:
а) модулирующий двоичный сигнал d(t); б) ЧМ сигнал; в) составляющая ЧМ сигнала; г) составляющая ЧМ сигнала; д) спектр ; е) спектр ; ж) спектр ЧМ сигнала.
Построение спектра ОФМ сигнала.
ОФМ сигнал можно представить как произведение двух сигналов: б) и в). Причем промежуточный сигнал представляет собой последовательность разнополярных прямоугольных импульсов.
Учитывая теорему о спектре произведения сигнала на гармоническое колебание, можно заключить, что спектр ОФМ будет соответствовать спектру вспомогательного сигнала, сдвинутому вправо на частоту несущей.
При расчете гармоник вспомогательного сигнала будет удвоенная амплитуда (т.е. учесть двойной размах сигнала), а значения частот самих гармоник необходимо уменьшить в два раза (учитывается двойной период вспомогательного сигнала). Кроме того, нулевая гармоника вспомогательного сигнала будет равна 0, т.к. сигнал симметричен относительно нуля.
k |
F(ФМ)/2 |
ФМ |
|
0 |
- |
0 |
|
1 |
167 |
1,103 |
|
2 |
333 |
0,551 |
|
3 |
500 |
0,000 |
|
4 |
667 |
0,276 |
|
5 |
833 |
0,221 |
|
6 |
1 000 |
0,000 |
|
7 |
1 167 |
0,158 |
|
8 |
1 333 |
0,138 |
|
9 |
1 500 |
0,000 |
|
10 |
1 667 |
0,110 |
|
11 |
1 833 |
0,100 |
|
12 |
2 000 |
0,000 |
|
13 |
2 167 |
0,085 |
|
14 |
2 333 |
0,079 |
|
15 |
2 500 |
0,000 |
|
16 |
2 667 |
0,069 |
|
17 |
2 833 |
0,065 |
|
18 |
3 000 |
0,000 |
|
19 |
3 167 |
0,058 |
|
20 |
3 333 |
0,055 |
|
21 |
3 500 |
0,000 |
|
22 |
3 667 |
0,050 |
|
23 |
3 833 |
0,048 |
|
24 |
4 000 |
0,000 |
На рисунке изображено:
а) модулирующий двоичный сигнал d(t); б) вспомогательный (виртуальный) модулирующий сигнал; в) гармонический сигнал-переносчик (несущая частота); г) ОФМ сигнал; д) спектр ОФМ сигнала.
7. Расчет средней мощности и практической ширины спектра модулирующего сигнала
В соответствие с определением средняя мощность за период T прямоугольной последовательности импульсов выражается через интеграл:
где - длительность; =1В - амплитуда; Q=3 - скважность импульсов.
Практической шириной спектра называют такой интервал частот, в котором сосредоточена основная доля мощности. Чтобы найти практическую ширину нужно суммировать мощности гармоник в ряде:
Найденный таким образом наибольший номер =5 гармоники, учтенной в сумме, позволяет вычислить практическую ширину спектра:
где - интервал частот между гармониками, равный частоте 1-ой гармоники.
8. Расчет пропускной способности двоично-симметричного канала
Канал связи называется двоичным, если на его входе действует алфавит , а на выходе . Если в канале вероятность ошибок при передаче 0 и 1 одинакова, то такой канал называется симметричным. Типичным примером двоично-симметричного канала (ДСК) является канал, образованный между входом модулятора на передающей стороне и выходом демодулятора на приёмной стороне.
Самой общей и основной характеристикой канала является его пропускная способность. Она определяет максимальное количество информации, которое может быть передано по каналу в единицу времени при условии наилучшего согласования его с источником.
Если дискретный источник и вход канала работают с одинаковыми алфавитами, но оптимальное согласование в смысле наилучшего распределения вероятностей букв в передаваемом тексте не достигнуто, то количество не переданной (потерянной) по каналу информации определяется ненадёжностью.
Для Uпрд=0.05 В , вычислим:
-энергия двоичной посылки;
для kмод=0,5 - коэффициент для АМ с пассивной паузой; N0=1спектральная плотность мощности аддитивной гауссовской помехи.
Интеграл ошибок найдем через табулированный интеграл вероятности (функции Лапласа) F(x) простым соотношением:
V(x)=0.5-F(x)=0,5-0,4981=0,0019 ,
где F(x)0.65*e[-0.443*(x+0.75)2]=0,4981, которая дает погрешность не более 60% при х5,5.
Определим вероятность ошибки:
В случае двоично-симметричного канала ненадежность определяется вероятностью ошибки в канале и равна:
Пропускная способность двоично-симметричного канала вычисляется по формуле:
СДСК=В(1-Нош)=1000*(1-0,0195)=980,5 бит/с,
где В=1/=1/0,001=1000 Бод - техническая скорость поступления двоичных посылок на вход модулятора.
9. Расчет коэффициента использования канала связи
Дискретный канал связи содержит внутри себя линию связи, например физическую пару проводов, по которой передаются модулированные сигналы. Пропускная способность линии связи всегда больше, чем пропускная способность дискретного канала.
Пропускную способность непрерывного канала вычисляют по формуле Шеннона:
где - ширина непрерывного канала связи; - мощность сигнала на выходе канала; - мощность помехи. На практике полоса пропускания канала связи выбирается из условия , где - практическая ширина спектра модулированного сигнала, которая связана с практической шириной спектра модулирующего сигнала следующим приближенным соотношением:
- для АМ;
Найдем мощность сигнала на выходе канала:
И мощность помехи:
Вычислим пропускную способность канала:
Определим коэффициент использования линии связи, который рассчитывается по формуле:
10. Расчет эквивалентной вероятности ошибочного приема двоичного элемента
Наиболее распространенными помехоустойчивыми кодами являются блочные разделимые систематические коды. Кодовая комбинация такого кода имеет вид
,
в которой k элементов информационные, а - контрольные проверочные элементы. Число проверочных элементов находится из условия
,
где =3- кратность исправляемых ошибок; m - некоторый коэффициент, определяемый из условия
.
Произведем расчет при n=31:
31=2m-1>m=5;
r?5*3>r=15;
k=31-15=16.
Значит, на каждые 16 информационных символов нужно добавить 15 контрольных проверочных символов, чтобы обеспечить требуемую исправляющую способность кода =3.
Эквивалентная вероятность ошибочного приёма двоичного элемента для помехоустойчивого блочного кода вычисляется по формуле
где - вероятность ошибочного декодирования принятого блока;
- вероятность правильного декодирования блока, которая может быть найдена как
- вероятность того, что в блоке из принятых символов содержится 0 ошибок;- вероятность того, что в блоке из принятых символов содержится ровно одна ошибка;- вероятность того, что в блоке из принятых символов содержится ровно ошибок. Данные вероятности могут быть вычислены с помощью формулы Бернулли:
,
Где
- число различных сочетаний из ошибок в блоке длиной ; - вероятность ошибочного приёма одного двоичного символа в дискретном канале связи,
Произведем расчет:
Можно сделать вывод, что при использовании помехоустойчивого кода вероятность ошибочного приёма намного уменьшилась
.
Список литературы
1. Каллер, М.Я. Теоретические основы транспортной связи : учеб. для вузов ж.-д. трансп. / М.Я. Каллер, А.Ф. Фомин. - М. : Транспорт, 1989. - 383 с.
2. Баскаков С.И. Радиотехнические цепи и сигналы : учеб. для вузов по спец. «Радиотехника» / С.И. Баскаков. - М. : Высшая школа, 1988. - 448 с.
3. Передача дискретных сообщений : учеб. для вузов / В.П. Шувалов [и др.] ; под ред. В.П. Шувалова. - М. : Радио и связь, 1990. - 464 с.
4. Коржик В.И. Расчет помехоустйчивости систем передачи дискретных сообщений : справочник / В.И. Коржик [и др.] ; под ред. Л.М. Финка. - М. : Радио и связь, 1981. - 232 с.
5. Бронштейн, И.Н. Справочник по математике для инженеров и учащихся втузов / И.Н. Бронштейн, К.А. Семендяев. - М. : Наука, 1986. - 544 с.
Размещено на Allbest.ru
Подобные документы
Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений. Расчет спектров модулирующего и модулированного сигналов. Эквивалентная вероятность ошибочного приема двоичного элемента.
курсовая работа [1,1 M], добавлен 15.04.2012Вероятностное описание символов, аналого-цифровое преобразование непрерывных сигналов. Информационные характеристики источника и канала, блоковое кодирование источника. Кодирование и декодирование кодом Лемпела-Зива. Регенерация цифрового сигнала.
курсовая работа [1,2 M], добавлен 22.09.2014Разработка структурной схемы системы связи, предназначенной для передачи данных для заданного вида модуляции. Расчет вероятности ошибки на выходе приемника. Пропускная способность двоичного канала связи. Помехоустойчивое и статистическое кодирование.
курсовая работа [142,2 K], добавлен 26.11.2009- Количественное определение информации. Энтропия и производительность дискретного источника сообщений
Определение количества информации, содержащейся в каждом из символов источника при их независимом выборе. Двоичная единица информации. Информационные характеристики дискретного источника. Зависимость энтропии при равновероятном распределении вероятностей.
контрольная работа [480,4 K], добавлен 05.11.2013 Расчет информационных характеристик источников дискретных сообщений и канала. Согласование дискретного источника с дискретным каналом без шума, методы кодирования и их эффективность. Информационные характеристики источников сообщений, сигналов и кодов.
курсовая работа [503,7 K], добавлен 14.12.2012Системы передачи дискретной информации – системы, в которых реализации сообщений являют собой последовательности символов алфавита источника. Информационные характеристики непрерывных сообщений. Дифференциальная энтропия источника непрерывных сообщений.
реферат [166,3 K], добавлен 01.02.2009Разработка модели системы передачи дискретных сообщений. Принципы кодирования источника при передаче информации. Расчёт вероятностей двоичных символов; энтропии и избыточности кода. Импульсная и комплексно-частотная характеристика согласованного фильтра.
курсовая работа [293,3 K], добавлен 27.03.2016Расчет основных характеристик системы передачи сообщений, состоящей из источника сообщений, дискретизатора, кодирующего устройства, модулятора, линии связи, демодулятора, декодера и фильтра-восстановителя. Структура оптимального приемника сигналов.
курсовая работа [579,3 K], добавлен 02.12.2014Структурная схема одноканальной системы передачи дискретных сообщений. Выбор оптимального типа кодирования. Код Хаффмана. Минимальная длина кодовой комбинации равномерного кода. Энтропия источника сообщений. Расчет информационной скорости на выходе.
курсовая работа [110,9 K], добавлен 08.11.2012Эскизный расчёт напряжения, токи каналов на выходе источника. Выбор номинала токоограничивающего резистора, выбор ёмкости выходного конденсатора и выпрямительного диода основного канала. Расчет элементов частотозадающей и обратной связи напряжения.
курсовая работа [367,4 K], добавлен 25.03.2012