Расчет характеристик системы связи

Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений. Теоретические и эмпирические вероятности появления цепочек символов на выходе источника. Статистическое двоичное кодирование.

Рубрика Коммуникации, связь, цифровые приборы и радиоэлектроника
Вид курсовая работа
Язык русский
Дата добавления 07.09.2014
Размер файла 1,4 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Министерство транспорта Российской Федерации

Федеральное агентство железнодорожного транспорта

ГОУ ВПО «Дальневосточный Государственный Университет Путей Сообщения»

Кафедра: «Телекоммуникации»

Курсовой проект

по дисциплине «Теория передачи сигналов»

Расчет характеристик системы связи

Выполнила: Синица В.С.

Шифр: 10-АТС-087

4 курс

Руководитель: Строев О.Я

2014г. Хабаровск

  • Содержание
  • 1. Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений
  • 2. Оценка теоретических и эмпирических вероятностей появления цепочек символов на выходе источника
  • 3. Вычисление безусловной и условной энтропии источника.
  • 4. Статистическое двоичное кодирование источника
  • 5. Построение графиков модулирующего и модулированного сигналов
  • 6. Расчет графиков спектров модулирующего и модулированного сигналов.
  • 7. Расчет средней мощности и практической ширины спектра модулирующего сигнала
  • 8. Расчет пропускной способности двоично-симметричного канала
  • 9. Расчет коэффициента использования канала связи.
  • 10. Расчет эквивалентной вероятности ошибочного приема двоичного элемента.
  • Список литературы.

1. Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений

Дискретным источником сообщений называют источник, выдающий последовательность символов, принадлежащих некоторому алфавиту

,

где K - объем алфавита; - символы алфавита.

Статистический анализ свойств источника заключается в нахождении указанных вероятностей. Для этого следует воспользоваться классической формулой определения вероятности:

Отсюда априорную вероятность появления отдельных символов можно найти как:

где - количество символов в тексте сообщения; =200 - общее количество символов в тексте сообщения.

Аналогично переходные вероятности появления символов для простейшего источника с памятью (марковский источник 1-го порядка) могут быть определены по формуле

где - вероятность появления символа , если перед ним был символ ; - количество появлений пар сочетаний символов в тексте.

N(AA)=9;

N(AB)=45;

N(BB)=99;

N(BA)=46;

Априорные вероятности источника сообщений.

N()

a1=A

55

a2=B

145

Переходные вероятности источника сообщений

a1=A

a2=B

Для найденных вероятностей выполняются условия:

;

;

2. Оценка теоретических и эмпирических вероятностей появления цепочек символов на выходе источника

Эмпирическая вероятность - это вероятность, получаемая в результате практических испытаний. В нашем случае эмпирическая вероятность некоторой цепочки символов будет определяться по формулам.

Определим вероятность цепочки ВВ:

где N(`BB') - количество появлений цепочки `BB' в тексте; N-1 - количество пар со смещением в тексте.

Вероятность цепочки ВВВ:

где N(`BBB') - количество появлений цепочки `BBB' в тексте; N-2 - количество полных троек со смещением в тексте.

Вероятность цепочки ВВВA:

Теоретическая вероятность - это вероятность, определяемая с помощью формул и теорем теории вероятностей. Tеоретическая вероятность может быть определена из формулы произведения вероятностей наступления совместных событий.

Расчёт количества информации содержащейся в цепочке проводится согласно определению: количество информации - это величина, определяющая число двоичных символов, необходимых для передачи цепочки, и вычисляемая в соответствии с мерой информации по К.Шеннону:

где - здесь и далее обозначает двоичный логарифм; Р(цепочка) - вероятность цепочки.

Отметим, что количество информации не зависит от качественного содержания сообщения (цепочки), в частности от степени его важности для получателя, возможных последствий его передачи и т.д. Количество информации, содержащейся в сообщении , есть логарифмическая функция от вероятности . Количество информации в достоверном событии (имеющем вероятность = 1) равно нулю, а количество информации в невозможном событии (имеющем вероятность = 0) равно бесконечности. Отсюда можно сделать вывод, что чем меньше вероятность сообщения (цепочки), тем большее количество информации оно содержит.

3. Вычисление безусловной и условной энтропии источника

Поскольку сообщения случайные, то и количество информации является случайной величиной. Для того чтобы охарактеризовать источник более полно используют среднюю меру, называемую энтропией. Отсюда, энтропия - это математическое ожидание по частным количествам информации сообщений, генерируемых источником. Безусловная энтропия источника вычисляется по формуле:

Если наибольшая неопределенность выбора при заданном объёме алфавита K соответствует ситуации, когда априорные вероятности всех выборов равны между собой. В этом случае энтропия равна:

Между значениями величин энтропий должно соблюдаться условие:

Учет статистических связей между символами, последовательно выбираемых источником ведет к дальнейшему уменьшению энтропии. На самом деле, чем больше вероятностные связи символов, тем меньше свобода выбора последующих символов, тем меньше в среднем информации приходится на каждый вновь выбираемый символ источника и тем меньше энтропия. Энтропия, учитывающая статистическую зависимость между символами, называется условной и находится по формуле:

Где

- условная частная энтропия, вычисляемая для каждого символа i.

Между условной энтропией и безусловной должно соблюдаться неравенство:

По сравнению с безусловной энтропией, условная энтропия учитывает более тонкую структуру вероятностных свойств источника, поэтому, является более точной характеристикой источника.

Наличие в сообщении большего числа букв или в кодовой комбинации большего числа элементов, чем это минимально необходимо для передачи содержащегося в них количества информации, называют избыточностью. Расчет избыточности проводится по формуле:

Производительность источника - это среднее количество информации, создаваемой источником в единицу времени:

где - средняя длительность одного символа, выдаваемого источником.

4. Статистическое двоичное кодирование источника

Статистическое (или эффективное) кодирование используется для существенного уменьшения избыточности сообщений, обусловленной неравновероятностью и зависимостью символов, вырабатываемых источником. Суть статистического кодирования сводится к кодированию символов источника неравномерным двоичным кодом по следующему правилу: для часто встречающихся символов присваиваются короткие двоичные кодовые комбинации, а для редко встречающихся - длинные кодовые комбинации.

Одним из распространенных алгоритмов статистического кодирования, является код Хаффмана. Кодирование по Хаффману выполняется в следующем порядке:

1. Размещают символы алфавита источника в первом столбце таблицы в порядке убывания их вероятностей.

2. Суммируют в полученном столбце две последние (наименьшие) вероятности и в результате получают новый столбец таблицы, в котором количество (с учетом суммарной вероятности) значений вероятностей на одну меньше.

3. Располагают все вероятности в новом столбце порядке убывания.

4. Повторяют шаги 2) и 3) до тех пор, пока не получим столбец, состоящий из одной вероятности, равной 1.

5. По полученным столбцам строится двоичное дерево-граф, начальным узлом которого является последний столбец (вероятность = 1), а выходящие из каждого узла по две ветви отражают процесс объединения вероятностей, выполненный в пунктах 2) и 3).

6. Затем каждой выходящей из любого узла ветви приписывается 1, если она обладает большей вероятностью и 0, если ее вероятность меньше или равна.

7. Теперь искомые двоичные кодовые комбинации, соответствующие каждому из символов алфавита источника, можно прочесть из графа, двигаясь по ветвям дерева из начального узла к концевым точкам-вероятностям, отвечающих первому столбцу таблицы.

Если исходный алфавит источника имеет малый объем , то для повышения эффекта сжатия применяют метод укрупнения алфавита. Для этого соседние пары, тройки, четверки и т.д. символы в тексте сообщения считают за один «укрупненный» символ. При этом образуется новый (вторичный) алфавит, состоящий из укрупненных символов. Очевидно, что объем вторичного алфавита , будет равен объему первичного алфавита , возведенному в степень m - количество объединяемых букв первичного алфавита при укрупнении, то есть

К1=2, будем укрупнять данный алфавит в символы (блоки), состоящие из m = 4 букв первичного алфавита каждый. К2=24=16 символов. Обозначим данные символы, как .

Вероятность символов вторичного алфавита

Символ вторичного алфавита bi

Комбинация

Число появлений в тексте

Вероятность появления

b1

AAAA

0

0,0000

b2

AAAB

0

0,0000

b3

AABA

3

0,0152

b4

AABB

6

0,0305

b5

ABAA

3

0,0152

b6

ABAB

14

0,0711

b7

ABBA

8

0,0406

b8

ABBB

19

0,0964

b9

BAAA

0

0,0000

b10

BAAB

9

0,0457

b11

BABA

15

0,0761

b12

BABB

21

0,1066

b13

BBAA

6

0,0305

b14

BBAB

21

0,1066

b15

BBBA

19

0,0964

b16

BBBB

53

0,2690

197

1,0000

bi

P(bi)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

кодовые комбинации

b16

0,2690

0,2690

0,2690

0,2690

0,2690

0,2690

0,2690

0,2690

0,2690

0,2690

0,2690

0,2690

0,3147

0,4162

0,5838

1,0000

10

b12

0,1066

0,1066

0,1066

0,1066

0,1066

0,1066

0,1066

0,1066

0,1421

0,1726

0,2030

0,2132

0,2690

0,3147

0,4162

011

b14

0,1066

0,1066

0,1066

0,1066

0,1066

0,1066

0,1066

0,1066

0,1066

0,1421

0,1726

0,2030

0,2132

0,2690

010

b8

0,0964

0,0964

0,0964

0,0964

0,0964

0,0964

0,0964

0,1066

0,1066

0,1066

0,1421

0,1726

0,2030

000

b15

0,0964

0,0964

0,0964

0,0964

0,0964

0,0964

0,0964

0,0964

0,1066

0,1066

0,1066

0,1421

1111

b11

0,0761

0,0761

0,0761

0,0761

0,0761

0,0761

0,0761

0,0964

0,0964

0,1066

0,1066

1110

b6

0,0711

0,0711

0,0711

0,0711

0,0711

0,0711

0,0711

0,0761

0,0964

0,0964

1100

b10

0,0457

0,0457

0,0457

0,0457

0,0457

0,0609

0,0711

0,0711

0,0761

0010

b7

0,0406

0,0406

0,0406

0,0406

0,0406

0,0457

0,0609

0,0711

11001

b4

0,0305

0,0305

0,0305

0,0305

0,0305

0,0406

0,0457

11000

b13

0,0305

0,0305

0,0305

0,0305

0,0305

0,0305

00110

b3

0,0152

0,0152

0,0152

0,0152

0,0305

001100

b5

0,0152

0,0152

0,0152

0,0152

0011001

b1

0,0000

0,0000

0,0000

00110000

b2

0,0000

0,0000

001100000

b9

0,0000

001100000

Дерево-граф

1,0000

0,5838

0,4162

0,3147

0,2690

0,2030

0,2132

0,1726

0,1421

b16

0,1066

0,0964

0,1066

0,1066

0,0964

0,0761

0,0711

0,0711

0,0609

0,0457

b8

b12

b14

b15

b11

0,0406

0,0305

b6

0,0305

0,0305

b10

b7

b4

b13

0,0152

0,0152

b3

0,0152

0,0000

b5

0,0000

0,0000

1

b1

0,0000

0,0000

0

b2

b9

Для того чтобы оценить эффективность полученного статистического кода, вычислим среднюю длину кодовой комбинации и коэффициент сжатия по формулам:

где - общая длина исходного текста в двоичных разрядах, получаемая при простом равномерном (нестатистическом) кодировании символов источника; двоичных разрядов для дискретного источника с двумя {A,B} символами в алфавите

- количество укрупненных символов в исходном тексте, разбитом на блоки по m символов в каждом.

bi

Комбинация

Вероятность появлений

Кодовая комбинация

li

b1

AAAA

0,0000

00110000

8

0,0000

0

0

b2

AAAB

0,0000

001100000

9

0,0000

0

0

b3

AABA

0,0152

001100

6

0,0914

2

12

b4

AABB

0,0305

11000

5

0,1523

0

0

b5

ABAA

0,0152

0011001

7

0,1066

2

14

b6

ABAB

0,0711

1100

4

0,2843

3

12

b7

ABBA

0,0406

11001

5

0,2030

0

0

b8

ABBB

0,0964

000

3

0,2893

3

9

b9

BAAA

0,0000

001100000

9

0,0000

0

0

b10

BAAB

0,0457

0010

4

0,1827

2

8

b11

BABA

0,0761

1110

4

0,3046

3

12

b12

BABB

0,1066

011

3

0,3198

6

18

b13

BBAA

0,0305

00110

5

0,1523

3

15

b14

BBAB

0,1066

010

3

0,3198

7

21

b15

BBBA

0,0964

1111

4

0,3858

5

20

b16

BBBB

0,2690

10

2

0,5381

14

28

3,3299

169

К_сж=(200-169)/200*100%=15,5 %

Найденные величины должны приближенно удовлетворять соотношениям:

Причем, чем точнее выполняются соотношения, тем более эффективным можно считать результат статистического кодирования:

3,3299;

5. Построение графиков модулирующего и модулированного сигналов

Вычислим длительность для двоичной посылки модулирующего (первичного) сигнала из условия:

Т=3*0,001=0,003 с; Q=3 - скважность.

Определим частоту несущей частоты по формуле:

,

где р=3 - количество периодов, укладываемых на длительности одной посылки модулированного сигнала. Для частотно-модулированного сигнала следует также рассчитать несущие характеристические частоты для 0 и 1:

Рис. Графики модулирующего и модулированного сигналов.

6. Расчет графиков спектров модулирующего и модулированного сигналов

Спектром сигнала называют функцию, показывающую зависимость интенсивности различных гармоник в составе сигнала от частоты этих гармоник. Спектр периодического сигнала - это зависимость коэффициентов ряда Фурье от частот гармоник, которым эти коэффициенты соответствуют. Исходя из определения, найдём амплитуды гармоник спектра модулирующего сигнала

где k - номер гармоники; значение её круговой частоты; - значение обычной частоты.

Подставляя в формулу в качестве сигнала d(t) периодическую последовательность прямоугольных импульсов с амплитудой =1 В и скважностью Q=3, после интегрирования, получаем:

для k=1,2,… и

для нулевой гармоники k=0.

Амплитуды гармоник модулирующего сигнала.

k

Fк, [Гц]

Aк, [B]

0

0

0,333

1

333,33

0,551

2

666,67

0,276

3

1000,00

0,000

4

1333,33

0,138

5

1666,67

0,110

6

2000,00

0,000

7

2333,33

0,079

8

2666,67

0,069

9

3000,00

0,000

10

3333,33

0,055

11

3666,67

0,050

12

4000,00

0,000

13

4333,33

0,042

14

4666,67

0,039

15

5000,00

0,000

Рис. Первичный сигнал и его спектр.

Построение спектра АМ сигнала.

Учитывая известную теорему о спектре произведения сигнала на гармоническое колебание, можно заключить, что спектр АМ сдвигается вправо по оси частот на частоту несущей, а форма спектра АМ будет повторять форму спектра модулирующего сигнала с точностью до множителя (1/2). То есть, для получения графика спектра необходимо:

взять из таблицы гармоники модулирующего сигнала, начиная с первой;

умножить амплитуды гармоник на 0.5:

расположить их на оси частот симметрично относительно частоты несущей:

нулевую гармонику без изменений её амплитуды разместить на частоте несущей.

Отметим, что физическое объяснение происхождения множителя 0.5 заключается в наличие двух боковых полос («верхней» и «нижней») у АМ спектра по сравнению со спектром модулирующего сигнала, поэтому амплитуды боковых гармоник уменьшаются в два раза.

k

Fк, [Гц]

Aк(AM), [B]

0

0

0,333

1

333,33

0,276

2

666,67

0,138

3

1000,00

0,000

4

1333,33

0,069

5

1666,67

0,055

6

2000,00

0,000

7

2333,33

0,039

8

2666,67

0,034

9

3000,00

0,000

10

3333,33

0,028

11

3666,67

0,025

12

4000,00

0,000

13

4333,33

0,021

14

4666,67

0,020

15

5000,00

0,000

На рисунке изображено:

а) модулирующий двоичный сигнал d(t); б) гармонический сигнал-переносчик (несущая частота); в) АМ сигнал; г) спектр АМ сигнала.

Построение спектра ЧМ сигнала.

Определим скважность:

- амплитуды гармоник:

.

Из свойства аддитивности спектров следует, что график спектра ЧМ ж) будет равен сумме графиков спектров д) и е) для составляющих и .

k

A(ЧM), [B]

A(ЧM)0, [B]

0

0,33333333

1,5

1

0,276

0,318

2

0,138

0,000

3

0,000

0,106

4

0,069

0,000

5

0,055

0,064

6

0,000

0,000

7

0,039

0,045

8

0,034

0,000

9

0,000

0,035

10

0,028

0,000

11

0,025

0,029

12

0,000

0,000

13

0,021

0,024

14

0,020

0,000

15

0,000

0,021

На рисунке изображено:

а) модулирующий двоичный сигнал d(t); б) ЧМ сигнал; в) составляющая ЧМ сигнала; г) составляющая ЧМ сигнала; д) спектр ; е) спектр ; ж) спектр ЧМ сигнала.

Построение спектра ОФМ сигнала.

ОФМ сигнал можно представить как произведение двух сигналов: б) и в). Причем промежуточный сигнал представляет собой последовательность разнополярных прямоугольных импульсов.

Учитывая теорему о спектре произведения сигнала на гармоническое колебание, можно заключить, что спектр ОФМ будет соответствовать спектру вспомогательного сигнала, сдвинутому вправо на частоту несущей.

При расчете гармоник вспомогательного сигнала будет удвоенная амплитуда (т.е. учесть двойной размах сигнала), а значения частот самих гармоник необходимо уменьшить в два раза (учитывается двойной период вспомогательного сигнала). Кроме того, нулевая гармоника вспомогательного сигнала будет равна 0, т.к. сигнал симметричен относительно нуля.

k

F(ФМ)/2

ФМ

0

-

0

1

167

1,103

2

333

0,551

3

500

0,000

4

667

0,276

5

833

0,221

6

1 000

0,000

7

1 167

0,158

8

1 333

0,138

9

1 500

0,000

10

1 667

0,110

11

1 833

0,100

12

2 000

0,000

13

2 167

0,085

14

2 333

0,079

15

2 500

0,000

16

2 667

0,069

17

2 833

0,065

18

3 000

0,000

19

3 167

0,058

20

3 333

0,055

21

3 500

0,000

22

3 667

0,050

23

3 833

0,048

24

4 000

0,000

На рисунке изображено:

а) модулирующий двоичный сигнал d(t); б) вспомогательный (виртуальный) модулирующий сигнал; в) гармонический сигнал-переносчик (несущая частота); г) ОФМ сигнал; д) спектр ОФМ сигнала.

7. Расчет средней мощности и практической ширины спектра модулирующего сигнала

В соответствие с определением средняя мощность за период T прямоугольной последовательности импульсов выражается через интеграл:

где - длительность; =1В - амплитуда; Q=3 - скважность импульсов.

Практической шириной спектра называют такой интервал частот, в котором сосредоточена основная доля мощности. Чтобы найти практическую ширину нужно суммировать мощности гармоник в ряде:

Найденный таким образом наибольший номер =5 гармоники, учтенной в сумме, позволяет вычислить практическую ширину спектра:

где - интервал частот между гармониками, равный частоте 1-ой гармоники.

8. Расчет пропускной способности двоично-симметричного канала

Канал связи называется двоичным, если на его входе действует алфавит , а на выходе . Если в канале вероятность ошибок при передаче 0 и 1 одинакова, то такой канал называется симметричным. Типичным примером двоично-симметричного канала (ДСК) является канал, образованный между входом модулятора на передающей стороне и выходом демодулятора на приёмной стороне.

Самой общей и основной характеристикой канала является его пропускная способность. Она определяет максимальное количество информации, которое может быть передано по каналу в единицу времени при условии наилучшего согласования его с источником.

Если дискретный источник и вход канала работают с одинаковыми алфавитами, но оптимальное согласование в смысле наилучшего распределения вероятностей букв в передаваемом тексте не достигнуто, то количество не переданной (потерянной) по каналу информации определяется ненадёжностью.

Для Uпрд=0.05 В , вычислим:

-энергия двоичной посылки;

для kмод=0,5 - коэффициент для АМ с пассивной паузой; N0=1спектральная плотность мощности аддитивной гауссовской помехи.

Интеграл ошибок найдем через табулированный интеграл вероятности (функции Лапласа) F(x) простым соотношением:

V(x)=0.5-F(x)=0,5-0,4981=0,0019 ,

где F(x)0.65*e[-0.443*(x+0.75)2]=0,4981, которая дает погрешность не более 60% при х5,5.

Определим вероятность ошибки:

В случае двоично-симметричного канала ненадежность определяется вероятностью ошибки в канале и равна:

Пропускная способность двоично-симметричного канала вычисляется по формуле:

СДСК=В(1-Нош)=1000*(1-0,0195)=980,5 бит/с,

где В=1/=1/0,001=1000 Бод - техническая скорость поступления двоичных посылок на вход модулятора.

9. Расчет коэффициента использования канала связи

Дискретный канал связи содержит внутри себя линию связи, например физическую пару проводов, по которой передаются модулированные сигналы. Пропускная способность линии связи всегда больше, чем пропускная способность дискретного канала.

Пропускную способность непрерывного канала вычисляют по формуле Шеннона:

где - ширина непрерывного канала связи; - мощность сигнала на выходе канала; - мощность помехи. На практике полоса пропускания канала связи выбирается из условия , где - практическая ширина спектра модулированного сигнала, которая связана с практической шириной спектра модулирующего сигнала следующим приближенным соотношением:

- для АМ;

Найдем мощность сигнала на выходе канала:

И мощность помехи:

Вычислим пропускную способность канала:

Определим коэффициент использования линии связи, который рассчитывается по формуле:

10. Расчет эквивалентной вероятности ошибочного приема двоичного элемента

Наиболее распространенными помехоустойчивыми кодами являются блочные разделимые систематические коды. Кодовая комбинация такого кода имеет вид

,

в которой k элементов информационные, а - контрольные проверочные элементы. Число проверочных элементов находится из условия

,

где =3- кратность исправляемых ошибок; m - некоторый коэффициент, определяемый из условия

.

Произведем расчет при n=31:

31=2m-1>m=5;

r?5*3>r=15;

k=31-15=16.

Значит, на каждые 16 информационных символов нужно добавить 15 контрольных проверочных символов, чтобы обеспечить требуемую исправляющую способность кода =3.

Эквивалентная вероятность ошибочного приёма двоичного элемента для помехоустойчивого блочного кода вычисляется по формуле

где - вероятность ошибочного декодирования принятого блока;

- вероятность правильного декодирования блока, которая может быть найдена как

- вероятность того, что в блоке из принятых символов содержится 0 ошибок;- вероятность того, что в блоке из принятых символов содержится ровно одна ошибка;- вероятность того, что в блоке из принятых символов содержится ровно ошибок. Данные вероятности могут быть вычислены с помощью формулы Бернулли:

,

Где

- число различных сочетаний из ошибок в блоке длиной ; - вероятность ошибочного приёма одного двоичного символа в дискретном канале связи,

Произведем расчет:

Можно сделать вывод, что при использовании помехоустойчивого кода вероятность ошибочного приёма намного уменьшилась

.

Список литературы

1. Каллер, М.Я. Теоретические основы транспортной связи : учеб. для вузов ж.-д. трансп. / М.Я. Каллер, А.Ф. Фомин. - М. : Транспорт, 1989. - 383 с.

2. Баскаков С.И. Радиотехнические цепи и сигналы : учеб. для вузов по спец. «Радиотехника» / С.И. Баскаков. - М. : Высшая школа, 1988. - 448 с.

3. Передача дискретных сообщений : учеб. для вузов / В.П. Шувалов [и др.] ; под ред. В.П. Шувалова. - М. : Радио и связь, 1990. - 464 с.

4. Коржик В.И. Расчет помехоустйчивости систем передачи дискретных сообщений : справочник / В.И. Коржик [и др.] ; под ред. Л.М. Финка. - М. : Радио и связь, 1981. - 232 с.

5. Бронштейн, И.Н. Справочник по математике для инженеров и учащихся втузов / И.Н. Бронштейн, К.А. Семендяев. - М. : Наука, 1986. - 544 с.

Размещено на Allbest.ru


Подобные документы

  • Статистический анализ вероятностных свойств дискретного источника по заданной реализации отрезка его выходного текста сообщений. Расчет спектров модулирующего и модулированного сигналов. Эквивалентная вероятность ошибочного приема двоичного элемента.

    курсовая работа [1,1 M], добавлен 15.04.2012

  • Вероятностное описание символов, аналого-цифровое преобразование непрерывных сигналов. Информационные характеристики источника и канала, блоковое кодирование источника. Кодирование и декодирование кодом Лемпела-Зива. Регенерация цифрового сигнала.

    курсовая работа [1,2 M], добавлен 22.09.2014

  • Разработка структурной схемы системы связи, предназначенной для передачи данных для заданного вида модуляции. Расчет вероятности ошибки на выходе приемника. Пропускная способность двоичного канала связи. Помехоустойчивое и статистическое кодирование.

    курсовая работа [142,2 K], добавлен 26.11.2009

  • Определение количества информации, содержащейся в каждом из символов источника при их независимом выборе. Двоичная единица информации. Информационные характеристики дискретного источника. Зависимость энтропии при равновероятном распределении вероятностей.

    контрольная работа [480,4 K], добавлен 05.11.2013

  • Расчет информационных характеристик источников дискретных сообщений и канала. Согласование дискретного источника с дискретным каналом без шума, методы кодирования и их эффективность. Информационные характеристики источников сообщений, сигналов и кодов.

    курсовая работа [503,7 K], добавлен 14.12.2012

  • Системы передачи дискретной информации – системы, в которых реализации сообщений являют собой последовательности символов алфавита источника. Информационные характеристики непрерывных сообщений. Дифференциальная энтропия источника непрерывных сообщений.

    реферат [166,3 K], добавлен 01.02.2009

  • Разработка модели системы передачи дискретных сообщений. Принципы кодирования источника при передаче информации. Расчёт вероятностей двоичных символов; энтропии и избыточности кода. Импульсная и комплексно-частотная характеристика согласованного фильтра.

    курсовая работа [293,3 K], добавлен 27.03.2016

  • Расчет основных характеристик системы передачи сообщений, состоящей из источника сообщений, дискретизатора, кодирующего устройства, модулятора, линии связи, демодулятора, декодера и фильтра-восстановителя. Структура оптимального приемника сигналов.

    курсовая работа [579,3 K], добавлен 02.12.2014

  • Структурная схема одноканальной системы передачи дискретных сообщений. Выбор оптимального типа кодирования. Код Хаффмана. Минимальная длина кодовой комбинации равномерного кода. Энтропия источника сообщений. Расчет информационной скорости на выходе.

    курсовая работа [110,9 K], добавлен 08.11.2012

  • Эскизный расчёт напряжения, токи каналов на выходе источника. Выбор номинала токоограничивающего резистора, выбор ёмкости выходного конденсатора и выпрямительного диода основного канала. Расчет элементов частотозадающей и обратной связи напряжения.

    курсовая работа [367,4 K], добавлен 25.03.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.