Информационные характеристики дискретного канала
Структура и информационные характеристики дискретного канала. Расчет энтропии приемника, потери информации при преобразовании цифровых данных в электрический сигнал. Применение единого ключа в симметрических криптосистемах при шифровании и дешифровании.
Рубрика | Коммуникации, связь, цифровые приборы и радиоэлектроника |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 02.07.2015 |
Размер файла | 371,6 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Оглавление
- Часть 1. Теория информации
- 1.1 Структура дискретного канала
- 1.2 Функции дискретного канала
- 1.3 Изменение форм информации на дискретном канале
- 1.4 Мера количества информации и энтропия
- 1.5 Методы задания дискретного канала
- 1.6 Информационные характеристики дискретного канала
- 1.6.1 Количество информации и энтропия источника
- 1.6.2 Количество информации и энтропия приемника
- 1.6.3 Информационные потери
- 1.6.4 Скоростные характеристики дискретного канала
- Часть 2. Теория кодирования
- 2.1 Равномерный двоичный код (РДК)
- 2.2 ОНК Шеннона-Фано, критерий Фано однозначного декодирования, корневое дерево, информационные характеристики
- 2.3 ОНК Хаффмена
- Часть 3. Помехоустойчивое кодирование. Назначение
- 3.1 Обнаруживающие коды: четности, удвоения, инверсии, СТК-3
- 3.2 Корректирующий систематический код Хэмминга
- 3.3 Корректирующий циклический код
- Часть 4. Криптографическое кодирование. Назначение
- 4.1 Симметричные криптосистемы
- 4.2 Открытые криптосистемы
- 4.3 Электронная цифровая подпись ЭЦП
- Список использованной литературы
- Введение
- Теория информации изучает количество информации, символов, энтропию сообщения, условную энтропию (потери количества информации), скоростные характеристики дискретного канала, включая скорость модуляции, производительность источника, скорость передачи данных, пропускную способность канала, эффективность и надёжность дискретного канала.
- Теория кодирования:
- 1. Оптимальное кодирование - сжатие данных без потерь содержания информации (компрессия данных)
- 2. Помехоустойчивое кодирование - защита данных от действия помех
- 3. Криптографическое кодирование - защита данных от несанкционированного доступа, включая стеганографию.
Часть 1. Теория информации
1.1 Структура дискретного канала
Схема дискретного канала (крупноблочная)
Схема системы передачи дискретных сообщений (детальная)
1.2 Функции дискретного канала
Функции блоков источника:
- АЦП (Аналого-цифровой преобразователь) - преобразование аналогового сигнала в дискретный.
- Шифратор - установление криптографической защиты.
- Кодер ОНК - компрессия данных с помощью оптимальных неравномерных кодов.
- Кодер ПЗК - защита данных от действия помех (компрессия).
- Модулятор - преобразование цифровых данных в электрический сигнал.
- ЛC - линии связи (телефонные, кабельные, радио, спутниковые).
Функции блоков приёмника:
ѕ Демодулятор - преобразование электрического сигнала в цифровые данные.
ѕ Декодер ПЗК выполняет целый ряд важных функций:
o Проверяет наличие ошибок.
o Вычисляет их адрес.
o Декодирует.
ѕ Декодер ОНК - преобразует неравномерные коды в равномерные.
ѕ Дешифратор - снятие криптографической защиты.
ѕ ЦПА (Цифро-аналоговый преобразователь) - преобразование дискретного сигнала в аналоговый.
1.3 Изменение форм информации на дискретном канале
1. Непрерывная информация (аналоговая).
2. Дискретная информация (цифровая).
3. Криптографический код.
4. Оптимальный код (сжатый).
5. Помехоустойчивый код.
6. Электромагнитные сигналы.
1.4 Мера количества информации и энтропия
Мерой количества информации символа сообщения является вероятность появления символа в сообщении:
Свойства количества информации, график:
- Количество информации всегда положительно I(ai)>0;
- Чем выше вероятность символа, тем меньшее количество информации содержит этот символ, т.е. если Р(а 1)<P(a2), то I(а 1)>I(а 2);
- Если Р(аi)=1, то I(ai)=0
Энтропия - среднее количество информации на символ сообщения:
Свойства энтропии, график:
- H(A) ? 0 не отрицательна;
- Энтропия ограничена Н(А) ? logN, где N - длина алфавита;
- Нmax(A)=logN Энтропия максимальна для равновероятных символов алфавита.
1.5 Методы задания дискретного канала
Дискретный канал полностью задан со стороны источника, если даны дискретный ансамбль сообщения (ДАС{A, }) передаваемого сообщения и канальная матрица источника (КМИ = ):
КМИ определяет действие помех на дискретном канале.
Канал задан со стороны приёмника, если дан и :
Например: задана канальная матрица приемника.
.
Время передачи одного символа = 0,01 символ/сек., р(b1) = 0,1; р(b2) = 0,2; р(b3) = 0,4; р(b4) = 0,3 . Передано сообщение с 150 символов.
Вероятности входного сигнала находятся по формуле:
,
КМП отражает действие помех на канале передаваемого сообщения относительно принятого сообщения.
Канал полностью задан канальной матрицей объединения:
1.6 Информационные характеристики дискретного канала
1.6.1 Количество информации и энтропия источника
Количество информации I(ai) каждого символа ai дискретного сообщения A:
(i=1,2,3,4), бит,
, бит,
, бит,
, бит.
, бит.
Среднее кол-во информации, переданная одним символом определяет энтропия источника Н(А):
Максимальная энтропия источника сообщений Hmax(A)
Hmax(A) = log N = log 4 = 2 бит/символ,
где N - кол-во символов в алфавите сообщения
1.6.2 Количество информации и энтропия приемника
Количество информации I(bj) каждого символа bj дискретного сообщения B:
, бит,
, бит,
, бит.
, бит.
Среднее кол-во информации, переданная одним символом определяет энтропия приемника Н(B):
Максимальная энтропия приемника сообщений Hmax(B)
Hmax(B) = log N = log 4= 2 бит/символ,
где N - кол-во символов в алфавите сообщения
1.6.3 Информационные потери
Условная энтропия приемника вычисляется по формуле:
1.6.4 Скоростные характеристики дискретного канала
Скорость модуляции дискретного источника сообщений, n
, символ/секунда.
Продуктивность дискретного источника, H'(A)
Скорость передачи информации, R
Пропускная способность С дискретного канала святи определяется максимальной скоростью передачи C=max R
Теоремы Шеннона для канала с шумами связывают пропускную способность канала передачи информации и существование кода, который возможно использовать для передачи информации по каналу с ошибкой, стремящейся к нулю (при увеличении длины блока).
Если скорость передачи сообщений меньше пропускной способности канала связи (R<Rкр), то существуют коды и методы декодирования такие, что средняя и максимальная вероятности ошибки декодирования стремятся к нулю, когда длина блока стремится к бесконечности.
Иначе, кода, на основе которого можно добиться сколько угодной малой вероятности возникновения ошибки, не существует.
Часть 2. Теория кодирования
Основная идея оптимального кодирования лежит в том, что символам сообщения, которые имеют большую вероятность, присваивают короткие бинарные коды, то есть образуются бинарные кодовые слова разной длины - неравномерные коды. Оптимальным неравномерным кодом (ОНК) называется такой код, для которого средняя длина кода есть минимальной.
2.1 Равномерный двоичный код (РДК)
- Составить сообщение, алфавит, вычислить вероятности и коды РДК;
S = съешь еще этих мягких французских булок
Ls = 39 символов
A = {с, ъ, е, ш, ь,, щ, э, т, и, х, м, я, г, к, ф, р, а, н, ц, у, з, б, л, о}
LA = 25 символов
ai |
p(ai) |
РДК |
|||||
0,13 |
0 |
0 |
0 |
0 |
0 |
||
е |
0,08 |
0 |
0 |
0 |
0 |
1 |
|
и |
0,08 |
0 |
0 |
0 |
1 |
0 |
|
х |
0,08 |
0 |
0 |
0 |
1 |
1 |
|
к |
0,08 |
0 |
0 |
1 |
0 |
0 |
|
с |
0,05 |
0 |
0 |
1 |
0 |
1 |
|
у |
0,05 |
0 |
0 |
1 |
1 |
0 |
|
ъ |
0,03 |
0 |
0 |
1 |
1 |
1 |
|
ш |
0,03 |
0 |
1 |
0 |
0 |
0 |
|
ь |
0,03 |
0 |
1 |
0 |
0 |
1 |
|
щ |
0,03 |
0 |
1 |
0 |
1 |
0 |
|
э |
0,03 |
0 |
1 |
0 |
1 |
1 |
|
т |
0,03 |
0 |
1 |
1 |
0 |
0 |
|
м |
0,03 |
0 |
1 |
1 |
0 |
1 |
|
я |
0,03 |
0 |
1 |
1 |
1 |
0 |
|
г |
0,03 |
1 |
0 |
1 |
1 |
1 |
|
ф |
0,03 |
1 |
0 |
0 |
0 |
0 |
|
р |
0,03 |
1 |
0 |
0 |
0 |
1 |
|
а |
0,03 |
1 |
0 |
0 |
1 |
0 |
|
н |
0,03 |
1 |
0 |
0 |
1 |
1 |
|
ц |
0,03 |
1 |
0 |
1 |
0 |
0 |
|
з |
0,03 |
1 |
0 |
1 |
0 |
1 |
|
б |
0,03 |
1 |
0 |
1 |
1 |
0 |
|
л |
0,03 |
1 |
0 |
1 |
1 |
1 |
|
о |
0,03 |
1 |
1 |
0 |
0 |
0 |
- Записать сообщение в коде РДК LРДК и определить длину РДК;
SРДК = 00101 00111 00001 01000 01001 00000 01010 01011 01100 00010 00011 01101 01110 10111 00100 10000 10001 10010 10011 10100 00110 10101 10110 10111 11000
- Записать корневое бинарное дерево РДК.
0-1
Корневое бинарное дерево 5 порядка
2.2 ОНК Шеннона-Фано, критерий Фано однозначного декодирования, корневое дерево, информационные характеристики
- Алгоритм метода биссекции вычисления ОНК;
ai |
p(ai) |
1 |
2 |
3 |
4 |
5 |
6 |
ОНК |
|
0,13 |
0 |
0 |
0 |
000 |
|||||
е |
0,08 |
1 |
0 |
0010 |
|||||
и |
0,08 |
1 |
0011 |
||||||
х |
0,08 |
1 |
0 |
010 |
|||||
к |
0,08 |
1 |
0 |
0110 |
|||||
с |
0,05 |
1 |
0111 |
||||||
у |
0,05 |
1 |
0 |
0 |
0 |
0 |
10000 |
||
ъ |
0,03 |
1 |
10001 |
||||||
ш |
0,03 |
1 |
0 |
10010 |
|||||
ь |
0,03 |
1 |
10011 |
||||||
щ |
0,03 |
1 |
0 |
0 |
0 |
101000 |
|||
э |
0,03 |
1 |
101001 |
||||||
т |
0,03 |
1 |
10101 |
||||||
м |
0,03 |
1 |
0 |
10110 |
|||||
я |
0,03 |
1 |
10111 |
||||||
г |
0,03 |
1 |
0 |
0 |
0 |
0 |
110000 |
||
ф |
0,03 |
1 |
110001 |
||||||
р |
0,03 |
1 |
11001 |
||||||
а |
0,03 |
1 |
0 |
11010 |
|||||
н |
0,03 |
1 |
11011 |
||||||
ц |
0,03 |
1 |
0 |
0 |
0 |
111000 |
|||
з |
0,03 |
1 |
111001 |
||||||
б |
0,03 |
1 |
11101 |
||||||
л |
0,03 |
1 |
0 |
11110 |
|||||
о |
0,03 |
1 |
11111 |
SОНК = 000 0010 0011 010 0110 0111 10000 10001 10010 10011 101000 101001 10101 10111 110000 110001 11001 11010 11011 111000 111001 11101 11110 11111
- Критерий Фано декодирования сообщения в неравномерных кодах (префиксность ОНК);
Критерий Фано однозначного декодирования ОНК: ни одно слово ОНК не является началом другого слова ОНК. Это ещё называется свойством префиксности. Критерий Фано позволяет однозначно декодировать сжатое сообщение SОНК.
- Построить КБД ОНК Шеннона-Фано;
0-1
Корневое бинарное дерево 6 порядка
- Вычислить все информационные характеристики ОНК Шеннона-Фано ;
[бит]
[бит/символ]
- Вывод об эффективности ОНК.
Метод Шеннона - Фано позволяет построить кодовые комбинации, в которых знаки исходного ансамбля, имеющие наибольшую вероятность, кодируются наиболее короткими кодовыми последовательностями. Таким образом, устраняется избыточность обычного двоичного кодирования, информационные возможности которого используются не полностью.
2.3 ОНК Хаффмена
- Вычисляем ОНК (дерево Хаффмана);
ai |
p(ai) |
1 |
2 |
3 |
4 |
5 |
ОНК |
|
0,13 |
0,13 |
0,28 |
0,28 |
0,59 |
1,00 |
000 |
||
е |
0,08 |
0,15 |
0010 |
|||||
и |
0,08 |
0011 |
||||||
х |
0,08 |
0,15 |
0,15 |
0,31 |
0100 |
|||
к |
0,08 |
0101 |
||||||
с |
0,05 |
0,10 |
0,15 |
01100 |
||||
у |
0,05 |
01101 |
||||||
ъ |
0,03 |
0,05 |
01110 |
|||||
ш |
0,03 |
01111 |
||||||
ь |
0,03 |
0,05 |
0,10 |
0,21 |
0,41 |
10000 |
||
щ |
0,03 |
10001 |
||||||
э |
0,03 |
0,05 |
10010 |
|||||
т |
0,03 |
10011 |
||||||
м |
0,03 |
0,05 |
0,10 |
10100 |
||||
я |
0,03 |
10101 |
||||||
г |
0,03 |
0,05 |
10110 |
|||||
ф |
0,03 |
10111 |
||||||
р |
0,03 |
0,05 |
0,10 |
0,21 |
11000 |
|||
а |
0,03 |
11001 |
||||||
н |
0,03 |
0,05 |
11010 |
|||||
ц |
0,03 |
11011 |
||||||
з |
0,03 |
0,05 |
0,10 |
11100 |
||||
б |
0,03 |
11101 |
||||||
л |
0,03 |
0,05 |
11110 |
|||||
о |
0,03 |
11111 |
0
¦
1
SОНК = 000 0010 0011 0100 0101 01100 01101 01110 01111 10000 10001 10010 10011 10100 10101 10110 10111 11000 11001 11010 11011 11100 11101 11110 11111
LОНК = 5 [бит]
LSОНК = 119 [бит]
- Критерий Фано декодирование сообщения в неравномерных кодах;
Критерий Фано однозначного декодирования ОНК: ни одно слово ОНК не является началом другого слова ОНК. Это ещё называется свойством префиксности. Критерий Фано позволяет однозначно декодировать сжатое сообщение SОНК.
- Построить КБД ОНК Хаффмана;
Корневое бинарное дерево 5 порядка
- Вычислить все информационные характеристики ОНК;
[бит]
[бит/символ]
- Вывод об эффективности ОНК.
Метод Хаффмана устраняет избыточность двоичного кодирования, кодируя самый частые символы, самыми короткими кодами. В некоторых случаях коэфициент сжатия превосходит показатели метода Шеннона-Фано.
Часть 3. Помехоустойчивое кодирование. Назначение
Обнаруживающие коды позволяют обнаружить наличие ошибки в двоичном слове, но исправить не могу. Двоичный код становится обнаруживающим за счет контрольных бит.
3.1 Обнаруживающие коды: четности, удвоения, инверсии, СТК-3
Обнаруживающий код четности (ОКЧ):
- Генерация
Исходник: 1000111 - Ж
Макет: 1000111К
Вычислим значение контрольного бита
n = nи + nк = 7 + 1 = 8
k = 1+0+0+0+1+1+1 = 0
OKЧ = (n;k) = (8;7) = 10001110
- Диагностика
Принято |
Диагностика |
|
10001110 |
1+0+0+0+1+1+1+0 = 0 - нет ошибки |
|
10011110 |
1+0+0+1+1+1+1+0 = 1 - есть ошибка |
- Эффективность
o Простой, удобный алгоритм построения кода
o Минимальное количество контрольных бит
o Обнаруживает нечетное количество ошибок
Обнаруживающий код удвоения (ОКУ):
- Генерация
Исходник: 1000111
Макет: 1000111ККККККК
ОКУ=(14;7)=10001111000111
- Диагностика
Принято |
Диагностика |
|
10001111000111 |
1000111 + 1000111 = 0000000 - нет ошибок |
|
11001111000111 |
1100111 + 100111 = 0100000 - есть ошибка в П 2 или П 9 |
- Эффективность
o Простой алгоритм
o Количество контрольных бит = количество информационных бит
o Обнаруживается кратное число ошибок и частично указывается адрес
Обнаруживающий код инверсии (ОКИ):
- Генерация
Исходник: 1000111
Макет: 1000111ККККККК
ОКУ=(14;7)=10001110111000
- Диагностика
Принят |
Диагностика |
|
10001110111000 |
1000111 + 0111000 = 1111111 - нет ошибок |
|
11001100111000 |
1100110 + 0111000 = 1011110 - есть ошибка в П 2 или П 9 и в П 7 или П 14 |
- Эффективность
o Простой алгоритм
o Количество контрольных бит = количество информационных бит
o Обнаруживается кратное число ошибок и частично указывается адрес
ОК - СТК №3: генерация, диагностика, эффективность. (СТК №3 - код постоянного веса).
- Генерация
Количество единиц в двоичном коде называется весом кода.
Для всех символов, букв, цифр, спецзнаков разработаны двоичные коды весом, равным 3 (т. е. содержат 3 единицы).
- Диагностика
Если в принятом двоичном слове количество единиц равно 3, то ошибки нет. Во всех остальных случаях ошибка есть.
- Эффективность
Символ с ошибкой не корректируется, а удаляется.
3.2 Корректирующий систематический код Хэмминга
Исходник: Первая буква имени и первая буква фамилии, итого - 14 бит;
- Генерация
Исходник: 10001111010000 - Ж П
1=К1=П1
2=К2=П2
4=К3=П4
8=К4=П8
16= 5=П16
П1 |
П2 |
П3 |
П4 |
П5 |
П6 |
П7 |
П8 |
П9 |
П10 |
П11 |
П12 |
П13 |
П14 |
П15 |
П16 |
П17 |
П18 |
П19 |
|
К1 |
К2 |
1 |
К3 |
0 |
0 |
0 |
К4 |
1 |
1 |
1 |
1 |
0 |
1 |
0 |
К5 |
0 |
0 |
0 |
|
Пi |
№5 |
№4 |
№3 |
№2 |
№1 |
||||||||||||||
1 |
0 |
0 |
0 |
0 |
1 |
||||||||||||||
2 |
0 |
0 |
0 |
1 |
0 |
||||||||||||||
3 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||
4 |
0 |
0 |
1 |
0 |
0 |
||||||||||||||
5 |
0 |
0 |
1 |
0 |
1 |
||||||||||||||
6 |
0 |
0 |
1 |
1 |
0 |
||||||||||||||
7 |
0 |
0 |
1 |
1 |
1 |
||||||||||||||
8 |
0 |
1 |
0 |
0 |
0 |
||||||||||||||
9 |
0 |
1 |
0 |
0 |
1 |
||||||||||||||
10 |
0 |
1 |
0 |
1 |
0 |
||||||||||||||
11 |
0 |
1 |
0 |
1 |
1 |
||||||||||||||
12 |
0 |
1 |
1 |
0 |
0 |
||||||||||||||
13 |
0 |
1 |
1 |
0 |
1 |
||||||||||||||
14 |
0 |
1 |
1 |
1 |
0 |
||||||||||||||
15 |
0 |
1 |
1 |
1 |
1 |
||||||||||||||
16 |
1 |
0 |
0 |
0 |
0 |
||||||||||||||
17 |
1 |
0 |
0 |
0 |
1 |
||||||||||||||
18 |
1 |
0 |
0 |
1 |
0 |
||||||||||||||
19 |
1 |
0 |
0 |
1 |
1 |
ПЧ1 = П1+П3+П5+П7+П9+П11+П13+П15+П17+П19
ПЧ2 = П2+П3+П6+П7+П10+П11+П14+П15+П18+П19
ПЧ3 = П4+П5+П6+П7+П12+П13+П14+П15
ПЧ4 = П8+П9+П10+П11+П12+П13+П14+П15
ПЧ5 = П16+П17+П18+П9
ПЧ1 => К1+1+0+0+1+1+0+0+0+0 = 0. К1+1 = 0 > К1 = 1
ПЧ2 => К2+1+0+0+1+1+0+0+0+0 = 0. К2+1 = 0 > К2 = 1
ПЧ3 => К3+0+0+0+1+0+1+0 = 0. К3+0 = 0 > К3 = 0
ПЧ4 => К4+1+1+1+1+0+1+0 = 0. К4+1 = 0 > К4 = 1
ПЧ5 => К5+0+0+0 = 0. К5+0 = 0 > К5 = 0
Макет: К1К21К3000К41111010К5000
КСКХ = (19;7) = 1110000111110100000
- Диагностика
Принят: 1110000011110100000
Обрабатываем КСКХ правилами четности:
ПЧ1 => 1+1+0+0+1+1+0+0+0 = 0 > АО = 0
ПЧ2 => 1+1+0+0+1+1+0+0+0+0 = 0 > АО = 0
ПЧ3 => 0+0+0+0+1+0+1+0 = 0 > АО = 0
ПЧ4 => 0+1+1+1+1+0+1+0 = 1 > АО = 1
ПЧ5 => 0+0+0+0+0 = 0 > АО = 0
АО=010002=810
АО =П8
- Коррекция
Заключается в инверсии ошибочной позиции П8: 0>1
- Декодирование
Заключается в удалении контрольных бит: 10001111010000
- Эффективность
o Контрольные биты размещаются между битами исходника.
o Код содержит минимальное количество контрольных бит и является плотноупакованным.
3.3 Корректирующий циклический код
Исходник: Первая буква имени, итого - 7 бит;
- Генерация
Исходник: 1000111, x6+x3+x2 = Q(x)
ni = 7бит, nk= 9бит
Макет: Q(x)*x9=(x6+x3+x2)*x9 = 1000111000000000
g(x) = x9+x8+x1+1=1100000011
1 |
0 |
0 |
0 |
1 |
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
0 |
| |
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
|
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
| |
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
|||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
| |
|||||||||||||||||
1 |
0 |
0 |
1 |
1 |
1 |
0 |
1 |
1 |
0 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
1 |
0 |
1 |
1 |
1 |
0 |
1 |
0 |
1 |
0 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
1 |
1 |
1 |
1 |
0 |
1 |
0 |
0 |
1 |
0 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
1 |
1 |
0 |
1 |
0 |
0 |
0 |
1 |
0 |
0 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
0 |
1 |
0 |
0 |
0 |
1 |
1 |
1 |
0 |
КЦК=(16;7)=1000111 010001110
- Диагностика
Наличие и адрес ошибки определяется по остатку:
- если остаток = 0, то ошибки нет.
- ошибка в информационной части, если остаток имеет "обрамление". Адрес ошибки указывает единица внутри обрамления.
- ошибка в контрольной части, если остаток содержит одну единицу, а остальные биты равны нулю. Единица указывает адрес ошибки в контрольной части.
- КЦК содержит более одной ошибки при другой форме остатка.
Получено: 1000111010001100
1 |
0 |
0 |
0 |
1 |
1 |
1 |
0 |
1 |
0 |
0 |
0 |
1 |
1 |
0 |
0 |
| |
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
|
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
| |
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
|||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
| |
|||||||||||||||||
1 |
0 |
0 |
1 |
1 |
1 |
0 |
0 |
1 |
0 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
1 |
0 |
1 |
1 |
1 |
0 |
0 |
0 |
1 |
0 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
1 |
1 |
1 |
1 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
0 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
0 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
0 |
Ошибка в контрольной части - П15
1 |
0 |
1 |
0 |
1 |
1 |
1 |
0 |
1 |
0 |
0 |
0 |
1 |
1 |
1 |
0 |
| |
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
|
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
| |
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
|||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
| |
|||||||||||||||||
1 |
1 |
0 |
1 |
1 |
1 |
0 |
0 |
1 |
0 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
1 |
1 |
1 |
0 |
0 |
0 |
1 |
0 |
1 |
1 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
1 |
0 |
0 |
0 |
1 |
0 |
0 |
0 |
1 |
0 |
||||||||||||||||||
1 |
1 |
0 |
0 |
0 |
0 |
0 |
0 |
1 |
1 |
||||||||||||||||||
- |
- |
- |
- |
- |
- |
- |
- |
- |
- |
||||||||||||||||||
1 |
0 |
0 |
1 |
0 |
0 |
0 |
0 |
1 |
Ошибка в информационной части - П 3
- Коррекция
1) Инвертируем ошибочную позицию П15:1>0. Получаем 1000111010001110.
2) Инвертируем ошибочную позицию П3:1>0. Получаем 1000111010001110.
- Декодирование
Заключается в отбрасывании контрольных бит. Получаем 1000111.
- Эффективность
- Определяет и корректирует одну ошибку, широко применяется в станках с ЧПУ.
- Контрольные биты размещаются в конце информационной части кода. Значения контрольных бит вычисляются с помощью порождающего полинома.
Диагностика наличия ошибки и вычисление ее адреса также выполняется с помощью порождающего полинома.
3.4 Корректирующий мажоритарный код
Исходник: Первая буква имени и первая буква фамилии, итого - 14 бит.
- Генерация
Исходник: 10001111010000
Макет кода 3 удвоения (К=3)
Макет:10001111010000К1К2К3К4К5К6К7К8К9К10К11К12К13К14К15К16К17К18 К19К20К21К22К23К24К25К26К27К28
КМК=(42;14) = 10001111010000 10001111010000 10001111010000
- Диагностика
Для каждого инф. бита строится свой синдром. Если в синдроме биты одинаковые, то ошибки нет. Если разные, то ошибка в позиции с "наименьшим числом голосов".
Принято: 10000111010000 11001111010000 10101111010000
П1 = S1 = {П1,П15,П29} ={1,1,1} - нет ошибки
П2 = S2 = {П2,П16,П30} ={0,1,0} - ошибка в П16
П3 = S3 = {П3,П17,П31} ={0,0,1} - ошибка в П31
П4 = S4 = {П4,П18,П32} ={0,0,0} - нет ошибок
П5 = S5 = {П5,П19,П33} ={0,1,1} - ошибка в П5
П6 = S6 = {П6,П20,П34} ={1,1,1} - нет ошибки
П7 = S7 = {П7,П21,П35} ={1,1,1} - нет ошибки
П8 = S8 = {П8,П22,П36} ={1,1,1} - нет ошибки
П9 = S9 = {П9,П23,П37} ={0,0,0} - нет ошибки
П10 = S10 = {П10,П24,П38} ={1,1,1} - нет ошибки
П11 = S11 = {П11,П25,П39} ={0,0,0} - нет ошибки
П12 = S12 = {П12,П26,П40} ={0,0,0} - нет ошибки
П13 = S13 = {П13,П27,П41} ={0,0,0} - нет ошибки
П14 = S14 = {П14,П28,П42} ={0,0,0} - нет ошибки
- - Коррекция
Инвертируем ошибочные позиции
П5 0>1,
П16 1>0,
П31 1>0;
Получаем: 10001111010000 10001111010000 10001111010000.
- Декодирование
Отбрасываем контрольные биты: 10001111010000
- Эффективность
o Обнаружение и коррекция кратных ошибок;
o Удобный, простой алгоритм генерации и диагностики;
o Большая избыточность: 200% и более.
Часть 4. Криптографическое кодирование. Назначение
Назначение: защита данных от несанкционированного доступа.
Криптографическое кодирование обеспечивает безопасность данных в информационных системах.
Криптология - наука о тайнах:
1. Криптография - разработка методов защиты данных от несанкционированного доступа;
2. Криптоанализ - разработка методов "взломов" систем защиты данных.
4.1 Симметричные криптосистемы
дискретный приемник криптосистема шифрование
В симметрических криптосистемах применяется единый ключ при шифровании и дешифровании:
1. Поточные методы;
2. Блочные методы;
3. Методы перестановок;
4. Многоалфавитные системы;
5. Стандарт шифрования DES.
4.2 Открытые криптосистемы
В этих системах создаётся 2 ключа - ключ открытый (общедоступный), которым любой абонент сети может зашифровать своё сообщение и передать его владельцу секретного ключа; ключ секретный находится только у владельца ключа, никому не передаётся, и зашифрованное сообщение можно расшифровать только секретным ключом.
4.3 Электронная цифровая подпись ЭЦП
ЭЦП - последовательность символов, являющаяся реквизитом электронного документа и предназначенная для подтверждения целостности и подлинности электронного документа. Средство электронной цифровой подписи - программное, программно-аппаратное или техническое средство, реализующее одну или несколько следующих функций: выработку электронной цифровой подписи, проверку электронной цифровой подписи, создание личного ключа подписи или открытого ключа.
ЭЦП получается в результате криптографического преобразования электронных данных документа с использованием личного ключа ЭЦП.
ЭЦП используется физическими и юридическими лицами в качестве аналога собственноручной подписи для придания электронному документу юридической силы, равной юридической силе документа на бумажном носителе, подписанного собственноручной подписью правомочного лица и скрепленного печатью.
Использование цифровой подписи позволяет:
- осуществить контроль целостности передаваемого документа;
- ЭЦП вычислена на основании исходного состояния документа и соответствует лишь ему, поэтому при любом случайном или преднамеренном изменении документа подпись станет недействительной;
- доказательно подтвердить авторство документа;
Создать корректную подпись можно, лишь зная закрытый ключ, известный только владельцу
- защитить документ от изменений (подделки).
Список использованной литературы
1. Цимбал В.М. "Теория информации и кодирования", Киев, 1992г., Вища школа
2. Жураковский В.П., Полторак В.П., "Теорiя iнформацii та кодування", Киев, Вища школа
3. Ширшков А.К., "Теория информации и кодирования. Методические указания", ОНМУ, 2005 г.
Размещено на Allbest.ru
Подобные документы
- Количественное определение информации. Энтропия и производительность дискретного источника сообщений
Определение количества информации, содержащейся в каждом из символов источника при их независимом выборе. Двоичная единица информации. Информационные характеристики дискретного источника. Зависимость энтропии при равновероятном распределении вероятностей.
контрольная работа [480,4 K], добавлен 05.11.2013 Расчет информационных характеристик источников дискретных сообщений и канала. Согласование дискретного источника с дискретным каналом без шума, методы кодирования и их эффективность. Информационные характеристики источников сообщений, сигналов и кодов.
курсовая работа [503,7 K], добавлен 14.12.2012Модель частичного описания дискретного канала (модель Л. Пуртова). Определение параметров циклического кода и порождающего полинома. Построение кодирующего и декодирующего устройства. Расчет характеристик для основного и обходного канала передачи данных.
курсовая работа [1,8 M], добавлен 11.03.2015Частотное представление дискретного сигнала, частотные характеристики дискретных систем управления. Применение правила Лопиталя, формулы дискретного преобразования Лапласа, график частотного спектра. Построение частотной характеристики системы.
контрольная работа [85,3 K], добавлен 18.08.2009Временные функции, частотные характеристики и энергия сигналов. Граничные частоты спектров сигналов. Технические характеристики аналого-цифрового преобразователя. Информационная характеристика канала и расчёт вероятности ошибки оптимального демодулятора.
курсовая работа [1,2 M], добавлен 06.11.2011Вероятностное описание символов, аналого-цифровое преобразование непрерывных сигналов. Информационные характеристики источника и канала, блоковое кодирование источника. Кодирование и декодирование кодом Лемпела-Зива. Регенерация цифрового сигнала.
курсовая работа [1,2 M], добавлен 22.09.2014Определение плотности, мощности, начальной энергетической ширины спектра цифрового сигнала. Пороги и уровни, средняя квадратическая погрешность квантования. Расчет показателей дискретного канала связи. Спектр импульсно-кодовой модуляции и шумовых помех
контрольная работа [1,7 M], добавлен 05.12.2012Новый подход оценки значений утраченных пикселей, основанный на минимизации энтропии коэффициентов дискретного косинусного преобразования (ДКП) блока изображения. Задача устранения импульсного шума и реконструкции утерянных участков изображений.
контрольная работа [8,8 M], добавлен 29.03.2011Принцип работы кодирующего и декодирующего устройства циклического кода. Определение объема передаваемой информации. Нахождение емкости и построение диаграммы. Расчет надежностных показателей основного и обходного каналов. Выбор магистрали по карте.
курсовая работа [769,9 K], добавлен 06.05.2015Расчет спектральных и энергетических характеристик сигналов. Параметры случайного цифрового сигнала канала связи. Пропускная способность канала и требуемая для этого мощность сигнала на входе приемника. Спектр модулированного сигнала и его энергия.
курсовая работа [482,4 K], добавлен 07.02.2013