Studbooks net рефераты, курсовые, дипломные - файл

скачать (540.9 kb.)



Контрольная работа

Задача 1. Вероятностное описание символа

Для дискретной случайной величины , принимающей одно из трех значений с вероятностями , записать ряд распределения и функцию распределения, привести соответствующие графики и найти следующие числовые характеристики: математическое ожидание и СКО, математическое ожидание модуля , энтропию



Исходные данные:

Решение

Ряд распределения заданной дискретной случайной величины:




-8

2

9



0,15

0,45

0,40

Многоугольник распределений данного ряда показан на рисунке 1.1.

Рисунок 1.1 – Многоугольник распределений

Функция распределения определяется как:



Для данного случая:



при

при

при

График функции распределения изображен на рисунке 1.2.



Рисунок 1.2 – График функции распределения

Математическое ожидание случайной величины

Математическое ожидание :



Математическое ожидание :



Математическое ожидание :



Математическое ожидание :



.

Математическое ожидание минус



СКО:




Ответы:

Полученные данные занесены в таблицу 1

Таблица 1 – Результаты вычисления

mx

x

M[X]

M[X2]

M[p(X)]

M[(p(X))-1]

M[-log2 p(X)]

S

3,3

5,74

5,7

43,8

0,385

3

1,46

63,385

Задача 2. Вероятностное описание двух символов

Два символа и имеют возможные значения x1, x2 и y1, y2 соответственно. Задана матрица совместных вероятностей с элементами Найти: ряд распределения случайной величины , повторить то же при каждом из условий и а также mx, σx, энтропию системы . Исходные данные:

x1=1; x2=7; p11=0,36; p21=0,10; p12=0,28; p22=0,26.

Решение

Закон распределения вероятностей двумерной случайной величины :





x1=1

x2=7



0,36

0,10



0,28

0,26

Безусловный ряд распределения случайной величины









1

7



0,64

0,36

Условный ряд распределения при











1

7



0,78

0,22

Условный ряд распределения при :











1

7



0,52

0,48

Математическое ожидание случайной величины



СКО:


Математическое ожидание минус :



.

Ответы:

Полученные данные занесены в таблицу 2.

Таблица 2 – Результаты вычисления


p(x1)

p(x2)

p(x1/y1)

p(x2/y1)

p(x1/y2)

p(x2/y2)

mx

x

M[-log2 p(X,Y)]

S

0,64

0,36

0,78

0,22

0,52

0,48

3,16

2,3

2,32

10,78



Задача 3. Аналого-цифровое преобразование непрерывных сигналов

разрядный АЦП рассчитан на входные напряжения в интервале и проводит квантование во времени с шагом Записать последовательность, состоящую из 5 двоичных комбинаций на выходе АЦП, если на вход поступает сигнал U(t)=u0+u1t+u2t2, для 0 ≤t≤4. Найти среднеквадратическую величину ошибки квантования по уровню для данного сигнала σ и затем ее теоретическое значение σo=Δu/(√12), где Δu – шаг квантования по уровню.

Полученные двоичные комбинации представить в форме целых неотрицательных десятичных чисел Z0,Z1,…,Z4, например: 00011010=26.

m= 5; Umin=-0.67; Umax=92.88; u0=-0.5; u1=3.8; u2=4.8

1.3 Задача 3. АЦП непрерывных сигналов


 -разрядный АЦП рассчитан на входные напряжения в интервале  и проводит квантование во времени с шагом  . Записать последовательность, состоящую из 5 двоичных комбинаций на выходе АЦП, если на вход поступает сигнал  , для  . Найти среднеквадратическую величину ошибки квантования по уровню для данного сигнала  , и затем ее теоретическое значение  , где  – шаг квантования по уровню.

Полученные двоичные комбинации представить в форме целых неотрицательных десятичных чисел  , например .

Построить графики функции  и погрешности восстановления сигнала  .

Теоретические сведения:

Цель аналого-цифрового преобразования (АЦП) – заменить непрерывный сигнал последовательностью символов. АЦП осуществляется в два этапа: дискретизация по времени и квантование по уровню. Обратное преобразование (ЦАП) также проводится в два этапа: формирование импульсов, соответствующих каждой цифре, и преобразование серии импульсов-отсчетов в непрерывный сигнал при помощи ФНЧ с прямоугольной частотной характеристикой. При этом восстановить исходный сигнал удается лишь с некоторой погрешностью.

Исходные данные:

Вариант 19. Исходные данные представлены в таблице 1.5.
Таблица 1.5 – Исходные данные




























Решение:


Число интервалов по напряжению для 4-х разрядного АЦП:


Рисунок 1.3 – Дискретизация сигнала 


Шаг квантования по уровню:

Дискретизация по времени входного сигнала с шагом  :









Процесс дискретизации показан на рисунке 1.3.

Номер интервала, который в свою очередь переводится в двоичный код, находится по формуле:




в нашем случае, сигнал на выходе АЦП:









Таким образом, приемник получает лишь номер интервала и по нему восстанавливает исходный сигнал.

Сигнал восстанавливается по формуле:



Восстановление оцифрованного сигнала:








Погрешность восстановления сигнала (ошибка квантования) определяется по формуле:













1.4 Задача 4. Нормальные случайные величины


Система случайных величин  имеет нормальное распределение  , которое характеризуется вектором-строкой математических ожиданий  и ковариационной матрицей  . Найти:  , коэффициент ковариации  ; значение условного СКО  и математического ожидания  ;  – наиболее вероятное значение  при заданном  ; значение

Теоретические сведения:

Из законов распределения системы двух случайных величин имеет смысл рассмотреть нормальный закон (часто называют законом Гаусса), как имеющий наибольшее распространение на практике.

Этот закон играет исключительно важную роль в теории связи (и не только). Главная особенность, выделяющая нормальный закон среди других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях.

Исходные данные:

Начальные условия даны в таблице 1.7.
Таблица 1.7 – Исходные данные

N













19

0,4

1,31

0,17

0,63

0,31

2,33

Решение:


СКО:



Коэффициент ковариации:

При  , случайные величины  являются линейно зависимыми.

Перед тем как найти условное СКО, рассмотрим условный закон распределения:



В общем случае плотность нормального распределения двух случайных величин выражается формулой:


А плотность распределения случайной величины  :

То есть величина  подчинена нормальному закону с центром рассеивания  и средним квадратическим отклонением  .

Тогда условный закон распределения:



Нетрудно убедиться, что

Для нахождения условного математического ожидания, преобразуем выражение условной плотности к виду:

Очевидно, центр рассеивания данного распределения:

2 Индивидуальное задание 2

2.1 Задача 1. Информационные характеристики источника и канала


Статистические свойства совокупности сигналов на входе ( ) и выходе ( ) канала с шумом определяются матрицей совместных вероятностей, заданной в задаче 2 индивидуального задания 1. Определить информационные характеристики источника и канала, а именно: производительность (мощность) источника, скорость передачи и скорость потери информации в канале, скорость создания в канале ложной информации, энтропию на выходе канала в расчете на один символ и в единицу времени. Бодовая скорость в  Бод определяется номером студента в объединенном списке.

Теоретические сведения:

Информационные характеристики источников сообщений и каналов связи позволяют установить пути повышения эффективности систем передачи информации, и, в частности, определить условия, при которых можно достигнуть максимальной скорости передачи сообщений по каналу связи.

Исходные данные:

Вариант 19.

Рисунок 2.1 – Структурная схема:

m – основание кода;
По условию задания известна матрица совместных вероятностей (таблица 2.1).

Таблица 2.1 – Матрица совместных вероятностей



































Согласно номеру варианта бодовая скорость  равна  .

Решение:

1.1 Производительность (мощность) источника или мощность создания информации (энтропия источника):


или



1.2 Энтропия на выходе канала:

или



1.3 Энтропия системы двух случайных величин:



1.4 Скорость передачи информации по каналу (средняя взаимная информация):

или



1.5 Скорость потери информации в канале (ненадёжность канала):

или



1.6 Скорость создания ложной информации в канале:

или



Ответы:

Полученные результаты занесены в таблицу 2.2.


Таблица 2.2 – Полученные результаты ( )





































2.2 Задача 2. Блоковое кодирование источника


Статистические свойства троичного источника без памяти определяются рядом распределения, заданного в задаче 1 индивидуальной работы 1.

Определить энтропию источника и его избыточность.

Произвести блоковое кодирование источника блоками по два символа двоичными кодами Хаффмана, Шеннона-Фано и равномерным кодом.

Сравнить коды по эффективности.

Определить вероятности появления 0 и 1 в последовательностях символов на выходе кодеров.

Теоретические сведения:

Сообщение на выходе любого реального источника информации (текст, речь, изображение и т.д.) обладает избыточностью. Эффективное кодирование (кодирование источника) осуществляется с целью повышения скорости передачи информации и приближения ее к пропускной способности канала за счет уменьшения избыточности. Поэтому перед тем, как проводить какие-то преобразования сообщения, лучше от этой избыточности избавиться.

Избыточность при побуквенном кодировании может оказаться слишком большой. Причины – неравномерное распределение вероятностей и наличие статистической зависимости между буквами. В этом случае осуществляется кодирование блоков, содержащие буквы, то есть каждая буквенная комбинация рассматривается как символ нового алфавита источника и производится эффективное кодирование известными методами.

Исходные данные:

Вариант 19.


Таблица 1.3 – Ряд распределения
















Известен ряд распределения (таблица 2.3).


Рисунок 1.2 – Структурная схема


M – основание алфавита; m – основание кода;

Решение:

2.2.1 Определение энтропий источника и его избыточности

Максимальная энтропия источника:



Энтропия источника:

Избыточность источника:


2.2.2 Блоковое кодирование источника по два символа

Длина блока  равен 2.

Объем нового алфавита:



Всевозможные комбинации в блоке и их вероятности даны в таблице 2.4.
Таблица 2.4 – Варианты комбинации в блоке и их вероятности

Комбинация



Вероятность






































Полная вероятность: 

Энтропия кодера:

Минимальная возможная длина кода:

2.2.2.1 Код Шеннона-Фано

Алгоритм кода Шеннона-Фано (рисунок 2.3, таблица 2.5):

Буквы алфавита сообщений вписываются в таблицу в порядке убывания вероятностей – упорядочивание алфавита;

Алфавит разделяется на две приблизительно равновероятные группы – дробление алфавита;

Всем буквам верхней половины в качестве первого символа приписывают 1, а всем нижним – 0;

Процесс повторяют до тех пор, пока в каждой подгруппе останется по одной букве;

Записывают код.

Рисунок 2.3 – Кодирование алгоритмом Шеннона-Фано


Таблица 2.5 – Кодирование алгоритмом Шеннона-Фано





I

II

III

IV

Код





 (1)

 (1)













 (0)

 (1)










 (0)










 (0)

 (1)

 (1)










 (0)










 (0)

 (1)

 (1)







 (0)







 (0)

 (1)







 (0)


Код Хаффмана

Алгоритм кода Хаффмана:

Буквы алфавита сообщений также вписываются в столбец в порядке убывания вероятностей;

Две последние буквы объединяются в одну вспомогательную букву, которой приписывается суммарная вероятность – укрупнение алфавита;

Буквам верхней группы присваивают значение 1, а нижней – 0;

Процесс продолжают до тех пор, пока не останется единственная вспомогательная буква с вероятностью, равной единице.

Процесс кодирования удобно графически иллюстрировать при помощи горизонтально расположенного дерева (слева – ветви, справа – корень, рисунок 2.4), у которого всегда две ветви объединяются в одну, более крупную. Объединяемые ветви обозначаются двоичными цифрами: верхняя – 1, нижняя – 0. Чтобы записать кодовое слово, соответствующее данной букве, нужно двигаться к ней от корня дерева и считывать эти двоичные цифры.



Рисунок 2.4 – Кодовое дерево метода Хаффмана


2.2.2.3 Равномерный код

Средняя длина кодового слова:


то есть 


Таблица 2.6 – Равномерное кодирование

Комбинация

Вероятность

Код






















































2.2.3 Сравнение кодов по эффективности

2.2.3.1 Анализ кода Шеннона-Фано

Средняя длина кода:




Эффективность:

Полученные данные занесены в таблицу 2.7.
2.2.3.2 Анализ кода Хаффмана

Средняя длина кода:



Эффективность:

Полученные данные занесены в таблицу 2.7.
2.2.3.3 Анализ равномерного кода

Средняя длина кода:


Эффективность:



Полученные данные занесены в таблицу 2.7.

2.2.4 Вероятности появления «0» и «1»

2.2.4.1 Вероятности появления на выходе «0» и «1» у кода Шеннона-Фано

Средняя длина единиц:



Вероятность появления «1»:

Вероятность появления «0»:

Полученные данные занесены в таблицу 2.7.
2.2.4.2 Вероятности появления на выходе «0» и «1» у кода Хаффмана

Средняя длина единиц:


Вероятность появления «1»:



Вероятность появления «0»:

Полученные данные занесены в таблицу 2.7.

Искать вероятности появлении нуля или единицы у равномерного кодирования нет смысла, так как осуществляется произвольный выбор кода.


Таблица 2.7 – Сравнение кодов




Код

Шеннона-Фано



Код

Хаффмана


Равномерный код
































Эффективность источника:



Выводы:


Равномерное кодирование источника понизило его эффективность. Когда в свою очередь у кодов Шеннона-Фано и Хаффмана наблюдается существенное увеличение.

Коды Шеннона-Фано и Хаффмана имеют явные преимущества перед равномерным кодом по средней длине кода (доходят почти до минимальной длины).

Средняя длина кодового слова у Шеннона-Фано и Хаффмана одинакова, но учитывая вероятности появления «0» и «1», то последний является более предпочтительным. То есть у кода Хаффмана вероятности появления нуля и единицы (примерно) равновероятна, а это означает, что он носит больше информации.

Алгоритмы Хаффмана и Шеннона-Фано используют избыточность сообщения, заключенную в неоднородном распределении частот символов его (первичного) алфавита, то есть, заменяют коды более частых символов короткими двоичными последовательностями, а коды более редких символов – более длинными двоичными последовательностями.

Главный недостаток кодов Шеннона-Фано и Хаффмана заключаются в том, что для их применения нужно знать вероятности появления букв (или их комбинации при кодировании блоками), а на практике такая благоприятная ситуация возникает чрезвычайно редко.

При использовании обоих кодов любая, даже одиночная ошибка в принятой последовательности лишает приемник возможности правильно декодировать ее оставшуюся часть.


2.3 Задача 3. Кодирование и декодирование кодом Лемпела-Зива
Задан ряд из 4-х десятичных чисел.

Представить каждое число с помощью 6 символов равномерного двоичного кода

Закодировать полученную последовательность двоичных символов кодом Лемпела – Зива.

Произвести декодирование.

Теоретические сведения:

В отличие от предыдущих кодов (Шеннона-Фано и Хаффмана) в данном кодировании не нужно знать вероятность появления букв. Здесь кодовая таблица, изначально почти пустая, заполняется одновременно в пунктах передачи и приема в процессе кодирования (декодирования), причем в эту таблицу вносятся лишь такие все более длинные отрезки передаваемого сообщения, которые еще не встречались ранее. Каждому отрезку в таблице присваивается свой номер.

Исходные данные:

Вариант 19.

Четыре десятичных числа, заданные руководителем, представлены в таблице 2.8.
Таблица 2.8 – Заданные числа

Вариант

Данные

19

17

42

27

29

Решение:

2.3.1 Представление заданных чисел равномерным двоичным кодом

В таблице 2.9 показаны двоичные коды соответствующих чисел.


 .
Таблица 2.9 – Представление в двоичном виде

Десятичное число

17

42

27

29

Двоичный код

010001

101010

011011

011101

2.3.2 Кодирование кодом Лемпела-Зива

Входная последовательность кодера: 010001 101010 011011 011101

В таблице 2.10 показаны последовательности двоичных символов на входе и выходе кодера, где подчеркнутые символы находятся в словаре (входные комбинации) или взяты из нее (выходные коды).

Таблица 2.10 – Последовательности двоичных символов на входе и выходе кодера

Вх

_0

_1

00

01

10

101

001

1011

011

101

Вых

00000

00001

00010

00011

00100

01011

00111

01101

01001

0110

Таблица 2.11 представляет собой словарь. В кодировании идет запись словаря.

Рассмотрим подробнее. На кодер первым поступает «_0», так как до этого не было на входе сигнала, на выходе будет «0000» из словаря и входной «0», который подается на выход (то есть «00000»), при этом нуль записывается в словарь (код «0001»). Далее на входе «_1», которого нет в словаре. С ним кодер поступает также как и с нулем, но символ в словарь уже записывается под другим кодом. На входе третий символ – «0». Так как код данного символа присутствует в словаре, он переходит к следующему символу последовательности (также «0»), то есть на входе уже «00». Последняя комбинация записывается в словарь («0011»), а на выход подается «00010»: код первого нуля из словаря и второй нуль. Остальные комбинации кодируются таким же образом, при этом кодируемая комбинация увеличивается.
Таблица 2.11 – Словарь

Комбинация

Код



0000

0

0001

1

0010

00

0011

01

0100

10

0101

101

0110

001

0111

1011

1000

011

1001

2.3.3 Декодирование кодом Лемпела-Зива

Входная последовательность декодера:
00000 00001 00010 00011 00100 01011 00111 01101 01001 0110
В таблице 2.12 показаны последовательности двоичных символов на входе и выходе декодера, где подчеркнутые символы находятся в словаре (входные коды) или взяты из нее (выходные комбинации).
Таблица 2.12 – Последовательности двоичных символов на входе и выходе декодера

Вх

00000

00001

00010

00011

00100

01011

00111

01101

01001

0110

Вых

_0

_1

00

01

10

101

001

1011

011

101

Принцип декодирования в большом счете не отличается от кодирования. Разница в том, что при декодировании идет считывание из словаря. В данном случае входная последовательность будет рассматриваться по пять символов: первые четыре комбинации сравниваются со словарным кодом, и на выход подается соответствующая комбинация из него, а последний, пятый, идет на выход декодера.

Выводы:

При кодировании коротких сообщений код Лемпела-Зива увеличивает избыточность. Однако, асимптотически (при увеличении длины сообщения) избыточность стремится к нулю.

Все рассмотренные выше методы – это универсальные методы, позволяющие кодировать любое цифровое сообщение без потери информации. Эти методы кодирования избегают неоднозначности кода, то есть следуют условию, которое гласит: ни одно кодовое слово не должно быть началом другого, более длинного.
3. Индивидуальное задание 3

3.1 Задача 1. Корректирующие коды


Строки производящей матрицы линейного блочного  -кода – это три  -разрядные комбинаций (младший разряд – справа), которые в двоичной форме представляют десятичные числа  ,  ,  . Найти: кодовое расстояние  , максимальные кратности гарантированно обнаруживаемых  и исправляемых  ошибок. Закодировать двоичную комбинацию, соответствующую десятичному числу  , и двоичную комбинацию на выходе кодера представить в форме десятичного числа  .

Примечание: верхняя строка производящей матрицы  соответствует младшему разряду комбинации на входе кодера.

Теоретические сведения:

Физическая среда, по которой передаются данные, не может быть абсолютно надежной. Более того, уровень шума бывает очень высоким, например, в беспроводных системах связи и телефонных системах. В результате помех могут исчезать биты или наоборот – появляться лишние. Целью помехоустойчивого кодирования является обнаружение и/или исправление ошибок при приеме сигнала в канале с помехой. Если при декодировании производится обнаружение ошибки, то обязательно нужен канал переспроса (обратный канал). Если исправление ошибок – канал переспроса не нужен.

Основная идея помехоустойчивого кодирования – введение регулярной избыточности, при использовании которых процент ошибочных комбинации на выходе декодера сводилось бы к минимуму.

Корректирующим называется такой код, использование которого дает возможность в процессе приема цифрового сигнала обнаруживать в нем наличие ошибок и, возможно, даже исправлять некоторые из ошибочных символов. Среди корректирующих кодов наибольшее распространение получили блочные двоичные коды, то есть передача двоичного сообщения производится блоками. Кодирование и декодирование каждого блока производится независимо от других блоков.

Исходные данные:

Вариант  . В таблице 3.1 представлены исходные данные.


Таблица 3.1 – Исходные данные

N

n

in


















Решение:


В таблице 3.2 показаны заданные десятичные числа  в двоичной форме записи.
Таблица 3.2 – Соответствие десятеричного и двоичного представлений заданных чисел

Десятичная система счисления

488

683

866

Двоичная система счисления

01111 01000

10101 01011

11011 00010

Согласно варианту производящая матрица  выглядит следующим образом:



Производящая матрица состоит из  линейно независимых разрешенных векторов, которые образуют базис пространства разрешенных кодовых комбинаций.

При использовании линейно блочных кодов расстояние между кодами можно находить (как расстояние между строками) из производящей матрицы, приписав к нему строку, состоящую из нулей. Кодовое расстояние определяется по формуле:



где  – кодовое расстояние между i-ой и j-ой строками матрицы  .

Это расстояние определяется в пространстве Хэмминга. Оно равно количеству позиций с различными символами. Для двоичного кода определяется весом суммарного вектора, суммирование осуществляется по модулю два.

Для данной матрицы они равны:



Отсюда, 

Кратность гарантированно обнаруживаемой ошибки:



Кратность гарантированно исправляемой ошибки:

то есть 

Проведя анализ полученных значений можно убедиться в том, что ресурсы кода используются полнее, если  является нечетным числом.

Кодирование заданной двоичной комбинации. Кодируемое десятичное число  в двоичной форме записи с учетом количества информационных символов  , который определен из размерности производящей матрицы как число строк, выглядит следующим образом:

Кодирование осуществляется по формуле:

Учитывая условие, что верхняя строка производящей матрицы  соответствует младшему разряду комбинации на выходе, задания, при вычислении переставим строки матрицы  соответственно разрядам кодируемого числа, иными словами:

или  в десятичной системе счисления.

Ответы:


Все найденные значения занесены в таблицу 3.3.
Таблица 3.3 – Полученные результаты ( )











4

3

1

488

496

3.2 Задача 2. Линейные блочные коды


Двоичные комбинации, соответствующие пяти десятичным числам  из задачи  , считать строками проверочной матрицы H кода  .

Определить:

способен ли этот код обнаружить любую однократную ошибку ( , если способен,  в противном случае);

способен ли этот код исправить любую однократную ошибку ( , если способен,  в противном случае).

Теоретические сведения:

Код линейный, если проверочные символы получены в результате линейных операций над информационными. В двоичной арифметике линейной операцией является операция суммирования по модулю 2. Следствием линейности является тот факт, что суммирование по модулю 2 разрешенных комбинаций дает разрешенную кодовую комбинацию.

Любой линейный блочный код обозначается как  , где:  – количество символов в комбинации на выходе кодера;  – количество информационных символов.

Для любого линейного блочного кода существуют проверочная ( ) и производящая ( ) матрицы.

Исходные данные:

Вариант  . В таблице 3.4 представлены исходные данные.


Таблица 3.4 – Исходные данные

Система счисления











десятичная

10

1







двоичная

0000001010

0000000001

0111101000

1010101011

1101100010

Код  . Задан с помощью проверочной матрицы  .

Решение:


Будем считать двоичные комбинации исходных данных элементами соответствующих векторов  . Тогда согласно условию задачи проверочная матрица  будет выглядеть следующим образом:

Транспонированная проверочная матрица  :

Чтобы проверить обнаружение однократной ошибки воспользуемся фундаментальным свойством:

где  – вектор синдрома;

 – передаваемый вектор;

 – вектор ошибки.

Учитывая всевозможные однократные ошибки, получим:




где  – матрица синдромов;

 – единичная матрица размера  (единицы стоят на позициях ошибок).

Или 

Данная матрица содержит две нулевые строки и поэтому не может обнаружить гарантированно все однократные ошибки. Следовательно, код и не способен исправить однократную ошибку.


Ответы:

Таблица 3.5 – Полученные результаты ( )









0

0

0

3.3 Задача 3. Неравенство Хэмминга для линейного блочного кода


Требуется построить линейный блочный  -код. Определить теоретический предел для этого кода – найти максимальную кратность исправляемых ошибок  .

Определить вероятность ошибочного декодирования кодовой комбинации  , если ошибки в отдельных символах в канале передачи происходят с вероятностью  , а ошибки в разных символах независимы. В ответе для величины  оставить  знаков после десятичной точки.

Теоретические сведения:

Идея неравенства Хэмминга заключается в том, что количество вариантов гарантированно исправляемых ошибок  должно быть меньше или равно количества вариантов ненулевых синдромов  :




Если неравенство превращается в равенство, код обладает минимальной избыточностью и является оптимальным. Такой код называется кодом Хэмминга.

Исходные данные:

Вариант  . В таблице 3.6 представлены исходные данные.
Таблица 3.6 – Исходные данные
















 – количество проверочных символов.


Код (23, 6).

Решение:


Максимальное количество гарантированно исправляемых ошибок:

где  определяется формулой:

а  как:




В последнем выражении вычитание единицы обусловлено из условия ненулевых синдромов, другими словами отнимается нулевая комбинация.

Отсюда, 

Максимальную кратность гарантированно исправляемых ошибок найдем из неравенства Хэмминга:

Полученные выражения при  занесены в таблицу 3.7.
Таблица 3.7 – Количество гарантированно исправляемых ошибок в зависимости от кратности исправляемых ошибок



1

2

3

4

5

6



23

276

2047

10902

44551

145498

Из данной таблицы видно, что данный код уже не способен гарантированно исправлять шестикратные ошибки, просто не хватит синдромов. А вот пятикратные ошибки исправит, но код будет чрезвычайно избыточен, так как неиспользуемых синдромов будет:



Следуя,  .

Вероятность ошибочного декодирования, если код гарантированно исправляет пятикратные ошибки:



Ответы: Все полученные значения занесены в таблицу 3.8.

Таблица 3.8 – Полученные результаты ( )









5



5,015493

4. Индивидуальное задание 4


4.1 Задача 1. Битовая вероятность ошибки при передаче цифрового потока


Источник информации создает цифровой поток  мегабит в секунду. На вход радиолинии с выхода передатчика подается последовательность двоичных радиоимпульсов, модулированных по закону  ( для АМ,  для ЧМ с ортогональными сигналами,  для ФМ). Средняя мощность передаваемых сигналов обоих видов ( ) равна  . Задана величина ослабления в линии  . На входе приемника присутствует аддитивный белый гауссовский шум со спектральной плотностью  . Определить битовую вероятность ошибки на выходе идеальной когерентной системы связи без использования корректирующего кода ( ) и при использовании  -кода Хэмминга в режиме обнаружения ошибки ( ) и в режиме исправления ошибки ( ).

При расчетах считать, что вероятность ошибки в канале переспроса (режим обнаружения ошибки) пренебрежимо мала по сравнению с вероятностью появления искаженной комбинации на выходе декодера.

Теоретические сведения:

Значение каждого импульса передается с помощью радиоимпульса прямоугольной формы, с использованием одного из методов модуляции. В процессе передачи сигнала по линии эти импульсы случайным образом искажаются (обычно это происходит из-за наличия мультипликативной помехи) и появляется аддитивная помеха.

Демодулятор к моменту окончания очередного принимаемого импульса должен указать (вернее угадать), которое из возможных значений символа было передано с данным импульсом. Очевидно, что иногда демодулятор будет выдавать ошибочные решения, поэтому желательно применять такой способ обработки импульса, который обеспечивал минимум полной вероятности ошибки.

Полная вероятность ошибки (битовая вероятность ошибки) – объективная характеристика качества приема, которая зависит от энергии разностного сигнала к спектральной плотности шума и, разумеется, уменьшается при увеличении этого отношения.

Исходные данные:

Вариант  . В таблице 4.1 представлены исходные данные.


Таблица 4.1 – Исходные данные
































Код Хэмминга (63, 57). Частотная модуляция.

Решение:

4.1.1 Без использования корректирующего кода

Ослабление в линии по мощности:

Длительность одного бита:

Средняя энергия сигнала на выходе передатчика:

Средняя энергия сигнала на входе приемника:

Отношение сигнал/шум по мощности, то есть отношение средней энергии импульса на входе демодулятора к спектральной плотности мощности белого шума:

Отношение сигнал/шум по мощности на выходе корреляционного приемника, равный отношению энергии разностного сигнала к спектральной плотности мощности шума:

или по энергии 

Битовая вероятность ошибки на выходе идеальной когерентной системы связи:



где  – интеграл вероятностей Гаусса (при заданной  значение определяется по таблице или находится самостоятельно решением интеграла).

4.1.2 При использовании кода Хэмминга в режиме обнаружения

Скорость цифрового потока при использовании  -кода:


Средняя энергия сигнала на входе приемника:

Отношение сигнал/шум по мощности на выходе корреляционного приемника:

Битовая вероятность ошибки на выходе системы:

При наличии однократной (или двукратной, для кода Хэмминга  ) ошибки по обратному каналу сгенерируется сигнал подтверждения. Если же полученная на выходе кодовая комбинация является запрещенной, то оно стирается, а по обратному каналу посылается сигнал переспроса. Таким образом, на выходе системы будет ошибка, только в том случае, если в цифровом потоке возникла трехкратная или более ошибка.

В канале с независимыми ошибками вероятность, того, что ровно  бит в принятой комбинации являются ошибочными можно найти по биноминальной формуле Бернулли.

Найдем вероятность появления ошибки более двух кратностей:


Тогда битовая вероятность ошибки на выходе системы в режиме обнаружения:

4.1.3 При использовании кода Хэмминга в режиме исправления

Код Хэмминга в режиме исправления отличается тем, что при нахождении ошибки (в данном случае только однократной) автоматически исправляет ее. Очевидно, что на выходе системы будет ошибка, если в цифровом потоке возникнет двукратная или более ошибка. Найдем соответствующую вероятность:

А значит, битовая вероятность ошибки на выходе системы в режиме исправления:

Численные расчеты показывают, что при той же величине избыточности системы передачи информации с обратным каналом обеспечивают большую помехоустойчивость, если ошибки в канале переспроса пренебрежимо малы.

Ответы: Полученные данные занесены в таблицу 4.2.

Таблица 4.2 – Полученные данные
















4.2 Задача 2. Регенерация цифрового сигнала при передаче на большие расстояния


На кабельной линии, содержащей  регенерационных участков, регенерация двоичных импульсов в полном смысле этого слова проводится лишь в обслуживаемых регенерационных пунктах (ОРП), размещенных на каждом m-м участке. На остальных участках размещены необслуживаемые регенерационные пункты (НРП), в которых входной сигнал лишь усиливается. Определить вероятность ошибки при демодуляции сигнала на выходе некогерентной линии  , если при  эта величина равна:

где  – отношение сигнал/шум по мощности на входе первого НРП, а все участки и приемники идентичны.

Найти отношение сигнал/шум  , которое потребовалось бы для обеспечения той же вероятности ошибки  на выходе линии для двух случаев:

все регенераторы – это НРП ( , дБ);

все регенераторы – это ОРП ( , дБ).

Теоретические сведения:

При передаче на большие расстояния сигнал может быть ослаблен настолько, что прием становится невозможным. Чтобы избежать этого, на определенных расстояниях вдоль линий связи устанавливают промежуточные пункты, в которых проводится восстановление ослабленного сигнала: либо обычное усиление, либо усиление с регенерацией сигнала.

Исходные данные:

Вариант 19. Начальные условия даны в таблице 4.3.


Таблица 4.3 – Исходные данные









19

18

162

24

Решение:

4.2.1 Вероятность ошибки на выходе некогерентной линии

Отношение сигнал/шум по мощности на входе первого НРП:



При усилении сигнала без регенерации импульсов происходит аддитивное накопление шума, то есть, отношение сигнал/шум по мощности на входе первого ОРП:

Рисунок 4.1 – Линия связи с одной регенерацией сигнала


Битовая вероятность ошибки на выходе ОРП, то есть ошибка на выходе линий связи с одной регенерацией сигнала (рисунок 4.1):


Именно здесь, при восстановлении сигнала, происходит накопление ошибок, возникающих при демодуляции.

Учитывая, что таких участков  , определим вероятность ошибки на выходе линий связи:



4.2.2 Все регенераторы – НРП

Отношение сигнал/шум по мощности на входе приемника  , выразим из уравнения:



Отношение сигнал/шум по мощности на входе первого НРП:

или  .


4.2.3 Все регенераторы – ОРП

Вероятность ошибки на выходе первого ОРП  выразим из соотношения:


Отношение сигнал/шум по мощности на входе первого ОРП  , выразим из уравнения:





Ответы:

Найденные значения занесены в таблицу 4.4.


Таблица 4.4 – Полученные данные ( )









0,042

31,9

10,39

42,332

Заключение


Курсовая работа была посвящена расчету и анализу основных характеристик простой дискретной системы связи для передачи сообщений. Изучены принципы и методы передачи информации по каналам связи. Рассмотрены вопросы математического описания сообщений, сигналов и каналов связи, кодирования и декодирования, основы теории информации, анализ помехоустойчивости каналов связи, методы помехоустойчивого кодирования, оптимального приема дискретных сообщений, основы цифровой обработки сигналов, вопросы оптимизации.

Основные результаты теории информации имеют вид неравенств, то есть, они определяют предельные, потенциальные характеристики систем передачи информации. Любая теория информации оперирует лишь вероятностными характеристиками сигналов и является математической теорией. Поэтому она универсальна, то есть может быть применена к любым сигналам независимо от их физической формы.

В заключение следует отметить, что никакое методическое руководство не может заменить посещения лекций и систематической самостоятельной работы с учебником и дополнительной литературой.
Список использованных источников
1 Бернгардт, А.С. ТЭС-14 Ч 5 (6, 7.1, 10): электронные презентации PDF / А.С. Бернгардт. – Томск: Томский государственный университет систем управления и радиоэлектроники.

2 Теория и техника передачи информации: учебное пособие / Ю.П.Акулиничев, А.С.Бернгардт. – Томск: ЭльКонтент, 2012. – 210с.

3 Булгаков, Р.В. Индивидуальное задание №3 / Р.В. Булгаков. – Томск: Томский государственный университет систем управления и радиоэлектроники, 2013. – 4 с.

4 Дамдинжапов, Э.Ц. Тетрадь по лекционным занятиям / Э.Ц. Дамдинжапов – Томск: Томский государственный университет систем управления и радиоэлектроники, 2014. – 48 л.

5 Дамдинжапов, Э.Ц. Тетрадь по практическим занятиям / Э.Ц. Дамдинжапов – Томск: Томский государственный университет систем управления и радиоэлектроники, 2014. – 48 л.

6 Вентцель, Е.С. Теория вероятностей: учебник для студ. вузов / Е.С. Вентцель. – 10-е изд., стер. – М.: Издательский центр – «Академия», 2005. – 576 с.






Контрольная работа
Учебный материал
© nashaucheba.ru
При копировании укажите ссылку.
обратиться к администрации