Вероятность ошибочного декодирования
Download
Report
Transcript Вероятность ошибочного декодирования
Помехоустойчивое
кодирование
Вероятность ошибочного
декодирования
Модель двоичного
симметричного канала
p
p
p
1 p
P
p 1 p
Замечание
Чтобы гарантировать обнаружение до s
ошибок, минимальное расстояние Хэмминга в
блоковом коде должно быть dmin = s + 1.
Геометрическая интерпретация нахождения
dmin при обнаружении ошибок
Замечание
Чтобы гарантировать исправление до t
ошибок, минимальное расстояние Хэмминга в
блоковом коде должно быть dmin = 2t + 1.
Геометрическая интерпретация нахождения dmin
при исправлении ошибок
Вероятность ошибки
• Вероятность ошибочного слова веса i
равна
p (1 p)
i
ni
• Вероятность ошибки веса i равна
n i
n i
p (1 p)
i
Вероятность ошибочного
декодирования
• Ошибочное слово совпадает с некоторым
кодовым словом (то есть вектор ошибки -
кодовое слово)
1 2
2
Вероятность ошибочного
декодирования
Вероятность ошибочного декодирования
Рош
где
Ai
n
A p (1 p)
i
i d min
i
– число кодовых слов веса i.
n i
Пример
Данные кодируются (7,4)-кодом Хэмминга
Канал с АБГШ, отношение сигнал/шум – 6дБ – это
эквивалентно вероятности ошибки двоичного символа,
равной 0,023.
Скорость передачи – 16 кбит/сек
Пример
Решение. Кодовое слово будет передаваться без
ошибок, если все 7 двоичных символов переданы
верно.
Pбезош (1 p)7 (1 0,023)7 0,85
Pош 7 0,0233 0,9774 7 0,0234 0,9773 0,0237 7,9 105
Вероятность ошибочного слова
•Пример. Рассмотрим код с повторением C = {000, 111}.
Вероятность правильного декодирования
для слова 000 есть (1 - p)3 + 3p(1 - p)2,
для слова 111 есть (1 - p)3 + 3p(1 - p)2.
Тогда
Perr (C) = 1 - ((1 - p)3 + 3p(1 - p)2)
есть вероятность ошибочного слова.
•Пример. Пусть p = 0.01, тогда Perr (C) = 0.000298 и лишь
одно слово из 3555 дойдет до получателя с ошибкой.
Вероятность ошибочного слова
•Вероятность ошибочного слова
t
Рerr 1 Bi p (1 p)
i
i 1
где
Bi
- количество ошибочных слов веса i.
n i