Transcript Molteplicità A i
01GSZ – Tecniche di protezione dell’informazione
parte 3
1
Peso e distanza di Hamming
H k
=
{
v
=
u
1
u u
}
Dato un vettore binario (ad esempio con
k
che componenti), si ricorda Il peso di Hamming del vettore corrisponde al numero di componenti uguali ad 1:
i
= 1
}
La distanza di Hamming tra due vettori corrisponde al numero di componenti dove i due vettori sono diversi:
d H
(
i
≠
w i
}
Essa corrisponde al peso di Hamming della somma dei due vettori:
d H
( )
=
( )
2
Molteplicità
A i
Dato un codice
C(n,k)
binario e lineare, definiamo la molteplicità come il numero di parole di codice con peso di Hamming uguale ad
i A i
A i
= {
H
( )
=
i
} 3
Molteplicità
A i
Nota: se consideriamo il numero di parole di codice che distano
i
parola di codice di tutti zero: dalla
A i
= { ∈
H
=
i
} Si ha ovviamente
A i
(0)=
A i
perché
d H
=
( )
4
Molteplicità
A i
Consideriamo ora il numero di parole di codice che distano
i
di codice
c
1 qualsiasi: da una parola = {
c
' ∈
H
(
', 1
)
=
i
} Si ha: =
A i
=
A i
5
Molteplicità
A i
Infatti ad ogni parola
c
* tale che
d H
=
i
corrisponde una e una sola parola di codice
c
2
c c
1 tale che
d H
(
c
2 ,0
)
=
i
6
Molteplicità
A i
A i
=
A i
=
( )
Abbiamo quindi dimostrato che le molteplicità danno un’informazione sul profilo delle distanze rispetto ad una qualsiasi parola di codice, in particolare quella di tutti zero.
7
Molteplicità
A i
Per verifica: le molteplicità soddisfano questa proprietà
n ∑ i=0
A i
=
2
k
8
Funzione enumeratrice dei pesi Dato un codice binario lineare
C
(
n
,
k
) e date le sue molteplicità
A i
, si può introdurre un polinomio nell’ indeterminata
D
, definito come:
=
i n
∑ = 1
i
detto funzione enumeratrice dei pesi di C
9
Molteplicità
w i
Dato un codice
C(n,k)
binario e lineare, definiamo la information multiplicity
w i
come la somma dei pesi di Hamming dei vettori di informazione che generano le
A i
parole di codice di peso
i.
w i
= ∑ ( )
H
( )
Ovviamente, con lo stesso metodo di prima si dimostra che
w i
=
w i
= 10
Molteplicità
w i
Per verifica: le information multiplicity soddisfano questa proprietà
n ∑ i=0
w i
=
k
2
k
− 1 11
Distanza minima
d min
e sue molteplicità Dato un codice
C(n,k)
binario e lineare, definiamo la distanza minima
d min
come il minimo peso di Hamming di una parola di codice non nulla (ovvero il più piccolo valore di
i
≠
0 tale che
A i
≠
0 ):
d
min = min
c
≠ 0
( )
Dato il numero
i
=
d min
le corrispondenti molteplicità
A i
e
w i
vengono indicate, rispettivamente, come
A min
e
w min
(attenzione, non si tratta dei minimi assoluti tra le molteplicità, ma delle molteplicità della distanza minima)
12
A
0 =
1
w
0 =
0
Esempio 1: Codice a ripetizione C(3,1)
G
= [ 1 1 1 ]
C
=
{000,111}
A
3 =
1
w
3 =
1
verifica: verifica:
n ∑ i=0 n ∑ i=0
w i A i
= =
k
2
k
2
k
− 1 =
2
=
1
d
min = 3 =
D
3
A
min = 1
w
min = 1 13
Esempio 2: Codice di parità C(4,3)
G
= 1 0 0 1 0 1 0 1 0 0 1 1
C
=
{0000,1001,0101,1111, 0011,1010, 0110,1100}
A
0 =
1
w
0 =
0
A
2 =
6
w
2 =
9
A
4 =
1
w
4 =
3
verifica: verifica:
n ∑ i=0 n ∑ i=0
w i A i
= =
2
k k
2
k
− 1 =
8
=
12
d
min = 2
D
2 +
D
4
A
min = 6
w
min = 9 14