Molteplicità A i

Download Report

Transcript Molteplicità A i

01GSZ – Tecniche di protezione dell’informazione

parte 3

1

Peso e distanza di Hamming

H k

=

{

v

=

u

1

u u

}

Dato un vettore binario (ad esempio con

k

che componenti), si ricorda Il peso di Hamming del vettore corrisponde al numero di componenti uguali ad 1:

i

= 1

}

La distanza di Hamming tra due vettori corrisponde al numero di componenti dove i due vettori sono diversi:

d H

(

i

w i

}

Essa corrisponde al peso di Hamming della somma dei due vettori:

d H

( )

=

( )

2

Molteplicità

A i

Dato un codice

C(n,k)

binario e lineare, definiamo la molteplicità come il numero di parole di codice con peso di Hamming uguale ad

i A i

A i

= {

H

( )

=

i

} 3

Molteplicità

A i

Nota: se consideriamo il numero di parole di codice che distano

i

parola di codice di tutti zero: dalla

A i

= { ∈

H

=

i

} Si ha ovviamente

A i

(0)=

A i

perché

d H

=

( )

4

Molteplicità

A i

Consideriamo ora il numero di parole di codice che distano

i

di codice

c

1 qualsiasi: da una parola = {

c

' ∈

H

(

', 1

)

=

i

} Si ha: =

A i

=

A i

5

Molteplicità

A i

Infatti ad ogni parola

c

* tale che

d H

=

i

corrisponde una e una sola parola di codice

c

2

c c

1 tale che

d H

(

c

2 ,0

)

=

i

6

Molteplicità

A i

A i

=

A i

=

( )

Abbiamo quindi dimostrato che le molteplicità danno un’informazione sul profilo delle distanze rispetto ad una qualsiasi parola di codice, in particolare quella di tutti zero.

7

Molteplicità

A i

Per verifica: le molteplicità soddisfano questa proprietà

n ∑ i=0

A i

=

2

k

8

Funzione enumeratrice dei pesi Dato un codice binario lineare

C

(

n

,

k

) e date le sue molteplicità

A i

, si può introdurre un polinomio nell’ indeterminata

D

, definito come:

=

i n

∑ = 1

i

detto funzione enumeratrice dei pesi di C

9

Molteplicità

w i

Dato un codice

C(n,k)

binario e lineare, definiamo la information multiplicity

w i

come la somma dei pesi di Hamming dei vettori di informazione che generano le

A i

parole di codice di peso

i.

w i

= ∑ ( )

H

( )

Ovviamente, con lo stesso metodo di prima si dimostra che

w i

=

w i

= 10

Molteplicità

w i

Per verifica: le information multiplicity soddisfano questa proprietà

n ∑ i=0

w i

=

k

2

k

− 1 11

Distanza minima

d min

e sue molteplicità Dato un codice

C(n,k)

binario e lineare, definiamo la distanza minima

d min

come il minimo peso di Hamming di una parola di codice non nulla (ovvero il più piccolo valore di

i

0 tale che

A i

0 ):

d

min = min

c

≠ 0

( )

Dato il numero

i

=

d min

le corrispondenti molteplicità

A i

e

w i

vengono indicate, rispettivamente, come

A min

e

w min

(attenzione, non si tratta dei minimi assoluti tra le molteplicità, ma delle molteplicità della distanza minima)

12

A

0 =

1

w

0 =

0

Esempio 1: Codice a ripetizione C(3,1)

G

= [ 1 1 1 ]

C

=

{000,111}

A

3 =

1

w

3 =

1

     

verifica: verifica:

n ∑ i=0 n ∑ i=0

w i A i

= =

k

2

k

2

k

− 1 =

2

=   

1

  

d

min = 3 =

D

3

A

min = 1

w

min = 1 13

Esempio 2: Codice di parità C(4,3)

G

=     1 0 0 1  0 1 0 1  0 0 1 1 

C

=

{0000,1001,0101,1111, 0011,1010, 0110,1100}

A

0 =

1

w

0 =

0

A

2 =

6

w

2 =

9

A

4 =

1

w

4 =

3

     

verifica: verifica:

n ∑ i=0 n ∑ i=0

w i A i

= =

2

k k

2

k

− 1 =

8

   =

12

  

d

min = 2

D

2 +

D

4

A

min = 6

w

min = 9 14