21.9.1 Entropia di variabile gaussiana complessa multivariata
Estendiamo il risultato trovato al § 9.3.2 per l’entropia differenziale hG(X) = 12 log2(2πeσ2) di una v.a. gaussiana reale X con varianza σ2 a due altri casi, quello in cui X sia una v.a. vettoriale a componenti gaussiane (§ 6.5) con matrice di covarianza Σ, e quello in cui oltre a ciò, le v.a. marginali assumano valori complessi.
Caso reale
La v.a. X (vettore colonna ad n elementi) è descritta dalla d.d.p. n − dimensionale
(21.290) pX(x) = 1√(2π)ndet(Σ) exp⎧⎩− 12( x − m)TΣ− 1( x − m)⎫⎭
alla quale applichiamo la definizione di entropia HX = E{ − log2 pX(x)}, ponendo m = 0 in quanto l’entropia differenziale è indipendente dalle traslazioni (pag. 1), e tenendo conto che log2 p(x) = ln p(x)ln2, in modo da ottenere
All’ultimo termine si applica ora il trucco della traccia[1299] [1299] Vedi ad es. https://sgfin.github.io/ che permette due sostituzioni: la prima è[1300] [1300] L’operatore matriciale tr(A) restituisce la somma degli elementi sulla diagonale della matrice quadrataA. Dal momento che xΣxT è un numero, ovvero una matrice 1 × 1, la sua traccia è pari al numero stesso.xTΣ− 1 x = tr(xTΣ− 1 x), e la seconda che si può scrivere[1301] [1301] Nota come proprietà ciclica, vedi https://en.wikipedia.org/wiki/Trace_(linear_algebra) tr(UVW) = tr(WUV), dunque
dato che E{xxT} è una matrice con elementi E{xixj} = σij ossia esattamente gli elementi della covarianza Σ, il cui prodotto per Σ− 1 è dunque la matrice identità di dimensione n. Pertanto risulta
che può anche essere scritta come hGM = 12 log2(det(2πeΣ)).
Caso complesso
In questo caso Z è un vettore ad n componenti complesse zk = xk + jyk note come v.a. gaussiana centrata a simmetria circolare[1302] [1302] Vedi ad es. https://en.wikipedia.org/wiki/Complex_normal_distribution, le cui parti reale ed immaginaria xk, yk sono v.a. gaussiane indipendenti (in quanto E{xky * k} = 0) a media nulla e varianza 12 σ2k (in modo che E{zkz * k} = E{xkx * k} + E{yky * k} = σ2k), con matrice di covarianza ∑Hermitiana[1303] [1303] Ossia ∑ coincide con la propria trasposta coniugata (o aggiunta); dunque se la matrice è ad elementi reali, è simmetrica. Vedi ad es. https://it.wikipedia.org/wiki/Matrice_hermitiana ad elementi σi, j = E{ziz * j}. Per calcolare l’entropia hGC di questo tipo di sorgente informativa[1304] [1304] O molto più banalmente, il campionamento dell’inviluppo complesso del rumore osservato su n canali equivalenti di bassa frequenza. si può procedere in (almeno) due modi: il primo prende in considerazione la d.d.p. di Z che ora si scrive
in cui (a parte il resto) al posto del trasposto T che compare nella (21.290) ora si usa il trasposto coniugato † o Hermitiano. A partire dalla (21.293), applicando sviluppi analoghi alle (21.291) - (21.292) si può ottenere
hGC(Z) = log (det(πeΣ))
Un secondo modo di procedere prende in considerazione il fatto che l’entropia hGC(Z) è pari a quella h(X, Y) di un vettore [X, Y] = [ℜ{Z}, ℑ{Z}] ottenuto concatenando i vettori delle parti reale ed immaginaria di Z. Dato che gli elementi di X ed Y sono statisticamente indipendenti a coppie perché incorrelati, si ha h(X, Y) = h(X) + h(Y). Dato che inoltre sia X che Y sono vettori gaussiani a media nulla e covarianza 12 Σz l’entropia differenziale di ciascuno di essi è pari a 12 log2⎛⎝det(2πe 12 Σz)⎞⎠. Mettendo tutto assieme si ottiene
Prev Sezione 21.8: Single frequency network - SFNSu Capitolo 21: Sistemi multiantenna o MIMOPart IV: Sistemi di TelecomunicazioneNext
Cliccando sul bottone acconsenti a salvare sul tuo device i cookie provenienti da questo sito,
utilizzati al solo fine di migliorare l'esperienza di navigazione
Spiegami meglio