Sezione 7.1: Correlazione, covarianza e autocorrelazione Su Capitolo 7: Correlazione, densità spettrale e filtraggio Sezione 7.3: Stima spettrale 

7.2 Spettro di densità di potenza

Siamo finalmente in grado di caratterizzare questa densità spettrale sia per il caso dei processi che per gli altri tipi di segnale, di potenza, periodico, o di energia. Lo strumento che lo consente è il...

7.2.1 Teorema di Wiener

Si enuncia senza troppe complicazioni[363]  [363] In realtà le attribuzioni di questo risultato sono molteplici, comprendendo anche Khinchin, Einstein e Kolmogorov - fonte https://it.wikipedia.org/wiki/Teorema_di_Wiener-Khinchin:
Lo spettro di densità di potenza Px(f) (o di energia Ex(f)) di un segnale x(t) certo o aleatorio è pari alla trasformata di Fourier della relativa funzione di autocorrelazione, ovvero Px(f) = F {Rx(τ)}
La dimostrazione del teorema per segnali di energia è straordinariamente semplice:
Rx(τ)  =  −∞ x*(t)x(t + τ)dt = −∞ X*(f)X(f) e j2πfτdf =   =  F −1{X*(f)X(f)} = F −1{Ex(f)}
in cui abbiamo prima applicato il teorema di Parseval (pag. 1), poi la proprietà di traslazione nel tempo, e quindi (vedi § 3.2) riconosciuta X*(f)X(f) come la densità di energia Ex(f).
Come anticipato, il teorema è valido anche per segnali di potenza, per i quali la funzione di autocorrelazione Rx(τ) da cui partire è quella espressa dalla (10.154) ([364]  [364]  In tal caso una stima della densità di potenza può essere ottenuta mediante periodogramma (§ 7.3.1) calcolato su di un segmento di segnale xT(t) di durata T estratto da x(t), e facendo tendere T → ∞, ovvero Px(f) = limT → ∞1 T |XT(f)|2. Dato che |XT(f)|2 è proprio la densità di energia ExT(f) di xT(t), per il teorema di Wiener la sua anti-trasformata corrisponde alla funzione di autocorrelazione RxT(τ) = F −1{ExT(f)} di xT(t), come definita dalla (10.155). Operando il passaggio al limite, si ottiene che
F −1{Px(f)} = F −1limT → ∞{1 T |XT(f)|2} = F −1limT → ∞ 1 T ExT(f) = limT → ∞ 1 T RxT(τ)
corrispondente alla autocorrelazione Rx(τ) dell’intero segnale, come espressa dalla (10.154).
). Nel caso di processi ergodici, ogni membro del processo possiede la stessa Px(f), che dunque può essere calcolata a partire dalla Rx(τ) di uno qualunque di essi. Nel caso di processi stazionari almeno in senso lato, infine, l’autocorrelazione da cui partire[365]  [365]  La dimostrazione del caso dei processi viene svolta al § 7.7.3; la sua validità è vincolata a processi per i quali |τm(1, 1)XX(τ)|dτ < ∞, ed è basata sulla considerazione che se la Pθx(f) di un particolare membro θ è valutabile come Pθx(f) = limT → ∞1 T |XθT(f)|2, allora la sua media di insieme può scriversi come Px(f) = limT → ∞ 1 T EΘ{|XθT(f)|2}. è il momento misto m(1, 1)XX(τ) = E{x(t)x(t + τ)} calcolato come media di insieme dalla (10.153), e rappresenta il modo più generale di procedere, come applicato al § 7.7.4 per il caso di un segnale dati.
Discussione
Il teorema di Wiener è (nella sua semplicità) uno strumento molto potente che può costituire una strada alternativa per verificare ed estendere risultati noti. Ad esempio, la proprietà di massimo nell’origine per l’autocorrelazione Rx(0) =  Px può ora essere ricavata da quella del valore iniziale eq. (10.38):
Rx(0) =  F −1{Px(f)}|τ = 0 =   −∞ Px(f)e j2πfτdf|τ = 0 =  −∞ Px(f)df = Px
figure f7.11.png
D’altra parte, la validità del teorema anche per segnali periodici e di energia consente di intraprendere per essi due percorsi alternativi per il calcolo delle corrispondenti Px(f) e Ex(f), come illustrato nella figura a lato.
Dato che in virtù del teorema di Wiener è ora possibile definire una Px(f) anche per processi e segnali di potenza, molto spesso nel testo ci si riferirà alle densità di potenza o di energia anziché alle trasformate dei segnali, in modo da applicare i risultati a tutti i casi possibili.
Applichiamo ora ad alcuni casi notevoli di segnale certo e processo aleatorio la relazione tra Px(f) e Rx(τ) espressa dal teorema di Wiener.

7.2.2 Segnale periodico

In questo caso x(t) con periodo T può essere espresso mediante la relativa serie di Fourier (10.7) x(t) = n = −∞Xn e j2πnFt riferita alla frequenza fondamentale F = 1T (o prima armonica), e sviluppando in tal senso[366]  [366] Partendo dalla (10.158) Rx(τ) = 1T T ⁄ 2 − T ⁄ 2x*(t)x(t + τ)dt possiamo scrivere
Rx(τ)  =  1 T T ⁄ 2 − T ⁄ 2n = −∞X * n e −j2πnFtm = −∞Xm e j2πmF(t + τ)dt =   = n = −∞m = −∞X * nXm1T e j2πmFτT ⁄ 2 − T ⁄ 2 e j2π(m − n)Ftdt = n = −∞|Xn|2 e j2πnFτ
in cui l’ultima uguaglianza è frutto della proprietà di ortogonalità degli esponenziali (2.3).
la (10.158) si ottiene che l’autocorrelazione di x(t) ha espressione Rx(τ) = n = −∞|Xn|2 e j2πnFτ, ovvero può essere espressa in serie di Fourier, e quindi è a sua volta periodica, come già osservato. La relativa densità di potenza Px(f) risulta dunque pari a
(10.160) Px(f) = F {Rx(τ)} =n = −∞|Xn|2δ(f − nF)
che costituisce una conferma del teorema di Parseval (10.13). A pag. 1 sono riportati alcuni esempi di autocorrelazione e densità di potenza per segnali periodici.
Componente continua
Come osservato a pag. 1, se il segnale può essere scritto come x(t) = x0(t) + a in cui E{x0(t)} = 0 ed a è una costante, si ottiene Rx(τ) = Rx0(τ) + a2 e dunque Px(f) = F {Rx(τ)} = Px0(f) + a2δ(f), ossia la relativa densità spettrale presenta un impulso nell’origine di area a2. Ovvero, dal punto di vista opposto, un impulso nell’origine di Px(f) indica la presenza di una componente continua in x(t).

7.2.3 Processo armonico

Si tratta del segnale sinusoidale introdotto a pag. 1 e la cui fase iniziale è aleatoria, espresso come
(10.161) x(t, θ) = Acos(2πf0t + θ)
in cui il parametro θ è una v.a. con d.d.p. uniforme tra  − π e π, ovvero pΘ(θ) = 12π rect2π(θ). In tal caso x(t, θ) costituisce un processo ergodico (vedi § 6.3.7), la cui d.d.p.
pX(x) = 1π A2 − x2
è graficata a pagina 1.
Dato che a ciascuna realizzazione del processo armonico (ad esempio quella con θ = 0) corrisponde la medesima[367]  [367] Infatti le diverse realizzazioni (10.161) al variare di θ differiscono solo per una traslazione temporale, a cui in frequenza corrisponde un termine di fase lineare, che non incide sulla Px(f). densità di potenza[368]  [368] Il risultato si ottiene applicando la (10.160) all’unica armonica presente, e considerando che la potenza totale Px = A2 2 si distribuisce per metà a frequenza positiva e per metà negativa. Px(f) = A2 4 [δ(f − f0) + δ(f + f0)], possiamo ottenere l’autocorrelazione Rx(t) (10.161) senza dover svolgere l’integrale (10.158), e neanche la media di insieme (10.153). Infatti, per il teorema di Wiener si ha
Rx(t) = F −1{ Px(f)} = A2 4 [e j2πf0t + e −j2πf0t] = A22 cos(2πf0t)
figure f7.12.png
Questo risultato conferma che l’autocorrelazione di un segnale periodico è periodica; riflettiamo dunque sulla circostanza che anche un seno, od un coseno con qualunque altra fase, avrebbe avuto la stessa Rx(t). Ciò è d’altra parte evidente, avendo tutti questi segnali uguale densità di potenza Px(f).

7.2.4 Processo gaussiano bianco limitato in banda

figure f7.13.png
Un processo n(t) è chiamato bianco quando la densità di potenza è costante in frequenza, ovvero quando si esprime come
Pn(f) = N0 2 rect2W(f)
in cui W è l’occupazione di banda a frequenze positive. Per questo caso l’autocorrelazione vale
(10.162)
Rn(t) = F −1{ Pn(f)} = N0W sinc(2Wt)
e possiamo pertanto constatare che si ottiene
Rn(0) =  Pn = −∞Pn(f)df = W − WN0 2 df = N0W = σ2n
in cui l’ultima eguaglianza sussiste (vedi eq. (10.119) a pag. 1) in quanto l’assenza di impulsi nell’origine per Pn(f) corrisponde ad un n(t) a media nulla. Inoltre, dato che Rn(t) si azzera per t = k2W, osserviamo che campionando n(t) con periodo Tc = 12W si ottengono valori incorrelati, e se il processo è gaussiano, anche statisticamente indipendenti (vedi § 6.5.1). Questo risultato giustifica, almeno da un punto di vista teorico, una ipotesi che viene spesso fatta: quella di trovare, sovrapposti ai campioni di un segnale limitato in banda, dei campioni di rumore statisticamente indipendenti.
All’aumentare di W, Rn(t) tende a zero più rapidamente, cosicché il rumore si mantiene correlato per un tempo sempre minore, ovvero due campioni separati da uno stesso intervallo temporale t hanno una correlazione sempre minore. Un risultato simile vale anche più in generale, in quanto l’autocorrelazione Rx(t) di un qualsiasi processo a media nulla (tranne nel caso periodico, riconducibile ad una combinazione di processi armonici) tende a 0 con t → ∞, ovvero da un certo t in poi la correlazione è trascurabile.
Infine, se immaginiamo il rumore bianco limitato in banda come il risultato del transito di un processo gaussiano a banda infinita (quindi, con Rn(t) = δ(t)) attraverso un filtro passa basso ideale con H(f) = rect2W(f) (vedi § 15.4.1), ci accorgiamo che la correlazione (10.162) tra campioni di rumore in uscita presi ad istanti diversi (t ≠ 0) è una diretta conseguenza della memoria introdotta dalla risposta impulsiva h(t) = 2W sinc(2Wt) sul segnale in transito, dato che l’operazione di convoluzione tra n(t) e h(t) rende i valori in uscita una combinazione lineare di quelli (passati) in ingresso (vedi § 3.4.3).
Esercizio  Sia dato un processo gaussiano ergodico a media nulla e con densità di potenza Px(f) = Px2β β2 + 4(πf)2 in cui β = 0.2 e Px = 5.
  1. Esprimere la relativa funzione di autocorrelazione Rx(τ);
  2. esprimere la d.d.p. pX(x) di una v.a. x estratta dal processo ad un istante casuale;
  3. esprimere vettore medio mx e matrice di covarianza Σx di una coppia di v.a. x1 e x2 estratte con un intervallo τ, ovvero x1 = x(t) e x2 = x(t + τ), per un valore di τ = 10.
Svolgimento In base alla tabella al § 3.8.8 risulta che F −1 2β β2 + 4(πf)2  =  e− β|t|, dunque
  1. Rx(τ) = F −1{Px(f)} = Px e− β|τ| = 5 ⋅ e− 0.2|τ|
  2. abbiamo evidentemente a che fare con una v.a. gaussiana, dunque pX(x) = 1 2π σx e− (x − mx)2 2σ2x in cui σ2x = Px = 5 in quanto a media nulla, e pari al massimo di Rx(τ) per τ = 0;
  3. la coppia x1x2 è un vettore aleatorio gaussiano bidimensionale, il cui valor medio è nullo in base alla stazionarietà ed all’essere il processo a media nulla, mentre Σx è una matrice 2 × 2 sulla cui diagonale compare Rx(0) = σ2x mentre nelle altre due posizioni compare la covarianza
    σx1x2 = m(1, 1)x1x2(τ = 10) = Rx(τ = 10) = 5 ⋅ e− 0.2 ⋅ 10 = 0.68
    dunque mx =  0 0 e Σx =  5 0.68 0.68 5 .

7.2.5 Processo di segnale dati

Al § 15.1.2 descriveremo un generico segnale numerico come una somma di repliche di una funzione g(t), ognuna moltiplicata per un diverso valore an rappresentativo delle informazioni da trasmettere:
(10.163) x(t) = n = −∞ang(t − nT + θ)
La presenza della variabile aleatoria θ a distribuzione uniforme tra ± T2 (per cui pΘ(θ) = 1T rectT(θ)), rende x(t) un processo ergodico (vedi pag. 1).
Si mostrerà in appendice (§ 7.7.4) che, nelle ipotesi in cui le ampiezze an siano determinazioni di variabili aleatorie indipendenti ed identicamente distribuite, a media nulla e varianza σ2A( [369]  [369] Media mA e varianza σ2A sono qui riferite ai valori multilivello ak (con k = 1, 2, ⋯, L) che un generico simbolo an può assumere, pesati con le rispettive probabilità pk, ossia
mA = Lk = 1pkak e σ2A = Lk = 1pk(ak − mA)2
), la densità spettrale di potenza del processo (10.163) risulta
(10.164) Px(f) = σ2A Eg(f) T
mentre nel caso in cui gli an siano statisticamente dipendenti, e/o a media non nulla, il risultato è più complesso (vedi eq. (10.192)). Limitandoci ad interpretare il risultato semplice espresso dalla (10.164), notiamo che Eg(f) è la densità di energia di una singola replica di g(t), la cui ripetizione, con periodo T, fornisce una densità di potenza media Eg(f)T. Se ogni replica di g(t) è moltiplicata per una v.a. indipendente a media nulla e varianza (potenza) σ2A, la densità di potenza Px(f) aumenta di egual misura (vedi § 7.5.3).
 Sezione 7.1: Correlazione, covarianza e autocorrelazione Su Capitolo 7: Correlazione, densità spettrale e filtraggio Sezione 7.3: Stima spettrale