Sezione 17.2: Capacità di canale discreto Su Capitolo 17: Capacità e codifica di canale Sezione 17.4: Codifica di canale 

17.3 Capacità di canale continuo

Come anticipato fin dal § 1.2.2 un canale numerico è in realtà una astrazione che ingloba internamente un codificatore di linea o modem che, a partire da una sequenza numerica, produce un segnale trasmissibile su di un canale analogico, che a sua volta può essere caratterizzato da un valore di capacità, espresso nei termini dei parametri che descrivono la trasmissione analogica soggiacente.
Canale gaussiano additivo bianco
Una situazione tipica è quella raffigurata
figure f17.16.png
a lato, in cui al segnale ricevuto è sommato un rumore n(t) gaussiano, bianco e a media nulla, mentre il filtro di ricezione HR(f) impone una limitazione di banda 2B, in modo che la potenza di rumore in ingresso al decisore vale Pn = σ2n = N0B. Tale situazione viene indicata come canale awgn (additive white gaussian noise) limitato in banda.
Calcolo della capacità
Indicando con p(x), p(y), p(x ⁄ y), p(y ⁄ x) le d.d.p. marginali e condizionali che descrivono un campione dei processi di ingresso x(t) ed uscita y(t), entrambi limitati in banda ± B, l’applicazione formale della (21.88) al caso continuo porta a scrivere l’espressione dell’informazione mutua media come
(21.96)
I(X, Y) =  −∞pXY(x, y) log2 pY(y ⁄ x)pY(y) dxdy       bit/campione
che è una misura assoluta[932]  [932] Per il fatto di avere una ddp di y sia a numeratore che a denominatore del logaritmo, la (21.96) non soffre dei problemi discussi alla nota 477 a pag. 1. del trasferimento di informazione per campione di uscita. Il massimo valore di (21.96) al variare di pX(x) consente anche questa volta di definire la capacità di canale per campione Cs = maxp(x) I(X, Y); in virtù della limitazione di banda, i campioni prelevati ad una frequenza di campionamento fc = 2B risultano indipendenti tra loro (vedi § 7.2.4), cosicché la capacità di canale risulta definita come
(21.97)
C = 2B ⋅ maxp(x){I(X, Y)}       bit/secondo
Riscrivendo la (21.96) nella forma
(21.98) I(X, Y) = h(Y) − h(Y ⁄ X)
si ottiene una espressione analoga alla (21.89) ma i cui termini sono ora da intendersi come entropia differenziale, definita al § 9.3.1. Osserviamo ora che il termine di noise entropy
h(Y ⁄ X) =  −∞ pXY(x, y) log2 1pY(y ⁄ x) dxdy
dipende esclusivamente dal rumore additivo, in quanto y(t) = x(t) + n(t) e quindi pY(y ⁄ x) = pN(x + n): infatti pY(y ⁄ x) altro non è che la gaussiana del rumore, a cui si somma un valor medio fornito dal campione di x; quindi h(Y ⁄ X) si riduce all’entropia differenziale di un processo gaussiano (10.235), che non dipende dal valor medio, ma solo dall’andamento di pN(n); pertanto
(21.99)
h(Y ⁄ X) =  −∞pN(n) log2 1pN(n) dn = 12 log2(2πeσ2n)
come risulta per l’entropia differenziale di sorgenti gaussiane (10.235). Quindi ora il termine della (21.98) che deve essere massimizzato rispetto a p(x) è solo il primo, ossia h(Y), che come sappiamo, è massimo se y(t) è gaussiano. Dato che il processo ricevuto y(t) è composto da due termini x(t) + n(t) di cui il secondo è già gaussiano, si ottiene y(t) gaussiano a condizione che anche x(t) sia gaussiano. Indicando con σ2x la potenza di quest’ultimo, ed in virtù della indipendenza statistica tra x(t) e n(t), risulta σ2y = σ2x + σ2n, e quindi
(21.100) h(Y) = 12 log2 [2πe(σ2x + σ2n)]
cosicché mettendo assieme (21.98), (21.99) e (21.100), la (21.97) si riscrive come
C  =  2B{12 log2 [2πe(σ2x + σ2n)] − 12 log2 (2πeσ2n)} =   =  B ⋅ log2 σ2x + σ2nσ2n = B ⋅ log2 1 +  PxPn      bit/secondo
che è proprio il risultato tanto spesso citato, che prende il nome di legge di Shannon-Hartley[933]  [933] http://en.wikipedia.org/wiki/Shannon-Hartley_theorem e che esprime la capacità di canale per un canale additivo gaussiano. Tenendo conto che Pn = σ2n = N0B e che Px è la potenza del segnale ricevuto Ps, riscriviamo l’espressione della capacità nella sua forma più nota:
(21.101)
C  =  B ⋅ log2 1 +  PsN0B   bit/secondo
che, associata al teorema fondamentale della codifica espresso al § 17.2, stabilisce il massimo tasso informativo trasmissibile senza errori su di un canale awgn limitato in banda come R ≤ B ⋅ log2(1 +  PsN0B). Discutiamo ora delle conseguenze di questo risultato.

17.3.1 Sistema di comunicazione ideale

Una volta noto il massimo tasso di informazione R < C che il canale può trasportare senza errori, come fare per evitare, appunto, questi ultimi? Il metodo suggerito da Shannon, anziché introdurre ridondanza come avviene per le tecniche di codifica di canale classiche, effettua invece la trasmissione semplicemente ripartendo l’informazione in blocchi codificati mediante simboli di durata elevata. In pratica, si tratta di realizzare una sorta di trasmissione multilivello (vedi § 15.1.2.4) come mostrato alla figura 17.6
figure f17.17.png
Figure 17.6 Schema ideale di codifica di canale ad errore asintoticamente nullo
dove l’informazione generata ad una velocità R bit/secondo viene trasmessa mediante simboli emessi con periodo Ts secondi, ognuno dei quali rappresenta un gruppo di M = RTs bit, e dunque occorrono L = 2M simboli diversi.
Nella dimostrazione di Shannon ogni simbolo, anziché essere rappresentato da un valore costante come nella trasmissione multilivello, è costituito da un segnale xk(t),  k = 1, 2, …, L di durata Ts, ottenuto prelevando una finestra temporale Ts da una realizzazione di processo gaussiano bianco limitato in banda. Il ricevitore possiede una copia di tali forme d’onda, e per ogni periodo di simbolo calcola l’errore quadratico εk = 1Ts Ts0 (r(t) − xk(t))2dt tra il segnale ricevuto r(t) ed ognuna delle forme d’onda associate ai simboli, decidendo per la trasmissione del simbolo la cui forma d’onda x(t) fornisce l’errore εk minimo. Mantenendo R fisso e pari al tasso informativo della sorgente, all’aumentare di Ts anche M = RTs aumenta di pari passo, mentre il numero di simboli L = 2M aumenta esponenzialmente. Claude Shannon ha dimostrato[934]  [934]  Senza pretendere di svolgere l’esatta dimostrazione, tentiamo di dare credibilità a questo risultato. Osserviamo quindi che se r(t) = xk(t) + n(t), il valore atteso dell’errore εk si riduce a 1Ts Ts0[n(t)]2dt → σ2n, dato che essendo n(t) stazionario ergodico, le medie di insieme coincidono con le medie temporali. Viceversa, se il segnale trasmesso è xh(t) con h ≠ k, allora il relativo errore quadratico vale ε(h)k = 1Ts Ts0(xh(t) + n(t) − xk(t))2dt, ed il suo valore atteso E{ε(h)k} → σ2n + 2σ2x essendo le forme d’onda dei simboli ortogonali tra loro e rispetto al rumore. I valori limite mostrati sono in realtà grandezze aleatorie, ma la loro varianza diviene sempre più piccola all’aumentare di Ts, e quindi in effetti con Ts → ∞ risulta sempre εk < ε(h)k, azzerando la probabilità di errore. che, per Ts → ∞, lo schema indicato riesce effettivamente a conseguire una Pe → 0, tranne per il piccolo particolare che... occorre attendere un tempo che tende a infinito!

17.3.2 Minima energia per bit

In realtà uno schema di trasmissione numerica che approssima piuttosto bene quello ideale discusso al § precedente esiste veramente, ed è quello esposto al § 16.5.1 ed denominato fsk ortogonale, in cui le forme d’onda di fig. 17.6 sono sinusoidali: il grafico delle sue prestazioni a pag. 1 mostra infatti come, aumentando L, lo stesso valore di EbN0 permetta di conseguire valori di Pe via via più piccoli. Lo stesso grafico mostra però l’esistenza di un valore limite sotto cui EbN0 non può scendere, dovendo comunque risultare
(21.102)
EbN0 ≥ ln2 = 0, 693       ovvero      EbN0||dB ≥  − 1.6   dB
Ciò deriva dall’occupazione di banda via via crescente necessaria all’fsk qualora L aumenti: considerando che la capacità di canale per B → ∞ fornita dalla (21.103) vale C = PsN0 ln 2, e che deve risultare R ≤ C, risulta allora ln2 =  PsN0C ≤ PsN0R = EbN0, ovvero la (21.102).
Ma per arrivare all’espressione di C ora citata, affrontiamo il prossimo §.

17.3.3 Compromesso banda-potenza e capacità massima

Il valore limite (21.102) trae origine da una conseguenza della (21.101) già fatta notare al § 15.4.7, ovvero la possibilità di risparmiare potenza aumentando l’occupazione di banda (o viceversa), dato che in entrambi i casi a ciò corrisponde un aumento di C. Ma ciò non avviene all’infinto, ovvero non si può oltrepassare un valore massimo di capacità! Infatti se nella (21.101) si aumenta B il filtro di ricezione si allarga, e dunque aumenta la potenza di rumore, e l’effetto finale è che per un canale con banda infinita non si ottiene una capacità infinita, bensì il valore
(21.103) C  =  limB → ∞B ⋅ log2 1 +  PsN0B =   =  PsN0ln2 ≃ 1.44  PsN0
figure f17.17b.png
che individua anche il limite assoluto al massimo tasso informativo R trasmissibile. In figura è mostrato l’andamento effettivo della (21.101) in funzione di B, per alcuni valori di PsN0 di esempio, mentre la dimostrazione della (21.103) è riportata alla nota[935]  [935] La (21.103) si ottiene riscrivendo la (21.101) nella forma
C = PsN0 PsN0Bln 1 +  PsN0Bln2 =  PsN0ln2ln (1 + λ)λ
in cui ln è il logaritmo naturale in base e, e si è posto PsN0B = λ. Ricordando ora lo sviluppo di Maclaurin f(x) = f(0) + n = 1 nf(x)xn||x = 0xnn! e che ddxln x = 1x, il termine ln (1 + λ) può essere espanso in serie di potenze come ln (1 + λ) = λ − 12λ2 + 13λ3 + ⋯; notando infine che per B → ∞ si ha λ → 0, e che limλ → 0ln (1 + λ)λ = 1, si giunge in definitiva al risultato (21.103).
.

17.3.4 Limite inferiore per EbN0

Una volta assegnato il tasso informativo R ≤ C della sorgente e la banda B del canale, partendo dalla (21.101) si può ottenere[936]  [936] Riscrivendo la (21.101) come 2CB − 1 =  PsN0B, moltiplicando ambo i membri per BR, e semplificando il risultato, si ottiene BR(2CB − 1) =  PsN0R. L’uguaglianza individua la circostanza limite in cui R = C, mentre se nell’esponente di 2 a primo membro sostituiamo C con R, e R ≤ C, il primo membro diviene più piccolo, e pertanto BR(2RB − 1) ≤  PsN0R. Infine, notiamo che PsN0R = EbN0, da cui il risultato mostrato (21.104). una relazione che esprime il valore di EbN0 necessario a conseguire una trasmissione senza errori (nel caso ideale):
(21.104) EbN0 ≥ BR (2RB − 1)
figure f17.18.png
Compromesso banda-potenza
per un sistema ideale
e che, espressa in dB, è graficata alla figura a lato, in cui l’area grigia indica i valori di EbN0 vietati, ossia per i quali è impossibile ottenere una trasmissione senza errori.
Mentre per BR = 1 il sistema ideale richiede un valore di EbN0 pari ad almeno 0 dB, questo si riduce nel caso in cui la trasmissione occupi una banda maggiore del tasso informativo R, fino a raggiungere (già per valori B > 10 R) il limite (21.102) di -1.6 dB. D’altra parte, qualora la trasmissione impegni una banda inferiore ad R, il valore di EbN0 necessario aumenta in modo piuttosto brusco.

17.3.5 Confronto con le prestazioni di sistemi di modulazione reali

E’ possibile svolgere una verifica sperimentale della relazione (21.104) prendendo in considerazione le tecniche di modulazione numerica discusse ai capitoli precedenti, e che consentono di variare l’occupazione di banda B per trasmettere ad una data velocità R = fb, ad esempio riducendone il rapporto BR come nelle trasmissione multilivello[937]  [937] Vedi ad es. il caso di banda base al § 15.4.9 o quello del qam al § 16.3.1., oppure aumentandolo, come nel caso dell’fsk. In questi casi il valore di EbN0 necessario a conseguire una determinata prestazione (Pe) varia in funzione del rapporto BR, e dunque può essere messo a confronto con i valori minimi di EbN0 previsti dalla (21.104), come avviene nella figura 17.9 che mostra i valori di EbN0 in funzione di BR per le tecniche di modulazione numerica qam (§ 16.3.1) e fsk ortogonale (pag. 1).
figure f17.19.png
Figure 17.9 Rapporto EbN0 di qam ed fsk per Pe = 10 − 5 al variare di L, in funzione della efficienza spettrale, confrontato con i valori minimi teorici
Per tracciare la figura si sono ricavati i valori di EbN0 necessari a ciascun metodo per ottenere una Pe pari a 10 − 5 per diversi valori di L, e messi in relazione con l’occupazione spettrale associata B(L) rapportata alla velocità fb, ossia in relazione all’efficienza spettrale ρ (pag. 1) dei metodi.
Considerando di adottare per il qam un impulso di Nyquist a banda minima, la banda occupata risulta pari a BQAM = fblog2 L, e pertanto BR||QAM = 1log2 L; invece come riportato a pag. 1 per l’fsk ortogonale si ha BFSKfb2 Llog2 L, e dunque BR||FSK = L2log2 L. Possiamo osservare come per le due tecniche di trasmissione l’andamento dei valori di EbN0 in funzione di BR ricalchi abbastanza fedelmente quello ideale, a parte una perdita di efficienza, che si riduce per L crescente.
 Sezione 17.2: Capacità di canale discreto Su Capitolo 17: Capacità e codifica di canale Sezione 17.4: Codifica di canale