17.3 Capacità di canale continuo
Come anticipato fin dal §
1.2.2 un canale numerico è in realtà
una astrazione che ingloba internamente un codificatore di linea o
modem che, a partire da una sequenza numerica, produce un segnale trasmissibile su di un canale analogico, che a sua volta può essere caratterizzato da un valore di capacità, espresso nei termini dei parametri che descrivono la trasmissione analogica soggiacente.
Canale gaussiano additivo bianco
Una situazione tipica è quella raffigurata
a lato, in cui al segnale ricevuto è sommato un rumore
n(t) gaussiano, bianco e a media nulla, mentre il filtro di ricezione
HR(f) impone una limitazione di banda
2B, in modo che la potenza di rumore in ingresso al decisore vale
Pn = σ2n = N0B. Tale situazione viene indicata come
canale awgn (
additive white gaussian noise)
limitato in banda.
Indicando con
p(x),
p(y),
p(x ⁄ y),
p(y ⁄ x) le d.d.p. marginali e condizionali che descrivono
un campione dei processi di ingresso
x(t) ed uscita
y(t), entrambi limitati in banda
± B, l’applicazione formale della (
21.88) al caso continuo porta a scrivere l’espressione dell’informazione mutua media come
che è una misura
assoluta del trasferimento di informazione per campione di uscita. Il massimo valore di (
21.96) al variare di
pX(x) consente anche questa volta di definire la capacità di canale per campione
Cs = maxp(x) I(X, Y); in virtù della limitazione di banda, i campioni prelevati ad una frequenza di campionamento
fc = 2B risultano indipendenti tra loro (vedi §
7.2.4), cosicché la capacità di canale risulta definita come
Riscrivendo la (
21.96) nella forma
si ottiene una espressione analoga alla
(21.89) ma i cui termini sono ora da intendersi come entropia differenziale, definita al §
9.3.1. Osserviamo ora che il termine di
noise entropy h(Y ⁄ X) = ∫ ∫∞−∞ pXY(x, y) log2 1pY(y ⁄ x) dxdy
dipende esclusivamente dal rumore additivo, in quanto
y(t) = x(t) + n(t) e quindi
pY(y ⁄ x) = pN(x + n): infatti
pY(y ⁄ x) altro non è che la gaussiana del rumore, a cui si somma un valor medio fornito dal campione di
x; quindi
h(Y ⁄ X) si riduce all’entropia differenziale di un processo gaussiano
(10.235), che non dipende dal valor medio, ma solo dall’andamento di
pN(n); pertanto
come risulta per l’entropia differenziale di sorgenti gaussiane
(10.235). Quindi ora il termine della (
21.98) che deve essere massimizzato rispetto a
p(x) è solo il primo, ossia
h(Y), che come sappiamo, è massimo se
y(t) è gaussiano. Dato che il processo ricevuto
y(t) è composto da due termini
x(t) + n(t) di cui il secondo è già gaussiano, si ottiene
y(t) gaussiano a condizione che anche
x(t) sia gaussiano. Indicando con
σ2x la potenza di quest’ultimo, ed in virtù della indipendenza statistica tra
x(t) e
n(t), risulta
σ2y = σ2x + σ2n, e quindi
cosicché mettendo assieme
(21.98),
(21.99) e
(21.100), la (
21.97) si riscrive come
C = 2B ⋅ {12 log2 [2πe(σ2x + σ2n)] − 12 log2 (2πeσ2n)} = = B ⋅ log2 σ2x + σ2nσ2n = B ⋅ log2 ⎛⎝1 + PxPn⎞⎠ bit/secondo
che è proprio il risultato tanto spesso citato, che prende il nome di
legge di Shannon-Hartley e che esprime la capacità di canale per un canale additivo gaussiano. Tenendo conto che
Pn = σ2n = N0B e che
Px è la potenza del segnale ricevuto
Ps, riscriviamo l’espressione della capacità nella sua forma più nota:
che, associata al teorema fondamentale della codifica espresso al §
17.2, stabilisce il massimo tasso informativo trasmissibile senza errori su di un canale
awgn limitato in banda come
R ≤ B ⋅ log2(1 + Ps⁄N0B). Discutiamo ora delle conseguenze di questo risultato.
17.3.1 Sistema di comunicazione ideale
Una volta noto il massimo tasso di informazione
R < C che il canale può trasportare senza errori, come fare per evitare, appunto, questi ultimi? Il metodo suggerito da Shannon, anziché introdurre ridondanza come avviene per le tecniche di codifica di canale classiche, effettua invece la trasmissione semplicemente ripartendo l’informazione in blocchi codificati mediante simboli di durata elevata. In pratica, si tratta di realizzare una sorta di
trasmissione multilivello (vedi §
15.1.2.4) come mostrato alla figura
17.6
dove l’informazione generata ad una velocità
R bit/secondo viene trasmessa mediante simboli emessi con periodo
Ts secondi, ognuno dei quali rappresenta un gruppo di
M = RTs bit, e dunque occorrono
L = 2M simboli diversi.
Nella dimostrazione di Shannon ogni simbolo, anziché essere rappresentato da un valore costante come nella trasmissione multilivello, è costituito da un segnale xk(t), k = 1, 2, …, L di durata Ts, ottenuto prelevando una finestra temporale Ts da una realizzazione di processo gaussiano bianco limitato in banda. Il ricevitore possiede una copia di tali forme d’onda, e per ogni periodo di simbolo calcola l’errore quadratico εk = 1Ts ∫Ts0 (r(t) − xk(t))2dt tra il segnale ricevuto r(t) ed ognuna delle forme d’onda associate ai simboli, decidendo per la trasmissione del simbolo k̂ la cui forma d’onda xk̂(t) fornisce l’errore εk minimo. Mantenendo R fisso e pari al tasso informativo della sorgente, all’aumentare di Ts anche M = RTs aumenta di pari passo, mentre il numero di simboli L = 2M aumenta esponenzialmente. Claude Shannon ha dimostrato che, per Ts → ∞, lo schema indicato riesce effettivamente a conseguire una Pe → 0, tranne per il piccolo particolare che... occorre attendere un tempo che tende a infinito!
17.3.2 Minima energia per bit
In realtà uno schema di trasmissione numerica che approssima piuttosto bene quello ideale discusso al § precedente esiste veramente, ed è quello esposto al §
16.5.1 ed denominato
fsk ortogonale, in cui le forme d’onda di fig.
17.6 sono sinusoidali: il grafico delle sue prestazioni a pag.
1 mostra infatti come, aumentando
L, lo stesso valore di
Eb⁄N0 permetta di conseguire valori di
Pe via via più piccoli. Lo stesso grafico mostra però l’esistenza di un valore limite sotto cui
Eb⁄N0 non può scendere, dovendo comunque risultare
Ciò deriva dall’occupazione di banda via via crescente necessaria all’
fsk qualora
L aumenti: considerando che la capacità di canale per
B → ∞ fornita dalla (
21.103) vale
C∞ = PsN0 ln 2, e che deve risultare
R ≤ C, risulta allora
ln2 = PsN0C∞ ≤ PsN0R = EbN0, ovvero la
(21.102).
Ma per arrivare all’espressione di C∞ ora citata, affrontiamo il prossimo §.
17.3.3 Compromesso banda-potenza e capacità massima
Il valore limite (
21.102) trae origine da una conseguenza della (
21.101) già fatta notare al §
15.4.7, ovvero la possibilità di risparmiare potenza aumentando l’occupazione di banda (o viceversa), dato che in entrambi i casi a ciò corrisponde un aumento di
C. Ma ciò non avviene all’infinto, ovvero
non si può oltrepassare un valore massimo di capacità! Infatti se nella (
21.101) si aumenta
B il filtro di ricezione si
allarga, e dunque aumenta la potenza di rumore, e l’effetto finale è che per un canale con
banda infinita non si ottiene una capacità infinita, bensì il valore
che individua anche il limite
assoluto al massimo tasso informativo
R trasmissibile. In figura è mostrato l’andamento effettivo della (
21.101) in funzione di
B, per alcuni valori di
PsN0 di esempio, mentre la dimostrazione della
(21.103) è riportata alla nota.
17.3.4 Limite inferiore per EbN0
Una volta assegnato il tasso informativo
R ≤ C della sorgente e la banda
B del canale, partendo dalla (
21.101) si può ottenere una relazione che esprime il valore di
EbN0 necessario a conseguire una trasmissione senza errori (nel caso ideale):
e che, espressa in dB, è graficata alla figura a lato, in cui l’area grigia indica i valori di
EbN0 vietati, ossia per i quali è impossibile ottenere una trasmissione senza errori.
Mentre per
BR = 1 il sistema ideale richiede un valore di
EbN0 pari ad almeno 0 dB, questo si riduce nel caso in cui la trasmissione occupi una banda maggiore del tasso informativo
R, fino a raggiungere (già per valori
B > 10 R) il limite (
21.102) di -1.6 dB. D’altra parte, qualora la trasmissione impegni una banda inferiore ad
R, il valore di
EbN0 necessario aumenta in modo piuttosto brusco.
17.3.5 Confronto con le prestazioni di sistemi di modulazione reali
E’ possibile svolgere una verifica sperimentale della relazione
(21.104) prendendo in considerazione le tecniche di modulazione numerica discusse ai capitoli precedenti, e che consentono di variare l’occupazione di banda
B per trasmettere ad una data velocità
R = fb, ad esempio riducendone il rapporto
B⁄R come nelle trasmissione multilivello, oppure aumentandolo, come nel caso dell’
fsk. In questi casi il valore di
EbN0 necessario a conseguire una determinata prestazione (
Pe) varia in funzione del rapporto
B⁄R, e dunque può essere messo a confronto con i valori minimi di
EbN0 previsti dalla
(21.104), come avviene nella figura
17.9 che mostra i valori di
Eb⁄N0 in funzione di
B⁄R per le tecniche di modulazione numerica
qam (§
16.3.1) e
fsk ortogonale (pag.
1).
Per tracciare la figura si sono ricavati i valori di
Eb⁄N0 necessari a ciascun metodo per ottenere una
Pe pari a 10
− 5 per diversi valori di
L, e messi in relazione con l’occupazione spettrale associata
B(L) rapportata alla velocità
fb, ossia in relazione all’efficienza spettrale
ρ (pag.
1) dei metodi.
Considerando di adottare per il
qam un impulso di Nyquist a banda minima, la banda occupata risulta pari a
BQAM = fblog2 L, e pertanto
BR||QAM = 1log2 L; invece come riportato a pag.
1 per l’
fsk ortogonale si ha
BFSK ≃ fb2 Llog2 L, e dunque
BR||FSK = L2log2 L. Possiamo osservare come per le due tecniche di trasmissione l’andamento dei valori di
EbN0 in funzione di
BR ricalchi abbastanza fedelmente quello ideale, a parte una perdita di efficienza, che si riduce per
L crescente.