Sezione 17.1: Dove arrivare, e come partire Su Capitolo 17: Capacità e codifica di canale Sezione 17.3: Capacità di canale continuo 

17.2 Capacità di canale discreto

Le relazioni fin qui discusse permettono di valutare la perdita di informazione causata dai disturbi, ma dipendono sia dalle probabilità in avanti p(yj ⁄ xi) che descrivono il comportamento del canale, sia da quelle a priori p(xi), che invece attengono alle caratteristiche della sorgente. Vogliamo invece definire una grandezza che esprima esclusivamente l’attitudine (o capacità) del canale a trasportare informazione, indipendentemente dalle caratteristiche della sorgente. Questo risultato può essere ottenuto variando le prob. a priori in tutti i modi possibili, fino a trovare il valore
(21.94)
Cs = maxp(x)I(X, Y)      bit/simbolo
che definisce la capacità di canale per simbolo come il massimo valore dell’informazione mutua media, ottenuto in corrispondenza della migliore sorgente possibile. Il pedice s sta per simbolo, e serve a distinguere il valore ora definito da quello che esprime la massima intensità di trasferimento dell’informazione espressa in bit/secondo, ottenibile una volta nota la frequenza fs con cui sono trasmessi i simboli, fornendo per la capacità di canale il nuovo valore[927]  [927] Notiamo l’invarianza di (21.95) rispetto al numero di livelli con cui è effettuata la trasmissione: se M bit sono raggruppati per generare simboli ad L = 2M livelli, come noto fs si riduce di M volte, mentre Cs aumenta della stessa quantità, dato che ogni simbolo trasporta ora M bit anziché uno.
(21.95) C = fsCs      bit/secondo
L’importanza di questa quantità risiede nel teorema fondamentale per canali rumorosi[928]  [928] http://it.wikipedia.org/wiki/Secondo_teorema_di_Shannon già anticipato più volte, che asserisce che per ogni canale discreto senza memoria di capacità C
Il teorema non suggerisce come individuare la tecnica di codifica, né fa distinzioni tra codifica di sorgente e di canale, ma indica le prestazioni limite ottenibili mediante la migliore tecnica possibile, in grado di ridurre a piacere la pe purché R < C, mettendoci al tempo stesso in guardia a non tentare operazioni impossibili. Da questo punto di vista, le prestazioni conseguibili adottando le tecniche di codifica note possono essere valutate confrontandole con quelle ideali predette dal teorema. Inoltre, dato che la capacità di canale è definita come massimo valore di I(X, Y) per la migliore p(x), qualora la statistica dei messaggi prodotti dal codificatore di sorgente differisca da quella ottima per il canale, l’effettiva informazione mutua media risulterà ridotta rispetto al valore della capacità, così come la massima velocità R.
Illustriamo l’applicazione di questi risultati con un paio di esempi.

17.2.1 Capacità di un canale L − ario non rumoroso

Consideriamo il caso mostrato in figura,
figure f17.15.png
ovvero un canale che trasporta senza errori simboli con L = 2M livelli: in tal caso l’equivocazione H(Y ⁄ X) è nulla, e la (21.89) permette di scrivere I(X, Y) = H(X), che è massima se P(xi) = 1L per tutti gli i, risultando così Cs = Hmax(X) = log2L = M bit/simbolo, e C = fsCs = fsM bit/secondo.
I simboli ad L livelli sono ottenuti raggruppando M dei bit prodotti da una codifica binaria a velocità fb, risultando fb ≥ R = Hx (vedi eq. (10.224)) in funzione della ottimalità o meno del codificatore; pertanto, risulta R ≤ fb = fsM = C con l’uguaglianza valida nel caso in cui il codificatore riesca a rimuovere tutta la ridondanza dei messaggi della sorgente[929]  [929] Ad esempio se L non è una potenza di due, un codificatore di sorgente che operi simbolo per simbolo produce necessariamente fb > R, mentre se concatena più simboli (§ 9.1.4), può avvicinarsi a fb = R., conseguendo in tal caso il massimo trasferimento di informazione.
Al contrario, volendo realizzare una velocità R > C, il codificatore di sorgente dovrebbe produrre codeword con lunghezze tali da violare la disuguaglianza di Kraft (10.228)[930]  [930] Infatti, potrebbe risultare R > C solo se fb < R, ovvero il codificatore dovrebbe produrre meno binit/secondo di quanti bit/secondo produca la sorgente, e quindi la regola del prefisso non sarebbe rispettata, causando in definitiva errori di decodifica anche in assenza di rumore!

17.2.2 Capacità del canale binario simmetrico

Esaminiamo l’effetto della presenza di rumore per questo caso particolare, per il quale a pag. 1 abbiamo valutato l’espressione dell’informazione mutua media, data dalla (21.93), e pari a
I(X, Y) = Hb(pe + α − 2αpe) − Hb(pe)
i
n cui Hb(pe) dipende solo dalla probabilità di errore, mentre il termine Hb(pe + α − 2αpe) dipende anche dalla statistica di sorgente, e risulta massimizzato e pari ad 1 se pe + α − 2αpe = 12, come avviene per qualunque pe se α = 12, ossia per simboli equiprobabili. Pertanto la capacità del bsc risulta pari a
Cs = Hb(12) − Hb(pe) = 1 − Hb(pe)
figure f17.15a.png
il cui grafico è rappresentato alla figura a lato[931]  [931] Sono mostrati solo i valori per 0 ≤ pe ≤ 0.5 dato che successivamente l’andamento di Cs si riflette in modo speculare., evidenziando che Cs ≃ 1 bit/simbolo se pe ≃ 0, ma che poi decade rapidamente a zero se pe → 0.5.
Quest’ultimo esempio in particolare ci conferma l’esigenza, in presenza di un canale rumoroso, di attuare tecniche di codifica di canale in grado di ridurre la probabilità di errore, in modo da poter sfruttare appieno la capacità che il canale presenta nel caso di pe ridotta, e di preferire tra queste le tecniche che vi riescono mantenendo al minimo la quantità dei bit aggiuntivi, dato che altrimenti come noto aumenta la banda occupata dal segnale dati.
 Sezione 17.1: Dove arrivare, e come partire Su Capitolo 17: Capacità e codifica di canale Sezione 17.3: Capacità di canale continuo