Prefazione alla prima parte

Che lo smartphone sia uno dei massimi emblemi dei nostri tempi è indubbio, ed il suo funzionamento può dirsi un equilibrato mix di elettronica, informatica e telecomunicazioni. Un tratto comune a queste discipline è la dipendenza dai dati, o segnali, attraverso i quali viene rappresentata l’informazione, in modo da poterla trasmettere anche a distanza.

Da sempre la teoria dei segnali riveste un ruolo cardine nelle discipline scientifiche, ed in questa parte ne affrontiamo lo studio, con un percorso che dopo aver posto le basi dell’analisi di Fourier e delle sue applicazioni, e dopo aver discusso in modo completo gli aspetti di campionamento e quantizzazione, si dedica ad approfondire il Digital Signal Processing fino ad affrontare il filtraggio polifase.

E’ quindi il turno del capitolo su probabilità e statistica, in modo da poter successivamente definire una densità spettrale (di potenza), oltre che per i segnali certi, anche per i processi aleatori, grazie al potente strumento del teorema di Wiener. Dopo aver investigato sulle caratteristiche frequenziali e statistiche delle grandezze di uscita per diversi tipi di filtro, viene aperto un nuovo capitolo per descrivere i fenomeni di distorsione e rumore per segnali di banda base, e che verranno particolarizzati nelle successive parti su modulazione e trasmissione.

Gli ultimi due capitoli di questa prima parte sono infine concatenati, dato che il primo affronta gli argomenti di teoria dell’informazione e della codifica di sorgente, mentre nel secondo l’applicazione di tali principi viene particolarizzata al caso di sorgenti audio e video, ed ottenuta mediante una serie di tecniche del tutto particolari.

Ma proviamo a scendere ad un maggiore livello di dettaglio.

Nei capitoli su Serie di Fourier e sua trasformata si affronta l’analisi di Fourier, inizialmente per segnali periodici e poi di energia, ed oltre alle sue proprietà se ne approfondisce anche l’aspetto geometrico ed energetico-topologico, introducendo lo spazio dei segnali come modello analitico di una qualunque trasformazione o sistema con memoria. Dopo aver introdotto il delta di Dirac \delta\left(t\right) si elaborano i concetti di risposta impulsiva e convoluzione, subito messi in relazione con le proprietà di prodotto nel tempo e finestratura, ed il duale prodotto in frequenza e filtraggio. Infine, viene sfruttata la rappresentazione dei segnali periodici come convoluzione di un periodo per un treno di impulsi, per introdurre il concetto di serie di Poisson.

Il cap. sul campionamento è dedicato al passaggio cruciale dal mondo analogico a quello digitale, reso possibile dal teorema del campionamento, per il quale sono illustrate condizioni e procedure necessarie ad evitare l’insorgenza di aliasing, ed approfondite le tecniche che ne permettono l’implementazione. Si passa quindi a discutere della necessità di quantizzare i campioni di segnale, altrimenti a precisione infinita, ed il criterio con cui valutare approssimativamente l’entità dell’errore di quantizzazione. Viene poi il turno della rappresentazione frequenziale per segnali campionati (la DTFT) e per sequenze (la DFT), la relazione con la trasformata zeta di queste ultime, e la possibilità di eseguire operazioni di filtraggio operando esclusivamente su dati campionati, mediante tecniche di signal processing.

Nel cap. sui filtri analogici e numerici, il breve cenno alla natura fisica dei primi (basati su componenti elettrici ed elettronici) offre l’occasione di menzionare l’esistenza di consolidati metodi di sintesi che, a partire da una serie di specifiche, ottengono una forma razionale fratta H\left(s\right) da cui derivare sia l’architettura circuitale che l’effettiva risposta in frequenza H\left(f\right). Il passaggio ai filtri che operano direttamente su sequenze numeriche avviene dopo aver discusso dei filtri digitali, che agiscono su campioni dei segnali analogici mediante operazioni di somma e prodotto, e che per questo costituiscono una sorta di ponte tra il mondo analogico e quello numerico. Gli schemi architetturali dei filtri numerici sono invece ottenuti dopo apposite trasformazioni tra piano s e piano z e che coinvolgono la H\left(s\right) ottenibile per l’associato filtro tempo continuo. Infine, viene introdotto il tema del filtraggio polifase ovvero in cui la frequenza di campionamento del segnale in ingresso ad un filtro numerico è diversa da quella del segnale in uscita, con applicazione diretta alla decimazione, all’interpolazione ed all’ambito delle software radio.

Il capitolo su probabilità e statistica rappresenta una sorta di parentesi scientifico-letteraria, essendovi riassunti gli assiomi ed i teoremi del calcolo delle probabilità, richiamando i concetti di variabile aleatoria, densità di probabilità e momenti, che vengono immediatamente applicati ai processi aleatori, per i quali sono definite le proprietà di stazionarietà ed ergodicità. Dopo aver affrontato le trasformazioni di v.a. e le proprietà della funzione caratteristica, il focus passa all’approfondimento della v.a. gaussiana multivariata, studiata nel dettaglio sia dal punto di vista delle proprietà della matrice di covarianza, che attraverso la dimostrazione del teorema centrale del limite. Il capitolo termina quindi con cenni di statistica, definendo la verifica di ipotesi, la verosimiglianza, la stima di parametro, la stima di intervallo, il test \chi^{2} e la stima di forma d’onda.

Siamo ora culturalmente attrezzati per affrontare i concetti di correlazione di v.a., di segnali deterministici, e di processi stazionari, come illustrato al cap. sulla densità spettrale, che prosegue nel definire il periodogramma e la stima spettrale basata sulla autocorrelazione come consentito dal teorema di Wiener. Sono quindi caratterizzati gli effetti del filtraggio, sia in termini di trasferimento energetico alle varie frequenze, sia per quanto riguarda le caratteristiche statistiche del segnale in uscita. Dopo aver approfondito gli effetti di somma e prodotto tra segnali e tra processi, chiude il capitolo la trattazione del filtro adattato che giunge fino alla segnalazione ortogonale, mentre in appendice sono affrontati argomenti avanzati come la regressione lineare multipla e la densità spettrale di un segnale dati.

Nel capitolo su distorsione e rumore viene introdotto il concetto di canale perfetto, si analizzano i peggioramenti introdotti sui segnali da parte dei dispositivi lineari e non lineari, vengono introdotte le misure in decibel, e si affronta la categorizzazione dei disturbi additivi, come in particolare il rumore termico.

Il penultimo argomento di questa prima parte riguarda approfondimenti spesso assenti in un testo introduttivo, ma pure legati alla descrizione dei segnali in maniera indissolubile. Si parla dunque di teoria dell’informazione, che permette di discernere quanta parte di un messaggio trasporta vera informazione, quanta parte sia invece prevedibile, e in che misura l’informazione sia deteriorata dalla presenza di disturbi additivi. Tali concetti si applicano quindi allo studio della codifica di sorgente il cui scopo è quello di ridurre la banda necessaria, che in questa edizione si estende allo studio della minima velocità di trasmissione per una assegnata distorsione.

Infine, all’ultimo capitolo sono illustrati i principi della codifica di contenuti multimediali o audio-video, che permeano la nostra vita quotidiana, la cui codifica a si avvale di accorgimenti indissolubilmente legati alle particolarità percettive del sistema sensoriale umano.


Download PDF del capitolo   |   indice dei capitoli
Oppure naviga avanti ed indietro tra le introduzioni dei diversi capitoli con i link in basso