Prefazione

L’idea di autoprodurre questo testo trae forse origine da un desiderio di rivalsa rispetto alle fotocopie di appunti scritti a mano su cui da studente preparavo gli esami; con il passare degli anni dalla sua prima edizione del 2001, mi rendo sempre più conto di aver intrapreso un percorso interminabile. Un po’ alla volta ho continuato infatti a migliorare la qualità del testo e ad integrare nuovi argomenti, incoraggiato dal gran numero di lettori raggiunti grazie alla sua accessibilità on-line, ed a distanza di più di venti anni dall’inizio dell’avventura annuncio il rilascio dell’edizione 2.0.

Gli aspetti affrontati abbracciano un ampio spettro di tematiche relative alle telecomunicazioni, il collante nascosto che definisce gli algoritmi implementati da programmi, a loro volta eseguiti mediante circuiti elettronici: tutti protagonisti assoluti della nostra vita immersa nella società dell’informazione. Lo sviluppo della trattazione, che nelle prime edizioni era orientato ad un approccio bottom-up collegando strettamente gli aspetti teorici con le rispettive applicazioni pratiche, si è via via strutturato ed riorganizzato, raggruppando tra loro argomenti affini secondo la sequenza logica sperimentata attraverso i cicli didattici che ne hanno accompagnato la stesura.

La forma espositiva è tuttora articolata su due livelli, con numerose note ed appendici dove vengono svolti i passaggi e sviluppate le osservazioni, mentre il testo principale tenta di mantenere il filo logico del ragionamento complessivo. Si fa uso sistematico di rimandi e collegamenti che letteralmente attraversano l’intero testo, consentendo di ricucire assieme argomenti correlati ed interdipendenti, in modo particolarmente interattivo nel caso del formato PDF navigabile. Ci si avvale inoltre di numerosissime illustrazioni, per mostrare sia gli schemi (circuitali e simbolici) dei dispositivi discussi, sia l’andamento delle curve di prestazione o di altre grandezze in funzione del tempo, della frequenza, o dei parametri di sistema. Sono infine presenti svariati rimandi a contenuti on-line per gli argomenti accennati solo in parte, principalmente verso Wikipedia, da cui il lettore interessato può iniziare un percorso di approfondimento.

Giustamente ci si può chiedere: ma con tutti gli ottimi testi che già esistono su questi argomenti, che bisogno c’era di un ulteriore lavoro? A parte che quando iniziai a scrivere alcuni testi in italiano ora disponibili non erano ancora usciti, ritengo che il mio lavoro abbia prodotto un risultato con diversi aspetti di originalità. Il più appariscente è probabilmente la disponibilità gratuita in formato elettronico, che ha di fatto reso il testo un riferimento comune a tutta la comunità italofona, e che ne permette la facile consultazione e navigabilità. Il secondo aspetto distintivo è la varietà di argomenti presenti, trattati in modo omogeneo e interdipendente, come difficilmente si riesce a fare in ambito universitario, a causa del livello di frammentazione didattica che lo affliggeIn realtà il mondo universitario di afflizioni ne ha diverse, come ad esempio il fatto che un lavoro come questo ha valore zero per quanto riguarda la carriera accademica. Si, perché il mestiere del docente, a quanto pare, non é insegnare bene, ma scrivere tanti articoli, da far vendere alle riviste scientifiche, ovviamente a carico delle biblioteche universitarie.. Una terza considerazione riguarda l’elevata qualità tipografica per un testo autoprodotto, ottenuta con l’utilizzo esclusivo di strumenti opensource. Il quarto punto di forza è la scelta di non affidarsi ad un editore tradizionale, ma affiancare al formato elettronico ad accesso pubblico  quello cartaceo in modalità stampa on-demand. Infine, l’aspetto forse più nascosto ma a mio avviso realmente qualificante è l’attività di revisione dinamica a cui è continuamente sottoposto durante i periodi didattici, che lo rende materia in continua evoluzione e ad ogni revisione sempre più completo.

Cultura libera

Nell’era di Internet un libro a carattere tecnico-scientifico non è un oggetto statico, bensì qualcosa che evolve per mantenere il passo con l’evoluzione di ciò che descrive. Questo testo è inoltre espressione di un progetto di cultura libera, cultura che deve poter fluire liberamente dall’accademia al bagaglio di conoscenze di chiunque ne sia interessato, priva di vincoli di costo, intermediari, distribuzione, rating, e con la sola forza della libera circolazione delle idee; la sua disponibilità pubblica è regolata dalle norme di licenza Creative Commons Attribuzione – Non commerciale – Condividi allo stesso modo

E’ possibile contribuire allo sviluppo del progetto promuovendo la sua diffusione, acquistando una copia a stampa, o incoraggiandone lo sviluppo ulteriore attraverso una donazione, mediante Paypal o carta., a cui corrisponde l’accesso vitalizio al formato PDF navigabile di tutte le edizioni presenti e future. Le donazioni ricevute sono poi in gran parte devolute ai progetti open source che hanno reso possibile il lavoro editoriale.

Istruzioni per l’uso

Anche se un libro è esso stesso una spiegazione, e non dovrebbe averne di ulteriori, a volte qualche studente mi chiede: ma quali sono le cose principali da sapere? Purtroppo è una domanda senza risposta, o meglio, a cui potrebbe rispondere lo studente stesso dopo aver studiato, e infatti è quel genere di cose che vengono tramandate mediante passa parola. Io per primo non ho troppa simpatia per gli sviluppi analitici fini a se stessi, e ritengo più importante che siano afferrati i concetti e le modalità di procedere piuttosto che memorizzare i singoli passaggi senza avere al contempo una idea precisa del loro ruolo. D’altra parte i conti sono ciò che ci fa procedere nella conoscenza e che prova la sua esattezza: per questo ce li ho messi praticamente tutti, proprio li dove è giusto che siano, dentro un libro, in modo che all’occorrenza si sappia dove andarli a cercare. Forse in una qualche edizione futura riuscirò a corredare ogni capitolo con una sezione di riassunto finale, leggendo la quale si possa avere una visione sintetica degli argomenti trattati e dei risultati più rilevanti ottenuti. Ma come consiglio generale allo studio, posso solo suggerire di provare a scrivere per proprio conto un riassunto del genere, perché è proprio attraverso la scrittura e la ripetizione che si rinforza la memoria; viceversa, leggendo e sottolineando è più probabile che si concili il sonno. Questa è una materia tanto affascinante quanto noiosa, non posso farci nulla.

Prefazione all’edizione 2.0

Anche se ormai il testo si è fatto maggiorenne i suoi contenuti non potevano che continuare ad espandersi, sia in termini di approfondenti che di nuovi argomenti. Il formato è un po’ cambiato, da 16×23 siamo passati a 17×24 cm, ed il corpo dei font è passato da 9 ad 11, prima erano veramente troppo piccoli! Oltre a queste (ed altre) operazioni di maquillage, l’insieme dei contenuti è stato suddiviso in quattro parti:

  • teoria dei segnali
  • modulazione
  • trasmissione dei segnali
  • sistemi di telecomunicazione

con un associato rimescolamento degli argomenti tra i capitoli. Se le primissime edizioni di questo testo (in cui gli argomenti, sia pur disparati, erano resi contigui) incontrassero questa loro progenie cresciuta, immagino che non la riconoscerebbero!

Principali novità

Questa edizione ha subito nel corso del suo sviluppo rallentamenti vari, ha attraversato il periodo del Covid per ritrovarsi con una guerra in Europa. Con l’auspicio che il buon senso possa prevalere sulla follia, vediamo cosa ci porta di nuovo l’edizione 2.0.

  • sono investigati gli aspetti implementativi del campionamento, a cui segue il nuovo capitolo dedicato esclusivamente al filtraggio, che ora affronta anche le architetture polifase e integratore-pettine in cascata, chiudendo così il cerchio con la tecnica di sovracampionare e decimare;
  • aggiunte figure esplicative della relazione tra DFT, DTFT e trasformata zeta;
  • nel capitolo di probabilità si è approfondito lo studio della d.d.p. gaussiana, menzionata la funzione Q\left(\right), e dimostrato il teorema centrale del limite; è stata inoltre sviluppata l’esposizione della funzione caratteristica, e la relazione tra momenti e serie di potenze della d.d.p;
  • il capitolo sulla correlazione si arricchisce della sezione dedicata alla regressione lineare, sia semplice che multipla, e della relazione che intercorre tra questa ed il metodo dei minimi quadrati, introducendo la matrice pseudo inversa e svolgendo esemplificazioni figurate dei concetti geometrici associati;
  • aggiunto un esempio figurato sulla distorsione non lineare presente in una sinusoide che va in saturazione;
  • la teoria dell’informazione è ora suddivisa in due capitoli, il primo orientato alla codifica di sorgente ed il secondo a quella di canale:
    • approfondito lo studio della sorgente informativa gaussiana, con il calcolo della sua entropia differenziale (anche per il caso multidimensionale), e la dimostrazione che questa è massima applicando il metodo dei moltiplicatori di Lagrange, a cui è stata dedicata una apposita appendice corredata di grafico esplicativo;
    • aggiunta sezione sull’informazione per coppie di v.a.: entropia congiunta e condizionale, informazione mutua media, entropia relativa (o divergenza di Kullback Leibler) ed entropia di Rényi;
    • estesa la trattazione della teoria velocità-distorsione, e dimostrato il limite inferiore di Shannon R\left(D\right)\geq h\left(X\right)-\tfrac{1}{2}\log_{2}\left(2\pi\textrm{e}D\right) con h\left(X\right) pari all’entropia differenziale della sorgente e \tfrac{1}{2}\log_{2}\left(2\pi\textrm{e}D\right) quella di una v.a. gaussiana con varianza D;
    • valutata l’entropia di un processo gaussiano con memoria e l’associata misura di piattezza spettrale, a cui segue la definizione di funzione distorsione-velocità mediante il procedimento di water filling;
    • la trattazione della codifica di canale si allinea agli sviluppi intercorsi nelle ultime decadi, affrontando argomenti come il codice di Reed-Solomon accorciato, la codifica concatenata e l’interleaving da associarvi; è stato aggiunto lo pseudo codice della decodifica di Viterbi, illustrata la tecnica del tail-biting ed approfondito il principio di decisione soffice con la verosimiglianza associata, graficate le prestazioni di Viterbi per diverse lunghezze di vincolo. Dopo un accenno alle alternative di codifica convoluzionale, si descrive il codice perforato e la concatenazione Solomon-Viterbi, affrontando quindi la decodifica di Viterbi con uscite soffici;
    • un significativo avanzamento riguarda poi la trattazione dei codici turbo e di quelli a bassa densità di controllo parità (LDPC): per i primi dopo aver illustrato la codifica ricorsiva parallela e la decodifica SISO, sono definiti il rapporto di verosimiglianza logaritmica LLR e l’informazione estrinseca, valutata la LLR di ingresso e di uscita al SISO, e sviluppato l’algoritmo di decodifica turbo;
    • l’elegante codifica LPC viene affrontata dopo aver attinto a diverse fonti, tutte citate, realizzando una sintesi senza per questo sprofondare nei conti. Dopo aver illustrato le particolarità della matrice di controllo \boldsymbol{H} e l’associato grafo di Tanner, si affronta le decodifica iterativa basata sullo scambio di messaggi tra nodi secondo un principio di propagazione della credenza, che può essere implementato mediante un algoritmo somma-prodotto. Come per le altre tecniche vengono forniti grafici prestazionali per diverse condizioni operative, e gli attuali contesti di adozione.
    • alla trattazione della ricezione ottima di una trasmissione numerica tramite canale con distorsione lineare e rumore bianco, si è aggiunta la dimostrazione di come una equalizzazione ripartita tra i due estremi del collegamento sia quella in grado di garantire le migliori prestazioni, e valutata la perdita conseguente alla necessità di localizzare tutta l’equalizzazione al ricevitore;
  • alla discussione sulla ripartizione della potenza complessiva tra le diverse portanti dell’OFDM si è aggiunto lo studio analitico della massimizzazione della capacità aggregata che porta all’espressione della soluzione ottima di tipo water-filling;
  • anche il capitolo sui mezzi trasmissivi si è scisso in due, il primo dedicato a cavo e fibra, ed il secondo ai collegamenti radio;
  • infine la novità più poderosa di questa edizione sono le 60 pagine del capitolo sui sistemi multiantenna o MIMO! La possibilità (offerta dalla tecnologia) di dotarsi di più di una antenna ha aperto le porte ad una evoluzione che giunge fino ai nostri giorni, e che è ripercorsa nei suoi diversi aspetti. Il canale vettoriale MIMO viene definito come una matrice complessa \boldsymbol{H} i cui elementi rappresentano il guadagno aleatorio del canale passa basso equivalente associato ad ogni coppia di antenne ai due lati del collegamento. Si mostra quindi come nel caso SIMO di più antenne al solo lato ricevente, quest’ultimo sia in grado di combinare in modo coerente le copie di messaggio ricevuto, e poi come nel caso MISO di più antenne al solo lato trasmittente si possano definire codici spazio-tempo STC che consentono di diluire l’informazione trasmessa oltre che nel tempo, anche sulle antenne, permettendo di ottenere un guadagno di diversità. Segue poi un impegnativo approfondimento sulla capacità del canale MIMO vero e proprio, da confrontare con quella per i casi SISO, SIMO e MISO. Il risultato che si ottiene è la possibilità di operare su di un set di canali virtuali indipendenti, ottenibile eseguendo un opportuno signal processing dal lato del trasmettitore, purché quest’ultimo sia a conoscenza dei valori di \boldsymbol{H}; in tal caso si conseguono le prestazioni ottime dopo aver ripartito la potenza sui diversi canali virtuali con la tecnica del riempimento d’acqua.
    • Ma siamo solo a metà capitolo! Qui il discorso si allarga introducendo la tecnica della multiplazione spaziale, ossia dell’inviare diversi messaggi in simultanea dalle diverse antenne di trasmissione. Il ricevitore multiantenna può allora applicare diverse strategie di decodifica, di massima verosimiglianza o ML, sphere decoding, zero forcing, MMSE, VBLAST.
    • Si passa quindi a trattare la trasmissione multiutente o MU – MIMO, in cui le precedenti tecniche vengono per così dire ribaltate al trasmettitore (purché conosca \boldsymbol{H}) che può così effettuare il precoding dei messaggi da trasmettere. Nel caso di una trasmissione FDD sussiste quindi il problema di comunicare \boldsymbol{H} tra Rx a Tx, oppure di realizzare un beamforming opportunistico.
    • Nella trasmissione MIMO – OFDM alla molteplicità delle antenne si aggiunge quella delle sottoportanti, risolvendo allo stesso tempo in modo semplice il problema della equalizzazione necessaria alle velocità più elevate. Il canale risultante acquisisce oltre alla diversità spaziale anche quella di frequenza, permettendo di definire codici spazio-tempo-frequenza in grado di trarre vantaggio da entrambe. La trattazione dei sistemi multiutente MU-MIMO-OFDM si focalizza al caso TDD che non comporta la trasmissione della matrice \boldsymbol{H} tra utenti mobili e stazione radio base (BS) e permette la definizione dei blocchi di coerenza entro i quali le parti si alternano a trasmettere, mentre la base station stima il canale di downlink mediante opportune sequenze pilota ortogonali. Il caso viene quindi calato nel contesto delle moderne reti cellulari, per le quali si forniscono gli opportuni rimandi di approfondimento.
    • Il capitolo si conclude con l’applicazione della tecnica MISO al caso della diffusione broadcast televisiva digitale DVB-T mediante una single frequency network o SFN, in cui dopo una introduzione all’architettura ed agli aspetti trasmissivi, si approfondisce quello della sincronizzazione da parte del ricevitore YV dei simboli OFDM trasmessi da molteplici ripetitori, mediante l’utilizzo del segnale GPS e l’inserimento nel flusso MPEG di uno speciale pacchetto mega frame initialization packet o MIP.

Queste le novità in cui l’edizione 2.0 differisce rispetto alla 1.7 (si, ho saltato due decimali, ma ci voleva!) raccontate per esteso altrove. Oltre, come sempre, alla miriade di altri aggiustamenti e precisazioni.

Posso dire di essere riuscito a mettere tutto dentro? Di certo gli ultimi sforzi pongono il testo su di un livello ancora più ambizioso! Anche se c’è ancora la situazione della quarta parte, che non ho toccato, e che potrebbe crescere includendo almeno i tratti essenziali di cose di tutti giorni come la telefonia mobile, l’IPv6, il bluetooth, il wireless ottico, il GPS… ma probabilmente queste possono ancora attendere: prima vorrei riuscire ad affrontare due argomenti più di base, il primo già acquisito dalla tecnologia, ed il secondo emergente. Si tratta rispettivamente della software defined radio o SDR, ossia le particolarità che assumono i processi di mo-demodulazione quando realizzati su dati campionati, e dei segnali sui grafi, che sfruttano le relazioni non topologiche definite da una matrice di adiacenza, per sviluppare su questo tipo di segnali una analisi spettrale e definire approcci a filtraggio, sottocampionamento, inferenza e predizione. A chi può chiedersi Si, ma cosa sono questi segnali sui grafi? rispondo di tutto, dalle reti di sensori ai social network alle reti reputazionali, fino alle reti biologiche, di interazione proteica e malattia-farmaco, per arrivare alla medicina di precisione. E ti pare poco?

Un sentito grazie a tutti coloro che mi hanno incoraggiato a continuare, ed io continuerò!

Alessandro Falaschi, Settembre 2022


Download PDF del capitolo   |   indice dei capitoli
Oppure naviga avanti ed indietro tra le introduzioni dei diversi capitoli con i link in basso