Capitolo 21: Bibliografia Su  Main page

Note a piè di pagina

[1]In realtà il mondo universitario di afflizioni ne ha diverse, come ad esempio il fatto che un lavoro come questo ha valore zero per quanto riguarda la carriera accademica. Si, perché il mestiere del docente, a quanto pare, non é insegnare bene, ma scrivere tanti articoli, da far vendere alle riviste scientifiche, ovviamente a carico delle biblioteche universitarie.
[2]Quest’anno ho cambiato il corso che impartisco al polo didattico di Latina, e sono sceso da quello di Trasmissione numerica, a quello di Teoria dei segnali: per questo motivo, probabilmente nelle prossime edizioni la prima parte riceverà una attenzione maggiore che in passato.
[3]Approfondiremo nel seguito il senso di questa locuzione; per ora è sufficiente interpretarla in termini generici, ovvero di fedeltà della riproduzione al segnale originario.
[4]Un classico esempio di trasduttore è quello dell’antenna, nel caso di trasmissione radio.
[5]La parola Modem è una contrazione delle due parole modulatore-demodulatore.
[6]Nelle trasmissioni unidirezionali, sorgente e destinazione non si scambiano i ruoli. La trasmissione stessa viene anche indicata con il termine di half-duplex.
[7]Si parla in questo caso di codifica FEC, ovvero di Forward Error Correction.
[8]Pensiamo per similitudine ad un imballaggio, il cui contenuto è prima disposto in modo da occupare il minimo volume (codifica di sorgente), ed a cui viene poi aggiunto del materiale antiurto (codifica di canale).
[9]Nei collegamenti numerici, non occorre specializzare il metodo di trasmissione al mezzo a disposizione, anzi quest’ultimo è totalmente "mascherato" dal fornitore del collegamento numerico stesso.
[10]Vedremo infatti al § 4.2.1.1↓ che un aumento della risoluzione del processo di quantizzazione corrisponde ad un aumento del numero di bit necessari a rappresentare ogni valore (o campione) di segnale.
[11]Come vedremo al cap, 9↓, un segnale a valori complessi è il risultato di una particolare rappresentazione, detta inviluppo complesso, utile nell’analisi dei segnali modulati.
[12]I termini colorato e bianco hanno origine da una similitudine con l’energia luminosa, per cui se la luce bianca indica l’indiscriminata presenza di tutte le lunghezze d’onda, così uno spettro bianco indica la presenza in egual misura di tutte le frequenze; viceversa, come una luce colorata dipende dal prevalere di determinate frequenze nella radiazione elettromagnetica, così uno spettro colorato indica la prevalenza di alcune frequenze su altre.
[13]Quando un circuito elettrico ha la funzione di trasportare un segnale tra una coppia di morsetti ad un’altra, il circuito prende il nome di rete due porte o quadripolo.
[14]Per fissare le idee, consideriamo i simboli di una sequenza numerica s[k] ad L valori: questi possono essere presi a gruppi di M, producendo simboli a velocità M volte inferiore, ma con LM valori distinti. Se si dispone di un alfabeto di uscita ad H valori, i gruppi di M simboli L-ari originari possono essere rappresentati con gruppi di N simboli H-ari purché LM  ≤ HN. Es.: per codificare in binario (H = 2) simboli con L  = 26 livelli, occorrono almeno N  = 5 bit/simbolo, ottenendo così 25  = 32 > L = 26.
[15]L’importanza e la specificità di tali trasformazioni assume un rilievo sempre maggiore con l’evoluzione (in termini di miniaturizzazione e potenza di calcolo) dei dispositivi di elaborazione, in special modo per ciò che riguarda le trasmissioni numeriche.
[16]Una funzione f(t) è detta sommabile (o integrabile) nell’intervallo ( − ∞, ∞) se il suo integrale è finito, ed una condizione sufficiente perché ciò avvenga è che limt  →  ∞f(t) sia un infinitesimo di ordine superiore a 1, ovvero che limt  →  ∞tf(t) = 0.
[17]Vedi ad es. https://it.wikipedia.org/wiki/Funzione_a_quadrato_sommabile
[18]Anticipando una notazione che verrà usata nel corso del testo, il pedice T indica l’estensione temporale a cui è riferita la grandezza che presenta il pedice, mentre la sopralineatura di una grandezza che dipende dal tempo, indica una media temporale della grandezza stessa.
[19]In realtà nulla vieta ad un filtro di modificare la propria risposta impulsiva nel tempo, ma in tal caso in uscita compaiono componenti frequenziali non presenti in ingresso, e viene dunque persa la linearità.
[20]Un operatore si dice senza memoria quando ogni valore dell’uscita dipende da un unico valore di ingresso.
[21]Una funzione y(x) è lineare quando il suo sviluppo in serie di potenze si arresta al primo ordine, ed è quindi esprimibile in forma y  = ax + b, che è l’equazione di una retta.
[22]La rappresentazione in modulo e fase consente di calcolare il prodotto tra numeri complessi x = |x|ejφ e y = |y|ejθ in modo semplice: z = xy  = |x||y|ej(φ  + θ).
[23]L’espressione più generale eγ con γ = α + jφ è ancora un numero complesso, con fase φ e modulo eα. Infatti eγ  = eα + jφ  = eαejφ  = eα(cosφ  + jsinφ).
[24]Vedi https://it.wikipedia.org/wiki/Formula_di_Eulero
[25]L’affermazione nasce dalla relazione eαeβ = eα  + β. Ad esempio quindi, il prodotto cosα⋅sinβ diviene
          (1)/(4j)(ejα  + e  − jα)(ejβ  − e  − jβ) = (1)/(4j)[ejαejβ  − ejαe  − jβ + e  − jαejβ  − e  − jαe − jβ]  = 
           = (1)/(4j)[ej(α  + β)  − e  − j(α  + β) − ej(α − β)  + e − j(α  − β)] = (1)/(4j)[2jsin(α  + β) − 2jsin(α  − β)]  = 
           = (1)/(2)[sin(α  + β)  − sin(α  − β)]
[26]Un modo alternativo di ottenere lo stesso risultato è quello di esprimere gli esponenziali complessi in termini trigonometrici, ottenendo x(t) = ℜ{|x|(cosφ + jsinφ)[cos(2πf0t) + jsin(2πf0t)]}, e sviluppare il calcolo facendo uso delle relazioni cosαcosβ  = (1)/(2)[cos(α + β)  + cos(α − β)] e sinαsinβ  = (1)/(2)[cos(α − β)  − cos(α + β)], ma avremmo svolto più passaggi.
[27]Per una discussione relativa alla convergenza della serie (4.4↓) si veda il § 2.4.1↓.
[28]Questa terminologia richiama alla mente nozioni di teoria musicale, in cui gli armonici di una nota sono appunto note di frequenza multipla della prima. In particolare la seconda armonica corrisponde ad un intervallo di ottava, e la 4a a due ottave. E la terza armonica? Partendo ad esempio dal la4 a 440 Hz, la terza armonica si trova a 440*3 = 1320 Hz. Sapendo che ogni semitono della scala temperata corrisponde ad un rapporto di frequenza pari a 2(1)/(12) rispetto al semitono precedente, proviamo a determinare il numero di semitoni Ns tra il la4 e la sua la terza armonica. Risulta allora 2(Ns)/(12) = (1320)/(440) = 3  →  (Ns)/(12) = log23≃1.5849  →  Ns  = 19 semitoni, ovvero un intervallo di dodicesima, ovvero una quinta sopra l’ottava, cioè il mi5 che viene dopo il la5 dell’ottava successiva, che si trova ad 880 Hz. Procedento allo stesso modo si trova che la quinta, sesta e settima armonica corrispondono rispettivamente a do#6, mi6 e sol6: pertanto, con le prime sette armoniche si compone un accordo di settima di dominante.
[29]vedi § 2.2.1.1↓ e 2.2.1.3↓
[30]La dimostrazione di questa proprietà si basa sull’osservazione che scomponendo l’esponenziale complesso che compare nella formula (4.3↑) come e  − j2πnFt = cos2πnFt − jsin2πnFt, ed essendo x(t) reale, l’integrale che calcola gli Xn si suddivide in due termini, relativi al calcolo della parte reale e quella immaginaria, ovvero: Xn = (1)/(T)(T)/(2) − (T)/(2)x(t)cos2πnFtdt  − (j)/(T)(T)/(2) − (T)/(2)x(t)sin2πnFtdt. Essendo il coseno una funzione pari, il primo integrale fornisce gli stessi risultati per n cambiato di segno; il secondo integrale invece cambia segno con n, essendo il seno una funzione dispari.
[31]Con riferimento alla scomposizione del calcolo di Xn alla nota precedente, notiamo che se x(t) è (reale) pari, allora {Xn} = 0, in quanto x(t)sin2πnFtdt è dispari, ed il suo integrale esteso ad un intervallo simmetrico rispetto all’origine è nullo. Se invece x(t) è (reale) dispari, si ottiene {Xn} = 0, per lo stesso motivo applicato al termine x(t)cos2πnFtdt.
[32]Il duty cycle si traduce come ciclo di impegno, ed è definito come il rapporto percentuale per il quale il segnale è diverso da zero, ossia duty cycle  = (τ)/(T)*100 %.
[33]Oppure a sinistra, qualora n sia negativo.
[34]Sappiamo infatti che ()/(x)ef(x) = ef(x)(f(x))/(x), e quindi baef(x)dx = 1(f(x))/(x)ef(x)|ba
[35]Costituisce infatti una applicazione tipica della regola di de l’Hpital, vedi https://it.wikipedia.org/wiki/Funzione_sinc
[36]Si può mostrare che le armoniche dispari risultano nulle per tutti i segnali periodici alternativi, ovvero per i quali (a parte una eventuale componente continua) un semiperiodo eguaglia l’altro, cambiato di segno.
[37]Vedi https://it.wikipedia.org/wiki/Fenomeno_di_Gibbs
[38]Un risultato teorico, che qui citiamo solamente, mostra che l’errore quadratico di ricostruzione ε = (1)/(T)(T)/(2) − (T)/(2)(x(t) − ^x(t))2dt che è presente utilizzando solo le prime N armoniche è il minimo rispetto a quello ottenibile utilizzando un qualunque altro gruppo di N armoniche che non siano le prime.
[39]In generale risulta, con la notazione di prodotto scalare (a,  b) tra vettori-segnali a e b introdotta al § 36↓: (x  + y,  x  + y)  = (x,   x)  + (y,   y)  + (x,   y)  + (y,   x).
[40]Vedi https://it.wikipedia.org/wiki/Punto_di_discontinuità.
[41]Il prodotto scalare è un operatore che associa ad una coppia di vettori uno scalare. Indicando con x,  y il prodotto scalare tra x ed y, tale operatore deve soddisfare alle seguenti tre proprietà: Qualora lo spazio normato sia anche completo, prende il nome di spazio di Hilbert (vedi http://it.wikipedia.org/wiki/Spazio_di_Hilbert). Il senso “naif” di completo è che i punti ci sono tutti, mentre quello più matematicamente forbito è che tutte le successioni di Cauchy sono convergenti ad un elemento dello spazio.
[42]E’ facile verificare che il risultato ottenuto è direttamente applicabile allo spazio descritto dalla geometria euclidea, in
figure f2.101.png
diventa
 
figure f2.10.png
cui gli ui sono unitari ed orientati come gli assi cartesiani, ottenendo in definitiva
x,   y  = x1y1  + x2y2  + x3y3
Osserviamo inoltre come l’espressione che permette il calcolo della lunghezza di un vettore
x  = (i(xi)2)
non sia nient’altro che la riproposizione del teorema di Pitagora, che (su due dimensioni) asserisce l’uguaglianza dell’area del quadrato costruito sull’ipotenusa, con la somma delle aree dei quadrati costruiti sui cateti, come mostrato a lato.
[43]Infatti, il prodotto scalare si calcola come il prodotto dei moduli, moltiplicato per l’angolo compreso tra i due: x,  y = |x||y|⋅cosθ. Se il secondo vettore ha lunghezza unitaria, si ottiene la proiezione del primo nella direzione del secondo.
[44]Occore però rimuovere il termine 1T dell’eq. (4.3↑), altrimenti i coefficienti andrebbero a zero, essendo il segnale a durata limitata.
[45]
X(nF)  =   − ∞x(t)e  − j2πnFtdt  = (T)/(2)  − (T)/(2)x(t)e  − j2πnFtdt =   =  T(1)/(T)(T)/(2) − (T)/(2)x(t)e  − j2πnFtdt = TXn
[46]Nei testi anglofoni la (8.3↓) è indicata come cross-energy, tradotta letteralmente come energia incrociata, o meglio, in comune.
[47]Infatti X*(f) = [x(t)e  − j2πftdt]*  = x*(t)ej2πftdt  = X( − f) dato che x(t) è reale.
[48]La dimostrazione si basa su di un semplice cambio di variabile: Z(f) =  x(t − T) e − j2πftdt  =  x(θ) e − j2πf(T  + θ)dθ = e − j2πfT x(θ) e − j2πfθdθ  = X(f)e − j2πfT
[49]Notiamo tra l’altro che il ritardo comporta uno spostamento nel futuro. Ad esempio, se un autobus è in ritardo significa che deve ancora passare, e non che è già passato.
[50]Tali condizioni corrispondono a quelle descritte a pag. 1↓ come un canale perfetto.
[51]Nel seguito (§ 8.1.2.2↓) illustreremo che una conseguenza del risultato discusso, è la sensibilità delle trasmissioni numeriche alle distorsioni di fase.
[52]Infatti {x*(t)} =  −  ∞x*(t)e − j2πftdt  =  − ∞[x(t)ej2πft]*dt.
[53] x(at) e − j2πftdt  = (1)/(a) x(at) e − j2π(f)/(a)atd(at) = (1)/(a) x(β) e − j2π(f)/(a)βdβ =  (1)/(a)X(f)/(a)
[54]Vedi ad es. http://it.wikipedia.org/wiki/Distribuzione_(matematica) per approfondire.
[55]X(f) = ℱ{n  =  − ∞Xn ej2πnFt} = n  =  − ∞Xn{1⋅ ej2πnFt} = n  =  − ∞Xnδ(f  − nF)
[56]Adottando il cambio di variabile t − τ = θ, si ottiene  −  ∞x(τ)h(t  − τ)dτ =  −   − ∞x(t  − θ)h(θ)dθ =    =  − ∞x(t − θ)h(θ)dθ. Infatti, il cambio di variabile determina quello degli estremi in integrazione, che vengono poi scambiati ripristinando il segno, vedi ad es. https://it.wikipedia.org/wiki/Convoluzione
[57]Per convincerci dell’operazione, verifichiamo che per τ  < t l’argomento t − τ di h è positivo, e infatti il valore di h(t − τ) è  ≠ 0.
[58] Z(f)  =  {x(t)*y(t)} =  − ∞[  − ∞x(τ) y(t  − τ) dτ] e − j2πftdt  =   =    − ∞x(τ) [ − ∞y(t − τ) e − j2πftdt] dτ =   − ∞x(τ) Y(f) e − j2πfτ dτ =   =  Y(f)   − ∞x(τ) e − j2πfτ dτ = Y(f)X(f)
[59]Svolgiamo i calcoli nel dominio della frequenza:
X(f)  = (A)/(2)(ejθδ(f − f0)  + e − jθδ(f  + f0));
Y(f)  = X(f)H(f) = (A)/(2)M(f0)(ejθejφ(f0)δ(f − f0)  + e − jθe − jφ(f0)δ(f + f0))
e antitrasformando si ottiene
y(t)  = AM(f0)cos(2πf0t  + θ + φ(f0))
[60]La dimostrazione viene svolta per segnali di energia, applicando in modo piuttosto diretto la regola di integrazione per parti: (dx(t))/(dt) =  − ∞(dx(t))/(dt)e  − j2πftdt = x(t)e  − j2πft| −  ∞ + j2πf  − ∞x(t)e − j2πftdt  = j2πf X(f), dato che il termine x(t)e − j2πft| − ∞ si annulla, visto che se x(t) è un segnale di energia, tende a zero per t → ∞.
[61]
figure f3.16c.png
Se infatti valutiamo t − ∞δθ  + (τ)/(2) − δθ  − (τ)/(2)dθ con t > (τ)/(2), otteniamo due gradini ut + (τ)/(2) − ut  − (τ)/(2), che combinati assieme, riproducono il rectτ di partenza.
[62]Essendo x(t)  = (d)/(dt)y(t), ed applicando la (8.13↑) otteniamo X(f) = j2πfY(f), da cui la (8.14↓).
[63]In realtà si può giungere ad un risultato anche nel caso in cui X(0) ≠ 0, ricorrendo all’impulso δ(t). Occorre scrivere l’integrale di x(t) nella forma di una convoluzione con un gradino unitario u(t), cioè y(t) = t  − ∞x(θ)dθ =  − ∞x(θ)u(t  − θ)dθ (si pensi alla costruzione grafica del § 3.5.3↑). Al § 3.9.5↓ si ricava che U(f) = (1)/(j2πf)  + (1)/(2)δ(f), ed applicando la proprietà della trasformata della convoluzione si ottiene Y(f) = X(f)U(f) = (X(f))/(j2πf)  + (δ(f))/(2)X(0), in cui l’ultimo termine scompare per segnali ad area nulla, riottenendo la 8.14↑.
[64]Per un approfondimento si veda ad es. http://it.wikipedia.org/wiki/Formula_di_sommazione_di_Poisson.
[65]La derivata di una discontinuità di prima specie è pari ad un impulso matematico, di area uguale all’altezza della discontinuità. Infatti l’integrale dell’impulso t  − ∞δ(θ)dθ è proprio un gradino. Questa considerazione consente di risolvere in modo semplice le trasformate di segnali in cui è presente una discontinuità.
[66]In effetti, un segnale costante è un segnale periodico, con periodo T qualsiasi.
[67]Infatti, anche se con T finito l’integrale non si estende ad un numero intero di periodi della fondamentale (e quindi delle armoniche), per T  → ∞ il contributo alla somma integrale dei periodi non interi tende a zero.
[68]vedi anche § 6.3.1↓ a pag. 1↓
[69]In realtà δ(.) è un ente matematico più generale delle comuni funzioni, vedi ad es. http://www.sergiobenenti.it/ln/inf-7.pdf
[70]Queste durate corrispondono quindi ad utilizzare 20 cicli di cosinusoide, oppure 5, oppure due e mezzo.
[71]Nel tempo sono state definite un elevato numero di finestre temporali, ognuna migliore sotto certi aspetti, e peggiore sotto altri. Consultando Wikipedia http://en.wikipedia.org/wiki/Window_function, possiamo elencare le finestre di Hamming, Hann, Cosine, Lanczos, Bartlett, Gauss, Blackman, Kaiser, Nuttall, Bessel, Dolph-Chebyshev, Exponential, Tukey....
[72]Nota anche come funzione di Heaviside, vedi https://it.wikipedia.org/wiki/Funzione_gradino_di_Heaviside
[73]Ciò è vero purché si consideri il metodo di calcolo dell’integrale noto come valore principale di Cauchy , in quanto (cos2πft)/(j2πf) tende a (1)/(0) per f  → 0, con valori opposti per 0 +  e 0 − , vedi https://it.wikipedia.org/wiki/Valore_principale_di_Cauchy.
[74]Vedi ad es. http://bueler.github.io/M611F05/M611heaviside.pdf
[75]Il termine campione rappresenta il valore di un segnale ad un determinato istante, e può esere considerato come sinonimo di esemplare, o esempio, ovvero sample in inglese; da non confondere con champion, o primatista!
[76]Digits in inglese, da cui il termine digitale come sinonimo di numerico.
[77]In realtà questo teorema è stato derivato indipendentemente, in tempi diversi, anche da altri scienziati, come Whittaker, Kotelnikov e Shannon.
[78]Con interpolazione si intende la stima dei valori del segnale, per gli istanti compresi tra due campioni noti.
[79]In realtà la formula (8.21↓) non è l’unica possibile, come vedremo al § 4.1.2↓
[80]Con riferimento alla fig. 4.2↓, notiamo come il risultato mostrato replichi in frequenza quello già noto per la serie di Fourier: un segnale periodico (in frequenza) esibisce una (anti)trasformata di Fourier costituita da impulsi (nel tempo) distanziati dall’inverso del periodo Tc  = 12W.
[81]In realtà alias è di origine latina !!!
[82]In un segnale audio, ad esempio, ci si accorge che c’è aliasing quando è udibile una distorsione (rumore) congiuntamente ai passaggi con maggior contenuto di alte frequenze.
[83]Applicando il teorema di Parseval (§ 3.2↑) e la proprietà di traslazione temporale, la (8.23↓) può essere riscritta come
  − ∞Tcrectfc(f)e  − j2πfkTcTcrectfc(f)e  + j2πfhTcdf = (Tc)2fc2 − fc2e  − j2πf(k − h)/(2W)df
in cui l’esponenziale complesso sotto integrale compie un numero intero di oscillazioni a media nulla per f ϵ [ − 12Tc, 12Tc] se k  ≠ h, e dunque in tal caso l’integrale è nullo; al contrario, l’esponenziale vale 1 se k = h, ed il suo integrale vale fc, determinando così il risultato mostrato.
[84]Non entriamo nei dettagli del funzionamento del buffer (vedi ad es. https://it.wikipedia.org/wiki/Amplificatore_separatore) qui esemplificato dall’amplificatore operazionale a controreazione unitaria: è sufficiente dire che agisce come un adattore di impedenza, consentendo al condensatore di caricarsi in modo prossoché istantaneo, e di non scaricarsi prima che s2 sia chiuso, in quanto il secondo amplificatore presenta una impedenza di ingresso pressoché infinita.
[85]Il dispositivo che implementa la restituzione è indicato come Digital to Analog Converter o dac.
[86]Anche in questo caso non entriamo nei dettagli di tale dispositivo, dicendo solo che una possibile soluzione prevede un sommatore realizzato mediante un amplificatore operazionale, scegliendo resistenze di pesatura con valori legati alle potenze di due, vedi ad es. http://www.elemania.altervista.org/adda/architetture/arc1.html
[87]A tale scopo il DAC necessita di un segnale di temporizzazione a velocità fc, sincronizzato con quello usato per campionare. Questo segnale può essere trasmesso separatamente, o essere ri-generato localmente a partire dalla stima della velocità alla quale sono ricevuti i valori x(nTc).
[88]Anche qui, non entriamo nei dettagli realizzativi. Per una panoramica delle soluzioni possibili, vedi ad es. http://sms.unipv.it/misure/ME/Conversione_A-D_Slides.pdf
[89]In fig. 4.14↑ sono presenti un numero L di livelli dispari, a cui corrisponde ad una regola di quantizzazione basata sull’arrotondamento di x,   in modo che l’errore sia compreso tra ±(Δq)/(2), e la legge Q(x) viene detta mid-tread. Se al contrario L è pari, in prossimità dell’origine la legge Q(x) (detta ora mid-rise) si muove in verticale anziché in orizzontale, non esite un livello zero per l’uscita, e Q(x) si basa su di un troncamento; vedi ad es. http://www.tlc.polito.it/~perotti/it/ce/4-Campionamento.pdf
[90]Nel prosieguo di questa sezione sono usati i concetti definiti al capitolo 5↓, a cui si rimanda per le definizioni mancanti.
[91]Con M bit si possono descrivere al più L = 2M diverse configurazioni binarie, e dunque per individuare uno tra L possibili oggetti occorrono M  = log2L bit, in cui la notazione a indica il primo intero di valore  ≥ a. Scegliendo L come una potenza di due, si ottiene il risultato esatto: ad esempio, scegliendo L = 64, si ottiene M = 6.
[92]Questa ipotesi, come anche quella delle v.a. uniformi, sono manifestamente non vere in generale, ma permettono di giungere ad un risultato abbastanza semplice, e che può essere molto utile nel dimensionamento dei progetti.
[93]Assumendo che il processo sia ergodico, la potenza (media temporale) eguaglia la corrispondente media di insieme, ovvero il momento di secondo ordine m(2)x, che a sua volta è pari alla varianza σ2x , essendo mx = 0.
[94]Una discussione relativa alla misura delle grandezze in decibel, è fornita al § 7.1↓. Qui ci limitiamo ad usare i dB come misura relativa di un rapporto, ossia
SNRq(dB) = 10log10(  Px)/(Pϵ) = 10log10  Px − 10log10  Pϵ = Px[dBV2]  −  Pϵ[dBV2]
in cui le grandezze espresse in dBV2 rappresentano potenze di segnale di tensione, in unità logaritmiche.
[95]Vedi ad es. http://en.wikipedia.org/wiki/Quantization_(signal_processing)
[96] Il metodo è iterativo, ed inizia suddividendo l’intervallo Δx in modo uniforme. Per ogni iterazione: Le iterazioni si arrestano quando non si riscontrano cambiamenti apprezzabili.
[97]La sigla pcm sta per Pulse Code Modulation, e trae origine dalla tecnica di quantizzazione di un segnale vocale di qualità telefonica (§ 9.1.2↓), anche se è stato poi adottato per indicare l’intera gerarchia di multiplazione plesiocrona (§ 19.3.1↓). Etimologicamente il termine deriva dall’onda pam (§ 6.9.3↓) in cui degli imPulsi sono Modulati in Ampiezza, mentre in questo caso le ampiezze degli impulsi sono Codificate.
[98]L’andamento esatto della curva segue uno di due standard, denominati legge μ (per USA e Giappone) e legge A (per gli altri), lievemente diverse nella definizione, ma sostanzialmente equivalenti.
[99]Per motivi grafici, in figura sono mostrate solo 5 regioni, divise in 4 intervalli.
[100]A prima vista può sembrare ardito accettare che i coefficienti di Fourier (8.27↓) siano pari ai campioni di segnale xn, ma se proviamo a calcolare X(f) = ℱ{x(t)} =  − ∞(n =  − ∞xnδ(t − nTc))e  − j2πftdt = n =  − ∞xn − ∞e  − j2πftδ(t  − nTc)dt  = n =  − ∞xne  − j2πfnTc, otteniamo esattamente la (8.26↓).
[101]Condizione sufficiente per la convergenza della serie (8.26↑) è che risulti n  =  − ∞|xn|  < ∞, in quanto |X(f)| = |n =  − ∞xn e − j2πfnTc| ≤ n  =  − ∞|xn|.
[102]Infatti se applichiamo la (8.26↑) per calcolare X(f  + fc) si ottiene n  =  − ∞xn e  − j2π(f + fc)nTc = n =  − ∞xn e − j2πfnTce − j2πfcnTc  = X(f) dato che, essendo fc = (1)/(Tc), risulta e − j2πfcnTc  = e − j2πn  = 1 per qualsiasi n.
[103]Proprio come ai coefficienti della serie di Fourier per segnali periodici, intervallati di F Hz, corrisponde un segnale periodico nel tempo, di periodo T  = (1)/(F).
[104]I chip progettati appositamente per svolgere calcoli di elaborazione numerica del segnale sono detti dsp (Digital Signal Processor).
[105]La (8.28↓) può essere fatta discendere dalla (8.26↑) vincolando f ad assumere i soli valori discreti f = (m)/(N)(1)/(Tc), e limitando l’indice della sommatoria ad un insieme finito di campioni.
[106] Una prima fonte di approssimazione deriva dall’operazione di finestratura legata all’uso di un numero finito di campioni, operando quindi su xw(t) = x(t)w(tc) anziché su x(t). Per analizzare le altre fonti di approssimazione, iniziamo a scrivere l’espressione di Xw(f) = ℱ{xw(t)} per f = (m)/(N)fc:
Xwf  = (m)/(N)fc  =  (N  − 1)Tc0x(t)e  − j2π(m)/(N)fctdt N − 1n  = 0xn(N  − 1)Tc0 sinc(fc(t − nTc))e  − j2π(n)/(N)fctdt
in cui la seconda eguaglianza utilizza l’interpolazione cardinale x(t)  = n =  − ∞xnsinc(fc(t − nTc)) fornita dalla (8.21↑), ed introduce una seconda fonte di approssimazione legata all’intervallo finito di variazione per n: infatti, benché l’integrale abbia estensione limitata, i valori di x(t) che cadono entro tale estensione, dovrebbero dipendere da tutti i suoi campioni. L’ultimo integrale è a sua volta una approssimazione (a causa degli estremi di integrazione limitati, e peggiore per i sinc centrati in prossimità dei confini della finestra) della trasformata (calcolata in f  = (m)/(N)fc) di sinc(fc(t − nTc)), pari quest’ultima a Tcrectfc(f)e  − j2πfnTc, che quando valutata per f = (m)/(N)fc, fornisce il risultato
Xwf  = (m)/(N)fcTcN − 1n = 0xne  − j2π(m)/(N)n
per valori |m| ≤ (N)/(2), a causa della estensione limitata (in frequenza) di rectfc(f). E’ però facile verificare che Xw(m)/(N)fc è periodica in m con periodo N, cosicché i valori assunti per m = (N)/(2)  + 1, (N)/(2) + 2, … sono uguali a quelli per m =  − (N)/(2) + 1,  − (N)/(2) + 2, .
[107]Come osservato al § 4.1.1↑, lo spettro X(f) di un segnale campionato a frequenza fc è costituito dalle repliche del segnale originario, distanziate di multipli di fc: X(f) = n =  − ∞X(f − nfc), e coincide con X(f) per  − fc ⁄ 2 < f  < fc ⁄ 2, se X(f) è limitata in banda tra ±W ed fc ≥ 2W. Al contrario, se fc < 2W, allora le repliche X(f  − nfc) si sovrappongono, e la (8.29↑) si riscrive come XmfcXf  = (m)/(N)fc.
[108]Il metodo esposto di porre a zero i campioni fino al raggiungimento di una potenza di due è detto zero padding. Il calcolo della DFT su di un numero di punti pari ai campioni di segnale disponibili, non avrebbe dato luogo all’effetto finestra, ma avrebbe fornito in tutti i casi andamenti simili a quello osservabile per 256 punti. Infine, notiamo che nelle figure sono mostrati solo i primi 128 valori, essendo i rimanenti speculari.
[109]Con la ovvia condizione che sia M  > 2 per rispettare il vincolo fc  > 2T
[110]Sostituendo infatti la (8.28↑) nella (8.31↓), otteniamo
xn = (1)/(N)N − 1m = 0(N  − 1k = 0xke − j2π(m)/(N)k)ej2π(m)/(N)n = (1)/(N)N − 1k = 0xkN − 1m = 0 ej2π(m)/(N)(n  − k)
ma, dato che N − 1m  = 0 ej2π(m)/(N)(n  − k) =  N sek  = n 0   altrimenti , allora nella sommatoria esterna sopravvive solo il termine xn, dimostrando l’uguaglianza.
[111]La relazione (8.32↓) si dimostra combinando le relazioni (8.2↑) e (8.29↑): XnfcX(n)/(N)fc  = fcX(n)/(NTc) = fcX(n)/(T) = fcX(nF) = fcTXSFn  = (1)/(Tc)TXSFn  = NXSFn
[112]Il risultato si ottiene ricordando che n = 0αn  = (1)/(1 − α) qualora |α| <  1.
[113]Infatti, e − j2π(m  + N)/(N)n = e  − j2π(m)/(N)ne − j2πn, ed il secondo termine vale 1 per qualsiasi n. Indichiamo qui ed al prossimo §, una sequenza periodica mediante la tilde .
[114]Infatti, sostituendo la (8.35↑) in (8.36↑), otteniamo n = (1)/(N)N − 1k =  0h  =  − ∞xhe  − j2π(k)/(N)hej2π(k)/(N)n. Scambiando ora l’ordine delle sommatorie risulta
n = h  =  − ∞xh(1)/(N)N  − 1k = 0 e  − j2π(k)/(N)(h − n)
Dato che (1)/(N)N − 1k =  0 e − j2π(k)/(N)(h  − n) =  1   seh = n + rN 0  altrimenti , con r intero, si ottiene il risultato (8.37↓).
[115]Vedi ad es. http://it.wikipedia.org/wiki/Trasformata_di_Fourier_veloce
[116]Scriviamo la (8.28↑) come
Xm  =  N − 12n’  =  − N + 12xn’  − 12  e − j2π(n)/(2N)m =   =  N − 12n’  =  − N  + 12xn’  − 12cos2π(n)/(2N)m  − jN − 12m’  =  − N + 12xn’  − 12sin2π(n)/(2N)m  =   =  2N − 12n’  = 12xn’  − 12cos2π(n)/(2N)m  = 2N − 1n  = 0xncos2π(n  + 12)/(2N)m  =   =  2N − 1n  = 0xncos(π)/(N)n  + (1)/(2)m
in cui xn è quella disegnata per seconda in fig. 4.22↑. La quarta eguaglianza tiene conto del fatto che il termine immaginario si annulla, in quanto sommatoria bilatera di una funzione dispari (ottenuta come prodotto di xn’  − 12 pari e sin2π(n)/(2N)m dispari), e del fatto che essendo i termini coseno pari, la sommatoria può essere ristretta ai soli indici positivi, raddoppiati. La penultima eguaglianza rappresenta il semplice cambio di variabile n  = n’ − 12, mentre l’ultima è (a parte il fattore 2) la definizione della DCT data in (8.38↓).
[117]Il risultato può essere ottenuto esprimendo l’integrale di convoluzione x(t)*h(t) nei termini dei campioni di x(t) e h(t) (eq. 8.21↑), e sfruttando la proprietà di ortogonalità di sinc(.) (vedi § 4.1.3↑).
[118]Infatti, ad xn ed hn corrispondono le DFT periodiche m ed m, che hanno per antitrasformata n ed n. Il prodotto mm, espresso in termini di n ed n, risulta pari a m = mm  = N − 1p =  0N − 1q  = 0pqe − j2π(m)/(N)(p  + q), ed applicando a questo la IDFT (8.31↑) , otteniamo:
n = (1)/(N)N − 1m = 0mej2π(m)/(N)n = (1)/(N)N − 1p = 0N − 1q = 0pq(N  − 1m = 0 ej2π(m)/(N)(n  − p − q))
Dato che N − 1m  = 0 ej2π(m)/(N)(n  − p − q) =  N seq  = (n  − p)  + lN 0   altrimenti , con l intero, risulta allora n  = N  − 1p =  0pn  −  p, come espresso dalla (8.41↑).
[119]La normalizzazione per Tc discende dalla (8.40↑)
[120]Utile per scrivere la probabilità di un evento come “1 meno” quella dell’evento complementare.
[121]Lanciando un dado, la probabilità Pr(pari ∪ > 2) di ottenere un numero pari, oppure più grande di due, è la somma delle probabilità dei singoli eventi Pr(pari) = (3)/(6) e Pr( > 2) = (4)/(6), meno quella che si verifichino assieme Pr(pari ∩ > 2)  = (2)/(6). Pertanto: Pr(pari ∪ > 2)  = (3)/(6) + (4)/(6)  − (2)/(6) = (5)/(6).
[122]
figure f5.1b.png
La relazione può essere verificata ricorrendo al diagramma in figura, ed interpretando Pr(A  ⁄ B) come il rapporto tra la misura di probabilità dell’evento congiunto, rispetto a quella dell’evento condizionante.   
[123]
Il risultato è pari alla probabilità Pr(A, B)  = Pr(pari,    > 2) che i due eventi si verifichino contemporaneamente, divisa per la probabilità PR(B) = PR( > 2) che il numero sia >2.
Si rifletta sulla circostanza che la probabilità del pari PR(A) = (1)/(2), quella PR(B) = (4)/(6), o quella congiunta di entrambi PR(A,  B) = (2)/(6), sono tutte riferite ad un qualunque lancio di dado, mentre Pr(pari  ⁄  > 2) è relativa ad un numero ridotto di lanci, ossia solo quelli che determinano un risultato  > 2. Pertanto, essendo Pr(B) ≤ 1, si ottiene Pr(A ⁄ B)  ≥ Pr(A, B); infatti per l’esempio del dado si ottiene Pr(pari  ⁄  > 2)  = Pr(pari,  > 2)  ⁄ Pr( > 2)  = (2)/(6) ⁄ (4)/(6) = (1)/(2), che è maggiore di Pr(pari,   > 2) = (1)/(3) (i valori di probabilità sono ottenuti come rapporto tra il numero di casi favorevoli e quello dei casi possibili).
Si ottiene invece Pr(A  ⁄ B) = Pr(A,  B) solo se Pr(B) = 1, ossia se B corrisponde all’unione di tutti gli eventi possibili.
[124]La probabilità marginale di fuori servizio si calcola applicando il teorema delle probabilità totali:
Pr(FS)  =  Pr(FS ⁄ piove)Pr(piove)  + Pr(FS  ⁄ non piove)Pr(non piove)  =   =  .5⋅.03 + .05⋅.97 = .0635 = 6.35%
in quanto Pr(non piove) = 1 − Pr(piove) = .97. Applicando il teorema di Bayes si trova quindi:
Pr(piove  ⁄ FS)  = (Pr(FS  ⁄ piove)Pr(piove))/(Pr(FS))  = (.5⋅.03)/(.0635)  = .236 = 23.6%
Si noti come la probabilità a priori che piova (3 %) venga rimpiazzata dal suo valore a posteriori (23,6 %) grazie alla nuova informazione di cui disponiamo (collegamento fuori servizio). Per una definizione precisa delle probabilità a priori ed a posteriori si veda l’appendice 11.2.1↓.
[125]E’ pari al prodotto delle probabilità marginali, essendo i lanci statisticamente indipendenti, visto che il dado è “senza memoria”. Pertanto il risultato è (1)/(6)3  = (1)/(216)≃4.6296⋅10 − 3.
[126]Anche qui l’urna è senza memoria; però dopo la prima estrazione le biglie restano in 4! Pertanto ora il prodotto delle probabilità marginali risulta (2)/(5)(1)/(4)  = (1)/(10).
[127]Pr(K, Q)  = Pr(K prima, Q seconda) + Pr(Q prima, K seconda) =   Pr(K prima)Pr(Q seconda ⁄ K prima)  +  Pr(Q prima) Pr(K seconda ⁄ Q prima) =  2(4)/(52)(4)/(51)  = (8)/(663) ≅1.2⋅10  − 2 .
[128]Un esempio classico di v.a. discreta è quello del lancio di un dado, un altro sono i numeri del lotto. Una v.a. continua può essere ad esempio un valore di pressione atmosferica in un luogo, oppure l’attenuazione di una trasmissione radio dovuta a fenomeni atmosferici.
[129]In realtà, l’ordine storico è quello di definire prima FX(x) come la probabilità che X sia non superiore ad un valore x, ovvero FX(x) = Pr{X  ≤ x}, e quindi pX(x) = (dFX(x))/(dx). Il motivo di tale “priorità” risiede nel fatto che FX(x) presenta minori “difficoltà analitiche” di definizione (ad esempio presenta solo discontinuità di prima specie, anche con v.a. discrete).
[130] A fianco è mostrata la FD(x) relativa al lancio di un dado: ricordiamo infatti che la derivata di un gradino è un impulso di area pari al dislivello, e dunque applicando la (10.3↑) alla (10.2↑) si ottiene il risultato illustrato.
figure f5.4b.png
[131]Infatti la probabilità che X cada tra x0 e x0  + Δx vale x0  + Δxx0pX(x)dxpX(x0)Δx.
[132]Ricavate ad esempio da basi di dati anagrafici, sanitari, meteorologici o quant’altro, oppure effettuando una apposita campagna di misura basata su di un campione statistico di adeguata numerosità (vedi anche § 5.6↓).
[133]Un esempio di funzione di v.a. potrebbe essere il valore della vincita associata ai 13 in schedina, che dipende dalla v.a. rappresentata dai risultati delle partite, una volta noto il montepremi e le giocate. Infatti, per ogni possibile vettore di risultati, si determina un diverso numero di giocate vincenti, e quindi un diverso modo di suddividere il montepremi. Essendo i risultati improbabili giocati da un ridotto numero di schedine, a queste compete un valore maggiore in caso di vincita, ben superiore al suo valore atteso, indicativo invece della vincita media.
[134]Per insieme ci si riferisce allo spazio campione Ω, costituito dai possibili valori assunti dalla v.a. X.
[135]Notiamo che se al posto delle probabilità pX(x)dx utilizziamo i valori di un istogramma Pr(xi)  = (N(xi < x  ≤ xi + Δx))/(N) = (Ni)/(N), l’integrale si trasforma in una sommatoria, il cui sviluppo evidenzia l’equivalenza con una media pesata: xiPr(xi)  = (x1N1  + x2N2 + ... + xnNn)/(N).
[136]In effetti, la E simboleggia la parola Expectation, che è il termine inglese usato per indicare il valore atteso.
[137]Supponiamo che X rappresenti l’altezza degli individui; l’altezza media sarà allora calcolabile proprio come momento del primo ordine.
[138]Infatti risulta
σ2X  =  E{(x  − mX)2} = E{x2  + (mX)2 − 2xmX} = E{x2} + (mX)2 − 2mXE{x}  =   =  m(2)X  + (mX)2 − 2(mX)2 = m(2)X − (mX)2
Si è preferito usare la notazione E{x}, più compatta rispetto all’indicazione degli integrali coinvolti; i passaggi svolti si giustificano ricordando la proprietà distributiva degli integrali (appunto), ed osservando che il valore atteso di una costante è la costante stessa.
[139]Anziché calcolare σ2X per la pX(x) data, calcoliamo m(2)X per una v.a. uniforme con mX = 0: in tal caso infatti m(2)X = σ2X. Si ha: m(2)X = (Δ)/(2) − (Δ)/(2)x2(1)/(Δ)dx = (x3)/()||(Δ)/(2) − (Δ)/(2)  = (1)/()(Δ3)/(8) + (Δ3)/(8)  = (1)/()2(Δ3)/(8)  = (Δ2)/(12).
[140]Disponendo di un insieme {xn} di N realizzazioni di una variabile aleatoria X, possiamo effettuare le stime ^mx  = (1)/(N)Nn  = 1xn e ^m(2)x  = (1)/(N)Nn  = 1x2n, il cui valore tende asintoticamente a quello delle rispettive medie di insieme, come N (la dimensione del campione statistico) tende a . Al proposito, vedi § 5.6.5↓.
[141]Il suo scopritore, K.F. Gauss, denominò la v.a. e la sua ddp come Normale, indicando con questo il fatto che il suo uso potesse essere “quotidiano”, e per questo è indicata anche come N(m, σ2).
[142]Questa condizione è anche detta di v.a. indipendenti e identicamente distribuite, ovvero i.i.d.
[143]Vedi http://it.wikipedia.org/wiki/Teoremi_centrali_del_limite, ovvero sperimentare presso http://local.disia.unifi.it/VL/VL_IT/applets/DiceExperiment.html. Inoltre, considerando che al § 5.2.6↓ si mostra come la d.d.p. di una somma di v.a. indipendenti sia pari alla convoluzione tra le rispettive d.d.p., osserviamo che la convoluzione ripetuta di una stessa d.d.p. con se stessa, la gaussianizza.
[144]Il termine erfc sta per funzione di errore complementare, e trae origine dai risultati della misura di grandezze fisiche, in cui l’errore di misura, dipendente da cause molteplici, si assume appunto gaussiano. Vedi anche https://it.wikipedia.org/wiki/Funzione_degli_errori.
[145]Vedi ad es. https://it.wikipedia.org/wiki/Funzione_caratteristica_(teoria_della_probabilità)
[146]Chiaramente, la maggioranza dei segnali trasmessi da apparati di tlc sono di questo tipo.
[147]Per fissare le idee, conduciamo parallelamente al testo un esempio “reale” in cui il processo aleatorio è costituito da.... la selezione musicale svolta da un dj. L’insieme T sarà allora costituito dall’orario di apertura delle discoteche (dalle 22 all’alba ?), mentre in θ faremo ricadere tutte le caratteristiche di variabilità (umore del dj, i dischi che ha in valigia, la discoteca in cui ci troviamo, il giorno della settimana...).
[148]Nell’esempio, x(t0,  θ) è il valore di pressione sonora rilevabile ad un determinato istante (es. le 23.30) al variare di θ (qualunque dj, discoteca, giorno...).
[149]Ad esempio, se in tutte le serate il volume aumenta progressivamente nel tempo, la pX(x(tj)) si allargherà per tj crescenti.
[150]x(t, θi) rappresenta, nel nostro esempio, l’intera selezione musicale (detta serata) proposta da un ben preciso dj, in un preciso locale, un giorno ben preciso.
[151]m(2)X(θi) in questo caso rappresenta la potenza media con cui è suonata la musica nella particolare serata θi.
[152]La “serata in discoteca” stazionaria si verifica pertanto se non mutano nel tempo il genere di musica, il volume dell’amplificazione... o meglio se eventuali variazioni in alcune particolari discoteche-realizzazioni sono compensate da variazioni opposte in altrettanti membri del processo.
[153]In questo caso la pX(x(t)) non è nota, oppure non è stazionaria, ma le maggiori applicazioni della proprietà di stazionarietà dipendono solo da mX(t) e m(2)X(t), che possono essere misurati (o per meglio dire stimati), e risultare stazionari anche se pX(x(t)) non lo è.
[154]Questo accade se la selezione musicale di una particolare serata si mantiene costante (es. solo raggamuffin) oppure variata ma in modo omogeneo (es. senza tre “lenti” di fila).
[155]Volendo pertanto giungere alla definizione di una serata ergodica in discoteca, dovremmo eliminare quei casi che, anche se individualmente stazionari, sono decisamente “fuori standard” (tutto metal, solo liscio...).
[156]La (10.9↓) non è frutto di un calcolo, bensì di un ragionamento: l’impulso gT(t) triangolare non “passa più tempo” su di un valore o su di un altro, ma passa lo stesso tempo su un qualunque valore tra 0 ed A. Pertanto i diversi membri del processo, ognuno relativo ad un diverso θ, qualora valutati ad un medesimo istante t, assumono uno qualsiasi dei valori tra 0 ed A con d.d.p. uniforme.
[157]In assenza del parametro θ, e considerando la sequenza aleatoria degli an stazionaria ed ergodica, x(t,  θ = 0) costituisce un processo ciclostazionario in senso stretto (vedi https://en.wikipedia.org/wiki/Cyclostationary_process), ossia per il quale le medie di insieme di qualsiasi ordine sono periodiche di periodo T. La presenza della v.a. uniforme θ rende x(t,  θ) un processo stazionario, ed anche ergodico.
[158]In una prossima edizione, potrei calcolare le ddp corrispondenti ai diagrammi ad occhio di fig. 8.13↓
[159]
La dimostrazione segue le medesime linee guida del caso precedente, ed è impostata sulla base della considerazione che la funzione di distribuzione di Y, calcolata in un generico punto ỹ  = (1,  2,  …, n), rappresenta la probabilità che Y appartenga alla regione (dominio) delimitata dal punto ỹ, indicata con Dỹ:
FY(ỹ)  = Pr{Y  ≤ ỹ} = Pr{Y  ∈ \calDỹ}

figure f5.28.png
Alla stessa regione Dỹ, ne corrisponde una diversa Dx̃ nello spazio X, tale che per ogni valore x ∈ Dx̃ risulti y = G(x)  ∈ Dỹ. Con queste posizioni, la FY(ỹ)  = Pr{Y ∈ Dỹ} si calcola a partire dalla d.d.p. pX(x), integrata sul dominio Dx̃:
FY(ỹ)  = Pr{X  ∈ Dx̃} = Dx̃pX(x)dx
Infine, osservando che
pY(y1,  y2, …, yn)  = (nFY(y1,  y2, …, yn))/(y1y2⋯∂yn)
si ottiene il risultato mostrato.
[160]J(X ⁄ Y)è indicata come matrice jacobiana, ed il suo determinante come jacobiano, vedi https://it.wikipedia.org/wiki/Matrice_jacobiana
[161]Si verifichi per esercizio che nel caso di una coppia di v.a. congiuntamente gaussiane, a media nulla ed uguale varianza, si ottiene l’espressione (16.2↓) di pag. 1↓.
[162]Infatti, potendo scrivere xi = nj = 1bjiyj, l’elemento i, j della matrice J risulta pari a jij  = (xi)/(yj) = bji.
[163]Infatti risulta (BΣ − 1xB) − 1 = (  B) − 1 ΣxB  − 1 che, essendo B  − 1 =  A, fornisce il risultato per Σy.
[164]Vedi ad es. http://it.wikipedia.org/wiki/Inferenza_statistica
[165]Un modello del genere si applica tanto al caso di detezione di un bersaglio radar, che può essere presente o meno, quanto ai casi di una diagnosi medica a partire dai risultati degli esami clinici, a quello di attuare o meno un investimento finanziario a partire dall’andamento delle borse, a quello se prendere o meno l’ombrello prima di uscire di casa a partire dallo scrutare il cielo...
[166]Vedi ad es. http://en.wikipedia.org/wiki/P-value
[167]Vedi ad es. http://it.wikipedia.org/wiki/Disuguaglianza_di_Cramér-Rao
[168]Ad esempio, il teorema centrale del limite (§ 5.2.4↑) fa si che la media campionaria ^mx  = (1)/(N)Ni  = 1xi, in quanto somma di v.a. indipendenti e identicamente distribuite, tenda ad una gaussiana per N → ∞.
[169]Vedi ad es. http://en.wikipedia.org/wiki/Point_estimation
[170]Vedi § 5.5.1↑ per l’espressione di una gaussiana multidimensionale.
[171]Per quanto riguarda x, imponendo i(xi  − x) = 0 si perviene facilmente al risultato, mentre per σ̂2x l’eguaglianza a zero produce (1)/(2σ̂4x)i(xi  − x)2 = (N)/(2)(1)/(σ̂2x)  →  (1)/(σ̂2x)i(xi  − x)2 = N e quindi il risultato.
[172]Infatti E{x}  = E(1)/(N)Ni  = 1xi  = (1)/(N)Ni  = 1E{xi} = (1)/(N)Nmx  = mx
[173]In questo caso riscriviamo x come x = Ni = 1(xi)/(N), consideriamo che la varianza di una somma di v.a. i.i.d. è la somma delle varianze (vedi § 6.6.2↓), e che σ2aX = a2σ2X: pertanto si ottiene σ2x  = Ni = 1(σ2x)/(N2) = (σ2x)/(N).
[174]Occorre innanzitutto riscrivere xi  − x come xi  − mx + mx − x  = (xi − mx) − (x  − mx), in modo da ottenere (xi  − x)2  = (xi − mx)2 − 2(xi  − mx)(x  − mx) + (x  − mx)2. Eseguendo ora la sommatoria su i si ottiene
i(xi − x)2  =  i(xi  − mx)2  − 2(x  − mx)i(xi − mx) + i(x − mx)2  =  i(xi − mx)2 − 2N(x  − mx)2  + N(x  − mx)2  = i(xi − mx)2 − N(x  − mx)2
in quanto i(xi − mx) = ixi  − imx  = Nx − Nmx  = N(x −  mx).
[175]Intese qui nel senso più generale, per esempio come temperatura e pressione in un punto ben preciso di un cilindro di un motore a scoppio, oppure come pressione e velocità in un circuito idraulico, o pneumatico... astraendo cioè dal caso particolare di due v.a. estratte da una stessa forma d’onda.
[176] Può tornare utile pensare m(1,  1)X1X2 come una media pesata dei possibili valori del prodotto x1x2; i termini di eguale ampiezza e segno opposto possono elidersi se equiprobabili. Negli esempi che seguono, riportiamo dei diagrammi di scattering per sei diversi casi di distribuzione delle coppie di valori x1 e x2, assieme ai valori di correlazione x1x2 (corr), covarianza σx1x2 (cov), e coefficiente di correlazione ρ (vedi § 6.9.1↓ per quest’ultimo parametro)
figure f7.3.png
Correlazione elevata
figure f7.6.png
      
Correlazione media
figure f7.5.png
 Correlazione nulla
figure f7.4.png
Correlazione elevata
figure f7.7.png
Correlazione media
figure f7.8.png
Correlazione nulla

   
In A) e F) le coppie di valori sono legate da una legge pressoché deterministica, mentre in B) e D) c’è più variabilità, ma si nota ancora una certa dipendenza tra le due. Infine nei casi C) ed E), osserviamo due v.a. statisticamente indipendenti, dato che pX1X2(x1, x2) è fattorizzabile come pX1(x1)pX2(x2), e per le quali risulta quindi X(x1x2) = mx1mx2.
[177]Omettiamo per brevità di indicare la variabile aleatoria a pedice della densità di probabilità.
[178]L’uguaglianza si ottiene ricordando che un valore atteso è in realtà un integrale, ed sfruttando la proprietà distributiva di quest’ultimo.
[179]Notiamo immediatamente che il termine più corretto sarebbe “incovarianzate”; l’uso (ormai storico e consolidato) dell’espressione incorrelate deriva probabilmente dal considerare usualmente grandezze a media nulla, per le quali le due espressioni coincidono.
[180]Vedi ad esempio il caso F) della nota (6.1.1↑), in cui le variabili aleatorie risultano incorrelate, ma non sono per nulla indipendenti, in quanto l’una dipende strettissimamente dall’altra, dato che le coppie di valori si dispongono su di un cerchio.
[181]Il risultato (10.25↑) si basa sul cambio di variabile θ = t  + τ che permette di scrivere
x(τ)  =   − ∞x*(θ  − τ)x(θ)dθ  =  − ∞x*(  − (τ − θ))x(θ)dθ  = x*( − t)*x(t)
[182]Infatti otteniamo:
y(τ)  =   − ∞y(t)y(t  + τ)dt  =  − ∞x(t  + θ)x(t  + θ + τ)dt  =   − ∞x(α)x(α  + τ)dα  = ℛx(τ)
[183]x( − τ) =  − ∞x*(t)x(t − τ)dt  =  − ∞x*(α + τ)x(α)dα  = R*x(τ), avendo operato il cambio di variabile t −  τ = α, da cui t =  α + τ e dt = dα.
[184]In realtà le attribuzioni di questo risultato sono molteplici, comprendendo anche Khinchin, Einstein e Kolmogorov - fonte http://en.wikipedia.org/wiki/Wiener-Khinchin_theorem
[185] In tal caso la stima della densità di potenza può essere ottenuta mediante periodogramma (§ 6.3.1↓) calcolato su di un segmento di segnale xT(t) di durata T estratto da x(t), e facendo tendere T  → ∞, ovvero Px(f) = limT  → ∞ (1)/(T)|XT(f)|2. Dato che |XT(f)|2 è proprio la densità di energia xT(f) di xT(t), per il teorema di Wiener la sua anti-trasformata corrisponde alla funzione di autocorrelazione xT(τ) = ℱ  − 1{xT(f)} di xT(t), come definita dalla (10.23↑). Operando il passaggio al limite, si ottiene che   − 1{ Px(f)} = ℱ − 1{limT  → ∞(1)/(T)xT(f)} = limT  → ∞1T )xT(τ), che corrisponde alla autocorrelazione dell’intero segnale x(τ), come espressa dalla (10.22↑).
[186]La dimostrazione di questo caso viene omessa; ci limitiamo a citare che la sua validità è vincolata a processi per i quali τm(1,  1)XX(τ) rimane finito per qualunque τ, ed è basata sulla considerazione che se la Pθx(f) di un particolare membro θ è valutabile come Pθx(f) = limT  → ∞1T )|XθT(f)|2, allora la sua media di insieme può scriversi come Px(f) = limT  → ∞1T )EΘ{|XθT(f)|2}.
[187]A pag. 1↑ viene calcolata la trasformata del coseno, applicando alla quale le considerazioni di pag. 1↑ se ne ottiene la densità di potenza.
[188]Media mA e varianza σ2A sono qui riferite ai valori multilivello ak (con k = 1, 2, ⋯, L) che un generico simbolo an può assumere, pesati con le rispettive probabilità pk, ossia mA = Lk = 1pkak e σ2A = Lk = 1pk(ak − mA)2
[189]Un esempio può essere un segnale sonoro, ad esempio una voce recitante, per il quale vogliamo studiare le caratteristiche spettrali dei diversi suoni della lingua (i fonemi), per confrontarle con quelle di un altro individuo, o per ridurre la quantità di dati necessaria a trasmettere il segnale in forma numerica (vedi § 12.1.2↓), o per realizzare un dispostivo di riconoscimento vocale.
[190]Nel caso contrario in cui x(t,  θ) non sia ergodico, la sua densità spettrale può essere definita come Px(f) = limT  → ∞E(|XT(f)|2)/(T).
[191] Per una determinata frequenza f0, il valore PxT(f0)  = (|XT(f0)|2)/(T) è una variabile aleatoria (dipende infatti da θ), il cui valore atteso mT = Eθ{PxT(f0)} vorremmo fosse pari alla vera densità Px(f0)), e la cui varianza σ2T  = Eθ{(PxT(f0)  −  Px(f0))2} vorremmo che diminuisse al crescere di T. Per verificare se tali proprietà sono soddisfatte, valutiamo innanzitutto il valore atteso del periodogramma, a partire dalle relazioni fornite dal teorema di Wiener applicato ad XT(f), e cioè |XT(f)|2 = ℰxT(f) = ℱ{xT(τ)}:
Eθ{PxT(f)}  =  Eθ(1)/(T)  − ∞x(t,  θ)rectT(t)x(t + τ, θ)rectT(t + τ)dt  =   =  (1)/(T)  − ∞Eθ{x(t, θ)x(t + τ, θ)}rectT(t)rectT(t  + τ)dt  =   =  x(τ)(1)/(T)  − ∞rectT(t)rectT(t  + τ)dt  = ℱ{x(τ)tri2T(τ)} =   =  Px(f)*T(sinc(fT))2
Osserviamo quindi come, all’aumentare di T, il nostro stimatore tende al valore vero, dato che T(sinc(fT))2 tende ad un impulso.
[192]Quando il valore atteso di uno stimatore tende al valore vero, si dice (vedi § 5.6.4↑) che lo stimatore è non polarizzato (o unbiased); se poi aumentando la dimensione del campione, la varianza della stima tende a zero, lo stimatore è detto consistente. Ci consola verificare che, come commentato alla nota precedente, per T  → ∞ la polarizzazione tende a scomparire, rendendo la stima asintoticamente non polarizzata.
[193]La risoluzione spettrale in questo caso dipende dalla larghezza del lobo principale della densità di energia della funzione finestra applicata a x(τ), che nel caso del tri2T(τ) risulta (sinc(fT))2, il cui lobo principale è appunto ampio 1T. Anche la risoluzione, quindi, migliora all’aumentare di T.
[194]Vedi ad es. http://risorse.dei.polimi.it/dsp/courses/ens_l1/books/libro07secondaparte.pdf
[195]Esistono diverse soluzioni a questo problema, tutte legate ad una riduzione della risoluzione spettrale. La prima è quella di smussare il ^Px(f) ottenuto, mediando i valori su frequenze vicine: tale operazione corrisponde ad un filtraggio in frequenza. Un secondo metodo prevede di suddividere l’intervallo di osservazione in diversi sottointervalli, calcolare il periodogramma su ciascuno di essi, e mediare i risultati.
[196]La quarta uguaglianza sussiste in virtù del teorema di Parseval, mentre l’ultima è valida se H(τ) è reale, ossia h(t) è idealmente realizzabile ovvero reale, vedi il § 1.7.2↑.
[197]Tenendo conto della natura lineare e permanente del filtro, l’uscita è la combinazione degli effetti degli ingressi, che per un segnale periodico corrispondono alle armoniche.
[198]in realtà si fa l’ulteriore ipotesi che la banda passante di H(f) sia minore di B
[199]Il motivo di questo risultato può essere meglio compreso ricordando che l’integrale di convoluzione calcola i singoli valori in uscita da un filtro, come dipendenti da tutti gli ingressi passati, ognuno pesato con il valore della risposta impulsiva relativo al ritardo tra ingresso passato ed uscita presente. Pertanto, anche se i singoli valori in ingresso sono incorrelati, quelli di uscita (distanti tra loro per meno della durata della risposta impulsiva) condividono una porzione di storia comune, e quindi i loro valori non sono più indipendenti.
[200]Questo risultato è una diretta conseguenza della proprietà di invarianza dei processi gaussiani ripetto alle trasformazioni lineari discussa al § 5.5.2↑. Infatti, riscrivendo l’operazione di convoluzione y(t) = x(τ)h(t  − τ)dτ in forma approssimata come una somma di infiniti termini y(t) = ix(τi)h(t − τi)Δτi appare evidente come, nel caso in cui x(t) sia un processo gaussiano, l’uscita sia costituita da una somma di v.a. gaussiane, e dunque anch’essa gaussiana.
[201]Indicando rispettivamente con Pe0 e Pe1 i due tipi di errore, pari a (vedi fig. 6.11↓) Pe0  = λpZ(z ⁄ H0)dz e Pe1 = λ − ∞pZ(z ⁄ H1)dz, la probabilità di errore complessiva vale Pe  = Pe0P0 + Pe1P1, in cui Po = Pr(H0) e P1 = Pr(H1).
[202]la dimostrazione è rimandata alla nota 6.5↓
[203]Avendo definito hT(t) = gt − (T)/(2), risulta che
H*T(f) = (G(f)e − j2πf(T)/(2))*  = G*(f)e + j2πf(T)/(2)
e dunque H*T(f)e − j2πfT  = X*(f)e − j2πfT = G*(f)e − j2πf(T)/(2). D’altra parte, potendo scrivere H*T(f)e − j2πfT = (HT(f)ej2πfT)* e ricordando la proprietà (8.5↑) espressa a pag. 1↑  − 1{X*(f)} = x*(  − t), otteniamo che
hR(t)  =   − 1{H*T(f)e − j2πfT} = ℱ − 1{(HT(f)ej2πfT)*}  =   =  h*T(θ + T)|θ =  − t = h*T(T − t)  = x*(T − t)
Infine, essendo x(t) = g(t  − T2) si ottiene anche hR(t) = g*(θ  − T2)|θ = T − t = g*(T2 − t). La fig. 6.9↑ mostra l’esito di tali operazioni nel caso di una g(t) triangolare.
[204]Ricordiamo (vedi § 6.4.2↑) che l’uscita di un filtro al cui ingresso è posto un processo gaussiano, è anch’essa gaussiana.
[205]Infatti mHoz(T) = E{XN(0)}  = E{T0x*(t)n(t)dt}, che è pari a zero se E{n(t)} = 0.
[206]Risulta σ2z(T)  = E{z2(T)} = Z(τ)|τ = 0. Sappiamo che Z(τ) = ℛN(τ)*ℛHR(τ) = (N0)/(2)δ(τ)*ℛHR(τ) = (N0)/(2)HR(τ); pertanto
σ2z(T)  = (N0)/(2)HR(0) = (N0)/(2)  − ∞h*R(t)hR(t)dt = (N0)/(2)G
dato che hR(t) ha la stessa energia di g(t).
[207]Infatti, ora risulta mH1z(T) = E{X(0) + ℛXN(0)}, in cui il contributo del secondo termine è nullo come già osservato, mentre quello del primo non è aleatorio, e vale X(0) = T0x*(t)x(t)dt = ℰG, in quanto il segnale x(t) ha la stessa energia di g(t). Per ciò che riguarda σ2z(T), osserviamo che essendo il filtro di ricezione un operatore lineare, l’uscita si ottiene come sovrapposizione degli effetti delle due cause x(t) ed n(t), e la componente aleatoria dell’uscita è dovuta al solo n(t); pertanto, la sua varianza è la stessa calcolata per il caso H0 di segnale assente.
[208]Infatti il rapporto (mH1z(T))/(σz(T)) confronta l’uscita attesa mH1z(T) = ℰG di HR per t = T, con la deviazione standard σz(T) di tale valore e dovuta al rumore: in altre parole, è indicativo della separazione delle gaussiane riportate in figura 6.11↑. Pertanto, maggiore è questo rapporto, e minore sarà la probabilità di errore.
[209] Consideriamo il caso in cui si abbia una HR(f) = H(f) generica. In presenza di solo segnale, si ottiene
|z(T)|2 =  |F  − 1{Z(f)}|t  = T|2 = | − ∞H(f)X(f)ej2πfTdf|2
A questa espressione può essere applicata la diseguaglianza di Schwartz (a pag. 1↑ si enuncia la relazione | − ∞a(θ)b*(θ)dθ|2 ≤  −  ∞|a(θ)|2dθ − ∞|b(θ)|2dθ, con l’eguaglianza solo se a(θ) = kb(θ)), qualora si faccia corrispondere H(f) ad a(θ), e X(f)ej2πfT a b*(θ), ottenendo così
|z(T)|2 =  (mH1z(T))2  ≤  − ∞|H(f)|2df − ∞|X(f)|2df
con l’eguaglianza solo se H(f) = kX*(f)e − j2πfT, ovvero (vedi pag. 1↑) se h(t) = kx(T  − t), ossia se H(f) è adattata a X(f). Scegliendo k  = 1, i due integrali a prodotto hanno lo stesso valore, pari a G, e dunque (mH1z(T))2  = |z(T)|2 =  ℰ2G.
[210]In effetti la (10.33↓) non è adimensionale ma è esprimibile come [sec], dunque non è un vero e proprio SNR, ma dato che il termine rende l’idea, questa accezione è entrata nell’uso comune.
[211]Vedi ad es. https://en.wikipedia.org/wiki/Op_amp_integrator
[212]Il circuito non lineare mostrato non è un filtro adattato, dato che per t  ≠ T non produce la stessa uscita (vedi http://dsp.stackexchange.com/questions/9094/understanding-matched-filter).
[213]La condizione (10.34↓) si ottiene anche in questo caso imponendo la massimizzazione di SNR  = ((mH1z(T))2)/(σ2z(T)) = (| − ∞H(f)X(f)ej2πfTdf|2)/(  − ∞|H(f)|2 PN(f)df) il cui denominatore tiene conto che σ2z(T)  =  − ∞PZ(f)df è dovuta al solo rumore. Applichiamo ora a SNR la diseguaglianza di Schwartz posta nella forma
(|  − ∞a(θ)b*(θ)dθ|2)/( − ∞|a(θ)|2dθ) ≤   − ∞|b(θ)|2dθ
e identifichiamo a(θ) con H(f)(PN(f)) e b*(θ) con X(f)ej2πfT(PN(f)). Imponendo di nuovo la condizione a(θ) = kb(θ) con k  = 1, otteniamo il massimo SNR come SNR =  −  ∞|b(θ)|2dθ  =  − ∞(|X(f)|2)/(  PN(f))df, e quindi scrivendo a(θ) = b(θ) ossia H(f)(PN(f)) = X*(f)e − j2πfT(PN(f)) si ottiene il risultato (10.34↓).
[214](vedi § 9.1.1.3↓,§ 14.9.2.5↓)
[215]Anche se nel caso di banda base il segnale trasmesso è reale, volendo applicare la teoria esposta ad un inviluppo complesso (§ 9.2.1↓) si rende necessario tener conto dell’operazione di coniugato.
[216]Se il segnale certo è periodico, il risultato della moltiplicazione per un processo stazionario dà luogo ad un processo detto ciclostazionario, in quanto le statistiche variano nel tempo, ma assumono valori identici con periodicità uguale a quella del segnale certo.
[217]Compreso il caso di processi armonici!
[218]La proprietà di ergodicità congiunta corrisponde a verificare le condizioni ergodiche anche per i momenti misti m(1, 1)XY(x, y) relativi a coppie di valori estratti da realizzazioni di due differenti processi.
[219]Come per il prodotto, se il segnale certo è periodico, la somma si dice ciclostazionaria perché la dipendenza temporale non è assoluta, ma periodica.
[220]Si tratta di una stima (vedi § 5.6.4↑) in quanto l’intervallo di integrazione T è limitato.
[221]Il tema delle realizzazioni numeriche dei filtri digitali non è al momento qui svolto, ma citiamo come fonte di approfondimento http://www.dspguide.com/ch14/6.htm).
[222]I coefficienti cn vengono indicati nei testi inglesi come taps (rubinetti) in quanto possono essere pensati “spillare” frazioni del segnale. Per effetto di un processo di trasposizione linguistica, gli stessi coefficienti in italiano vengono a volte indicati discorsivamente come tappi (!).
[223]Il troncamento (§ 2.2.2↑) della serie di coefficienti ck avviene in modo simmetrico rispetto a c0, prendendo cioè sia gli indici positivi che quelli negativi. Viceversa, nello schema di filtro trasversale si usano solo coefficienti con indici  ≥ 0. Nel caso in cui l’H(f) da cui partiamo sia reale pari, allora i ck sono una serie reale (pari), garantendo un filtro idealmente realizzabile, ma la cui h(t) = N ⁄ 2k  =  − N ⁄ 2ckδ(t − kT) necessita di una traslazione temporale per essere anche fisicamente realizzabile. Se invece H(f) ha un andamento qualunque, non si può dire nulla a riguardo di eventuali simmetrie per i coefficienti ck.
[224]In questo caso pur risultando H(f) a simmetria coniugata (H(f) = H*( − f)), è complessa. Pertanto, i coefficienti ck ottenibili dalla (10.37↑) sono reali, ma non necessariamente pari. Svolgendo i calcoli, si ha: ck = T1  ⁄ 2T − 1 ⁄ 2T(1 + αe − j2πfT)ej2πfkTdf  = T1 ⁄ 2T  − 1 ⁄ 2Tej2πfkTdf  + αT1 ⁄ 2T  − 1 ⁄ 2Tej2πf(k − 1)Tdf. Il primo integrale è nullo per k ≠ 0, mentre il secondo per k ≠ 1, in quanto le funzioni integrande hanno media nulla sull’intervallo 1  ⁄ T; pertanto c0  = 1 e c1 = α, esattamente come è definita la risposta impulsiva.
[225]In altre parole, l’andamento ondulatorio di |H(f)|2 rende il filtro idoneo a diversi utilizzi, in funzione dell’andamento in frequenza del segnale di ingresso.
[226]In questo caso si parla di filtro iir o infinite impulse response.
[227]L’analogia non è poi troppo peregrina, considerando che se x è estratta da un processo ergodico a media nulla, la sua varianza σ2x coincide con la potenza del segnale da cui è estratta, mentre se x ed y sono estratte da segnali congiuntamente ergodici, la covarianza σxy coincide con la funzione di intercorrelazione (eq. (10.24↑)), ovvero con la loro potenza mutua.
[228]Facciamo uso del prodotto Hermitiamo definito come x,  y = xy  = ni = 1xiyi, in cui la sopralineatura rappresenta l’operazione di coniugazione. In generale per matrici e vettori reali risulta Ax,  y = (Ax)y = xAy  = x, Ay, ma se oltre a ciò A è simmetrica si ha A = A e dunque Ax, y = x, Ay. Indicando ora con λ il coniugato di un autovalore di A (per assurdo) complesso, possiamo scrivere λx, x  = λx, x  = Ax, x  = x, Ax  = x, λx  = λx, x, ma dato che x,  x è positivo, dovrebbe essere λ = λ, il che è impossibile: dunque tutti gli autovalori sono reali.
[229]Gli autovettori si considerano normalizzati γγ  = 1, altrimenti ad uno stesso autovalore ne corrisponderebbero infiniti. Inoltre, sono definiti a meno di un termine di fase, dato che se γ è un autovettore, lo è anche γejθ con 0 < θ < 2π.
[230]Vedi ad es. http://dssm.unipa.it/chiodi/teaching/files/Statistica3_First/MLAmatrix2012.pdf
[231]La prima relazione è conseguenza dell’ortogonalità, la seconda discende dalla prima, e la terza deriva dalla premoltiplicazione di ambo i membri della (10.38↑) per γj, che produce γiΣxγi  = λi se  i = j       γjΣxγi  = 0  se  i  ≠ j
[232]In quanto det(Σx) = det(Γ)det(Λ)det(Γ), e det(Γ) = det(Γ)  = det(Γ − 1)  = 1.
[233]Vedi https://it.wikipedia.org/wiki/Matrice_definita_positiva
[234]        σ2y  =  E{(y  − my)2}  = E{(ni  = 1cixi  − ni  = 1cimi)2}  =   =  ni  = 1nj  = 1cicjE{xixj} − ni  = 1nj  = 1cicjmimj  = ni  = 1nj  = 1cicjσij
[235]Ossia nessuna tra le v.a. xi presenta dipendenza lineare da una o più altre.
[236]Tenendo infatti conto che dalla (10.39↑) si ottiene Σx = ΓΛΓ, possiamo scrivere Q(c) = cΣxc  = cΓΛΓc, che ponendo d = Γc riscriviamo ancora come Q(c) = dΛd = pi = 1λid2i. Se qualche λi fosse negativo o nullo, si potrebbe trovare un vettore d nullo tranne per l’unica componente corrispondente al λi  ≤ 0, e produrre una Q(c) ≤ 0, in contrasto con l’ipotesi. Pertanto è vero anche il viceversa, cioè Σx è definita positiva se λi  > 0 ∀i.
[237]Vedi https://it.wikipedia.org/wiki/Funzione_convessa. La condizione sulla matrice Hessiana definita positiva è analoga alla proprietà nota per la derivata seconda di una funzione monovariata, ma per una dimostrazione si può visitare ad es. http://www.statistica.unimib.it/utenti/matematica/AM2/appunti/conv.pdf.
[238]Vedi https://it.wikipedia.org/wiki/Quadrica. In particolare, la proprietà di una matrice definita positiva di avere n autovalori positivi è quella che in due dimensioni determina questo risultato, vedi http://www.mat.uniroma2.it/~gealbis/quadriche.pdf.
[239]Nel cui caso i valori degli an corrispondono ai punti di una costellazione nel piano dell’inviluppo complesso, vedi cap. 14↓.
[240]Considerando gli an come elementi di una sequenza aleatoria stazionaria ergodica A, con valori ak appartenenti ad un alfabeto finito di cardinalità L, si definisce per essi un valor medio mA  = EA{ak} = Lk  = 1pkak ed una varianza σ2A  = EA{(ak  − mA)2} = Lk  = 1pk(ak  − mA)2, in cui pk rappresenta la probabilità del k-esimo valore.
[241]Risulatando dθ =  − du, gli estremi di integrazione si invertono.
[242]Se la sequenza an è stazionaria ed a simboli indipendenti, per k  ≠ 0 si ottiene A(k) = E{anan  + k} = E{an}E{an  + k} = m2A, mentre per k = 0 si ha A(0) = E{(an)2} =  m(2)A  = m2A  + σ2A come mostrato dalla (10.5↑) a pag. 1↑.
[243]Infatti applicando la propietà di traslazione nel tempo, scriviamo {δ(t − kT)} = e  − j2πfkT, ma applicando la (8.18↑) di pag. 1↑ si ottiene e − j2πfkT  = (1)/(T)δf  − (k)/(T).
[244]Elaborazione di segnale è la traduzione di signal processing, e così il segnale risultante viene anche detto processato.
[245]Nella pratica, i valori a e τ non si conoscono, mentre invece possiamo disporre di coppie di segnali (x(t), y(t)). I valori vengono dunque definiti come quelli che rendono SNR massimo ovvero Pε minimo. Considerando segnali di potenza, ossia processi stazionari ergodici, si ha
Pε(a,  τ)  =  E{(y(t)  − ax(t − τ))2} = E{y2(t)} + a2E{x2(t)} − 2aE{y(t)x(t − τ)} =   =  Py + a2 Px − 2axy(τ)
in cui si è operata la sostituzione E{y(t)x(t  − τ)}  = ℛyx( − τ) = ℛ*xy(τ) = ℛxy(τ).
Il valore di a che rende minimo Pε(a, τ) si ottiene eguagliando a zero la derivata: ()/(a)Pε(a, τ)  = 2aPx −  2ℛxy(τ)  = 0  ⇒  aopt = (xy(τ))/(Px), che sostituita nell’espressione di Pε fornisce
Pε(τ) = Py  + (xy(τ))/(Px)2 Px − 2(xy(τ))/(Px)xy(τ) = Py  − ((xy(τ))2)/(  Px)  = Py1  − ((xy(τ))2)/(  PxPy)
Il valore di Pε evidentemente è minimo per quel valore di τ  = τopt che rende massima (xy(τ))2, ovvero per quella traslazione temporale che rende “più simili” i segnali di ingresso ed uscita.
[246]Un decibel, per come è definito, è la decima parte del Bel. Chissà, forse dopo che definirono il Bel, si accorsero che era troppo grande ? :-)
[247]Al cap. 15↓ verrà approfondita la differenza tra potenza di segnale, espressa in volt2 o ampere2, e potenza asssorbita, dissipata o trasmessa, espressa in watt.
[248]L’espressione di |H(f)|2 è stata ricavata al § 6.7.2↑. Per la fase (mostrata in figura), osservando che H(f) = 1 +  ae  − j2πfT e che φ(f) =  arctan()/(), si ottiene φ(f) =  arctan(  − asin2πfT)/(1 + acos2πfT).
[249]Al contrario, è sensibile alle sue variazioni: queste ultime sono infatti elaborate dal cervello per estrarne informazioni spazio-temporali. Confrontando i ritardi differenti e variabili dei segnali pervenuti alle orecchie, si può individuare la direzione di provenienza degli stessi, e comprendere se la loro sorgente è in movimento.
[250]Nel caso di modulazione numerica, per linearità di fase si intende quella rispetto ad f0, in modo che h(t) rappresenti un canale perfetto. Ciò corrisponde ad imporre che il tempo di ritardo di gruppo tg(f) sia costante nella banda di segnale.
[251]come ad esempio è il caso dei twta introdotti a pag. 1↓
[252]Si fa uso delle relazioni cos2α = (1)/(2)  + (1)/(2)cos2α e cos3α  = (3)/(4)cosα  + (1)/(4)cos3α.
[253]Le relazioni mostrate si ottengono scrivendo
PI  =  (G2A2)/(2)1 + (3)/(4)βA22(G2A2)/(2)  seβ(4)/(3A2)  PII  =  (G2A4α2)/(8) = (G4A4)/(4)(1)/(G2)(α2)/(2) =   P2Iμ22  PIII  =  (G2A6β2)/(32) = (G6A6)/(8)(1)/(G4)(β2)/(4) =   P3Iμ23
[254]Scrivendo μ22( PII)/(P2I) = (G2A4α2)/(8)(4)/(2G2) si ottiene μ2 = (α)/((2)G) e quindi α≃0.7⋅μ2G; allo stesso modo da μ23 = ( PIII)/(P3I) = (G2A6β2)/(32)(8)/(G6A6) = (β2)/(4G4) si ha μ3 = (β)/(2G2) e dunque β  = 2⋅μ3G2.
[255]Dato che l’uscita ha espressione y(t) = G[x(t) + αx2(t) + βx3(t)], il calcolo di y(τ) = E{y(t)y(t  + τ)} si sviluppa calcolando i momenti misti m(i,  j)x(τ) = E{xi(t)xj(t  + τ)}. Se x(t) è un processo gaussiano a media nulla, accade che m(i, j)x(τ) = 0 se i + j è dispari, mentre in caso contrario si applica il risultato per il valore atteso del prodotto di più v.a. estratte in tempi diversi:
E{x1x2⋅...⋅xn} = (E{xp1xp2}E{xp3xp4}⋅...⋅E{xpn  − 1xpn})
in cui la somma è estesa a tutte le possibili permutazioni non equivalenti di (1,  2..., n) (sono equivalenti se accoppiano con ordine diverso o in posizione diversa le stesse v.a.). Ad esempio, per quattro v.a. si ha:
E{x1x2⋅...⋅xn} = E{x1x2}E{x3x4} + E{x1x3}E{x2x4} + E{x1x4}E{x2x3}
[256]Possiamo pensare che gli elettroni, qualora si trovino in maggior misura in una metà della resistenza, producano una differenza di potenziale negativa in quella direzione. Allo zero assoluto (- 273 oC) il moto caotico degli elettroni cessa, e si annulla così la tensione di rumore. Di qui l’aggettivo termico per descrivere il fenomeno.
[257]Si tratta di una forma della legge di Plank, vedi
[258]Espandendo ex = 1  + x + (x2)/(2)  + (x3)/(3!) + ⋯ si ottiene che per x≪1 risulta ex≃1 + x, e quindi e(f)/(kT)≃1 + (f)/(kT).
[259]Ovvero rappresentativa delle stadio di uscita del dispostivo o mezzo, a cui è connesso lo stadio di ingresso del ricevitore. L’argomento viene approfondito al cap. 15↓.
[260]Mentre la potenza di segnale (o a vuoto) è il quadrato di una tensione, quella assorbita dal carico è misurata in Watt, e per questo indicata con W.
[261]Notiamo che lo stesso valore di SNRg è esprimibile anche come rapporto tra le potenze di segnale anziché disponibili: infatti
SNRg(f) = (Pg(f))/(4Rg(f))(1)/((1)/(2)kTg) = (Pg(f))/(2kTgRg(f)) = (Pg(f))/(Pn(f))
[262]Si intende dire che il filtro non introduce altro rumore oltre quello di natura termica.
[263]Infatti sussistono i seguenti passaggi
φpb(f) φpb(0) + f(dφpb(f))/(df)||f  = 0 = φ(f0) + f(dφ(f))/(df)||f  = f0  =  2πf0(φ(f0))/(2πf0) + f(1)/(2π)(dφ(f))/(df)||f  = f0 =  − 2π(f0tp(f0)  + ftg(f0))
[264]Infatti al termine z(t) = e − j2πf0tp corrispondono le componenti a frequenza positiva e negativa (§ 9.2.5↓)
z±(t)  = (1)/(2)z(t)e±j2πf0t  = (1)/(2) e  − j2πf0tpe±j2πf0t  = (1)/(2) e±j2πf0(t − tp)
da cui otteniamo in modo semplice il corrispondente segnale
z(t)  = z + (t) + z − (t) = (1)/(2)( ej2πf0(t − tp) + e  − j2πf0(t  − tp)) = cos(2πf0(t − tp))
[265]Ovvero lascia passare solo frequenze comprese in un intervallo che non comprende l’origine.
[266]Possiamo per ora pensare i simboli come se fossero le lettere dell’alfabeto di un messaggio scritto, ad ognuna delle quali si fa corrispondere un valore (o livello) di segnale.
[267]Ts è il periodo di simbolo, ed il suo inverso fs  = 1 ⁄ Ts è detto frequenza di simbolo (o baud-rate), detta anche frequenza di segnalazione, e si misura in simboli/secondo, detti appunto baud, in memoria di Émile Baudot, vedi http://it.wikipedia.org/wiki/Codice_Baudot.
[268]Se non fosse preso questo provvedimento, e si trasmettesse un segnale con una occupazione spettrale maggiore della banda passante del canale, nel segnale ricevuto verrebbero a mancare alcune componenti frequenziali, e di conseguenza la forma d’onda del segnale risulterebbe modificata, causando così il fenomeno di interferenza tra simboli (vedi § 8.1.2.2↓).
[269]Nel caso in cui ak assuma valori discreti in un alfabeto ad L livelli, rappresentativi con M = log2L cifre binarie (bit), la trasmissione convoglia una frequenza binaria di valore pari a fb(bit)/(secondo) = M(bit)/(simbolo)fs(simboli)/(secondo).
[270]Che questo sia il caso, può essere verificato per alcuni segnali che abbiamo studiato o studieremo:
  1. Segnale campionato. In questo caso ak  = s(kTc) sono i campioni di segnale, ed abbiamo visto che x(t) ha spettro periodico in frequenza, con un inviluppo di ampiezza dato da sinc(fτ);
  2. Segnale periodico. Ponendo ak  = ±1 si genera un’onda quadra, il cui spettro è a righe con lo stesso inviluppo indicato al punto precedente;
  3. Segnale dati. Se ak sono variabili aleatorie statisticamente indipendenti, al § 6.2.4↑ si dimostrerà che X(f) è di tipo continuo, con inviluppo ancora pari a sinc(fτ).
[271]Nella tabella che segue è riportata l’occupazione di banda necessaria a contenere 10 lobi del sinc(fτ)  = (1)/(τ){rectτ(t)}, per τ pari al periodo di simbolo Ts, in modo da dare un’idea delle specifiche necessarie al canale: osserviamo allora che il rettangolo può andare bene a basse velocità di trasmissione, infatti già per 10 Msimboli/sec, velocità di una LAN (Local Area Network, ossia una rete “locale” tra computer in uno stesso edificio), occorrono 100 MHz di banda.
fs apparato Ts 10  ⁄ Ts
2.4⋅103 Modem (anni ’80) 4.2⋅10  − 3 24 KHz
28.8⋅103 Modem (anni ’90) 3.5⋅10  − 5 288  KHz
10⋅106 LAN 10  − 7 100  MHz
100⋅106 Fast Ethernet 10  − 8 1 GHz
[272] y(t)  =  [kakg(t − kTs)]*h(t)  = [g(t)*kakδ(t − kTs)]*h(t)  =   =  g(t)*h(t)*kakδ(t − kTs) = (t)*kakδ(t − kTs) =   =  kak(t − kTs)
[273]Il nome deriva dalla forma del diagramma, che in corrispondenza del centro degli impulsi mostra una apertura simile per l’appunto ad un occhio, e la cui analogia apparirà più evidente in seguito all’adozione di un impulso g(t) a banda limitata (figura 8.13↓), ed in presenza di rumore (figura 8.20↓).
[274]Proseguiamo l’esposizione riferendoci direttamente al termine livelli, indicando con questo la scelta tra L possibili valori di ampiezza per il segnale trasmesso.
[275] In ricezione si opererà il processo inverso, ripristinando la codifica binaria originaria a cui il codificatore ha associato il valore L-ario ricevuto, e serializzando tale parola ad M bit, in modo da ri-ottenere la sequenza binaria di partenza.
[276]In realtà al § 6.9.3↑ si mostra come il risultato possa essere un pò diverso nel caso di simboli statisticamente dipendenti e/o non a media nulla.
[277]La non perfetta indipendenza statistica dei simboli prodotti dal generatore di numeri casuali di un computer si può riflettere su di una ridotta generalità del risultato mostrato, che tuttavia rispecchia molto bene i casi reali.
[278]Ottenuta applicando ai dati una finestra triangolare (§ 3.9.3↑) e quindi valutando il periodogramma (§ 6.3.1↑).
[279]Vedi https://it.wikipedia.org/wiki/Amplificatore_differenziale
[280]La densità spettrale mostrata in figura è relativa all’uso di una g(t) di tipo RZ.
[281]La codifica HDB3 è utilizzata per trasmettere il segnale pcm a 2 Mbps (vedi § 19.3.1↓), e l’acronimo significa High-Density Bipolar-3-zeroes. Come per ami, rappresenta gli uni con polarità alternate, ma rimpiazza le sequenze di quattro zeri consecutivi forzando una violazione della regola sull’ultimo bit dei quattro, in modo che il ricevitore, rilevando la violazione, è in grado di riportare il bit a zero. Dato però che la presenza della violazione creerebbe la comparsa di una componente continua nel segnale, sono inseriti anche dei bit di bilanciamento, per rimuovere quest’ultima. I bit di bilanciamento si collocano al posto del primo dei quattro zeri, e la loro polarità è scelta in modo che la sequenza delle violazioni abbia un polarità alternata; in definitiva, dopo la prima violazione, si usa sempre anche il bit di bilanciamento.
[282]In tal caso tutti gli zeri diventerebbero uni e viceversa, mentre con le codifiche differenziali questo viene evitato.
[283]Come mostrato al § 8.1.2.2↑, il segnale dati filtrato è basato su impulsi g'(t) = g(t)*h(t), con una durata pari alla somma delle durate di g(t) e h(t). Pertanto, anche se g(t) è limitato nel tempo, come nei casi descritti al § 8.2.1↑, l’impulso g'(t) si può estendere a valori di t > Ts. Considerando ad esempio la trasmissione di soli due simboli a0 ed a1, si otterrebbe x(t)  = a0g'(t) + a1g'(t  − Ts), e dunque x(Ts) = a0g'(Ts)  + a1g'(0) dipenderà da entrambi i simboli anziché solamente da a1, osservando quindi un errore pari a a0g'(Ts), detto appunto interferenza tra simboli.
[284] Come noto, un sistema fisico non può presentare una risposta impulsiva h(t) ≠ 0 per t  < 0, perché questo equivarrebbe a produrre una uscita prima ancora che sia applicato un segnale al suo ingresso. Dunque lo schema mostrato al § 8.1.2↑ con g(t) = sinc(tTs) di estensione temporale illimitata, può essere realizzato solo in forma approssimata, ricorrendo ad una versione ritardata e limitata g(t) =  g(t − TR) cont ≥ 0 0 altrimenti . Se TRTs, l’entità dell’approssimazione è accettabile, ed equivale ad un semplice ritardo pari a TR; d’altro canto, quanto maggiore è la durata della risposta impulsiva, tanto più difficile (ossia costosa) risulta la realizzazione del filtro relativo.
figure f4.10c.png
[285]Al contrario, se g(t) = rectTs(t), il campionamento può avvenire ovunque nell’ambito del periodo di simbolo, ma si torna al caso di elevata occupazione di banda.
[286]Ad esempio, l’impulso rettangolare è di Nyquist, in quanto rectTs(t) =  1 se|t|  < (Ts)/(2) 0 set = kTs .
[287]La fig. 14.4↓ a pag. 1↓ mostra la stessa funzione su di una scala quadratica e in decibel.
[288]Il termine roll-off può essere tradotto come “rotola fuori “.
[289]Non ho trovato questi passaggi già svolti, qualche lettore può aiutare? Quel che sono riuscito a calcolare è relativo al caso γ  = 1:
F − 1{G(f)|γ  = 1}  =  (T)/(2)δ(t)  + (1)/(2)δt  − (T)/(2) + (1)/(2)δt  + (T)/(2)*(2)/(T)sinc(2)/(T)t  =   =  sinc(2)/(T)t  + (1)/(2) sinc(2)/(T)t  − (T)/(2)  + (1)/(2) sinc(2)/(T)t  + (T)/(2)
[290]Osserviamo che per t = 12γfs il denominatore di (10.63↓) si annulla, ma lo stesso avviene anche per il numeratore, che in tal caso vale cos(π)/(2), dando luogo alla forma (0)/(0).
[291]Vedi il § 7.4.2.1↑ per analizzare la sua origine.
[292]Le due proprietà non sono necessariamente sempre verificare assieme, nel senso che un processo può essere gaussiano ma non bianco, o bianco ma non gaussiano!
[293]Al § 7.4.2.1↑ si illustra come in realtà PN(f) non è costante per qualsiasi valore di f fino ad infinito, ma occupa una banda grandissima ma limitata: altrimenti, avrebbe una potenza infinita.
[294]Si veda il § 8.7↓ per la scelta di un diverso filtro di ricezione, individuato applicando le condizioni per la minimizzazione della probabilità di errore.
[295]Per i dettagli relativi al filtraggio di processi, ci si può riferire al § 86↑.
[296]vedi eq. (10.5↑) a pag. 1↑
[297]Questa proprietà di equidistanza tra le soglie, deriva dalla simmetria pari della d.d.p. gaussiana rispetto al suo valor medio: in generale, le soglie sono poste in modo da rendere eguali le probabilità di errore di falso allarme e di perdita, vedi § 13.3.2↓.
[298]Chiaramente, tutti i valori minori di θ1 provocano la decisione a favore di a1, e quelli maggiori di θL − 1 indicano la probabile trasmissione di aL.
[299]Che non dipende cioè da quale simbolo sia stato trasmesso.
[300]Infatti, la potenza di rumore PN  = N0BN, da cui SNR dipende, a sua volta è funzione dalla banda del filtro di ricezione, che come abbiamo visto è posta pari alla massima frequenza presente in r(t), e quindi (prendendo in considerazione un codice di linea g(t) a coseno rialzato, vedi  § 8.2.2.3↑) pari a
BN = (fs)/(2)(1 + γ) =  (fb)/(2log2L)(1 + γ)
dipendendo quindi anch’essa da L e γ, oltre che dalla fb. Pertanto, al variare di L e γ, varia anche SNR.
[301]si rifletta sulla circostanza che la potenza è una energia per unità di tempo.
[302]Anche se il risultato sarà dimostrato al § 8.5.4↓, merita comunque un commento: osserviamo che PR diminuisce all’aumentare di γ (si stringe infatti l’impulso nel tempo); inoltre PR diminuisce al crescere di L, in quanto nel caso di più di 2 livelli, la forma d’onda assume valori molto vari all’interno della dinamica di segnale, mentre con L  = 2 ha valori molto più estremi.
[303] Per chiarezza sviluppiamo i passaggi, piuttosto banali anche se non ovvi:
Pe  =  1  − (1)/(L)Pδ  = 1  − (1)/(L)erfc(Δ)/(2(2)σN(L − 1))  =  1  − (1)/(L)erfc(12(L − 1)/(L + 1)( PR)/((1 − γ4)))(1)/(2(2 PN)(L  − 1))  =  1  − (1)/(L)erfc2(3(L − 1)/(L + 1)(1)/((1 − γ4)))(1)/(2(2))(( PR)/(PN))(1)/((L − 1))  =  1  − (1)/(L)erfc{((3)/(2)(L  − 1)/(L  + 1)(1)/((L − 1)2)(1)/((1 − γ4))SNR)}  =  1  − (1)/(L)erfc{((3)/(2)(1)/(L2  − 1)(1)/((1 − γ4))(Eb)/(N0)(2log2L)/(1  + γ))}  =  1  − (1)/(L)erfc{((Eb)/(N0)(3log2L)/((L2 − 1)(1  + γ)1  − (γ)/(4)))}
[304]Aumentando L, l’argomento di (10.72↑) diminuisce, in quanto (L2  − 1) cresce più velocemente di log2L.
[305]Perché a parità di PR gli intervalli di decisione sono più ravvicinati, e le “code” della gaussiana sottendono un’area maggiore.
[306]Perché occorre aumentare la banda del filtro di ricezione e dunque far entrare più rumore. D’altra parte questo peggioramento è compensato dalla riduzione dell’ISI.
[307]La probabilità di un errore legato al salto di due o più livelli θ è così piccola da potersi trascurare.
[308]Di non grande entità: per γ = 1 il peggioramento risulta di 1.761 dB.
[309]Come nel caso di un segnale multimediale ottenuto mediante tecniche di codifica numerica (cap. 12↓)
[310]Come as esempio per cd/dvd, chip di memoria, hard disk...
[311]L’aggettivo automatic si riferisce al fatto che spesso la gestione della ritrasmissione avviene a carico di uno strato protocollare di livello inferiore a quello che effettivamente consuma il messaggio, che in definitiva neanche si avvede della presenza del meccanismo di ritrasmissione.
[312]Il raggruppamento può derivare da una suddivisione dell’asse dei tempi in trame (§ 19.3.1↓), oppure a seguito della modalità di trasmissione a pacchetto, vedi § 17.5.1↓.
[313] La probabilità che solo il primo bit su n sia sbagliato è pari a p1 = p(1  − p)n  − 1p, in cui l’approssimazione è valida se p≪1 ed n non è troppo grande; lo stesso risultato si ottiene anche per gli altri n  − 1 casi possibili di un bit sbagliato e gli altri corretti, cosicché la probabilità di un solo generico bit sbagliato su n assomma quelle di tutti i casi possibili.
[314]Ad esempio, la probabilità di due bit errati può essere approssimata come (1)/(2)n(n  − 1)p2. Infatti, la distribuzione binomiale fornisce P(2, n) = n2p2(1 − p)n  − 2, in cui n2  = (n!)/(2!(n  − 2)!)  = (n(n − 1))/(2) e, se p≪1 ed n non è troppo elevato, (1 − p)n  − 2≃1. All’aumentare di p e di n, l’approssimazione non è più valida, e la probabilità di più di un bit errato può risultare maggiore di quella di un solo bit errato.
[315]Ciò non toglie che in sede di progetto sia necessario verificare la validità della (10.76↑).
[316]Valutabile eseguendo l’or esclusivo delle rispettive rappresentazioni binarie, ovvero cicj, e contando il numero di uni del risultato. Ad esempio, 011010⊕010110  = 001100, corrispondente a dH  = 2.
[317]Ad esempio, se d = 3, la presenza di un solo bit errato fa sì che la sequenza ricevuta abbia un solo bit di differenza rispetto alla codeword trasmessa, ed al minimo due bit di differenza rispetto a tutte le altre codeword, permettendo al ricevitore di correggere l’errore. Se invece sono presenti due errori, la procedura di correzione porterebbe a scegliere una codeword errata. Occorre quindi decidere a priori se utilizzare il codice a fini di correzione oppure di detezione, e nel secondo caso, lo stesso codice con d  = 3 può rivelare fino a due errori per parola.
[318]Senza pretesa di esaustività, possiamo annoverare l’esistenza dei codici di Hamming, di Hadamard, BCH, Reed-Solomon, Reed-Muller, di Golay, di Gallager, turbo, a cancellazione, a fontana, punturati...
[319]Poniamo di dover trasmettere 0110. La sequenza diventa 000 111 111 000 e quindi, a causa di errori, ricevo 000 101 110 100. Votando a maggioranza, ricostruisco la sequenza corretta 0 1 1 0.
[320]Letteralmente: arrampicamento, ma anche “arruffamento”, vedi scrambled eggs, le uova strapazzate dell’english breakfast.
[321]Leave = foglia, sfogliare, rastrellare, ed il termine potrebbe essere tradotto come intercalamento.
[322]Ad esempio, alla sequenza 001001 verrà aggiunto uno 0, mentre a 010101 si aggiungerà ancora un 1, perché altrimenti gli uni complessivi sarebbero stati 3, che è dispari.
[323]Il ricevitore deve comunque essere al corrente del fatto se la parità sia odd o even !
[324]Considerando parole di 3 bit, le codeword (di 4 bit, in cui l’ultimo è una parità pari) risultano: (0000, 0011, 0101, 0110, 1001, 1010, 1100, 1111). E’ facile constatare che ognuna di esse differisce da tutte le altre per due bit.
[325]La somma modulo due è equivalente all’operazione di or esclusivo, viene a volte indicata con il simbolo , e corrisponde alle definizioni: 0⊕0 = 0, 0⊕1 = 1, 1⊕0 = 1, 1⊕1 = 0.
[326]La somma modulo uno è l’equivalente binario dell’operazione di somma (decimale) tradizionale, comprese quindi le operazioni di riporto verso le cifre più elevate. Il riporto finale viene poi nuovamente sommato al risultato della somma.
[327]Tale denominazione indica un’azione di controllo (check) realizzata mediante l’aggiunta di una ridondanza ottenuta applicando un codice ciclico - vedi § 11.3.1.2↓.
[328]L’insieme di tutti i polinomi di grado minore od uguale ad n costituisce un particolare spazio algebrico, per il quale è possibile dimostrare una serie di proprietà, la cui verifica trascende dallo scopo di questo testo, e che consentono di stabilire le capacità del codice di rivelare gli errori.
[329]Per fissare le idee, consideriamo k = 8 bit a da proteggere, pari a P = 11100110, q = 4 bit di crc, ed un generatore G = 11001. La sequenza P⋅2q risulta pari a 11100110 0000, e la divisione modulo 2 tra P e G fornisce un quoziente Q  = 10110110 (che viene ignorato) ed un resto R pari a 0110. Pertanto, viene trasmessa la sequenza T = P⋅2qR  = 11100110 0110 con k + q  = 12 bit.
    La divisione modulo 2 si realizza come mostrato nella figura a lato: considerando i bit più significativi di P⋅2q e G, l’uno nell’uno ci sta una volta, e scriviamo uno come primo bit di Q. Riportiamo ora G sotto P⋅2q, ed anzichè sottrarre i bit, ne calcoliamo l’or-esclusivo bit-a-bit, ottenendo 00101, a cui aggiungiamo un uno abbassando il successivo bit (1) di P⋅2q. Stavolta l’uno nello zero ci sta zero volte, e dunque aggiungiamo uno zero a Q, riportiamo cinque zeri (come la lunghezza di G) allineati sotto al resto parziale, eseguiamo l’exor, ed abbassiamo un’altra cifra (1) di P. Il confronto ora è tra il quinto bit da destra del resto parziale (1) ed il bit più significativo (il quinto, 1) di G, ottendo la terza cifra di Q (1). Ripetiamo il procedimento, e quando tutti i bit del divisore sono stati usati, l’ultima operazione fornisce il resto R cercato.
figure f4.19aa.png
[330]Dalla (10.77↑) sembrerebbe che il resto sia E, ma dato che E(x) può avere grado   > q, esso è divisibile per G(x), e dunque il resto non è E - altrimenti, sarebbe possibile correggerlo!!
[331]Ecco quattro scelte utilizzate nei sistemi di trasmissione:
crc-12 G(x)  = x12 + x11  + x3  + x2 + x + 1
crc-16 G(x)  = x16 + x15  + x2  + 1
crc-ccitt G(x)  = x16 + x12  + x5  + 1
crc-32 G(x)  = x32 + x26  + x23  + x22 + x16  + x12  + x11 + x10  + x8  + x7 + x5  + x4  + x2 + x + 1

Come discusso, un polinomio di ordine q genera un crc di q bit; pertanto il crc-12, che è usato per caratteri a 6 bit, genera 12 bit di crc, mentre crc-16 e crc-ccitt, utilizzati in America ed in Europa rispettivamente per caratteri ad 8 bit, producono 16 bit di crc. In alcuni standard di trasmissione sincrona punto-punto, è previsto l’uso di crc-32.
[332]https://it.wikipedia.org/wiki/Polinomio_primitivo
[333]Vedi ad es. http://en.wikipedia.org/wiki/Computation_of_cyclic_redundancy_checks
[334]Queste tecniche hanno origine a scopo di controllo degli errori nei collegamenti punto-punto per i quali si osserva una probabilità di errore non trascurabile. Successivamente, sono stati utilizzati nelle reti a pacchetto, in cui è possibile la perdita totale dei pacchetti in transito. Per questo le implementazioni attuali dei arq, specie se applicati da un estremo all’altro di una rete, privilegiano l’uso di timeout piuttosto che quello di riscontri negativi.
[335]Sottolineiamo nuovamente l’importanza dei numeri di sequenza, che permettono al ricevitore di capire il numero della trama corrotta, grazie alla discontinuità dei numeri stessi.
[336]Nel caso in cui l’integrità della trama sia protetta da un codice a blocchi (n, k) con dm = l + 1, la probabilità che la trama contenga più di l errori e che quindi venga accettata dal ricevitore anche se errata, vale approssimativamente P(l  + 1, n) = nl + 1Pie (vedi formula (10.76↑)). Dato che il ricevitore accetta le trame che non hanno errori, oppure che hanno più di l errori, la probabilità che venga richiesta una ritrasmissione risulta p  = 1 − P(0, n)  − P(l + 1, n). Considerando ora che P(l  + 1, n)P(0,  n) (vedi eq. 10.76↑), si ottiene p≃1  − P(0,  n)  = 1 − (1  − Pe)nnPe, in cui Pe è la probabilità di errore sul bit (dato che (1  − Pe)n≃1  − nPe se nPe≪1).
[337]Dato che p aumenta con n (vedi pag. 1↑), l’efficienza del protocollo arq peggiora con l’aumentare della dimensione delle trame. Questo risultato determina l’esigenza di ricercare una soluzione di compromesso, dato che l’incidenza dell’overhead sulla dimensione complessiva della trama invece si riduce all’aumentare di n.
[338]L’espressione “bit in aria” trae spunto dalla metafora di una coppia di giocolieri, posti ai due estremi di una piazza, che si lanciano una serie di clave. Il primo ne lancia in continuazione, e quando iniziano ad arrivare al secondo, questi le rilancia verso il primo. Nel momento in cui la clava partita per prima torna nelle mani del primo giocoliere, un certo numero di clave sono sospese a mezz’aria, e corrispondono approssimativamente al numero di bit trasmessi in un tempo di pari durata, con una frequenza pari al ritmo di lancio delle clave, e non ancora riscontrati.
[339]La ricezione di una sequenza di trame corrette, determina l’avanzamento alternato dei due bordi della finestra al ricevitore, che è inizialmente vuota, quindi contiene solo la trama ricevuta (avanza bordo superiore), e quindi è di nuovo svuotata, non appena viene trasmesso l’ack (ed avanza il bordo inferiore). In presenza di errori, il bordo inferiore non avanza, ma resta fermo sulla trama ricevuta con errori, e di cui si attende la ritrasmissione. Mentre il trasmettitore continua ad inviare trame, il ricevitore le memorizza e fa avanzare il bordo superiore, finché non siano state ricevute tutte quelle trasmissibili senza riscontro, e pari alla dimensione massima della finestra in trasmissione.
[340]Se il trasmettitore invia tutte le W trame, ma tutti gli ack sono corrotti, allora la (W + 1) -esima trama trasmessa è un duplicato della prima, ritrasmessa per time-out, ed il ricevitore può accorgersene solo se la trama reca un numero differente da quello della prima.
Per il caso selective repeat, vale un ragionamento simile, ma che per le differenze nella definizione del protocollo, porta ad un risultato diverso.
[341]Dato che in realtà il verso della comunicazione si può invertire, l’entità che ha un ruolo master è indicato come primary, e le entità asservite sono dette secondary.
[342]La dimostrazione sarà sperabilmente sviluppata in una prossima edizione... è una delle poche a mancare in questo libro! ..al momento, la fonte che trovo più in accordo con questa tesi, è ancora una volta https://en.wikipedia.org/wiki/Raised-cosine_filter
[343]Consideriamo valori ai equiprobabili, ovvero p(ai) = 1L, e con dinamica bilanciata attorno allo zero, ossia valori compresi tra   − Δ2 e Δ2
[344]Facciamo uso delle relazioni Nn  = 1n = (N(N  + 1))/(2) e Nn  = 1n2 = (N(N  + 1)(2N  + 1))/(6)
[345]In alternativa al recupero del sincronismo da parte del ricevitore, l’informazione di temporizzazione può essere trasmessa su di una diversa linea, come avviene nel caso di dispositivi ospitati su di uno stesso circuito stampato.
[346]Una sintassi definisce un linguaggio, prescrivendo le regole con cui possono essere costruite sequenze di simboli noti (l’alfabeto), e l’analisi delle sequenze eseguita nei termini degli elementi definiti dalla sintassi, ne permette una interpretazione semantica. Il parallelismo linguistico porta spontaneamente ad indicare i simboli trasmessi come alfabeto, gruppi di simboli come parole, e gruppi di parole come frasi, od in alternativa, trame (frame, ovvero telaio).
[347]In appendice 8.9↓ è riportata la codifica in termini di sequenze binarie dei caratteri stampabili, definita dallo standard ascii; al § 19.3.1↓ si mostra la struttura della trama pcm, che trasporta i campioni di più sorgenti analogiche campionate. Una struttura di trama ricorre anche nel contesto della multipazione a circuito (§ 19.3.4↓ e § 19.4↓) ed a pacchetto (§ 17.5.1↓).
[348]Un dumb terminal non ha capacità di calcolo, e provvede solo alla visualizzazione di informazioni testuali. Fino agli anni ’70, è stato l’unico meccanismo di interazione (comunque migliore delle schede perforate !!!) con un computer.
[349]In tal caso la linea “.. is marking time” (sta marcando il tempo).
[350]Ovviamente, occorre stabilire un accordo a priori a riguardo la velocità, sia pure approssimata, della trasmissione.
[351]Una parola di M bit descrive uno spazio di 2M diversi elementi. Se le parole trasmissibili non sono tutte le 2M possibili, alcune di queste (che non compariranno mai all’interno del messaggio) possono essere usate per la sua delimitazione.
[352]Cioè, i dati trasmessi, che ora riempiono tutto lo spazio delle configurazioni possibili, contengono al loro interno la configurazione che è propria del carattere etx.
[353]In termini generali, questo circuito è assimilabile ad un circuito di controllo, in quanto il suo principio di funzionamento si basa sul tentativo di azzerare una grandezza di errore. Infatti, la sincronizzazione dell’orologio del decisore di ricezione con il periodo di simbolo del segnale ricevuto, avviene effettuando un confronto tra la velocità dell’orologio locale ed un ritmo presente nel segnale in arrivo: questo segnale di errore alimenta quindi un circuito di controreazione, che mantiene il clock locale al passo con quello dei dati in arrivo. Un diverso caso particolare di questo stesso principio è analizzato al § 14.11.1↓, ed anche ai § 10.2.2.2↓ e 10.3.1.1↓ a proposito del pll.
[354]Infatti, il segnale n(t) uscente da HR(f) = rect2B(f) ha autocorrelazione N(τ) = ℱ − 1{|HR(f)|2} = 2Bsinc(2Bτ) (vedi § 6.2.3↑), che passa da zero per τ = (1)/(2B). Se si utilizza una G(f) a coseno rialzato con γ  > 0, occorre estendere la banda di ricezione a B  = (fs)/(2)(1 + γ), a cui corrispondono campioni di rumore incorrelati se prelevati a distanza multipla di τ  = (1)/(2B) = (1)/(fs(1  + γ)). Invece, il rumore è campionato con frequenza pari a quella di simbolo fs, e dunque con campioni a distanza τ = Ts  = (1)/(fs). Pertanto, i campioni di rumore sono correlati, con autocorrelazione pari a N(Ts)  = 2Bsinc(1  + γ).
[355]Al § 5.5.1↑ si dimostra come delle v.a. gaussiane incorrelate siano anche statisticamente indipendenti, mentre nel nostro caso i campioni di rumore sono correlati, proprio a causa della dipendenza statistica. Ciò permetterebbe di realizzare un dispositivo predittore lineare che, in base alla conoscenza dei precedenti valori di rumore, calcoli una stima del valore corrente la quale, sottratta al valore effettivamente ricevuto, consente di ridurre la varianza della grandezza di osservazione, permettendo una riduzione della probabilità di errore.
Pur non entrando nei dettagli dei metodi di predizione lineare (introdotti al § 12.1.2.2↓), notiamo come la dipendenza statistica tra grandezze aleatorie venga rivelata dalla correlazione non nulla, e che in tal caso la conoscenza di valori passati consente di ridurre l’incertezza relativa ai nuovi valori. Allo scopo di applicare questo principio, il valore di un campione di rumore precedente si potrebbe calcolare a partire da quello del simbolo deciso senza commettere errore, sottratto al valore del segnale ricevuto in quell’istante.
[356]Infatti, se G(f) è tutta al trasmettitore, il segnale generato (e ricevuto) ha espressione (10.64↑) (vedi anche la (10.58↑)); indicando ora g()(t) = ℱ − 1{(G(f))}, ed eseguendo un calcolo del tutto analogo a quello svolto in § 8.1.2.2↑, si ottiene che il segnale ricevuto nel caso di scomposizione di G(f) ha espressione
r(t)  = hT(t)*hR(t)*kakδ(t − kTs) = ka[k]g(t − kTs)
in quanto hT(t)*hR(t) = g()(t)*g()(t) = g(t) per la proprietà di prodotto in frequenza.
[357]Il risultato si può ottenere visivamente, a partire dalla G(f) a coseno rialzato mostrata in fig. 8.12↑ a pag. 1↑, considerando la risposta di ampiezza nominale pari ad 1, e in base alle sue proprietà di simmetria attorno a ±fs2: non è nient’altro che l’area di un rettangolo.
[358]Per una analisi degli effetti della limitazione temporale dell’impulso g()(t), vedere il contributo disponibile presso https://engineering.purdue.edu/~ee538/SquareRootRaisedCosine.pdf.
[359]Ma non sempre questo impedisce la comunicazione, vedi § .14.9↓
[360]Senza entrare nei dettagli, specifichiamo semplicemente che celle limitrofe adottano regioni di frequenza differenti, onde evitare interferenze tra celle; inoltre (per il sistema gsm) nell’ambito di una stessa portante fi è realizzata una struttura di trama, in modo da permettere l’utilizzo dello stesso canale da parte di più terminali contemporaneamente, multiplati a divisione di tempo.
[361]Un minimo di approfondimento (sempre per il gsm) però ci sta bene... Aggiungiamo quindi che la scelta della portante su cui comunicare avviene in base alle condizioni di ricezione del singolo radiomobile che, per effetto dei cammini multipli (§ 16.3.3.5↓) sul segnale del ripetitore, può ricevere meglio certe portanti che non altre.
La trasmissione che ha luogo su di una portante, inoltre, può aver origine da più terminali, che si ripartiscono lo stesso canale a divisione di tempo, in accordo ad una suddivisione di trama dell’asse dei tempi. Pertanto, dopo che un terminale si è aggiudicato una portante ed un intervallo temporale, la trasmissione (attuata mediante una modulazione numerica) ha luogo solo per brevi periodi, in corrispondenza del time-slot di propria pertinenza.
Dato che i singoli terminali si trovano a distanze diverse dal ripetitore di cella, diversi sono i tempi di propagazione del segnale di sincronismo di trama e di time-slot, e dunque l’intervallo temporale che viene “riempito” da ogni terminale giunge al ripetitore con un ritardo variabile. Per questo motivo, i time-slot della trama sono separati da piccoli periodi di inattività, chiamati intervalli di guardia, che garantiscono l’assenza di sovrapposizioni temporali delle trasmissioni originate dai diversi terminali.
[362]Un altro fattore particolarmente rilevante è la limitazione della potenza che è possibile immettere su di un singolo collegamento telefonico che, associato al precedente, caratterizza il canale telefonico come limitato sia in banda che in potenza, e dunque con capacità (§ 11.2.4↓) C  = Wlog21  + (  Ps)/(N0W) dipendente solo dal livello del rumore. La limitazione in potenza è storicamente motivata da problemi di diafonia (pag. 1↓) dovuti a fenomeni di induzione elettromagnetica, mentre attualmente è determinata dalla limitata dinamica del segnale che viene campionato e trasmesso in forma numerica.
[363]Questo valore massimo nominale determina che la frequenza di campionamento del PCM telefonico è pari a 2*4000 = 8000 campioni al secondo. Utilizzando 8 bit/campione, si ottiene la velocità binaria fb  =  64000 campioni/secondo. Velocità inferiori si possono conseguire adottando metodi di codifica di sorgente per il segnale vocale, vedi § 12.1↓.
[364]L’ibrido telefonico è un trasformatore con quattro porte, che realizza la separazione tra le due vie di comunicazione che viaggiano sullo stesso cavo (vedi §  19.9.1↓). Nel caso di una linea ISDN, invece, il telefono stesso effettua la conversione numerica, ed i campioni di voce viaggiano nei due sensi (tra utente e centrale) secondo uno schema a divisione di tempo (vedi §  19.9.2↓).
[365]Nel secolo scorso venne definita una vera e propria gerarchia di multiplazione, i cui livelli detti di gruppo, super gruppo, gruppo master e gruppo jumbo accolgono rispettivamente 12, 60, 600 e 3600 canali voce, per essere trasmessi su doppino, cavo coassiale, o ponte radio. Un approfondimento presso http://tigrisweb.altervista.org/docs/sys_tlc_mine/FDM.pdf.
[366]Antenne più corte hanno una efficienza ridotta, ma sono ancora buone. Altrimenti la radio AM (540 - 1600 KHz) avrebbe bisogno di (3⋅108)/(1000⋅103) =  300 metri ! Al § 16.5.1↓ è riportata una tabella dei valori di λ per i diversi servizi di tlc.
[367]Se un segnale è strettamente limitato in banda, deve avere durata infinita, e viceversa. E’ pratica comune, invece, parlare di limitazione in banda anche per segnali di durata finita. Nel fare questo, si considera un X(f) pari a zero per le frequenze f tali che |X(f)| < ε, ovvero considerare anziché X(f) a banda illimitata, una sua finestra in frequenza XW(f) = X(f)W(f) a banda limitata, la cui antitrasformata xW(t) è diversa da x(t) (sappiamo infatti che si ha xW(t) = x(t)*w(t)), ma ne costituisce una approssimazione.
[368]xc(t) e xs(t) si ottengono a partire dalla rappresentazione polare x(t) = a(t)ejφ(t) di x(t), semplicemente sviluppando la stessa come x(t) = a(t)ejφ(t)  = a(t)cosφ(t) + ja(t)sinφ(t) = xc(t) + jxs(t)
[369]Si faccia uso della relazione cos(α  + β) = cosαcosβ −  sinαsinβ.
[370]Indicata anche come am (amplitude modulation).
[371]Indicata anche come pm (phase modulation).
[372]Al § 9.7.1↓ di mostra che al filtro di Hilbert corrisponde una risposta impulsiva h(t) = ℱ  − 1{H(f)} = (1)/(πt), che consente di scrivere la trasformata stessa nella forma di un integrale di convoluzione: ^x(t) = ℋ{x(t)} = (1)/(π) − ∞(x(τ))/(t − τ)dτ = x(t)*(1)/(πt). La realizzazione di un filtro di Hilbert con una risposta in frequenza esattamente descritta dalla (11.6↑) può risultare molto ardua, a causa della brusca transizione della fase in corrispondenza di f  = 0. In realtà, il filtro di Hilbert si usa principalmente per segnali modulati, che non presentano componenti spettrali a frequenze prossime allo zero.
Pertanto, lo stesso scopo può essere svolto da un diverso filtro H(f), con andamento più dolce della fase, e che presenti gli stessi valori nominali del filtro di Hilbert solamente per le frequenze comprese nella banda di segnale.
figure f8.16.png
[373]Per un approfondimento, vedi ad es. https://en.wikipedia.org/wiki/Hilbert_transform, di cui accenniamo brevemente sole alcune::
[374]Possiamo notare che la matrice dei coefficienti rappresenta una rotazione di assi (vedi as es. a pag. 1↓), rotazione che “ruota” letteralmente a velocità angolare ω0. Tale rotazione stabilisce che le coppie di segnali (xc(t), xs(t)) e (x(t), ^x(t)) rappresentano entrambe l’evoluzione dell’inviluppo complesso x(t) = a(t)ejφ(t): mentre xc(t) e xs(t) lo rappresentano su due assi ad esso solidali, x(t) e ^x(t) sono definiti su assi ruotanti che tengono conto della frequenza portante. Effettivamente, si può mostrare che risulta ^x(t) = Im{x(t)ejω0t} = a(t)sin(ω0t  + φ(t)), cosicché come xc(t) e xs(t) sono Re e Im di x(t), così x(t) e ^x(t) sono Re e Im di x(t)ejω0t, ovvero x(t) rotante.
[375] L’eguaglianza (11.7↓) si dimostra valutandola nel domino nella frequenza, ricordando la definizione di filtro di Hilbert, in quanto risulta:
X + (f)  = (1)/(2)(X(f) + j^X(f)) =  (1)/(2){X(f)  + j[ − jX(f)]} = X(f) conf > 0 (1)/(2){X(f)  + j[jX(f)]} = 0 conf < 0
infatti, a frequenze negative il prodotto jj  =  − 1 costituisce uno sfasamento di π radianti per tutte le frequenze, provocando l’elisione tra X(f) e -X(f) per tutti i valori f  < 0.
[376]Sviluppando il secondo membro di (11.8↑) si ottiene:
(1)/(2)x(t)ejω0t  =  (1)/(2)(xc(t)  + jxs(t))(cosω0t  + jsinω0t)  = (1)/(2)[(xc(t)cosω0t − xs(t)sinω0t)] +   +  j(xc(t)sinω0t  + xs(t)cosω0t)] = (1)/(2)(x(t)  + j^x(t))
che corrisponde al secondo membro di (11.7↑), e quindi a x  + (t).
[377]Il pedice fp sta per frequenze positive.
[378]La (11.9↓) può essere motivata seguendo le stesse linee guida indicate alla nota 6.2.1↑ a pag. 1↑.
[379]Approfittiamo dell’occasione per notare che, pur potendo scrivere X(f) = Xc(f) + jXs(f), non è assolutamente lecito dire che {X(f)} = Xc(f) e {X(f)} = Xs(f); infatti sia Xc(f) che Xs(f) possono a loro volta essere complessi (mentre xc(t) e xs(t) sono necessariamente reali).
[380]Per dimostrare il risultato, mostriamo innanzitutto che il segnale analitico in uscita vale y + (t) = x + (t)*h + (t). Infatti, omettendo di indicare nei passaggi la variabile (t) per compattezza di notazione, risulta
x + (t)*h  + (t)  = [x*hfp]*[h*hfp] = [x*h]*[hfp*hfp] = y*hfp = y  + (t)
in cui hfp(t) è la risposta impulsiva del filtro necessario ad estrarre il segnale analitico. Non resta ora che mostrare lo sviluppo per il risultato anticipato:
(1)/(2)x(t)*h(t)  =  (1)/(2)[2x  + (t)e  − jω0t]*[2h + (t)e − jω0t] =   =  2 − ∞x  + (τ)e  − jω0τh + (t − τ)e  − jω0(t  − τ)dτ  =   =  2e −  jω0t − ∞x  + (τ)h  + (t − τ)dτ = 2e − jω0ty  + (t)  = y(t)
[381]Ad esempio, dal punto di vista di un modello circuitale ciò corrisponde a realizzare le condizioni di adattamento di impedenza (vedi § 15.1.1.4↓) in forma approssimata, ponendo Zg(f) = Zi(f0) e Zc(f) = Zu(f0), dato che per frequenze |f  − f0|  < (B)/(2) con Bf0, le impedenze Zi(f) e Zu(f) non variano di molto.
[382]Detta anche condizione per un fading piatto, vedi pag. 1↓.
[383]Mostriamo che la (11.12↓) è una rotazione antioraria, esprimendo la posizione di
figure f11.112a.png
rotazione
antioriaria
x = ρejα in coordinate cartesiane, ovvero xc  = ρcosα e xs  = ρsinα. A seguito della rotazione positiva φ, x acquisisce la nuova posizione x’ =  ρejα + φ, ovvero xc’  = yc = ρcos(α  + φ)  = ρ(cosαcosφ  −  sinαsinφ) = xccosφ  − xssinφ    xs’  = ys = ρsin(α  + φ)  = ρ(sinαcosφ  +  cosαsinφ) = xcsinφ  + xscosφ . Con riferimento alle figure, immaginiamo il punto x ruotare in senso antiorario di φ0. Le nuove coordinate corrispondono allora a quelle in cui sono gli assi a ruotare di φ0 in senso orario.
[384]Le modalità di generazione di tali portanti da parte del ricevitore sono esposte al §  10.2.1↓.
[385]Si fa uso delle relazioni cos2α = (1)/(2)(1 +  cos2α) e sinαcosα  = (1)/(2)sin2α
[386]Il simbolofigure f8.25.png rappresenta un filtro passa-basso, poiché viene cancellata l’ondina superiore. Nello stesso stile, possono essere indicati un passa-altofigure f8.26.png ed un passa-banda figure f8.27.png .
[387]Utilizzando stavolta le relazioni sinαcosα = (1)/(2)sin2α e sin2α  = (1)/(2)(1 −  cos2α), ed eseguendo il prodotto  − sinω0t[xc(t)cosω0t − xs(t)sinω0t] .
[388]Infatti xcxs(τ) = ^x(τ)cosω0τ  − ℛx(τ)sinω0τ, in cui x(τ) = ℱ − 1{ Px(f)} è pari e sinω0t è dispari, mentre ^x(τ) è dispari (non è stato dimostrato, ma vale per le trasformate di Hilbert di segnali pari) e cosω0τ è pari. Inoltre, essendo xc(t) ed xs(t) reali, xcxs(τ) è reale.
[389]Per i segnali numerici si usano tecniche peculiari, esposte al capitolo 14↓.
[390]Come sarà più chiaro nel seguito, l’acronimo vsb simboleggia che, anziché sopprimere completamente una delle due bande laterali, se ne mantengono delle vestigia.
[391]Considerando che la portante di modulazione può avere una fase iniziale arbitraria, e che con una traslazione temporale ci si può sempre ricondurre ad usare una funzione cosω0t, la convenzione posta tratta il caso di un segnale modulato x(t)  = a(t)cos(ωot  + φ) generico, con φ costante.
[392]Come d’altra parte giustificabile anche osservando che (vedi fig. 10.2↓) in questo caso xc(t) ha media nulla (se m(t) è a media nulla) e la portante cambia frequentemente segno, cosicché per f = f0 non compaiono impulsi in Px(f).
[393]Il segnale PI(t)  = m2(t) può essere indicato come potenza istantanea di m(t), e PMaxI indicato come la sua potenza di picco.
[394]Ad esempio, nel caso in cui m(t) sia un processo con densità di probabilità uniforme tra ±(Δ)/(2), la potenza di picco risulta essere (Δ2)/(4)  = 3σ2M, dato che (come mostrato al § 5.2.3↑) in quel caso risulta σ2M  = (Δ2)/(12); se invece m(t)  = asin2πfMt, allora si ha una potenza di picco a2  = 2σ2M (dato che PM  = σ2M  = (a2)/(2)). Oppure ancora, se m(t) è gaussiano la potenza di picco (e dunque a2P  ⁄ k2a per ottenere la portante intera) risulta infinita. E cosa accade allora? Si avrà necessariamente una portante ridotta...
[395]Se Ia  < 100 la dinamica della portante non è infatti sfruttata appieno, mentre se Ia  > 100 ci troviamo in condizioni di sovramodulazione, e non più di portante intera.
[396]Ad esempio, se m(t) = sin2πfMt si ha PM  = 1 ⁄ 2 e, nel caso di portante intera, deve risultare ap  = ka e dunque η  = (1)/(1 + 2) = 0.33. Ovvero solo 1/3 della potenza trasmessa è utile al ricevitore!
[397]In qualche prossima edizione...
[398]Nel caso ad esempio di ampie zone di immagine uniformi ed a luminosità costante, il segnale è praticamente costante.
[399]Lo schema di calcolo per Px è discusso ai §§10.4.2↓ e 10.4.2.1↓
[400]In appendice 10.4.3↓ sono illustrate due tecniche di realizzazione del moltiplicatore.
[401]Dato che un qualunque canale presenta un ritardo di propagazione τ, la portante del segnale ricevuto sarà nella forma cos2πf0(t − τ)  = cos(2πf0t  − 2πf0τ)  = cos(2πf0t  − θ), ovvero sarà sempre presente una fase incognita. Nel caso poi di un collegamento radiomobile, può anche essere presente un errore di frequenza, dovuto all’effetto doppler.
[402]Se ad esempio ε(τ)  = Δ ossia è costante, si ottiene y(t) = sin(2πf0t  + 2πΔt) = sin[2π(f0 + Δ)t], ovvero la frequenza si è alterata di una quantità pari a Δ. Infatti, il vco realizza il processo di modulazione di frequenza, vedi eq. (11.5↑) a pag. 1↑.
[403]Un diverso circuito in grado di operare anche per segnali a portante soppressa è discusso presso https://en.wikipedia.org/wiki/Costas_loop.
[404]Trascuriamo la presenza di eventuali modulazioni, il cui effetto si intende mediato dalla caratteristica passa-basso del pll, dovuta sia all’integratore presente nel vco, che al filtro di loop.
[405]Utilizziamo qui la relazione cosαsinβ = (1)/(2)[sin(α + β)  + sin(α  − β)].
[406]La grandezza di controllo ε(t) proporzionale a sin(Δθ) si azzera per Δθ = kπ con k intero, positivo o negativo. Per k dispari si hanno condizioni di instabilità, in quanto ad es. per Δθ che aumenta o diminuisce rispetto a Δθ  = π, il segno di ε è rispettivamente negativo e positivo, causando un ulteriore ritardo o aumento di ^θ(t) che causa un ulteriore aumento o diminuzione di Δθ, finché questo non raggiunge il valore 0 o 2π, corrispondenti a condizioni di stabilità. In altre parole, se |Δθ| <  π si determina un transitorio alla fine del quale ε → 0, mentre se π  < |Δθ|  < 3π il transitorio converge verso ε  → 2π, e così via.
[407]Notiamo che un moltiplicatore, seguito da un filtro passabasso, esegue il calcolo dell’intercorrelazione tra gli ingressi del moltiplicatore (vedi § 6.6.3↑), che nel nostro caso è una sinusoide.
[408]Inoltre, le prestazioni del PLL dipendono fortemente anche dalla banda e dall’ordine del filtro di loop, che limita la velocità di variazione di ε(t) e l’estensione dell’intervallo di aggancio. Lo studio teorico si basa sull’uso della trasformata di Laplace e sulla approssimazione sin(Δθ)≃Δθ, in quanto così il PLL può essere studiato come un sistema di controllo linearizzato, sommariamente descritto al § 10.3.1.1↓. Per approfondimenti, vedi http://it.wikipedia.org/wiki/Phase-locked_loop.
[409]Si applichi cosαcosβ = (1)/(2)[cos(α + β) + cos(α  − β)].
[410]Per il ramo in fase risulta
yc(t)  =  (xc(t)cos(ω0t  + θ) − xs(t)sin(ω0t + θ))⋅cosω0t  =   =  xc(t)cos(ω0t  + θ)cosω0t  − xs(t)sin(ω0t  + θ)cosω0t  =   =  (1)/(2)xc(t)[cos(2ω0t  + θ) + cosθ]  − (1)/(2)xs(t)[sin(2ω0t  + θ) − sin(  − θ)]
mentre svolgendo simili sviluppi per il ramo in quadratura, si giunge a ys(t) = (1)/(2)xc(t)[sinθ − sin(2ω0t  + θ)]  + (1)/(2)xs(t)[cos(θ) − cos(2ω0t  + θ)]. Anche in questo caso i filtri passabasso eliminano le componenti centrate a 2f0, permettendo di ottenere la (11.26↓).
[411]La ricerca dell’emittente può essere l’azione banale di sintonizzare a mano la propria radio sul programma preferito, oppure (come si dice, in modalità ricerca automatica), mediante un circuito del tipo di cui stiamo discutendo, con il quale vengono provate diverse portanti di demodulazione, finché non si riscontra un segnale in uscita.
In generale, la fase della comunicazione vera e propria viene preceduta da quella di acquisizione della portante, svolta ad esempio come qui accennato, e quindi la sincronizzazione mantenuta mediante interventi automatici (ad es. via pll), qualora si tratti di dover compensare le variazioni di frequenza dovute al movimento reciproco di trasmettitore e ricevitore (effetto doppler), come per il caso delle comunicazioni con mezzi mobili, vedi §16.3.4.6↓.
[412]Un radar trasmette ad elevata potenza per periodi molto brevi, e stima la presenza di oggetti basandosi sul ritardo con cui il segnale, riflesso da questi, torna indietro. Perciò il ritardo di fase rappresenta proprio la grandezza che fornirà l’informazione relativa alla distanza, e può essere qualsiasi. Prima di iniziare a stimare tale informazione, è essenziale per il sistema accertarsi che ci sia un segnale da stimare.
[413]Il simbolo figure f9.8b.png rappresenta un diodo, costituito da un bipolo di materiale semiconduttore drogato, che ha la particolarità di condurre in un solo verso (quello della freccia).
[414]Presso http://it.wikipedia.org/wiki/Rivelatore_d'inviluppo qualche linea guida di progetto.
[415] Si può dimostrare che per l’inviluppo complesso H(f) di H(f) deve risultare: H(f) + H*(  − f) = cost perché in tal modo il residuo di banda parzialmente soppressa si combina esattamente con ciò che manca alla banda laterale non soppressa.
[416]Le difficoltà nascono sia dall’esigenza di accordare il filtro attorno alla frequenza portante desiderata, sia dalla necessità di attenuare sufficientemente le trasmissioni che avvengono su frequenze limitrofe, determinando la necessità di realizzare un filtro con regione di transizione molto ripida, problema che può divenire insormontabile se il rapporto tra banda del segnale e portante (la cosiddetta banda frazionaria) è particolarmente ridotto.
[417]Scegliere fe < f0 oppure fe > f0 praticamente ha l’effetto di scambiare i ruoli tra la portante desiderata, e la sua immagine. In particolare, il risultato non cambia se la modulazione è a banda laterale doppia, ma dato che nel secondo caso, X + (f) si rialloca sull’asse delle frequenze negative (ed il contrario per X  − (f)), per la modulazione blu o blr questo fenomeno di inversione delle bande laterali deve essere tenuto in conto nel demodulatore omodina finale.
[418]Si fa qui uso della espansione in serie di potenze dell’esponenziale: ex  = 1 + x + (x2)/(2)  + (x3)/(3!) + ....
[419]Un altro caso di multiplex fdm è quello del downlink di un trasponder dvb-s, introdotto al § 20.3↓
[420]La (11.29↓) è un caso particolare detto del primo ordine, vedi
[421]Per utilizzare il demodulatore inviluppo, deve risultare sempre (f0)/(kf) + m(t) > 0, e dunque occorre scegliere (f0)/(kf)  > maxt{|m(t)|}.
[422]Si è sostituito cos con sin nel caso PM per omogeneità di formulazione, senza alterare la sostanza delle cose.
[423]Le funzioni di Bessel del primo tipo, ordine n ed argomento β sono definite come Jn(β) = (1)/(2π)π  − πej(βsinx − nx)dx.
[424]Integrando l’espressione di Px(f), e ricordando che  + ∞n  =  − ∞J2n(β) = 1, si ottiene ancora un risultato già noto, e cioè che la potenza totale del segnale modulato risulta pari a quella della portante non modulata, e pari a Px  = (a2)/(2), indipendentemente da β.
[425]J. R. Carson fu uno dei primi ad investigare la modulazione negli anni ’20, vedi ad es. http://en.wikipedia.org/wiki/John_Renshaw_Carson
[426]In particolare, per β → ∞ risulterà Px(f) = (a2)/(1 − (f  ⁄ kf)2), che è il quadrato dell’andamento a cui tendono (per β  → ∞) i grafici in basso di fig. 10.23↑, a sua volta rappresentato dalla fig. 5.13↑ a pag. 1↑ come d.d.p. di un processo armonico.
[427]Volendo applicare la regola di Carson per calcolare la banda, si avrebbe (considerando β≫1) BC  = 2W(β + 1)≃2(Δf)/(W)W = 2Δf, in cui Δf = kf(ΔM)/(2). Pertanto risulta BC  = 2kf(ΔM)/(2)  = kfΔM, in accordo al risultato previsto nel caso di modulazione ad alto indice.
Qualora si fosse invece posto β  = (σf)/(W) (vedi 10.3.3.1↓) si sarebbe ottenuto BC  = 2W(β + 1)≃2(σf)/(W)W = 2σf  = 2kf(PM) = 2kf((Δ2M)/(12)) = 2kf(ΔM)/(2(3)) = (ΔMkf)/((3)), un risultato che è circa pari a 0.58 volte quello precedente. Data le particolarità di pM(m) uniforme, in questo caso è da preferire il primo risultato.
[428]Infatti, dalla definizione fi(t) = f0  + kfm(t) si ottiene che σ2f  = k2fσ2M, in cui σ2M = PM se m(t) è un processo stazionario ergodico a media nulla.
[429]Come sopra, partendo dalla relazione α(t) = kφm(t).
[430]Infatti risulta  −  ∞X + (f)X − (f)df = 0. dato che i due termini non si sovrappongono in frequenza.
[431]Per calcolare il logaritmo in base 2, si ricordi che log2α  = (log10α)/(log102)≃3.32log10α.
[432]Si presti attenzione sulla differenza: la ridondanza della codifica di sorgente indica i binit/simbolo che eccedono il valore dell’entropia, mentre la ridondanza della codifica di canale indica il rapporto tra binit di protezione e quelli di effettivamente emessi dalla sorgente, come definito a pag. 1↑.
[433]La notazione α indica l’intero superiore ad α: ad esempio, se α = 3.7538, si ha α  = 4.
[434]Mettere in corrispondenza i diversi simboli di sorgente con una loro codifica binaria è detta codifica per blocchi, discussa al § 11.1.1.4↓, dove si mostra anche la possibilità di emettere le codeword in corrispondenza di più di un simbolo di sorgente.
[435]Essendo la corrispondenza tra xk ed Nk univoca, non vi è perdita di informazione.
[436]http://it.wikipedia.org/wiki/Primo_teorema_di_Shannon
[437]In effetti la (12.4↓) sussiste qualora il codificatore non operi indipendentemente su ogni simbolo di sorgente, ma più in generale possa emettere i binit in corrispondenza di sequenze di xk via via più lunghe.
[438]Ad esempio, un valore η = 0.33 indica che ogni binit trasporta solo 13 di bit.
[439]https://en.wikipedia.org/wiki/Kraft's_inequality
[440]Ad esempio, la sequenza 10110010 potrebbe essere interpretata come x3x4x1x1x3 oppure x2x1x4x1x1x2x1 o x3x2x2x1x1x3
[441]Nonostante il codice C non soddisfi la regola del prefisso, non è ambiguo in quanto lo zero indica comunque l’inizio di una nuova codeword.
[442]Infatti ora la (12.5↑) si scrive K = Lk = 12 − Nk  = Lk = 1pk  = 1.
[443]Vedi http://en.wikipedia.org/wiki/Huffman_coding
[444]Presso Wikipedia si trova una descrizione dell’algoritmo di Vitter http://en.wikipedia.org/wiki/Adaptive_Huffman_coding
[445]operazione resa possibile in conseguenza della indipendenza statistica tra i simboli binari
[446]In realtà, nel caso specifico del fax le cose non stanno esattamente in questi termini: infatti, anziché usare una parola di lunghezza fissa di k binit, l’ITU-T ha definito un apposito codebook http://www.itu.int/rec/T-REC-T.4-199904-S/en che rappresenta un codice di Huffman a lunghezza variabile, in modo da codificare le run length più frequenti con un numero ridotto di bit.
[447]Il lettore più curioso si chiederà a questo punto, come è fatto il predittore. Molto semplicemente, scommette sul prossimo simbolo più probabile, in base alla conoscenza di quelli osservati per ultimi, ed ai parametri del modello markoviano: se questo simbolo possiede una probabilità a priori > 0.5, allora la maggioranza delle volte la predizione sarà corretta, ed il metodo inizia a consentire una riduzione di velocità. Nel caso di sorgenti continue, troveremo invece alcune particolarità aggiuntive.
[448]Ad esempio con L=96 simboli si ha n=7 bit, ed un dizionario iniziale con 128 posizioni, di cui 96 occupate e 32 libere.
[449]http://en.wikipedia.org/wiki/Lempel-Ziv-Welch
[450]http://tools.ietf.org/html/rfc1951
[451]http://en.wikipedia.org/wiki/Rate-distortion_theory
[452] In effetti esiste una misura di entropia assoluta per sorgenti continue, che però ha la sgradevole caratteristica di risultare sempre infinita. Infatti, approssimando la (12.10↑) come limite a cui tende una sommatoria, e suddividendo l’escursione dei valori di x in intervalli uguali Δx, possiamo scrivere
habs(x)  =  limΔx → 0ip(xi)Δxlog2(1)/(p(xi)Δx)  =  limΔx → 0ip(xi)Δxlog2(1)/(p(xi)) + p(xi)Δxlog2(1)/(Δx) = h(x)  + h0
in cui h(x) è proprio la (12.10↑) mentre h0  =  − limΔx  → 0log2Δx −  ∞p(x)dx  =  − limΔx  → 0log2Δx  = ∞. D’altra parte, la differenza tra le entropie assolute di due sorgenti z e x risulta pari a habs(z) − habs(x) = h(z) − h(x) + h0(z) − h0(x), in cui la seconda differenza tende a  − log2(Δz)/(Δx) che, se z ed x hanno la medesima dinamica, risulta pari a zero.
[453]Questo risultato si ottiene massimizzando la (12.10↑) rispetto a p(x) mediante il metodo dei moltiplicatori di Lagrange http://it.wikipedia.org/wiki/Metodo_dei_moltiplicatori_di_Lagrange, in modo da tener conto dei vincoli espressi dalle condizioni px(x)dx  = 1 e x2px(x)dx  = σ2x. Notiamo esplicitamente la differenza rispetto al caso continuo, in cui la d.d.p. che rende massima l’entropia, è invece quella uniforme.
[454]Si può mostrare che γ2x può essere interpretato come il rapporto tra la media aritmetica e la media geometrica della densità spettrale di potenza Px(f) del processo x(t): indicando con Sk = Px(fk), k =  1, 2, ⋯, N, i campioni equispaziati della densità spettrale valutati a frequenze positive fk tra zero e la massima frequenza del processo, si ha
γ2x  = limN  → ∞((Nk = 1Sk)1N)/((1)/(N)Nk  = 1Sk)
Nel caso di un processo bianco, per il quale i valori Sk sono tutti uguali, le due medie coincidono, e γ2x  = 1. Altrimenti, γ2x risulta tanto più piccolo quanto più i valori Sk si discostano dal loro valore medio.
[455]In caso contrario (ovvero x1 ed x2 sono equiprobabili) la 12.15↓ è equivalente alla 12.14↑. Nei casi in cui non si conosca la statistica di sorgente, non si può quindi fare altro che attuare una decisione di massima verosimiglianza.
[456]Per ottenere (12.16↓) si ricordi che p(xi,  yj) = p(xi ⁄ yj)p(yj) = p(yj  ⁄ xi)p(xi)
[457]Infatti
ijp(xi, yj)log2(p(xi ⁄ yj))/(p(xi))  =  ijp(xi, yj)log2(1)/(p(xi)) − log2(1)/(p(xi ⁄ yj))  =   =  ijp(xi,  yj)log2(1)/(p(xi)) − ijp(xi,  yj)log2(1)/(p(xi ⁄ yj))
e, saturando la sommatoria doppia del primo termine rispetto ad j, si ottiene la (12.18↓). Per la (12.18↓), il passaggio è del tutto simile.
[458]In definitiva, questo modo di ottenere una grandezza rappresentativa del solo canale ricorda un pò la via per la quale si è definita ad es. la potenza disponibile di un generatore (vedi § 15.1.1.3↓), al variare di tutti i possibili valori di impedenza di carico.
[459]Osserviamo l’invarianza di (12.23↓) rispetto alla modifica del numero di livelli: se M bit sono raggruppati per generare simboli ad L  = 2M livelli, come noto fs si riduce di M volte, mentre Cs aumenta della stessa quantità, dato che ogni simbolo trasporta ora M bit anziché uno.
[460]http://it.wikipedia.org/wiki/Secondo_teorema_di_Shannon
[461]Infatti, potrebbe risultare R > C solo se fb < R, ovvero il codificatore dovrebbe produrre meno binit/secondo di quanti bit/secondo produca la sorgente
[462]Sono mostrati solo i valori per 0 ≤ pe  ≤ 0.5 dato che successivamente l’andamento di Cs si riflette in modo speculare.
[463]Per il fatto di avere una ddp di y sia a numeratore che a denominatore del logaritmo, la (12.24↑) non soffre dei problemi discussi alla nota 11.1.2.2↑
[464]http://en.wikipedia.org/wiki/Shannon-Hartley_theorem
[465] Senza pretendere di svolgere l’esatta dimostrazione, tentiamo di dare credibilità a questo risultato. Osserviamo quindi che se r(t) = xk(t) + n(t), il valore atteso dell’errore εk si riduce a (1)/(Ts)Ts0[n(t)]2dt → σ2n, dato che essendo n(t) stazionario ergodico, le medie di insieme coincidono con le medie temporali. Viceversa, se il segnale trasmesso è xh(t) con h ≠ k, allora il relativo errore quadratico vale ε(h)k = (1)/(Ts)Ts0(xh(t) + n(t) − xk(t))2dt, ed il suo valore atteso E{ε(h)k} → σ2n + 2σ2x essendo le forme d’onda dei simboli ortogonali tra loro e rispetto al rumore. I valori limite mostrati sono in realtà grandezze aleatorie, ma la loro varianza diviene sempre più piccola all’aumentare di Ts, e quindi in effetti con Ts  → ∞ risulta sempre εk  < ε(h)k, azzerando la probabilità di errore.
[466]La (12.28↓) si ottiene considerando che se la capacità di canale per B  → ∞ fornita dalla (12.29↓) vale C = (Ps)/(N0ln2), e se deve risultare R ≤ C, allora ln2  = (  Ps)/(N0C) ≤ (Ps)/(N0R)  = (Eb)/(N0).
[467]La (12.29↓) si ottiene riscrivendo la (12.27↑) nella forma
C = (Ps)/(N0( Ps)/(N0B))(ln1  + (  Ps)/(N0B))/(ln2) = ( Ps)/(N0ln2)(ln(1 + λ))/(λ)
in cui ln è il logaritmo naturale in base e, e si è posto (Ps)/(N0B) = λ. Ricordando ora lo sviluppo di Maclaurin f(x) = f(0) + n  = 1(nf(x))/(xn)||x  = 0(xn)/(n!) e che (d)/(dx)lnx  = (1)/(x), il termine ln(1 + λ) può essere espanso in serie di potenze come ln(1 + λ) =  λ − (1)/(2)λ2  + (1)/(3)λ3 + ⋯; notando infine che per B → ∞ si ha λ → 0, e che limλ  → 0(ln(1 + λ))/(λ)  = 1, si giunge in definitiva al risultato (12.29↓).
[468]Riscrivendo la (12.27↑) come 2(C)/(B)  − 1 = (  Ps)/(N0B), moltiplicando ambo i membri per (B)/(R), e semplificando il risultato, si ottiene (B)/(R)(2(C)/(B) − 1) = ( Ps)/(N0R). L’uguaglianza individua la circostanza limite in cui R = C, mentre se nell’esponente di 2 a primo membro sostituiamo C con R, e R  < C, il primo membro diviene più piccolo, e pertanto (B)/(R)(2(R)/(B) − 1) < ( Ps)/(N0R). Infine, notiamo che (Ps)/(N0R)  = (Eb)/(N0), da cui il risultato mostrato (12.30↓).
[469]Vedi ad es. il caso di banda base al § 8.3.5↑ o quello del qam al § 14.3.1↓.
[470]Consideriamo infatti di rappresentare le forme d’onda ortogonali mediante un rect posto all’interno del periodo di simbolo T, in modo da non sovrapporsi ai rect associati a simboli diversi (vedi § 6.5.2↑). All’aumentare del periodo di simbolo T il numero di bit/simbolo M  = fbT aumenta in modo proporzionale, mentre il numero di possibili simboli L  = 2M = 2fbT aumenta esponenzialmente. Pertanto, ogni rect ha a disposizione un intervallo temporale pari a T2fbT e quindi la sua durata tende a zero esponenzialmente se T  → ∞, mentre la sua banda tende ad infinito, sempre con legge esponenziale rispetto a T.
[471]Indicati come codici mds, vedi http://en.wikipedia.org/wiki/Singleton_bound#MDS_codes.
[472]In altre parole, se Gc = 2 significa che l’adozione del codice permette di conseguire un valore di Pe pari a quello ottenibile con una trasmissione a potenza doppia, ma non codificata.
[473]Nel caso di decisioni hard o bit a bit, si ottiene una espressione del tipo Gac, hard = Rc(t + 1), in cui t è il numero di bit per parola che il codice è in grado di correggere.
[474]Poco più avanti si mostra che un codice sistematico è anche lineare.
[475]Infatti dalla definizione di somma otteniamo che la distanza tra due codeword x e y è pari al peso della codeword z = x  + y: infatti z presenterà componenti zj  = 1 solo in corrispondenza di elementi xj  ≠ yj. Ma per la linearità anche z appartiene al codebook, e dunque la ricerca su tutte le coppie si trasforma in una ricerca su tutte le codeword.
[476]Sono valide le normali regole di moltiplicazione tra matrici, tranne per l’accortezza di usare la somma modulo due anziché quella convenzionale.
[477]Per questo detta hard decision decoding in quanto opera su decisioni già prese.
[478]Tale possibilità è indicata come soft decision decoding (decodifica con decisioni soffici) in quanto richiede operazioni in virgola mobile; si veda ad es. la spiegazione fornita presso http://www.gaussianwaves.com/2009/12/hard-and-soft-decision-decoding-2/.
[479]Si veda lo sviluppo a pag. 1↓ per mettere in relazione la distanza dE(y, xj) con la verosimiglianza logaritmica ln(pn(y ⁄ xj)) della v.a. n − dimensionale y rispetto all’ipotesi che sia stata trasmessa la codeword xj, in presenza del rumore gaussiano n in sede di decisione.
[480]Ad esempio, il codice [000,  110,  101, 011] è un codice ciclico, mentre [000,  010,  101, 111] no. Notiamo che gli scorrimenti della codeword 000, sono la codeword stessa.
[481]http://it.wikipedia.org/wiki/Campo_finito
[482]Si veda http://en.wikipedia.org/wiki/Polynomial_code
[483]http://en.wikipedia.org/wiki/Cyclic_code
[484]Si applicano le regole di divisione tra polinomi http://it.wikipedia.org/wiki/Divisione_dei_polinomi
[485]Il valore dei coefficienti del polinomio prodotto è indicato anche come prodotto di Cauchy (vedi http://it.wikipedia.org/wiki/Prodotto_di_Cauchy), e che si ottenga come una convoluzione è facilmente verificabile: dati ad es. a(p) = a0 + a1p  + a2p2 e b(p) = b0  + b1p, si ottiene c(p) = a0b0  + (a0b1  + a1b0)p  + a2p2 = 2i = 0pi2j = 0ajbi  − j. La notazione lievemente diversa del testo, è dovuta al diverso modo di indicizzare i coefficienti.
[486]Forse ho trovato dove si spiega come faccia un registro a scorrimento controreazionato a svolgere questo genere di compiti: penso che in una prossima edizione sarà interessante aggiungerlo.
[487]http://en.wikipedia.org/wiki/BCH_code
[488]http://en.wikipedia.org/wiki/Berlekamp-Massey_algorithm
[489]http://en.wikipedia.org/wiki/Reed-Solomon_error_correction
[490]Gli n modi di scegliere quali dei kK bit sommare, per ottenere ognuno degli n bit di uscita, sono determinati mediante n vettori generatori gi, i = 1, 2, ..., n, di lunghezza kK, contenenti una serie di cifre binarie zero od uno, a seconda che l’i-esimo sommatore modulo due sia connesso (o meno) al corrispondente bit di memoria.
[491]Lo stesso valore di bj potrebbe essere prodotto da più di una delle 2kK diverse memorie del codificatore.
[492]La dipendenza di bj da (aj,  Sj) è legata alla scelta dei generatori gi. Nel caso in cui un valore bj(i) sia sempre uguale ad uno dei k bit di aj, il codice è detto sistematico. La scelta dei gi può essere effettuata mediante simulazioni numeriche, per individuare l’insieme che determina le migliori prestazioni.
[493]Per comodità di rappresentazione, il bit più a destra nella sequenza {a} è il primo in ordine di tempo ad entrare nel codificatore.
[494]Questo caso viene indicato con il termine hard-decision decoding in quanto il ricevitore ha già operato una decisione (quantizzazione) rispetto a . Al contrario, se i valori ricevuti sono passati come sono al decodificatore di Viterbi, questo può correttamente valutare le probabilità p(  ⁄ ^b) ed operare in modalità soft decoding, conseguendo prestazioni migliori.
[495]Ad esempio, con riferimento alla fig. 11.22↑, la {S}  = {00, 10, 11, 01, 10} ha un costo pari a 3.
[496]Qualora la distanza tra j ed un possibile ^bj sia espressa come probabilità condizionata p(j  ⁄ ^bj), il processo di decodifica è detto di massima verosimiglianza.
[497]La minima distanza tra le sequenze codificate è indicata come dmin, e può essere trovata come la dH tra una {b0} tutta nulla ({b0}  = {...000000000}) e quella con il minor numero di uni, che si diparte e ritorna (nel traliccio) dallo/allo stato 00.
[498]http://www.itu.int/rec/T-REC-G.711/e
[499]Una raccolta di riferimenti a risorse relative a codec audio orientati alle applicazioni multimediali può essere trovata presso http://labtel.ing.uniroma1.it/codecs
[500]http://en.wikipedia.org/wiki/Pitch_accent_(intonation)
[501]Si applica in pratica la stessa teoria valida per le linee elettriche, in cui al posto di tensione e corrente, ora si considerano rispettivamente pressione p e velocità u
[502]Si tratta di un fenomeno in qualche modo simile a quello che si verifica soffiando in una bottiglia, e producendo un suono che dipende dalla dimensione della stessa.
[503]I diversi suoni vocalici e/o consonantici (detti fonemi) sono prodotti mediante diverse posture articolatorie (la posizione di lingua, mascella e labbra), ovvero diversi profili d’area del tratto vocale, nonché l’attivazione o meno del tratto nasale. Pertanto ai diversi fonemi corrispondono differenti frequenze formanti, e dunque una diversa risposta in frequenza.
[504]I simboli usati sono noti come arphabet, vedi http://en.wikipedia.org/wiki/Arpabet, e la pronuncia dovrebbe essere qualcosa del tipo sciuduiceis.
[505]Tratti da https://books.google.it/books?id=Z6Otr8Hj1WsC
[506]Una finestra di 10 msec ha durata comparabile con il periodo di pitch, e ciò produce l’effetto a striature verticali del primo diagramma, meno pronunciato verso la fine, dove il pitch è più elevato. Una finestra di 40 msec si estende su più periodi di pitch, e determina una migliore risoluzione in frequenza, cosicché nel diagramma inferiore si possono notare delle striature orizzontali che corrispondono alle armoniche della frequenza di pitch.
[507]La durata di una sillaba può estendersi da 10-15 msec per le vocali ridotte, fino a più di 100 msec per quelle accentate.
[508]Sottintendendo una ipotesi di stazionarietà ed ergodicità non vera, ma molto comoda per arrivare ad un risultato.
[509]La (12.36↑) è effettivamente una stima della autocorrelazione del segnale a durata limitata che ricade nella finestra di segnale, mentre l’inclusione nella sommatoria di un numero di termini pari al numero di campioni disponibili porta ad un diverso tipo di risultato, detto metodo della covarianza, ed un diverso modo di risolvere il sistema (12.37↓).
[510]dette di Yule-Walker.
[511] In base alle assunzioni adottate, Ryy(j) risulta una funzione pari dell’indice j, e la corrispondente matrice dei coefficienti viene detta di Toeplix, consentendone l’inversione mediante il metodo di Levinson-Durbin (vedi http://en.wikipedia.org/wiki/Levinson_recursion), che presenta una complessità O(n2) anziché O(n3), come sarebbe necessario per invertire la matrice dei coefficienti.
[512]Una breve analisi della relazione tra dft e trasformata zeta è svolta al § 4.4.1↑.
[513]Il pitch varia durante la pronuncia di una frase in accordo alla sua semantica, alla lingua, ed all’enfasi emotiva impressa dal parlatore. Da un punto di vista musicale, la dinamica dei valori (da metà al doppio) si estende quindi su di un intervallo di due ottave. L’intera gamma dei registri dell’opera si differenzia per 22 semitoni, dal Mi2 del basso al Do4 del soprano, ovvero un rapporto di frequenze pari a 3,6.
[514]In realtà prima del calcolo della autocorrelazione, il segmento di segnale è stato moltiplicato per una finestra di Hamming, che provoca lo smussamento visibile ai bordi.
[515]In questo modo si evita anche di dover operare una esplicita decisione sonoro/sordo, visto che in realtà le due fonti di eccitazione posso essere presenti contemporaneamente, come per i cosiddetti suoni affricati.
[516]Generato per tentativi, oppure da scegliere in un dizionario di sequenze di eccitazione già codificate.
[517]Il filtro di pesatura percettiva si ottiene a partire dagli stessi coefficienti di predizione ai che descrivono l’andamento spettrale della finestra di segnale, definendo la sua trasformata zeta come W(z) = (A(zα1))/(A(zα2)) = (H(zα2))/(H(zα1)) in cui, se α1, 2 sono numeri reali, i poli di W(z) si trovano alle stesse frequenze di quelli di H(z) ma con raggio α2 volte maggiore, così come gli zeri di W(z) hanno modulo α1 volte maggiore. Scegliendo 0 < α1, 2  < 1 e α1 > α2 per la W(z) si ottiene l’effetto desiderato, e mostrato in fig. 12.16↑
[518]La procedura di minimizzazione determina una eccitazione tale da rendere bianco il residuo al suo ingresso; dato però che questo ha subito il filtraggio da parte di W(z), significa che le frequenze da questo depresse sono in realtà enfatizzate per il segnale di errore reale.
[519]In effetti, mentre i coefficienti spettrali (denominati parcor in questo caso) sono determinati a partire dall’analisi dell’intera finestra di 20 msec, l’eccitazione rpe ed i parametri ltp sono ottenuti a partire da sottofinestre di 40 campioni, pari a 5 msec.
[520]Per questa classificazione, così come per poter definire l’insieme dei centroidi, occorre che sia definita una funzione di distanza tra vettori.
[521]Vedi http://www.data-compression.com/vq.html, ma anche la nota 65↑ a pag. 1↑.
[522]vedi http://en.wikipedia.org/wiki/Speex
[523]Eseguito mediante un banco di filtri polifase, vedi ad es. http://en.wikipedia.org/wiki/Polyphase_quadrature_filter o http://cnx.org/content/m32148/latest/. Le uscite dei filtri polifase, anche se campionate a frequenza inferiore a quella di Nyquist, sono esenti da aliasing, che viene cancellato dall’effetto delle altre sottobande.
[524]Vedi http://en.wikipedia.org/wiki/Modified_discrete_cosine_transform
[525]Esempi di formati per la grafica vettoriale sono pdf, eps, pdf, e vrml.
[526]Per alcuni anni, si è usato come sinonimo anche il termine pel http://www.foveon.com/files/ABriefHistoryofPixel2.pdf.
[527]Il sito di ITU-R http://www.itu.int/ITU-R/index.asp?category=information&link=rec-601&lang=en non consente l’accesso pubblico alla raccomandazione. Un approfondimento può essere svolto presso Wikipedia http://it.wikipedia.org/wiki/BT.601.
[528]Vedi fig. 20.2↓ a pag. 1↓.
[529]La figura è tratta da Wikipedia, dove possono essere approfonditi gli altri aspetti legati a queste risoluzioni video http://it.wikipedia.org/wiki/Risoluzioni_standard.
[530]Vedi nota 20.1.6↓ a pag. 1↓.
[531]Per una breve introduzione alla quantizzazione cromatica, può essere consultata Wikipedia http://en.wikipedia.org/wiki/Color_quantization
[532]Il documento di specifica può essere trovato presso W3C: http://www.w3.org/Graphics/GIF/spec-gif89a.txt
[533]Vedi § 11.1.1.7↑.
[534]Reperibile presso il sito di ietf: http://tools.ietf.org/html/rfc2083
[535]Scaricabile presso il W3C: http://www.w3.org/Graphics/JPEG/itu-t81.pdf
[536]Notiamo incidentalmente come le dimensioni definite nella tabella di pag 1↑ siano multipli interi di 8. Se questo non è il caso, i blocchi ai bordi destro ed inferiore vengono riempiti con pixel scelti in modo da minimizzare le distorsioni risultanti.
[537]Potremmo tentare comunque di estendere le considerazioni svolte al § 4.4.3↑ al caso bidimensionale...
[538]La nuova sequenza di coppie corrisponde ad una sequenza di coefficienti ac pari a 6  7  0  0  0  3   − 1  0  0 …… 0
[539]Il confronto è svolto considerando i soli valori di luminanza, e la similitudine valutata come media tra i valori assoluti delle differenze di luminanza.
[540]l’effettiva estensione dell’area di ricerca non è oggetto di standardizzazione, mentre lo è la rappresentazione del risultato della ricerca.
[541]Viene decretato il fallimento quando anche la migliore compensazione di movimento possibile non determina una riduzione della quantità di bit, rispetto ad una codifica jpeg.
[542]Vedi ad es. http://www0.cs.ucl.ac.uk/teaching/GZ05/08-h261.pdf (una presentazione di Mark Handley), o la trattazione su http://en.wikipedia.org/wiki/H.261.
[543]Il Common Intermediate Format è stato pensato per facilitare la compatibilità con pal e ntsc; il Quarter-cif ha una superficie di 14. Sono poi stati anche definiti il 4cif e 16cif, oltre che il sif (352 x 240) che interopera con flussi mpeg.
[544]First in First out, è la disciplina di coda del primo arrivato primo servito, opposta a lifo Last In First Out, realizzata come uno stack.
[545]Nel 1998 viene rilasciato l’H.263v2, noto anche come H.263+ o H.263 1998, e nel 2000 è emesso l’H.263v3 noto anche come H.263++ o H.263 2000; inoltre l’MPEG-4 Part 2 è compatibile con l’H.263, in quanto un bitstream H.263 di base viene correttamente riprodotto da un decodificatore MPEG-4.
[546]Qualcuno potrebbe aver notato che nella definizione degli standard fin qui discussi, non sono previsti controlli di tipo checksum nel bitstream prodotto. D’altra parte essendo le informazioni codificate di natura auto-sincronizzante, la presenza di errori determina presto presso il ricevitore una condizione di disallineamento, e la decodifica di valori non previsti, come ad esempio la ricezione di vettori di movimento o coefficienti dct fuori dinamica, o codeword di Huffman non valide, od un numero eccessivo di coefficienti. Per tale via, il ricevitore diviene in grado di accorgersi dell’errore che si è verificato.
[547]ad es., 22 macroblocchi in risoluzione cif
[548]Si intende una risoluzione verticale ed orizzontale, mentre il rapporto tra le superfici è pari a 4 volte.
[549]Per un approfondimento, vedi http://en.wikipedia.org/wiki/Packetized_elementary_stream
[550]In realtà pts e dts non sono inseriti in tutti i pacchetti, ma una volta ogni tanto (con intervalli fino a 700 msec per i ps e 100 msec per i ts): il decoder rigenera infatti localmente il clock, ed i timestamp ricevuti servono a mantenerlo al passo con quello trasmesso.
[551]in realtà le intestazioni dei pacchetti del ts possono essere estese e contenere più di 4 byte: in questo caso, la dimensione del payload si riduce, in modo che il totale sia ancora 188.
[552]Un payload vuoto è in realtà comunque riempito di 184 bytes inutili, e viene inserito da parte del multiplatore che realizza il ts per mantenere una riserva di banda che consenta di assecondare le fluttuazioni di velocità dei tributari.
[553]Altri pid riservati sono l’uno, che annuncia la presenza di una Conditional Access Table (cat) contenente i parametri crittografici per visualizzare contenuti a pagamento, ed il pid 18, che annuncia la presenza della Network Information Table (nit), che descrive altri ts disponibili. Per approfondimenti, vedi http://en.wikipedia.org/wiki/Program-specific_information.
[554]O equivalentemente, della distanza che è possibile coprire conoscendo la potenza trasmessa, e quella che è necessario ricevere.
[555]Infatti i segnali xc(t)cosω0t e xs(t)sinω0t risultano ortogonali, e le potenze si sommano.
[556]In virtù di questa definizione, SNR0 è una grandezza che caratterizza le condizioni operative (Px, Pn(f) = (N0)/(2) e W sono grandezze indipendenti) ma non è legata alla particolare tecnica di modulazione adottata. Pertanto, esprimere SNR in funzione di SNR0 permette il confronto tra i diversi tipi di modulazione a parità di condizioni operative.
[557]Vedi anche il § 5.5.1↑
[558]
Il calcolo dei due termini si esegue come
pX, Y(x(ρ, φ),  y(ρ, φ)) = (1)/(2πσ2)exp  − (ρ2(cos2φ + sin2φ))/(2σ2)  = (1)/(2πσ2)exp − (ρ2)/(2σ2)

|J(x,  y ⁄ ρ, φ)|  = ||| (x)/(ρ) (x)/(φ) (y)/(ρ) (y)/(φ) |||  = ||| cosφ  − ρsinφ sinφ ρcosφ |||  = ρ(cos2φ +  sin2φ) = ρ
[559]Svolgiamo il calcolo solo per la prima relazione:
pP(ρ) = π  − πpP, Φ(ρ,  φ)dφ = (ρ)/(2πσ2)exp − (ρ2)/(2σ2)π − πdφ = (ρ)/(σ2)exp − (ρ2)/(2σ2)
[560]Osserviamo innanzitutto che d.d.p. congiunta di partenza si scrive ora come
pX’, Y(x’,  y) = (1)/(2πσ2)exp  − ((x’ − A)2  + y2)/(2σ2)
in quanto x è una v.a. gaussiana con media A e varianza σ2. Sostituendo quindi nell’esponente x’ = ρcosφ e y = ρsinφ, si ottiene
(x’ − A)2  + y2 = ρ2cos2φ  +  A2 − 2ρAcosφ + ρ2sin2φ  = ρ2 + A2 − 2ρAcosφ
Osservando ora che il giacobiano della trasformazione ha un valore pari a ρ anche in questo caso, otteniamo
pP, Φ(ρ,  φ)  =  pX’, Y(x(ρ, φ),  y = y(ρ, φ))|J(x’, y ⁄ ρ, φ)|  =  (ρ)/(2πσ2)exp  − (ρ2  + A2)/(2σ2)exp(ρAcosφ)/(σ2)
La saturazione di questa d.d.p. congiunta, operata eseguendo pP(ρ) = π − πpP,  Φ(ρ, φ)dφ, determina il risultato mostrato.
[561]Anche nella figura a pag. 1↑ si parla di funzioni di Bessel Jn(x), ma queste modificate sono in relazione a quelle, come In(x) = j  − nJn(jx) - vedi https://it.wikipedia.org/wiki/Armoniche_cilindriche.
[562]Purché la nuova frequenza f0 + Δf rientri nella banda di ricerca BN.
[563]In ambito militare, può aver senso massimizzare la probabilità di detezione, a spese di un aumento di quella di falso allarme, tranne nel caso in cui quest’ultimo non provochi conseguenze del tutto irreversibili, e “sbagliate” in caso di errore. Ragionamenti opposti possono essere svolti in campo medico, in cui si dovrebbe preferire un falso allarme, piuttosto che trascurare l’importanza di un sintomo.
[564]Discusso al § 10.3.1.2↑, e che si basa sul demodulatore di inviluppo introdotto al § 10.2.5↑.
[565]Con questa posizione, la potenza della portante risulta (((2  Px))2)/(2)  = (2 Px)/(2)  =  Px.
[566]In questo senso, il fenomeno può essere visto come una manifestazione del compromesso banda-potenza, vedi pagg. 1↑ e 1↑.
[567]Vedi https://it.wikipedia.org/wiki/Funzione_degli_errori
[568]Letteralmente, slittamento di tasto a due fasi.
[569]Qui e nel seguito assumiamo di disporre di una portante di demodulazione omodina o coerente (§ 10.2.1↑), ossia priva di errori di fase e frequenza, così come di una perfetta temporizzazione di simbolo; le considerazioni al riguardo di quest’ultimo aspetto sono svolte all’appendice 14.11↓.
[570]Il segnale di banda base m(t) = kakg(t − kTb) in cui g(t) = rectTb(t) ed i simboli ak sono a media nulla ed indipendenti, ha una densità di potenza Pm(f) = (σ2A)/(Tb)sinc2(fTb), il cui andamento è mostrato in fig. 3.16↑ di pag. 1↑.
[571]Come ad esempio i collegamenti satellitari, vedi § 20.3↓.
[572]Per chi si sta chiedendo quanto valgono questi livelli, diciamo che il livello i-esimo (con i = 0, 1, ⋯, L − 1) corrisponde al valore ai  = i(Δ)/(L − 1)  − 1 . Verificare per esercizio con Δ =  2 ed L = 4.
[573]Ad esempio: se L = 32 livelli, la banda si riduce di 5 volte, ed infatti con M  = 5 bit si individuano L  = 2M  = 32 configurazioni. Dato che il numero M di bit/simbolo deve risultare un intero, si ottiene che i valori validi di L sono le potenze di 2.
[574]Notiamo che mentre per il bpsk scegliere il primo al posto del secondo comporta perdere i benefici di una ampiezza costante, nel caso multilevello l’ampiezza è intrinsecamente variabile.
[575]Vedi tabella 14.2↓ a pag. 1↓.
[576]Ricordiamo che Px esprime la potenza ricevuta, N0 rappresenta il doppio della Pn(f) presente al decisore, e W è la banda del segnale modulante.
[577]Infatti come discusso a pag. 1↑ Eb = (Px)/(fb), come N0, dipende solamente da parametri di sistema (Px e fb), mentre invece non dipende dai parametri di trasmissione L e γ e dal tipo di modulazione.
[578] Forniamo qui una contro-dimostrazione forse inutilmente elaborata. Con riferimento alla figura seguente, il calcolo della Pe per l’l-ask si imposta definendo valori di Eb ed N0 equivalenti a quelli di banda base, ma ottenuti dopo demodulazione, e cioè Eb’  = PxTb e N0’ = PN’  ⁄ W (infatti, PN’  = (N0)/(2)2W, con W  = (fs)/(2) = (fb)/(2log2L)). L’equivalenza è presto fatta, una volta tarato il demodulatore in modo che produca in uscita la componente in fase xc(t) limitata in banda tra ±W.
figure f10.6.png
Infatti in tal caso (vedi § 13.2.1↑) Px’  = Pxc  = k2aPM  = 2Px e quindi Eb’  = PxTs = 2PxTs  = 2Eb; per il rumore si ottiene N0’ = (PN)/(W) in cui PN’  = Pnc = σ2nc  = σ2n  = (N0)/(2)4W e quindi N0’  = 2N0. Pertanto, il valore Eb’  ⁄ N0 su cui si basa ora il decisore è lo stesso Eb ⁄ N0 in ingresso al demodulatore.
[579]Se γ  ≠ 0, valgono le considerazioni svolte al § 8.3.5↑.
[580]Il caso in cui L = 2 ricade nel bpsk già discusso
[581]che non è una modulazione am-blu dato che xs ≠ ^xc
[582]Infatti un rettangolo di durata Ts ha trasformata sinc(Tsf), con il primo zero in f  = 1Ts  = fs, e la modulazione am-bld produce un raddoppio della banda occupata.
[583]Se viceversa g(t)  = rectTs(t), |x| giace su di un cerchio, spostandosi istantaneamente da un punto all’altro della costellazione
[584]Nella parte superiore della figura è mostrato l’andamento delle c.a. di b.f. per 5 simboli di un qpsk realizzato adottando g(t) a coseno rialzato con γ  = 0.5, e si può notare che ognuna di esse assume il valore ±1 in corrispondenza di ogni periodo di simbolo. Nella parte inferiore è riportato il corrispondente segnale modulato, che come si vede non è affatto ad ampiezza costante.
[585] In effetti, dovremmo verificare che l’attuale valore di EbN0 sia lo stesso del caso bpsk: mentre per N0 al § 13.1.2↑ si mostra che è vero, per quanto riguarda Eb (a prima vista) sembra che il suo valore si dimezzi. Infatti, a parità di potenza ricevuta, i punti di costellazione del bpsk giacciono all’intersezione tra l’asse cartesiano della c.a. di b.f. ed il cerchio di raggio pari all’ampiezza a del segnale ricevuto, mentre nel qpsk le fasi formano un angolo di 45o rispetto agli assi, moltiplicando per cos(π)/(4) = (2)2 le coordinate cartesiane, e riducendo dunque la potenza delle c.a. di b.f. di un fattore 2, e così pure il valore di Eb. In realtà, la durata doppia del periodo di simbolo Ts  = 2Tb compensa questa riduzione, e dunque anche l’Eb di ogni ramo Eb  = PxTs si mantiene invariato.
figure f10.95.png
[586]All’istante di decisione k su ciascun ramo si osserva una v.a. gaussiana dc,  s con varianza σ2νc,  s (vedi fig. 13.3↑ a pag. 1↑) e valor medio xc(kTs)  = cosφk e xs(kTs)  = sinφk, dove φk è la fase del punto di costellazione trasmesso all’istante t  = kTs, vedi eq. (16.25↑). Nell’esempio di figura, la decisione per il secondo dei due bit del simbolo cambia in funzione del segno di dc, e dunque si commette errore sul ramo in fase se ad es. si trasmette ?1, ma il rumore su quel ramo ha un valore sufficientemente positivo da far superare lo zero in corrispondenza dell’istante di decisione.
[587]In effetti all’istante di decisione potrebbe verificarsi errore su entrambi i rami, ma tale evento avviene con probabilità PcePse che si ritiene tanto più trascurabile rispetto a Pce quanto più quest’ultimo è piccolo.
[588]Ulteriore rispetto al commento alla nota 14.2.2↑, dove il ragionamento è svolto sull’EbN0, mentre ora sull’SNR.
[589]vedi il § 8.3.5.1↑
[590]In pratica, l’indice n si incrementa ogni due incrementi dell’indice k.
[591]Per come si è impostato lo schema di distribuzione dei bit tra i rami, L deve risultare un quadrato perfetto. Nulla impedisce di elaborare schemi diversi con costellazioni di forma non quadrata, vedi ad es. https://en.wikipedia.org/wiki/Quadrature_amplitude_modulation#Non-rectangular_QAM, ma in genere la soluzione quadrata è preferita per semplità realizzativa.
[592]Per applicare la (16.21↑) dobbiamo verificare se il valore di EbN0 è lo stesso nei due casi (vedi nota 14.2.2↑). Mentre per N0 non vi sono dubbi, notiamo (vedi § 10.4.2↑ per il caso di c.a. di b.f. incorrelate) che la potenza ricevuta Px si dimezza su entrambi i rami, così come la fb, e pertanto si ottiene Eb  = (Px2)/(fb2)  = ( Px)/(fb)  = Eb.
[593]Il cui effetto su xc(t) è stato discusso al § 10.2.3.1↑. Facciamo ricadere in questa casistica l’ambiguità di fase dei sistemi di recupero portante come descritto al § 10.2.2.1↑, ma anche la distorsione di fase introdotta dal canale
figure f10.18f.png
non selettivo in frequenza, vedi pag. 1↑. Che un errore di fase si traduca in una rotazione dell’inviluppo complesso può essere mostrato considerando che l’operazione di demodulazione omodina corrisponde a valutare {xejω0t}, mentre una portante cos(ω0t + φ) corrisponde a {xejω0tejφ}, equivalente alla demodulazione coerente di y  = xejφ ossia un inviluppo complesso ruotato. In figura, un caso per cui φ  = (π)/(2).
[594]La similitudine non è per nulla casuale, dato che qualora il predittore mostrato a pag. 1↑ sia realizzato mediante un elemento di ritardo, i due schemi di elaborazione coincidono.
[595]A parte per il primo bit, che ha il solo scopo di stabilire il riferimento di fase per la decodifica del successivo. Da un punto di vista formale, sostituendo la (16.30↑) nella (16.31↑) e in assenza di errori (ossia k  = yk) si ottiene k  = kk − 1 = xkyk  − 1yk − 1 = xk.
[596]Tratta da Andrea Goldsmith, Wireless Communications, pag. 151.
[597]Nel caso di L > 4 la tabella si modifica molto semplicemente scrivendo accanto al codice di Gray al L livelli, la sequenza crescente delle fasi differenziali Δθk  = k(2π)/(L − 1).
[598]Vedi ad es. Krzysztof Wesolowski, Introduction to Digital Communication Systems, Wiley, pag. 328.
[599] La discussione al riguardo è sviluppata al § 14.12.1↓, definendo anche le condizioni di demodulazione incoerente e coerente, ovvero se le portanti generate in ricezione cos[2π(f0  + Δfk)t +  φk] presentino o meno una fase φk casuale rispetto a quella trasmessa. In particolare, la spaziatura Δ multipla di (1)/(2Ts) garantisce ortogonalità solo nel caso di modulazione coerente, mentre nel caso incoerente occorre una spaziatura doppia, ossia Δ multiplo di (1)/(Ts).
[600]La condizione di ortogonalità tra le forme d’onda associate ai diversi simboli corrisponde alla intercorrelazione nulla tra le forme d’onda in un periodo (§ 6.1.4↑), ed infatti scegliendo opportunamente Δ ed f0 (vedi § 14.12.1↓) l’integrale (16.35↑) vale nm  =  .5⋅Ts sen = m 0 altrimenti . Ciò si dimostra (ricordando che cos2α  = (1)/(2) + (1)/(2)cos2α), notando che per m = n l’uscita del correlatore vale (1)/(2)Ts0(1 + cos(4π(f0 + mΔ)t))dt, e scegliendo opportunamente f0 e Δ (vedi § 14.12.1↓), il coseno che viene integrato descrive un numero intero di periodi all’interno dell’intervallo (0,  Ts), fornendo quindi un contributo nullo. Se invece n  ≠ m la funzione integranda non contiene il termine costante, ma di nuovo in virtù di § 14.12.1↓, contiene solo termini a media nulla.
[601]Infatti il vettore r ha una d.d.p. condizionata p(r  ⁄ fn) gaussiana multidimensionale a componenti indipendenti, e dunque (vedi § 5.5.1↑) si fattorizza nel prodotto di L gaussiane monodimensionali con uguale varianza e media nulla, tranne per la componente n = m relativa all’ipotesi realmente occorsa, che presenta una media non nulla. Pertanto per ogni possibile ipotesi fn la p(r  ⁄ fn) è concentrata sulla n − esima componente, e dunque decidere per  = argmaxn{rn} equivale a scegliere  = argmaxn{p(r  ⁄ fn)}.
[602]Difatti la (16.34↑) può essere riscritta come la somma di L segnali xk(t), uno per ogni possibile valore di fk, costituiti da un codice di linea rz che modula la corrispondente f0  + Δfk, a cui corrisponde dunque un tono intermittente. Essendo i simboli indipendenti e (in virtù della portante) a media nulla, la (10.46↑) di pag. 1↑ si riduce alla nota forma PXk(f) = (σ2A)/(Ts)|Gk(f)|2 in cui Gk(f) = ℱ{gk(t)} e gk(t) = cos[2π(f0 + Δfk)t]rectTs(t); applicando ora il risultato di fig. 3.12↑ a pag. 1↑ si ottiene la densità di potenza mostrata in fig. 14.31↓.
[603]tipo: Sinclair Spectrum, Commodore Vic20 e 64 ... Come noto, le cassette audio soffrono di variazioni di velocità di trascinamento del nastro (wow & flutter), ma il pll non ne risente.
[604]Tranne che, essendo ora presenti solo 2 frequenze, l’approssimazione (16.36↑) non è più corretta. In particolare, con riferimento alla fig. 14.31↑, è tanto meno corretta quanto più fs è elevata, che corrisponde ad oscillazioni del sinc2 più estese in frequenza.
[605]Ovvero qualora siano soddisfatte le condizioni per f0 e Δ valutate al § 14.12.1↓ per il caso di demodulazione coerente, e si verifichi la sincronizzazione tra le forme d’onda in ingresso ai correlatori del banco.
[606]Ovvero tenendo conto che (vedi § 11.2.3↑) fb non può superare la capacità di canale (eq. (12.27↑)), che a sua volta non può superare il limite C espresso dalla (12.29↑).
[607]A pagina 1↓ è esposta una motivazione informale di questo comportamento.
[608]Ad esempio realizzato mediante un integrate and dump (pag. 1↑), che deve essere resettato a fine Ts.
[609]Il fattore 1Ts che compare nell’espressione di h(t) rende l’energia dell’impulso complessivo g(t)*h(t) = tri2Ts(t) (vedi eq. (8.15↑)) normalizzata rispetto a Ts (vedi § 3.9.7↑).
[610]Infatti il segnale demodulato (as es.) sul ramo in fase ha ampiezza costante A(1)/(Ts)cosθ, che risulta moltiplicata per Ts quando integrato su tale periodo.
[611] Infatti il filtro adattato ha una |G(f)|2 =  sinc2(Tsf), e dunque il rumore alla sua uscita (vedi § 13.1.2↑ e pag. 1↑) presenta una densità di potenza Pn(f) = N0sinc2(Tsf). La potenza di rumore perciò risulta pari a Pn  = σ2 = (N0)/(Ts), in quanto n(t) è a media nulla, e  − ∞sinc2(Tsf)  = (1)/(Ts). Quest’ultimo risultato può essere verificato considerando che sinc2(Tsf) ha antitrasformata (1)/(Ts)tri2Ts(t), e che per la proprietà del valore iniziale (pag. 1↑)  −  ∞sinc2(Tsf) = (1)/(Ts)tri2Ts(t = 0) =  (1)/(Ts).
[612]La discussione a pag. 1↑ fa riferimento ad una sola v.a. (quella in fase) a media A, mentre nel caso attuale sia ha ρ = A ma con una fase qualsiasi. Per le proprietà di simmetria radiale del problema, la conclusione è valida anche nel nostro caso.
[613]adsl = Asymmetric Digital Subscriber Line, vedi § 19.9.4↓.
[614]La trasmissione numerica contemporanea su più portanti è a volte indicata con il nome di Multi Carrier Modulation (mcm) o Discrete Multi Tone (dmt). La modulazione FSK utilizza invece una portante alla volta, in quanto la sua definizione prevede la presenza di un solo oscillatore.
[615]Osserviamo innanzitutto che per un segnale
x(t)  = cosω1t = (1)/(2)( ejω1t  + e − jω1t)
risulta x + (t) = (1)/(2) ejω1t, e quindi il suo inviluppo complesso x(t) calcolato rispetto ad f0 vale
x(t)  = 2x + (t)e − jω0t  = 2(1)/(2) ejω1te − jω0t  = ej(ω1  − ω0)t
Allo stesso modo, si ottiene che per y(t) = sinω1t risulta y(t) = (1)/(j)ej(ω1  − ω0)t. Pertanto, considerando che (1)/(j)  = (j)/(j2) =  − j, ad ogni termine zk(t) = aknccosωnt  − aknssinωnt corrisponde un z(t) = akncej(ωn − ω0)t + jaknsej(ωn  − ω0)t =  aknej2π(fn − f0)t. Applicando ora la (16.39↑) si ottiene fn − f0  = Δ⋅n  − (N)/(2) e quindi la (16.41↓).
[616]Come mostrato per il caso incoerente discusso al § 14.12.1↓
[617]Infatti la frequenza di simbolo fs  = (1)/(T) = (1)/(T0 + Tg) risulta ridotta rispetto al caso in cui Tg sia nullo.
[618]Equivalente a definire l’inviluppo complesso con riferimento ad una portante a frequenza pari alla prima delle fn.
[619]Vedi nota 32↑ a pag. 1↑
[620]Al § 8.5.4↑ si è mostrato che se gli an sono v.a. indipendenti e distribuite uniformemente su L livelli tra ±A, si ottiene σ2a = (A2)/(3)(L’ + 1)/(L’ − 1). Nel caso di una costellazione qam quadrata ad L livelli si ha L’ = (L), e se le realizzazioni sui rami in fase e quadratura sono indipendenti risulta σ2an  = E{(anc  + jans)2} = 2σ2a = (2A2)/(3)((L) + 1)/((L) − 1); volendo eguagliare tale valore a 2  Pn, occorre quindi scegliere A = (3  Pn((L) − 1)/((L) + 1)).
[621] La (16.46↓) è in qualche modo simile alla formula di ricostruzione (4.4↑) (vedi pag. 1↑) per il segnale (complesso) periodico limitato in banda ±(N)/(2)F
x(t)  = N  ⁄ 2m =  − N  ⁄ 2Xmej2πmFt
che calcolata per t = hTc  = (h)/(NF) fornisce x(hTc)  = N ⁄ 2m =   − N ⁄ 2Xmej2π(m)/(N)h. Ponendo ora n = m + (N)/(2) e Yn  = Xn − (N)/(2) otteniamo
x(hTc) = N  − 1n = 0Ynej2π(n − N2)/(N)h  = e − jπhN − 1n = 0Ynej2π(n)/(N)h
dato chen − (N)/(2)(1)/(N)  = (n)/(N) − (1)/(2). Osservando ora che dalla (16.42↑) con Tc = (1)/(NΔ) si ha
x(hTc) = N  − 1n = 0anej2πΔn  − (N)/(2)(h)/(NΔ) = N − 1n = 0anej2πΔ(n − N2)/(N)h  = ejπhN − 1n = 0anej2π(n)/(N)h
e che e − jπh  = ( − 1)h, si ottiene la (16.46↓).
La coppia di relazioni
Xn = (1)/(N)N  − 1h = 0xhe − j2π(h)/(N)n e xh = N  − 1n = 0Xnej2π(n)/(N)h
sono chiamate Discrete Fourier Transform (dft) diretta e inversa, in quanto costituiscono la versione discreta della trasformata di Fourier (vedi § 4.4↑), e consentono il calcolo di una serie di campioni in frequenza a partire da campioni nel tempo e viceversa.
[622]In effetti la (16.46↑) fornisce un risultato periodico rispetto ad h, con periodo N, ossia con periodo NTc = N(1)/(fc) = N(1)/(ΔN)  = (1)/(Δ) = T0 per la variabile temporale. Per questo motivo il preambolo dell’ofdm è detto anche estensione ciclica.
[623]Come discusso ai § 11.2.3↑ e 11.2.4↑, il risultato della teoria di Shannon asserisce che fb  = C è la massima velocità di trasmissione per cui si può (teoricamente) conseguire una probabilità di errore nulla, ma anche che il canale consegue capacità C massima a seguito di una oculata scelta di come trasmettere il messaggio.
[624]Ovvero, che rende massima la (16.49↑)
[625]Vedi ad es. http://it.wikipedia.org/wiki/Metodo_dei_moltiplicatori_di_Lagrange
[626]Si consideri ad esempio il caso in cui H(f) ha origine da un fenomeno di cammini multipli, che determina un andamento di H(f) selettivo in frequenza (§ 16.3.4.5↓).
[627]To spread = spalmare, vedi ad es. lo spread butter.
[628]Data la sequenza deterministica ak  = {a0, a1,   ⋯aL − 1} di lunghezza L, media e varianza sono definiti come mA =  (1)/(L)L − 1k  = 0ak, σ2A  = (1)/(L)L − 1k  = 0(ak  − mA)2, e l’autocorrelazione tra coppie di
figure ss-corr-seq.png
elementi a distanza n è definita come
a(n)  = (1)/(L − n)L  − n − 1k  = 0akak  + n
Considerando invece la sequenza periodica ottenuta ripetendo gli ak, possiamo definire la stessa grandezza come a(n) = (1)/(L)L − 1k  = 0aka(k  + n)modL, detta anche autocorrelazione ciclica.
[629]Avendo scelto g(t)  = rectTp(t), risulta G(f) = Tpsinc(fTp) e quindi G = |G(f)|2 = T2psinc2(fTp), che diventa la (16.52↓) dato che σ2A  = 1.
[630]Applicando il teorema di Wiener si ottiene p(τ) = ℱ  − 1{ Pp(f)} = ℱ − 1{Tpsinc2(fTp)} = tri2Tp(τ), vedi tabella a pag. 1↑.
[631]Oltre che indicare un circuito integrato, la parola chip è la stessa usata per le patine fritte olandesi, e prima ancora per scheggia, frammento o truciolo.
[632] Il prodotto tra due segnali dati di tipo polare a frequenza fb e fp = Lfb, è equivalente a creare il segnale dati partendo dall’or esclusivo delle corrispondenti rappresentazioni binarie fatte da zeri ed uni, come mostrato dalle tabelle poste a lato.
ab
0 0 0
0 1 1
1 0 1
1 1 0
a    b  × 
 −  1  − 1 1
 −  1    1  −  1
     1  − 1  −  1
     1    1 1
[633]Considerando x(t) realizzazione di un processo ergodico indipendente da pn(t), la potenza di (t) risulta (§ 6.6.1↑) 2  = E{x2(t)pn2(t)} = x2  =  Px, dato che dalla (16.53↑) si ha E{pn2(t)} = 1.
[634]L’autocorrelazione del prodotto di processi indipendenti è pari al prodotto delle autocorrelazioni (§ 6.6.1↑), ed a questo si applica la proprietà di equivalenza tra prodotto nel tempo e convoluzione in frequenza, applicato alle trasformate delle autocorrelazioni, in base al teorema di Wiener (§ 6.2.1↑).
[635](t)cos(ω0t + φ) con φ v.a. a d.d.p. uniforme può essere considerato come il prodotto di due processi statisticamente indipendenti, la cui potenza è il prodotto delle potenze, vedi § 6.6.1↑
[636]vedi § 12.1.2
[637]Il risultato si ottiene tenendo conto delle eq. (16.52↑) e (16.55↑), effettuando la convoluzione, e ricordando che Tp  = 1Wp.
[638]Eventualmente realizzato come descritto a pag. 1↑, supponendo inoltre che sia verificata la condizione di sincronizzazione temporale.
[639]Ossia l’antenna con cui tutti telefonini nella medesima cella sono in comunicazione.
[640]In tal caso infatti i K − 1 interferenti sono assimilabili ad un rumore gaussiano (in virtù del teorema centrale del limite) con potenza complessiva (K  − 1) Px e limitato in banda alla stessa banda Wp del segnale utile. Dopo despreading, la densità spettrale interferente N0I2 si allarga su di una banda GpWp, e si riduce di ampiezza dello stesso fattore Gp. Pertanto il filtro passa basso a valle del despreading lascia passare una potenza interferente pari a (K  − 1) PxGp.
[641]Vedi https://en.wikipedia.org/wiki/Linear_feedback_shift_register
[642]In quanto in linea di principo il periodo della sequenza può essere inferiore al massimo.
[643]Anche in questo caso come al § 8.4.3.3↑ la posizione degli xor può essere associata ad un polinomio generatore, e per produrre una sequenza di massima lunghezza occorre scegliere un polinomio primitivo, vedi https://en.wikipedia.org/wiki/Primitive_polynomial_(field_theory). A parità di m, cambiando polinomio si ottengono sequenze differenti ma di uguale lunghezza, ed il loro numero massimo N aumenta all’aumentare di m con legge N = (2m − 2)m.
[644]Indicando con run una sequenza di bit uguali, su 2m  − 1 bit si trova un run di uni lungo m, un run di zeri lungo m − 1, e quindi 2m − i − 2 run sia di zeri che di uni di lunghezza i, per 1 < i ≤ m − 2.
[645]L’autocorrelazione si intende calcolata a partire da valori bipolari, ossia ottenuti a partire dalla sequenza binaria facendo corrispondere ±1 ai valori 0, 1, vedi nota 14.9.2↑.
[646]La coppia di sequenze-m non è qualsiasi, ma scelta tra quelle con una intercorrelazione massima ridotta, chiamate sequenze preferite.
[647]https://en.wikipedia.org/wiki/Hadamard_code
[648]Ma in tal caso, anziché accesso multiplo, potremmo definire la modalità di trasmissone come un broadcast ortogonale.
[649]http://en.wikipedia.org/wiki/Ultra-wideband
[650]http://en.wikipedia.org/wiki/Time-hopping
[651]https://en.wikipedia.org/wiki/Phase-shift_keying#Variants
[652]Dunque ad esempio la sequenza 001011 produce una sequenza di fasi   − 135 °,  − 180,  − 135  °
[653]https://en.wikipedia.org/wiki/Minimum-shift_keying
[654]http://en.wikipedia.org/wiki/Continuous_phase_modulation
[655]Dato che a differenza di msk, tra due simboli anche la derivata di xCPK(t) è continua.
[656]Vedi ad es. http://complextoreal.com/wp-content/uploads/2013/01/qpr.pdf
[657]Vedi ad es. http://www.emc.york.ac.uk/reports/linkpcp/appD.pdf
[658]Un pò come realizzare un segnale dati a banda minima, senza ricorrere ad un passa basso ideale.
[659]Vedi ad es. http://complextoreal.com/wp-content/uploads/2013/01/tcm.pdf
[660]trellis in inglese, da cui il nome del metodo trellis coded modulation.
[661]http://en.wikipedia.org/wiki/MIMO, http://complextoreal.com/wp-content/uploads/2013/01/mimo.pdf
[662]http://en.wikipedia.org/wiki/Cognitive_radio
[663]Od alla fine, come nel caso di un ricevitore a correlazione, o basato su di un filtro adattato.
[664]Per il recupero della portante si possono usare circuiti del tipo di § 10.2.2.1↑, mentre l’uso del pll (§ 10.2.2.2↑) non è possibile a causa della assenza di residui di portante. Una volta acquisto il sincronismo di frequenza, quello di simbolo può essere ottenuto mediante schemi operanti in banda base, come quelli al § 156↑.
[665]http://en.wikipedia.org/wiki/Costas_loop
[666]Vedi as es. http://en.wikipedia.org/wiki/Carrier_recovery#Decision-directed
[667]L’esempio si riferirisce ad una sequenza pn di massima lunghezza, della cui autocorrelazione si è discusso a pag. 1↑.
[668]Il blocco che valuta il valore assoluto dell’uscita dell’integratore è necessario in quanto (t) trasporta anche l’informazione x(t), che determina l’eventuale inversione di segno della sequenza pn, e dunque un cambiamento di segno per l’uscita dell’integratore.
[669]In altri termini, le tre copie della pn dovrebbero slittare a sinistra, e quindi il periodo della pn deve essere ridotto.
[670]Possiamo notare come la spaziatura tra le frequenze di segnalazione di (fs)/(2) fa si che due forme d’onda con una differenza di frequenza nΔ = n(fs)/(2) accumulino in un intervallo Ts una differenza di fase di nπ, ovvero un numero intero di semiperiodi.
[671]La (16.59↓) può essere derivata dalle (16.28↑) e (16.29↑) considerando (Enb)/(Nn0)  = (SNRn)/(log2Ln), ovvero invertendo l’eq. (10.69↑) SNR = (Eb)/(N0)(2log2L)/((1  + γ)) con γ = 0 e notando che a differenza del caso di banda base, per segnali am la banda (e la potenza di rumore) raddoppia. Ma se questa è una spiegazione troppo sintetica, ripercorriamo tutti i passaggi.
Partiamo dalla probabilità di errore condizionata (10.66↑) Pδ  = erfc(Δ)/(2(2)σN(L − 1)) del caso di multilivello di banda base, ed osserviamo che per un impulso rettangolare g(t) = rectT0(t) la (10.70↑) si modifica in PR  = (Δ2)/(12)(L + 1)/(L − 1) in quanto PR  = PR(f)df  = σ2A(|G(f)|2)/(T0)df dove σ2A  = (Δ2)/(12)(L + 1)/(L − 1) come ottenuto al § 8.5.4↑, mentre |G(f)|2df  = T20sinc2(fT0)df  = T0 (vedi nota 14.6↑).
In tal modo, eseguendo i passaggi di cui alla nota 8.3.3.1↑ a pag. 1↑ otteniamo Pδ  = erfc{((12 PR(L  − 1)(L + 1))/(2(2)σn(L − 1)))} =  erfc{((3)/(2)(1)/(L2  − 1)SNR)} che conduce alla (16.59↓) ricordando che per il qam ogni ramo ha (L) livelli, e che eseguendo il valore atteso rispetto alle probabilità dei simboli si ottiene Pe(bit) = 1  − (1)/((L))Pδ (vedi eq. (10.67↑)).
[672]La riduzione da due ad una sommatoria, si ottiene scrivendo esplicitamente tutti i termini della doppia sommatoria, e notando che si ottiene per N volte lo stesso termine N(0), N − 1 volte i termini N(Tc)ejπe  − j2π(1)/(N)n e N(  − Tc)e  − jπej2π(1)/(N)n, N  − 2 volte quelli N(2Tc)ej2πe  − j2π(2)/(N)n e N(  − 2Tc)e  − j2πej2π(2)/(N)n, e così via.
[673]Se campioniamo z(t) con periodo Tc  = (1)/(NΔ), il segnale Z(f) = m =  − ∞Z(f − mNΔ) non presenta aliasing (vedi figura), ed il passaggio di z(t) = m  =  − ∞z(mTc)δ(t  − mTc) attraverso un filtro di ricostruzione
figure f10.235.png
H(f) = (1)/(NΔ)rectNΔf  − (NΔ)/(2) restituisce il segnale originario. Scriviamo pertanto
z(t)  = z(t)*h(t) = m  =  − ∞z(mTc)δ(t  − mTc)*sinc(NΔt)ejπNΔt
ed effettuiamone la trasformata:
Z(f)  =  {m  =  − ∞z(mTc)δ(t  − mTc)}(1)/(NΔ)rectNΔf  − (NΔ)/(2)  =  [m  =  − ∞z(mTc)e  − j2π(m)/(NΔ)f](1)/(NΔ)rectNΔf  − (NΔ)/(2)
che, calcolata alle frequenze f = nΔ con n = 0, 1, ..., N − 1 fornisce
Z(f)|f  = nΔ = (1)/(NΔ)m =  − ∞z(mTc)e − j2π(m)/(N)n
Se ora non disponiamo di tutti i campioni z(mTc), ma solo degli 2N − 1 valori con m =  − (N  − 1), ..., 0, 1, ..., N − 1, la relazione precedente si applica ad un nuovo segnale z(t) = z(t)rect2NTc(t), fornendo
Z(f)|f  = nΔ = (1)/(NΔ)N  − 1m =  − (N  − 1)z(mTc)e − j2π(m)/(N)n
In virtù delle proprietà delle trasformate, risulta
Z(f)  = Z(f)*ℱ{rect2NTc(t)}Z(f)*δ(f) = Z(f)
in cui l’approssimazione è lecita per N elevato.
[674]Vedi ad es. http://it.wikipedia.org/wiki/Teorema_di_Thévenin
[675]http://it.wikipedia.org/wiki/Partitore_di_tensione
[676]E’ bene notare esplicitamente che questo massimo è valido solo nel caso in cui non sia possibile modificare la Zg(f). Altrimenti, per un qualunque valore fissato di Zc(f), il massimo di Wzc(f) si ottiene quando Zg(f) → 0.
[677]
Sono chiaramente possibili modelli diversi, basati su topologie e relazioni differenti. Esistono infatti circuiti a T, ad L, a scala, a traliccio, a pigreco; le relazioni tra le grandezze di ingresso ed uscita possono essere espresse mediante modelli definiti in termini di impedenze, ammettenze, e parametri ibridi.
Il caso qui trattato è quello di un modello ibrido, con la particolarità di non presentare influenze esplicite dell’uscita sull’ingresso. Qualora il circuito che si descrive presenti una dipendenza, ad esempio di Zi da Zc, o Zu da Zg, questo deve risultare nell’espressione della grandezza dipendente. Viceversa, qualora il circuito presenti in ingresso un generatore controllato da una grandezza di uscita, il modello non è più applicabile.
[678]L’ultimo passaggio tiene conto che (omettendo la dipendenza da f):
|H|2||(Zg  + Zi)/(Zc)||2  = ||(Zi)/(Zi  + Zg)Hq(Zc)/(Zc  + Zu)||2||(Zg  + Zi)/(Zc)||2  = |Hq|2||(Zi)/(Zu  + Zc)||2
[679]L’attenuazione supplementare (pag. 1↓) può esprimere il peggioramento dovuto al mancato verificarsi delle condizioni di massimo trasferimento tra le impedenze di uscita e di ingresso delle reti affacciate.
[680]Applicando il teorema di Thévenin, vedi https://it.wikipedia.org/wiki/Teorema_di_Thévenin
[681]A volte si incontra anche il termine figura di rumore, derivato dall’inglese noise figure (che in realtà si traduce cifra di rumore), e che si riferisce alla misura di F in decibel.
[682]Vedi https://it.wikipedia.org/wiki/Formula_di_Friis, ma da non confondere con la (16.115↓), anche se si tratta... della stessa persona!
[683]Ma eventualmente, con qualche bit errato in più.
[684]Detta anche operazione di deconvoluzione, vedi https://en.wikipedia.org/wiki/Deconvolution.
[685]http://en.wikipedia.org/wiki/Analogue_filter
[686]Operazione necessaria se il canale cambia da un collegamento all’altro, come nel transito in una rete commutata, o nel caso di una comunicazione radiomobile.
[687]Si veda l’eq. (10.31↑) a pag. 1↑, tralasciando il termine di fase lineare necessario a rendere hR(t) causale.
[688]Sia che si abbia HR(f) = HT(f) = (G(f)) come per il caso del ricevitore ottimo (§ 8.7↑), sia nel caso in cui HT(f) = G(f), e HR(f) ha il solo scopo di filtrare il rumore.
[689]Che equivale all’impulso (t) di eq. (10.58↑) a pag. 1↑
[690]La (16.76↓) rappresenta l’uscita di un filtro fir anti-causale, dato che z(t) dipende da valori futuri di ingresso, fino a y(t  + Nτ), mentre l’espressione causale che rispecchia la notazione usata nella figura dovrebbe essere z(t) = Nn  =  − Ncny(t − nτ − Nτ), che corrisponde ad un semplice ritardo dell’ingresso pari a Nτ, trascurato per semplicità di notazione nel seguito.
[691]Dato che per evitare aliasing (§ 4.1.1↑) la frequenza di campionamento fc  = (1)/(τ) deve risultare maggiore del doppio della massima frequenza presente in y(t), scegliamo fc = 2fs, ovvero τ = Ts2. Infatti, un segnale dati di banda base a coseno rialzato occupa una banda a frequenze positive pari a B = (fs)/(2)(1 + γ), e dunque scegliendo fc  = 2fs ci cauteliamo anche nel caso di γ = 1. La scelta di porre τ  < Ts viene indicata anche con il termine di fractionally spaced equalizer o fse.
[692]Piuttosto che l’azzeramento dell’errore, come nell’approccio zero forcing.
[693]Tale errore dipende sia dal rumore presente in ingresso che dall’isi introdotta dal canale, le cui potenze sono quindi minimizzate in forma congiunta.
[694]Vedi http://en.wikipedia.org/wiki/Wiener_filter.
[695]In realtà la minimizzazione ha successo solamente se σ2e è una funzione convessa (vedi https://it.wikipedia.org/wiki/Funzione_convessa) dei cn, ma più avanti (pag. 1↓) troveremo che questo è proprio il nostro caso.
[696] In effetti, Y(n) e YA(n) non sono note al ricevitore, ma nell’ipotesi di stazionarietà ed ergodicità per y(t) ed an, possono essere stimate a partire da una fase iniziale di apprendimento durante la quale viene trasmesso un segnale di test, per il quale il ricevitore calcola le medie temporali Y(n) = (1)/(K)Kk = 1y(kTs − nτ)y(kTs) e YA(n) = (1)/(K)Kk  = 1y(kTs  − nτ)ak, che quindi utilizza al posto delle medie di insieme nella (16.84↑).
[697]http://en.wikipedia.org/wiki/Toeplitz_matrix
[698]Viene applicata l’equivalenza tra convoluzione nel tempo e prodotto in frequenza, nonché quella tra trasformata della correlazione e densità di potenza.
[699]Analogamente all’energia mutua (§ 3.2↑), PYA(f) esprime una similitudine tra due segnali e/o processi, frequenza per frequenza. Laddove risulti PYA(f) = 0, i segnali sono ortogonali in tale regione di frequenze.
[700]Ricordando che y(t)  = kakh(t − kTs) + ν(t) in cui h(t) è la risposta impulsiva complessiva h(t) = hT(t)*hc(t)*hR(t) (vedi fig. 15.16↑) e ν(t) rappresenta l’effetto di HR(f) su n(t), dalla (16.85↑) scriviamo Y(n) = E{y(mTs)y(mTs  + nτ)} e quindi esprimendo h(mTs  − kTs) come h((m − k)Ts) si ottiene
Y(n)  =  E{(kakh((m  − k)Ts) + ν(mTs))(iahh((m  − i)Ts  + nτ) + ν(mTs + nτ))} =  E{kiakaih((m  − k)Ts)h((m − i)Ts  + nτ) + ν(mTs)ν(mTs  + nτ)  +    + ν(mTs  + nτ)kakh((m  − k)Ts) + ν(mTs)hahh((m  − i)Ts  + nτ)}
i cui termini dell’ultima riga risultano nulli se i simboli am sono statisticamente indipendenti dai campioni di rumore, ed almeno uno dei due processi è a media nulla. Essendo inoltre E{akai} = 0 per i  ≠ k, il termine con la doppia sommatoria si riduce a E{a2k}kh((m − k)Ts)h((m − k)Ts + nτ) = ℛA(0)H(n) = σ2aH(n) avendo considerato gli ak a media nulla. Infine, il termine E{ν(mTs)ν(mTs  + nτ)} risulta pari alla correlazione νν(n) del processo di rumore.
[701]Dalla (16.86↑) scriviamo YA(n) = E{y(mTs  − nτ)am} e quindi
YA(n)  =  E{(kakh((m  − k)Ts  − nτ) + ν(mTs − nτ))am} =   =  kE{akam}h((m − k)Ts  − nτ) + E{ν(mTs  − nτ)am}
e come prima troviamo E{ν(mTs  − nτ)am}  = 0, mentre della sommatoria rimane il solo termine k  = m.
[702]In particolare, scegliendo HR(f) = rect2fs(f) si ottiene che i campioni di rumore presi con intervallo τ  = 12Ts sono incorrelati e dunque statisticamente indipendenti perché gaussiani. Infatti Pν(f) = (N0)/(2)|HR(f)|2 e dunque ν(τ) = (N0)/(2)2fssinc(2fsτ), che quindi si azzera per τ  = 12Ts, vedi § 6.2.3↑. In tal caso la (16.90↑) diviene He(f) = (σ2aH*(f))/(σ2a|H(f)|2  + σ2υ).
[703]Per quanto il risultato sembri banale, la dimostrazione non è troppo diretta, e si basa sullo scomporre il termine E{kiakaih((m − k)Ts)h((m − i)Ts + nτ)} = kiA(i − k)h((m − k)Ts)h((m − i)Ts + nτ), tenendo conto della stazionarietà di am e dunque di simmetria di A(n), in una somma di termini pA(p)ih((m − i)Ts)h((m − i  − p)Ts + nτ) = pA(p)H(n + 2p), in cui si tiene conto che Ts  = 2τ, mentre gli am sono prodotti uno per simbolo; introducendo ℛ’A(n) =  A(n)/(2) npari       0  altrimenti e con qualche cambio di variabile si ottiene infine qℛ’A(q)H(n − q) che ha l’aspetto rassicurante della convoluzione, da cui scaturisce il risultato.
[704]Ciò deriva dal fatto che [Y(n − k)] = B è legata alla matrice di covarianza ΣY (§ 6.9.2↑) dalla relazione [Y(n − k)] = ΣY + m2Y (vedi eq. (10.20↑) a pag. 1↑ in condizioni stazionarie), e dato che ΣY è una matrice definita positiva lo è anche [Y(n  − k)], non decadendo la proprietà in seguito alla somma per una quantità positiva (m2Y). Pertanto la forma quadratica Nn  =  − NNk  =  − NcnckY(n − k) è ovunque convessa (vedi § 6.9.2↑), e dotata di un unico minimo globale. Questa proprietà permane anche considerando gli altri due termini della (16.91↑) che concorrono al valore di σ2e(c), essendo questi rispettivamente lineari in c e costanti, e che dunque non ne modificano la convessità.
[705]Considerando la sequenza informativa am a media nulla, si ha E{a2m} = σ2a.
[706]
σ2e(c̃)  =  c̃tBc̃  − 2c̃td + σ2a  = c̃tBc̃  − 2c̃tBc̃  + σ2a =   =  σ2a − c̃tBc̃ = σ2a  − c̃td = σ2a  − dtB  − 1 d
avendo prima sostituito d = Bc̃ e poi il contrario, e valutato c̃t  = (B − 1 d)t = dt(B − 1)t  = dtB  − 1 in quanto B è una matrice simmetrica, così come la sua inversa.
[707]Considerando z a media nulla, si ha σ2z  = E{z2}  = E{c̃tyytc̃} = c̃tE{yyt}c̃ = c̃tBc̃.
[708]Infatti
(Bc  − d)tB − 1(Bc − d)  =  ctBtB  − 1 Bc − ctBtB  − 1 d − dtB  − 1 Bc + dtB  − 1 d =   =  ctBc − ctd  − dtc + dtB  − 1 d = ctBc  − 2 ctd + dtB  − 1 d
[709]Vedi http://it.wikipedia.org/wiki/Discesa_del_gradiente
[710]Una regola pratica suggerisce di porre Δ = (1)/(5(2N + 1) PY) in cui PY è la potenza ricevuta di segnale più rumore. Valori maggiori possono accelerare la convergenza, ma anche dar luogo ad instabilità della soluzione, mentre valori più piccoli rallentano la convergenza, ma possono produrre errori finali minori.
[711]Ossia least mean square, vedi anche http://en.wikipedia.org/wiki/Least_mean_squares_filter
[712]Un interessante modo di interpretare la (16.96↓) si basa sull’osservare che la minimizzazione di (16.82↑) ovvero l’azzeramento del gradiente (16.83↑) gm = 0, comporta che ciascun valore di errore em deve essere ortogonale (in senso statistico, vedi § 6.9.1↑) a tutte le osservazioni ym  − N, ⋯, ym  + N da cui dipende la stima z(mT), ossia le 2N  + 1 coppie di sequenze devono essere incorrelate, e cioè prive di legami di tipo lineare.
[713]La sequenza dei simboli trasmessi è nota all’inizio della trasmissione, e spesso generata nella forma di una sequenza pseudo-noise. Dopo questa fase iniziale di apprendimento, l’equalizzatore commuta su di una modalità dipendente dalle decisioni, in cui l’errore em è valutato rispetto ai valori a~m emessi dal decisore: se la probabilità di errore per simbolo non è troppo elevata, la maggior parte delle volte la decisione è esatta, ed il metodo continua a funzionare correttamente.
[714]Poniamo di eseguire l’aggiornamento (16.97↓) dei coefficienti c ogni K periodi di simbolo: otterremmo cm  + K = cm − ΔK  − 1k = 0em  + kym + k, in cui il termine sommatoria risulta in effetti proporzionale alla stima di E{emym}, almeno più di quanto non appaia il termine emym che compare isolato nella (16.97↓).
[715]Possiamo infatti notare che alla m − esima iterazione della (16.97↑) il coefficiente cn viene aumentato se em e yn sono di segno opposto, e diminuito se concorde. Ovvero: se l’uscita è piccola allora em = z(mTs)  − am < 0, e il contributo
cn dell’n-esima memoria viene aumentato se ym(n) è positivo, o diminuito se ym(n) è negativo; viceversa, se em  = z(mTs) − am > 0 (uscita troppo grande) il valore di cn viene aumentato se ym(n) è negativo, e diminuito nel caso opposto. Inoltre, se cn e ym(n) hanno lo stesso segno contribuiscono a zm come un termine positivo, oppure come un termine negativo se di segno diverso. Infine, la colonna δ esprime la variazione del contributo di cnym(n) a zm, frutto della variazione di cn e dei segni di cn e di ym(n). Come si può verificare, δ è sempre tale da contribuire alla riduzione di em.   
em ym(n) cn cn cnym(n) δ
 +   +   +   + 
 +   +   −   − 
 +   −   +   − 
 +   −   −   + 
 −   +   +   + 
 −   +   −   − 
 −   −   +   − 
 −   −   −   + 
[716]Ovvero, il filtro fir ha solo i ritardi relativi ai coefficienti cn con n ≥ 0, così come la sommatoria (16.76↑).
[717]Anche qui, nella fase di apprendimento sono usati i valori am noti a priori, mentre in quella successiva si usano quelli m emessi dal decisore, supposti per la maggior parte esatti.
[718]A questo proposito, è opportuno che HR(f) sia realizzato come un passa basso e non come un filtro adattato, o nel caso di rumore colorato in ingresso, che si effettui una operazione di sbiancamento.
[719]Tratta da J.G. Proakis, M. Salehi, Communication systems engineering, 2nd Ed., 2002 Prentice-Hall
[720]Nonostante mmse tenti di minimizzare σ2e tenendo conto sia dell’isi che del rumore, le sue prestazioni degradano in presenza di canali che presentano profonde attenuazioni per alcune frequenze. D’altra parte per canali meno problematici, le sue prestazioni possono avvicinarsi a quelle dell’mlsd.
[721]Come definito al § 13.2.1.1↑, SNR0 dipende solo dalle caratteristiche del collegamento, mentre il coefficiente α rappresenta la dipendenza dal tipo di modulazione adottata, e differisce da uno nei casi di modulazione fm, am-pi e am-pps.
[722]Notiamo che Gs è definito come ingresso/uscita, contrariamente agli altri guadagni. Infatti, non è una grandezza del collegamento, bensì una potenzialità dello stesso.
[723]Pe una breve biografia ed il link agli scritti, vedi https://it.wikipedia.org/wiki/Oliver_Heaviside
[724]Vedi l’eq. (16.108↑) con Rg(f) = Ru(f) = R0.
[725]Questa circostanza è comune con le trasmissioni in fibra ottica (vedi fig. 16.45↓ a pag. 1↓), ed è legato alla presenza nel mezzo di una componente dissipativa, in questo caso la resistenza.
[726]... le famose interferenze telefoniche, praticamente scomparse con l’avvento della telefonia numerica (PCM), da non confondere con ... le intercettazioni.
[727]Omettiamo di indicare di operare in dB per compattezza di notazione.
[728]Ovvero, tali che 2dβ(f) = kπ con k  = 0, 1, 2, …
[729]Può ad esempio rendersi necessario “tarare” un trasmettitore radio, la prima volta che lo si collega all’antenna.
[730]E’ questa la fase in cui il modem anni 90 che si usava per collegarsi al provider Internet emetteva una serie di orribili suoni... corrispondenti alla ricezione della sequenza di apprendimento, vedi anche la nota 310↑ di pag. 1↑.
[731]Ovvero, una sezione capace di reggere il peso del cavo lungo una campata.
[732]Vedi https://it.wikipedia.org/wiki/Pupinizzazione
[733]Vedi https://it.wikipedia.org/wiki/Gabbia_di_Faraday
[734]Dato che tale conversione avviene unicamente a seguito delle variazioni del segnale, è esclusa la presenza di una componente continua, e per questo (ma non solo) il segnale può unicamente essere di natura modulata.
[735]Vedi ad es. https://en.wikipedia.org/wiki/Antenna_tuner
[736]Dall’inglese to feed = alimentare.
[737]Il processo di focalizzazione parabolica, comunemente usato ad esempio nei fanali degli autoveicoli, era ben noto ad Archimede da Siracusa, che lo impiegò negli specchi ustori...
[738]Si tratta di un concetto del tutto analogo alla “frequenza di taglio a 3 dB”, ma applicata ad un dominio spaziale con geometria radiale.
[739]Indicando con Ar l’area reale (fisica) dell’antenna, risulta Ae  = ρAr, con ρ  < 1. La diseguaglianza tiene conto delle perdite dell’antenna, come ad esempio le irregolarità nella superficie della parabola, o l’ombra prodotta dalle strutture di sostegno. Ovviamente, anche l’antenna trasmittente presenta perdite, ed il valore GT misurato è inferiore a quello fornito dalla (16.111↑), a meno di non usare appunto il valore di area efficace.
[740]La costante c = 3⋅108 metri/secondo rappresenta la velocità della luce nel vuoto, ossia la velocità di propagazione dell’onda elettromagnetica nello spazio.
[741]Mantenendo fissa la dimensione delle antenne, si ottiene il risultato che trasmissioni operanti a frequenze più elevate permettono di risparmiare potenza. Purtroppo però, guadagni di antenna superiori a 30-40 dB (corrispondenti a piccoli valori di θb) sono controproducenti, per i motivi esposti al § 16.3.3.1↓.
[742]http://it.wikipedia.org/wiki/Onda_superficiale
[743]equivalente ad una riduzione di potenza di 102.5  =  316 volte
[744]http://it.wikipedia.org/wiki/Diffrazione
[745]Lo stesso fenomeno di diffrazione è egualmente valido per l’energia luminosa, e può essere sperimentato illuminando una fessura, ed osservando le variazioni di luminosità dall’altro lato.
[746]http://en.wikipedia.org/wiki/Tropospheric_scatter
[747]http://en.wikipedia.org/wiki/Skywave
[748]Anche, ma non solo, in concorso con la riflessione operata da masse d’acqua, come mostrato in figura.
[749]L’elevata attenuazione chilometrica presente a 60 GHz può essere sfruttata nei sistemi di comunicazione cellulare, allo scopo di riusare una stessa banda di frequenze anche a breve distanza.
[750]L’assorbimento di potenza da parte delle molecole d’acqua per onde elettromagnetiche a 22 GHz è il principio su cui si basa il forno a microonde.
[751]Nel caso in cui una massa d’aria calda ne sovrasti una più fredda, si verifica una inversione dell’indice di rifrazione, e l’onda elettromagnetica di propaga come in una guida d’onda, vedi anche http://en.wikipedia.org/wiki/Tropospheric_propagation.
[752]Ad esempio, desiderando (1)/(T)  > 1 MHz, si ottiene TMax  = 1 μsec; se l’onda radio si propaga alla velocità c = 3⋅108 m/sec, la massima differenza di percorso vale Δmax  = cTMax = 3⋅108⋅10 −  6 = 300 metri.
[753]Vedi ad esempio https://en.wikipedia.org/wiki/Two-ray_ground-reflection_model, da cui è tratta l’immagine mostrata. Molto interessante, anche l’applet java disponibile presso http://www.cdt21.com/resources/siryo1_02.asp, che grafica l’andamento della attenuazione del modello, al variare di alcuni dei parametri prima illustrati.
[754]Alla frequenza di 1 GHz si ha λ = 30 cm e per una distanza di 100 metri dal trasmettitore si ottiene un raggio massimo dell’ellissoide pari a (1)/(2)(.3⋅100)  = (1)/(2)(30)≃2.7 metri.
[755]Vedi ad es. il § 9.1.1.3↑.
[756]Mentre il fading produce una attenuazione variabile sul segnale, la stessa variabilità delle condizioni di propagazione può portare a livelli di interferenza variabili, causati da altre trasmissioni nella stessa banda. La variabilità temporale della qualità del segnale ricevuto, in particolare quella veloce (vedi § 16.3.4.6↓), produce errori a burst, che possono essere corretti mediante codifica di canale ed interleaving (vedi § 8.4.2.3↑).
[757]Considerando le v.a. statisticamente indipendenti.
[758]Inoltre, la condizione di nlos introduce una attenuazione supplementare costante. Per una rassegna dei diversi modelli di propagazione, si veda ad es. http://www.slideshare.net/deepakecrbs/propagation-model.
[759] La d.d.p. gaussiana discende dall’ipotesi che uno dei cammini multipli pervenga al ricevitore con una potenza nettamente predominante rispetto agli altri. In questo caso l’inviluppo complesso x del segnale ricevuto è adeguatamente rappresentato da una v.a. di Rice (vedi pag. 1↑) x  = a  + r, in cui |r| ha d.d.p. di Rayleigh e rappresenta l’effetto di molte cause indipendenti, relative ai cammini multipli, ed a è l’ampiezza della eco di segnale ricevuta con la maggiore ampiezza. Se a|r| possiamo scrivere
     as(dB)  =  10log10(1)/(|a + r|2)  =  − 10log10((a  + rc)2  + r2s) = 
                =  −  10log10(a2)/(a2)(a2  + 2arc  + r2c  + r2s) = 10log10a2  + log101 + (2rc)/(a) + (|r|2)/(a2)  = 
               ≃10log10a2  + (2rc)/(a) = 10log10a2  + 20(rc)/(a)
in quanto log(1  +  α)α con α≪1, e quindi as(dB) ha media 10log10a2 (compresa nel path loss) ed esibisce una d.d.p. gaussiana, la stessa di rc.
[760]All’aumentare dell’altezza dell’antenna, si estende l’area di copertura della stessa, ma in ambito urbano questo corrisponde ad una maggiore variabilità delle effettive condizioni operative.
[761]A frequenza di 1 Ghz, si ha λ≃30 cm. Questo fenomeno può essere facilmente sperimentato quando, durante una sosta al semaforo, si perde la sintonia di una radio fm, riacquistandola per piccoli spostamenti dell’auto; un altro esempio può essere la ricerca del campo per poter telefonare.
[762] La (16.118↓) discende dal considerare un generico segnale modulato x(t) = a(t)cos(2πf0t  + φ(t)) ed il suo inviluppo complesso x(t) = a(t)ejφ(t): per ogni sua replica ritardata xn(t) = x(t  − τn) possiamo scrivere
xn(t) = a(t  − τn)cos[2πf0(t − τn) + φ(t  − τn)]  = a(t − τn)cos(2πf0t  − 2πf0τn + φ(t − τn))
ed il suo inviluppo complesso rispetto ad f0 può essere quindi scritto come
xn(t) = a(t  − τn)ejφ(t  − τn)e  − j2πf0τn  = x(t − τn)e − j2πf0τn
[763]Si consideri che il risultato dell’esempio di pag. 1↑ valuta i ritardi in gioco dell’ordine di grandezza delle decine di nanosecondi, mentre (ad esempio) ad un segnale x(t) limitato in banda a 10 KHz corrisponde un periodo di campionamento Tc  = 50 μsec.
[764]Se ad esempio i ritardi τn sono dell’ordine di 10 − 8, l’ipotesi è valida per f0 >  100 MHz, quasi 110 delle frequenze a cui operano i radiomobili.
[765]Per semplicità nel seguito consideriamo x(t) a potenza unitaria, in modo che ρ2 sia proprio la potenza istantanea
figure f12.142.png
ricevuta.
[766]
Impostando il cambiamento di variabile s  = ρ2, si possono applicare le regole viste al § 5.4↑, individuando la funzione inversa come ρ  = (s), la cui (d)/(ds)ρ(s) fornisce (1)/(2(s)). Pertanto, la d.d.p. della nuova v.a. s vale:
pS(s) = pP((s))(d)/(ds)ρ(s) = ((s))/(σ2) e  − (((s))2)/(2σ2)(1)/(2(s)) = (1)/(2σ2) e  − (s)/(2σ2)
Nella figura a lato si mostra il processo di costruzione grafica che produce una d.d.p. esponenziale negativa a partire dal quadrato di una d.d.p. di Rayleigh.
[767] A tal fine osserviamo che il collegamento va fuori servizio quando la potenza ricevuta è inferiore alla sensibilità del ricevitore WRmin, e la probabilità di questo evento si esprime come p  = Pr(ρ2 < WRmin) = 1 −  e  − (WRmin)/(mρ2), essendo appunto ρ2 una v.a. a d.d.p. esponenziale con media mρ2  = 2σ2, e tenendo conto dell’eq. (19.3↓) a pag. 1↓. Al tempo stesso, mρ2  = E{ρ2} rappresenta la potenza media ricevuta, ovvero lo zero dB di fig. 16.27↓: esprimendo dunque il margine M (non in dB) come il rapporto tra la potenza media ricevuta e la sensibilità del ricevitore M = (mρ2)/(WRmin), si ottiene p  = 1 −  e − (1)/(M), e quindi   − (1)/(M) = ln(1  − p) e, passando ai decibel,  − 10log10M = 10log10( − ln(1 − p)), da cui la (16.122↓).
[768]Infatti in tal modo la percentuale di tempo p viene spalmata su di un secondo, e suddivisa per il numero (medio) di volte (in un secondo) per cui avviene che ρ2  < WRmin.
EsempioSe p = 0.1, ed Na = 5 fading/sec, allora τa  = 0.15  = 0.02 ossia 20 msec, ripartendo i 100 msec (10% di 1 secondo) sui 5 affievolimenti medi.
[769]Il cambiamento negli indici della sommatoria è legato a considerare l’origine dei tempi in corrispondenza al primo arrivato dei cammini multipli.
[770]Si sottintende che T sia minore dell’inverso del doppio della banda di Z(t), ovvero T  < 12W.
[771]Libera traduzione del termine power delay spread.
[772]Tipicamente di 14 della lunghezza d’onda relativa alla portante adottata.
[773]
{P(τ)}  =   − ∞P(τ)e − j2πfτdτ  = (1)/(στ)0e  − (τ)/(στ)e − j2πfτdτ  = (1)/(στ)0e  − (1)/(στ) + j2πfτdτ  =   =  (1)/(στ)( − 1)/((1)/(στ) + j2πf)e  − (1)/(στ) + j2πfτ|0 = (1)/(στ)(1)/((1)/(στ) + j2πf) = (1)/(1 + j2πστf)
[774]|H(Δf)| = (1)/(2) se (1 + (2πστΔf)2)  = 2, e dunque 2πστΔf  = (3) ovvero Δf = (1.73)/(6.28στ) = (1)/(3.63στ)
[775]Del ricevitore, del trasmettitore, o degli oggetti riflettenti.
[776]Come evidente dalla eq. (11.2↑) a pag. 1↑
[777]Approssimiamo θ come uguale in X e Y, nell’ipotesi che S sia molto lontana rispetto a d.
[778]Il rapporto n = lλ indica quanti periodi di portante entrano in l, che moltiplicato per 2π fornisce appunto la differenza tra le fasi di arrivo, nulla se n è intero.
[779]Vedi eq. (11.27↑) a pag. 1↑.
[780]Si tratta dello stesso effetto che produce la variazione del suono della sirena di un mezzo di soccorso, vedi http://it.wikipedia.org/wiki/Effetto_Doppler
[781]La stessa analisi è valida anche nel caso di un ricevitore fermo ma con i riflettori in movimento, come per la la riflessione ionosferica: in tal caso l’espressione si scrive come fnd  = f0(vn)/(c)cosθn, considerando cioè la possibilità che i riflettori abbiano velocità diverse tra loro.
[782]Notiamo che se θn = 0 ci stiamo riferendo al caso in cui il moto si realizza lungo la congiungente tra ricevitore e sorgente (o riflettore).
[783]Notiamo che il risultato è diretta conseguenza della condizione di scattering isotropo: infatti la (16.133↑) rappresenta un processo armonico (pag. 1↑) quando  − π  < θn  < π con d.d.p. uniforme, ed al tempo stesso rappresenta la deviazione della frequenza istantanea fi rispetto ad f0 (§ 9.2.2↑), e dunque si verifica l’effetto di conversione am-fm descritto al § 10.3.3↑. Se
figure mobilino-doppler-2.png
viceversa ad es. esistono due soli cammini, il primo diretto (S), e l’altro riflesso (R) con il mobile nel mezzo, Py(f) corrisponde a due impulsi in ±fD.
[784]In questo modo si ottiene una trattazione unificata sia per il caso di un ricevitore mobile in un contesto statico, sia per quello di un ricevitore fermo con riflettori in movimento. In entrambi i casi il doppler spread fD può essere effettivamente misurato al ricevitore, in presenza di una portante non modulata.
[785]Si veda l’interessante animazione java presso
[786]Ciò avviene perché in pratica è come se due simboli consecutivi pervenissero attraverso due differenti canali, e dunque non è possibile eseguire operazioni di media.
[787]Infatti le due condizioni W < Bc e Ts < Tc possono essere riscritte come Wστ≪1 e fDTs≪1; moltiplicandole tra loro si ottiene WστfDTs≪1. Ponendo quindi W(1)/(Ts) si ottiene la condizione indicata.
[788]Il ramo di iperbole che individua il luogo dei punti WTs  = cost è tracciato in base all’osservazione della nota precedente, ossia W(1)/(Ts), da cui WTs≃1.
[789]A causa delle fluttuazioni di ampiezza legate al fading, non è possibile ricorrere a modulazioni di tipo qam, e nel seguito sono prese in considerazione unicamente modulazioni di fase e di frequenza.
[790]Il dominio di integrazione è rappresentato in figura, e anziché muoversi prima lungo y dalla retta
figure dominio.png
y = ρ(EbN0) ad infinito ottenendo una funzione di ρ, e quindi integrare con 0 < ρ < ∞, ci si muove in orizzontale tra ρ = 0 e ρ = y(N0Eb) ottenendo una funzione di y, quindi integrata con 0  < y < ∞. Verifichiamo quindi che
y(N0Eb)0(ρ)/(σ2) e  − (ρ2)/(2σ2)dρ =  − e − (ρ2)/(2σ2)|y(N0Eb)0  =  −  e − (y2)/(2σ2)(N0)/(Eb) + 1.
[791]Con l’ultima posizione la (16.136↑) si riscrive come Pbite  = (1)/((π))0 e − y2dy  − (1)/((π))0 e − y2 − (y2)/(Γ)dy. Tenendo conto che  −  ∞e − y2dy  = (π) (vedi https://it.wikipedia.org/wiki/Integrale_di_Gauss) il primo termine risulta pari ad (1)/(2), mentre dato che   − y2 − (y2)/(Γ)  =  − (Γ  + 1)/(Γ)y2 e che risulta anche  −  ∞e − αy2dy  = (πα), il secondo termine si riscrive come (1)/((π))0  e − (Γ + 1)/(Γ)y2dy  = (1)/(2)((Γ)/(1 + Γ)), da cui il risultato.
[792]Nel caso di un telefono cellulare sono presenti numerosi riflettori nelle vicinanze del ricevitore, producendo fading incorrelati per distanze di circa mezza lunghezza d’onda. Viceversa nel caso della base station fissa con cui il cellulare comunica, i cammini multipli hanno tutti origine nei pressi del mobile, riducendo la gamma di angoli di incidenza dei raggi ricevuti, che iniziano ad essere indipendenti per distanze di decine di lunghezze d’onda, e quindi in tal caso sono necessarie antenne molto più lontane tra loro.
[793]Infatti |R|2  = R2i, e con G = GMR la (16.139↑) diviene Γ = (Eb)/(N0)((R2i)2)/(R2i) = (Eb)/(N0)R2i
[794]Fermo restando la necessità di rifasare i rami per ottenere una somma coerente.
[795] Indicando con {bi} la sequenza informativa e con x̃(t) = ibipn(t  − iTb) l’inviluppo complesso del segnale dsss trasmesso, ricordando la (16.126↑) e trascurando il fattore 12 della convoluzione tra inviluppi complessi (eq. (11.10↑)), il segnale ricevuto in presenza di multipath ha espressione
r̃(t)  = N  − 1n = 0Znx̃(t − τn) = N  − 1n = 0Znibipn(t  − iTb − τn)
dove i coefficienti Zn sono i guadagni complessi dovuti ai cammini multipli. La decodifica del simbolo j − esimo avviene moltiplicando r̃(t) per pn(t  − jTs − τ0) (allineata al primo ritardo τ0) ed integrando il risultato su di un periodo di bit, realizzando così un filtro adattato alla sequenza pn, ovvero
j  =  (1)/(Ts)(j + 1)Ts  + τ0jTs  + τ0r̃(t)pn(t − jTs  − τ0)dt = (1)/(Ts)Ts0N − 1n = 0Znbjpn(α  − τn)pn(α)dα  =   =  N − 1n  = 0Znbj(1)/(Ts)Ts0pn(α  − τn)pn(α)dα  = Z0bj + N − 1n = 1ZnbjRPN(τn)
in cui al secondo passaggio sopravvive solo il termine j  − esimo della i in quanto è l’unico entro gli estremi di integrazione, dopodiché si pone α = t − jTs  − τ0, e τn  = τn − τ0. Il primo termine del risultato è pari (a meno del coeff. complesso Z0) al simbolo cercato, mentre il secondo rappresenta il termine di interferenza intersimbolica legato ai ritardi τn, e che risulta ridotto rispetto al primo termine del rapporto RPN(τn)RPN(0).
[796]Detti fingers, ovvero dita (del rastrello).
[797]Ciò riduce il peso dei contributi relativi a rami su cui perviene un segnale di ampiezza ridotta, la cui uscita dipende in misura maggiore dal rumore.
[798]Indicata anche come intensity modulation and direct detection (imdd). In realtà è anche possibile adottare tecniche di modulazione numerica come psk e qam, che richiedono una detezione coerente (vedi ad es. https://doi.org/10.1364/OE.16.000753), ma tali sistemi sono tuttora in fase sperimentale, e l’esposizione prosegue per il caso universalmente adottato.
[799]Vedi http://it.wikipedia.org/wiki/Indice_di_rifrazione, ma anche il video https://www.youtube.com/watch?v=k7ohfaMmTKg.
[800]Qui descritto in termini di ottica geometrica, approssimazione valida per un diametro del core ben maggiore di quello della λ incidente. Per dimensioni comparabili, occorre invece ricorrere alla teoria di propagazione delle onde, su cui non ci avventuriamo.
[801]I diversi valori di n sono ottenuti drogando differentemente la sezione della fibra.
[802]Vedi ad es. https://en.wikipedia.org/wiki/Numerical_aperture
[803]In realtà questa interpretazione data in chiave di ottica geometrica è una semplificazione, ed in effetti i modi di propagazione sono quelli che risultano dalla applicazione delle equazioni di Maxwell alla propagazione in fibra.
[804]Si passa dai 50 μm per le fibre multimodo, a circa 8 μm nel caso monomodo.
[805]Ovvero molecole e ioni di altri elementi. Ad esempio, lo ione oh- è quello che determina il picco di assorbimento a 1.39 μm.
[806] Il fenomeno descritto viene detto dispersione da materiale o DM, oltre al quale ne interviene anche un altro detto dispersione di guida d’onda o DW, che dipende da fattori geometrici come la dimensione del core e l’apertura numerica.
[807]Il fenomeno della dispersione cromatica è l’equivalente ottico della distorsione di fase (o distorsione di ritardo) introdotta al § 7.2↑ per i segnali elettrici.
[808]D’altra parte, dato che i termini DM e DW descritti alla nota 367↑ hanno una diversa dipendenza da λ, variando i loro contributi a D0 si è riusciti a realizzare un tipo di fibra detto dispersion-shifted (o ds) che presenta il minimo di dispersione in terza finestra, vedi fig. 16.46↓.
[809]https://it.wikipedia.org/wiki/Birifrangenza
[810]https://it.wikipedia.org/wiki/Effetto_Kerr
[811]In particolare, con laser detti distributed feedback (dfb) si riesce ad eccitare un solo modo di emissione, producendo una luce di fatto monocromatica, la cui effettiva λ può anche essere variata in tutta la gamma che va dalla II alla III finestra.
[812]La potenza emessa da un laser non può aumentare a piacimento: oltre un certo valore intervengono infatti fenomeni non lineari, e la luce non è più monocromatica, causando pertanto un aumento della dispersione cromatica.
[813]La presenza di valori di dispersione negativi in fig. 16.46↑ può destare una leggittima curiosità. Ma non si tratta di un fenomeno anticausale! Come indicato dall’unità di misura (ps)/(Kmnm) di D0, la dispersione cromatica rappresenta la derivata di un ritardo rispetto a λ, derivata che dipende essa stessa da λ. Dunque, come i suoi valori positivi indicano che il ritardo aumenta con λ, e quindi le frequenze più basse (con λ maggiore) arrivano dopo di quelle più alte, i valori negativi di D0 individuano il fenomeno inverso, ovvero che il ritardo aumenta con il diminuire di λ, ovvero le frequenze più alte arrivano dopo (di quelle basse).
[814]In questo senso, il