Indice Analitico Su Copertina Note di copertina 

Note a piè di pagina

Sono qui raccolte le più di 1500 note presenti nell'intero testo, e per questo la pagina è eccezionalmente lunga, lenta a caricarsi ed ancor più ad essere visualizzata, a maggior ragione sui telefonini. Se sei capitato/a qui per errore torna pure indietro senza problemi, altrimenti... abbi pazienza. In tutti i modi, all'inizio di ogni nota c'è il link per andare alla pagina che la referenzia.

[1]In realtà il mondo universitario di afflizioni ne ha diverse, come ad esempio il fatto che un lavoro come questo ha valore zero per quanto riguarda la carriera accademica. Si, perché il mestiere del docente, a quanto pare, non é insegnare bene, ma scrivere tanti articoli, da far vendere alle riviste scientifiche, ovviamente a carico delle biblioteche universitarie.
[2]Presso https://teoriadeisegnali.it/libro/ è disponibile il download del testo in PDF, il formato HTML che viene indicizzato dai motori di ricerca, gli esercizi di esame svolti, e... molto altro!
[3]Nella copia a stampa, dopo l’ultimo capitolo viene fornito il link al download del pdf completamente navigabile.
[4]Le donazioni sono raccolte a partire da https://teoriadeisegnali.it/donazione.html, mediante Paypal o carta.
[5]Precedentemente indicata come copia di cortesia, traduzione letterale di courtesy copy, termine usato con lo stesso significato.
[6]La maggior parte dei pdf reperibili in rete non dispone di un indice navigabile, e personalmente trovo questo diffuso costume particolarmente antipatico.
[7]Alcuni lettori di pdf dispongono di uno stack di navigazione che consente di tornare indietro al punto in cui ci si trovava prima di aver cliccato un link interno. Su Linux posso consigliarvi qpdfview, leggero e presente in molte distribuzioni.
[8]La prima edizione pubblica risale al 2001.
[9]Precedentemente erano tre, ora la modulazione ha acquisito lo status di parte a sé, dato che è un argomento che non necessariamente occorre spiegare (ad esempio) a studenti di (bio)informatica.
[10]Mentre per i campioni di segnale nel tempo la topologia associata è definita dalla relazione di vicinanza unidirezionale uno contro l’altro, e per le immagini la topologia corrisponde a quella di una mappa spaziale bidimensionale, per i dati sui grafi la topologia è definita a partire dalla matrice di adiacenza, che si fa beffe di mappe e sequenze.
[11]La distinzione tra significato e significante esprime la differenza che passa, ad esempio, tra l’immagine mentale che ognuno può avere di un cavallo, e la parola “cavallo” (scritta o pronunciata), in cui entrambi partecipano a definire un segno linguistico, vedi https://it.wikipedia.org/wiki/Significante. In tale contesto, i due aspetti del segno rimandano ad un referente, che nel nostro esempio corrisponde ad un cavallo in carne ad ossa, mentre dal punto di vista dei segnali individua una specifica forma d’onda.
[12]Approfondiremo nel seguito (cap. 8) il senso di questi concetti, limitandoci per ora ad associarli ad una generica diversità tra il segnale trasmesso e quello ricevuto.
[13]Un classico esempio di trasduttore è quello dell’antenna, nel caso di trasmissione radio, ovvero di microfono ed altoparlante qualora ci si ponga dal punto di vista dello studio e degli ascoltatori.
[14]Come vedremo al cap, 11, un segnale a valori complessi è il risultato di una particolare rappresentazione, detta inviluppo complesso, utile nell’analisi dei segnali modulati.
[15]Una sequenza prodotta da una sorgente numerica si presta facilmente ad essere trasformata in un’altra, con un diverso alfabeto ed una differente frequenza di simbolo. Per fissare le idee, consideriamo i simboli di una sequenza numerica sn ad L valori (ovvero A = 1, 2, ⋯, L): questi possono essere presi a gruppi di M, producendo nuovi simboli qk a velocità M volte inferiore, ma con LM valori distinti. Se si dispone di un alfabeto di uscita ad H valori (ovvero ℬ = 1, 2, ….H), i gruppi di M simboli L-ari originari possono essere rappresentati con gruppi di N simboli H-ari purché LM ≤ HN. Esempio: per codificare in binario (H = 2) simboli con L = 26 valori, occorrono almeno N = 5 bit/simbolo, ottenendo così 25 = 32 > L = 26. E’ un ragionamento confuso? Si e no. Basta fare degli esempi.
[16] Nelle trasmissioni unidirezionali, sorgente e destinazione non si scambiano i ruoli. La trasmissione stessa viene anche indicata con il termine di half-duplex.
[17]Si parla in questo caso di codifica FEC, ovvero di Forward Error Correction.
[18]Pensiamo per similitudine ad un imballaggio, il cui contenuto è prima disposto in modo da occupare il minimo volume (codifica di sorgente), ed a cui viene poi aggiunto del materiale antiurto (codifica di canale).
[19]Nei collegamenti numerici non occorre specializzare il metodo di trasmissione al mezzo a disposizione, anzi quest’ultimo è totalmente "mascherato" dal fornitore del collegamento numerico stesso, e dal modem che viene utilizzato.
[20]La notazione M = log2L individua l’intero superiore del valore racchiuso tra le semiparentesi . Ad esempio se L = 21 allora log221 = 4, 3923.. e dunque M = 4, 3923 = 5, ovvero occorrono 5 bit/campione.
[21]L’utilizzo di dispositivi di conversione digitale-analogico è molto comune nella realtà odierna, un esempio tra tutti è quello dei CD audio, vedi https://it.wikipedia.org/wiki/CD_Audio
[22]Infatti M = log2L aumenta all’aumentare del numero L di possibili valori per i campioni quantizzati, e ciò corrisponde ad una maggiore fedeltà, ossia ad una minore distorsione. Inoltre, al cap. 4 verrà illustrato come l’aumento di fc corrisponda ad un maggiore intervallo di frequenze che possono essere riprodotte dal DAC, ovvero anche il valore di fc è direttamente legato ad un concetto di fedeltà di riproduzione.
[23]I termini colorato e bianco hanno origine da una similitudine con l’energia luminosa, per cui se la luce bianca indica l’indiscriminata presenza di tutte le lunghezze d’onda, così uno spettro bianco indica la presenza in egual misura di tutte le frequenze; viceversa, come una luce colorata dipende dal prevalere di determinate frequenze nella radiazione elettromagnetica, così uno spettro colorato indica la prevalenza di alcune frequenze su altre.
[24]L’importanza e la specificità di tali trasformazioni assume un rilievo sempre maggiore con l’evoluzione (in termini di miniaturizzazione e potenza di calcolo) dei dispositivi di elaborazione, in special modo per ciò che riguarda le trasmissioni numeriche.
[25]Discuteremo al cap. 9 come l’informazione consista nella sorpresa di conoscere qualcosa che prima era ignoto, e dunque un segnale perfettamente noto non trasporta informazione.
[26]Ad esempio, il calcolo dell’integrale di una funzione viene svolto per via numerica quando è ottenuto senza conoscerne la primitiva, per mezzo di un programma che ne calcola l’approssimazione secondo la definizione di Riemann https://it.wikipedia.org/wiki/Integrale_di_Riemann, vedi
[27]Le componenti pari e dispari di un segnale si ottengono scrivendo s(t) come
s(t) = 12(s(t) + s(t)) + 12(s(t) − s(t)) = 12(s(t) + s(t)) + 12(s(t) − s(t))
da cui si riconosce che sp(t) = 12(s(t) + s(t)) e sd(t) = 12 (s(t) − s(t)).
[28]Si tratta di segnali che non si annullano, ma che neanche divergono, ed in questo caso possono rientrare i fenomeni naturali come il rumore del vento o delle onde del mare, ma anche segnali la cui durata eccede l’intervallo effettivo di osservazione, come un battito cardiaco, o perché no, l’audio di un televisore lasciato acceso giorno e notte!
[29]Vedi ad esempio https://it.wikipedia.org/wiki/Potenza_(fisica), o (sempre su Wikipedia) Potenziale_elettrico, Corrente_elettrica, e Potenza_elettrica
[30]Ad esempio si compie un lavoro quando si solleva un oggetto, aumentando la sua energia potenziale, o gli si imprime una accelerazione, aumentandone l’energia cinetica.
[31]Perché l’integrale (1.2) converga occorre che per t → ∞ il segnale s(t) tenda a zero più velocemente di 1t, e perciò |s(t)|2 vi tende più in rapidamente di 1t. In altre parole, un segnale di energia s(t) è quadraticamente sommabile; infatti sappiamo dall’analisi che una funzione è detta sommabile (o integrabile) nell’intervallo ( −∞, ∞) se il suo integrale è finito, ed una condizione sufficiente perché ciò avvenga è che limt → ∞s(t) sia un infinitesimo di ordine superiore a 1, ovvero che limt → ∞ ts(t) = 0.
[32]Vedi ad es. https://it.wikipedia.org/wiki/Funzione_a_quadrato_sommabile. La L che dà il nome allo spazio sta per Lebesgue, mentre il 2 individua un caso particolare (di Hilbert) di spazio Lp che corrisponde a tutte le funzioni per le quali −∞|s(t)|pdt converge, noto come spazio di Banach, per il quale l’integrale costituisce una misura (norma) per i suoi elementi, il che induce una metrica, e quindi una topologia; per approfondimenti https://en.wikipedia.org/wiki/Lp_space
[33]La parola spettro deriva dal latino specĕre (guardare) e viene utilizzato in molti campi della scienza per indicare la gamma dei costituenti di un qualcosa, vedi https://it.wiktionary.org/wiki/spettro
[34]Per una simulazione animata, visita https://www.geogebra.org/m/Enf5AEbT
[35]Vedi https://it.wikipedia.org/wiki/Scarica_di_un_condensatore
[36]Il coefficiente angolare m è pari alla derivata di v(t) calcolata per t = 0, dunque v(t) = ddt V0e − t ⁄ τ = − V0τe − t ⁄ τ che fornisce appunto v(t)|t = 0 = − V0τ. Inoltre come noto m = tanα dove α è l’angolo tra la retta tangente e l’asse delle ascisse come mostrato in figura, ma a sua volta tanα = sinαcosα = V0τ.
[37]Vedi https://it.wikipedia.org/wiki/E_(costante_matematica)
[38]Una mappa conforme è una trasformazione che preserva gli angoli ma non la forma degli oggetti (in questo caso delle curve nel piano complesso); tale proprietà deriva dall’essere la serie di potenze di ez uniformemente convergente su ogni sottoinsieme limitato del campo complesso, e pertanto differenziabile ovunque con derivata non nulla, rendendo l’esponenziale complesso una funzione analitica, od olomorfa. Per approfondimenti: https://it.wikipedia.org/wiki/Funzione_esponenziale, https://it.wikipedia.org/wiki/Funzione_olomorfa,
https://it.wikipedia.org/wiki/Mappa_conforme,
http://people.unipmn.it/catenacc/mec/compl_geometr_complessa.pdf
[39]Vedi https://it.wikipedia.org/wiki/Continuazione_analitica
[40]Ciò si può dimostrare tenendo conto della formula di Eulero (§ 2.1.2) ejy = cosy + jsiny, che permette di scrivere |w| = |exejy| = excos2y + sin2y = ex.
[41]Anche questo è un comportamento atteso, sempre alla luce della formula di Eulero in base alla quale se z è solamente immaginario ejy = cosy + jsiny.
[42]Tale fattore è pari al logaritmo naturale di a, in accordo alla serie di potenze che recita az = n = 0(zln a)nn!
[43]In base all’osservazione di cui alla nota precedente, si ha ajy = cos(yln a) + jsin(yln a)
[44]Vedi https://it.wikipedia.org/wiki/Identità_di_Eulero,
https://it.wikipedia.org/wiki/Bellezza_matematica
[45]In realtà nulla vieta ad un filtro di modificare la propria risposta impulsiva nel tempo, ma in tal caso in uscita compaiono componenti frequenziali non presenti in ingresso, e viene dunque persa la linearità.
[46]Qualcuno, non a torto, mi ha scritto chiedendo se non intendessi dire pesati. No, ho scritto così immaginando come se la risposta impulsiva fosse una sorta di rete a strascico che pesca i valori di ingresso passati. Effettivamente questo concetto diviene chiaro solo a seguito della costruzione grafica riportata alla sezione citata e che illustra l’operazione di convoluzione, di cui si raccomanda la comprensione.
[47]Un operatore si dice senza memoria quando ogni valore dell’uscita dipende da un unico valore di ingresso.
[48]Una funzione y(x) è lineare quando il suo sviluppo in serie di potenze si arresta al primo ordine, ed è quindi esprimibile in forma y = ax + b, che è l’equazione di una retta.
[49]L’insieme dei numeri reali è indicato con , vi fanno parte i numeri interi, razionali, irrazionali e trascendenti, e può essere messo in corrispondenza biunivoca con gli infiniti punti su di una retta.
[50]L’unità immaginaria trae origine dalla teoria dei numeri come la quantità  − 1, in modo da poter esprimere nel campo complesso tutte le radici di un’equazione polinomiale. Mentre in analisi matematica è indicata dalla lettera i, nel seguito viene indicata con la lettera j in accordo alla notazione di teoria dei circuiti, in modo da evitare confusione con il simbolo utilizzato per la corrente elettrica. Risulta j2 = − 1, j3 = − j, j4 = 1, j5 = j e così via ciclicamente.
[51]
Sommare tra loro le parti reali e quelle immaginarie equivale a realizzare una somma vettoriale tra x e y come mostrato a lato. Per il prodotto si applica invece la regola del prodotto tra binomi, ovvero (a + jb)(c + jd) = ac + jad + jbd + jbjd da cui il risultato, ricordando che j2 = − 1.
figure f2.1sum.png
[52]Mentre l’espressione del modulo è una diretta conseguenza del teorema di Pitagora, quella della fase discende dall’osservare che ba = |x|sinφx|x|cosφx = tanφx, per cui φx = arctanba. Con l’avvertenza che, qualora risulti a < 0, al risultato φx va aggiunto il termine π in quanto la funzione arctanφ è definita per valori dell’argomento  − π2 < φ < π2, vedi https://www.geogebra.org/m/Enf5AEbT. Nei linguaggi di programmazione esiste in genere la funzione atan2(b,a) che effettua automaticamente tale considerazione, vedi https://it.wikipedia.org/wiki/Arcotangente2.
[53]Vedi ad es. https://it.wikipedia.org/wiki/Formula_di_Eulero#Funzioni_analitiche
[54]Più in generale, il valore ex con x = a + jb è ancora un numero complesso, con fase b e modulo ea. Infatti ex = ea + jb = eaejb = ea(cosb + jsinb).
[55]Osserviamo infatti che e jφ ed e −jφ sono tra loro coniugati, e quindi applicando la (10.3) per la loro somma si ha e jφ + e −jφ = 2ℜ{ e jφ} = 2cosφ mentre la differenza produce e jφ − e −jφ = 2j{e jφ} = 2jsinφ.
[56]L’affermazione nasce dalla relazione eαeβ = eα + β. Ad esempio quindi, il prodotto cosα ⋅ sinβ diviene
14j(e jα + e −jα)(e jβ − e −jβ) = 14j[e jαe jβ − e jαe −jβ + e −jαe jβ − e −jαe −jβ] = 
 = 14j[e j(α + β) − e j(α − β) + e −j(α − β) − e −j(α + β)]  = 14j [e j(α + β) − e −j(α + β) − (e j(α − β) − e −j(α − β))] = 
 = 14j[2jsin(α + β) − 2jsin(α − β)] = 12 [sin(α + β) − sin(α − β)]
[57]Un modo alternativo di ottenere lo stesso risultato è quello di esprimere gli esponenziali complessi mediante la (10.3), ottenendo
x(t) = ℜ{|x|(cosφ + jsinφ)[cos(2πf0t) + jsin(2πf0t)]}
e sviluppare il calcolo facendo uso delle relazioni cosαcosβ = 12 [cos(α + β) + cos(α − β)] e sinαsinβ = 12 [cos(α − β) − cos(α + β)], ma avremmo svolto molti più passaggi.
[58]Da un punto di vista etimologico, la serie armonica è definita come n = 11n, mentre gli armonici di
figure Harmonic_partials_on_strings.png
una corda di chitarra sono i suoni prodotti dopo averne bloccato la vibrazione in corrispondenza di 1n − esimo della sua lunghezza. Dal punto di vista della teoria musicale le armoniche di una nota sono altre note a frequenza multipla della prima. In particolare la seconda armonica corrisponde ad un intervallo di ottava, mentre la quarta a due ottave. E la terza armonica? Partendo ad esempio dal la4, e sapendo che ogni semitono della scala temperata corrisponde ad un rapporto di frequenze pari a 2112 rispetto al semitono precedente, determiniamo il numero di semitoni Ns tra il la4 e la sua la terza armonica. Ad un rapporto di frequenze pari a 2Ns12 = 3 corrisponde Ns12 = log23 ≃ 1.5849 e quindi Ns = 19 semitoni, ovvero un intervallo di dodicesima, cioè il mi5 che viene dopo il la5 dell’ottava successiva. Procedendo allo stesso modo si trova che la quinta, sesta e settima armonica corrispondono rispettivamente a do#6, mi6 e sol6: pertanto, con le prime sette armoniche si compone un accordo di settima di dominante.
[59]Per una discussione relativa alla convergenza della serie (10.7) si veda il § 2.5.1.
[60]vedi § 2.2.1.1 e 2.2.1.3
[61]Notiamo infatti che se x(t) è (reale) pari, allora il termine x(t)sin2πnFtdt che compare nel secondo temine della (10.9) è dispari, ed il suo integrale esteso ad un intervallo simmetrico rispetto all’origine è nullo, e pertanto {Xn} = 0. Se invece x(t) è (reale) dispari, allora è x(t)cos2πnFtdt nel primo termine ad essere dispari, e dunque per lo stesso motivo si annulla l’integrale che esprime {Xn} = 0.
[62]Se la figura non appare del tutto chiara, non hai tutti i torti. Prova allora a dare una occhiata a queste animazioni https://www.animations.physics.unsw.edu.au/jw/phasor-addition.html, https://en.wikipedia.org/wiki/File:Fourier_series_sawtooth_wave_circles_animation.gif e https://en.wikipedia.org/wiki/File:Fourier_series_square_wave_circles_animation.gif
[63]Infatti X±n = Mne±jφn e dunque il termine entro parentesi graffe risulta pari a
Mn(e j(2πnFt + φn) + e −j(2πnFt + φn)) = Mn2cos(2πnFt + φn)
[64]In questo caso in virtù dell’uguaglianza j2 = − 1 il termine tra parentesi graffe diviene
Rncos(2πnFt) + jRnsin(2πnFt) + jIncos(2πnFt) − Insin(2πnFt)  +  Rncos(2πnFt) − jRnsin(2πnFt) − jIncos(2πnFt) − Insin(2πnFt)
che si semplifica nel risultato mostrato.
[65]Il termine duty cycle si traduce ciclo di impegno, ed è definito come il rapporto percentuale tra il tempo per cui l’onda quadra è diversa da zero, ossia duty cycle  = τT*100 %.
[66]Oppure a sinistra, qualora n sia negativo e quindi  − nT positivo.
[67]Sappiamo infatti che xef(x) = ef(x)f(x)x, e quindi baef(x)dx = 1f(x)x ⋅ ef(x)|ba
[68]Si può mostrare che le armoniche pari risultano nulle per tutti i segnali periodici alternativi, ovvero per i quali (a parte una eventuale componente continua) un semiperiodo eguaglia l’altro, cambiato di segno.
[69]Vedi https://it.wikipedia.org/wiki/Fenomeno_di_Gibbs
[70]In generale risulta, con la notazione di prodotto scalare a,  b tra vettori-segnali a e b introdotta al § 2.4: x + y,  x + y = x,  x + y,  y + x,  y + y,  x.
[71]Uno spazio vettoriale è la generalizzazione del ben noto spazio euclideo, i cui elementi sono descritti da una n − pla di numeri reali detto vettore x =  x1 x2 xn , e che estende quello mono-, bi- o tri-dimensionale rispettivamente legato a retta, piano e spazio in senso geometrico. Le quantità xi costituiscono dunque le coordinate di un punto, ovvero dove si colloca la testa di un vettore che parte dall’origine, ed individuano quanto di quel vettore è dovuto al contributo di ciascuna delle componenti associate ai versori della base di rappresentazione.
[72]Vedi anche https://it.wikipedia.org/wiki/Distanza_(matematica). Un esempio di distanza particolarmente poco utile, ma che rispetta le condizioni mostrate, è definita come d(x, y) =  0  se x = y 1  se x ≠ y
[73]La definizione analitica di completezza consiste nell’affermare che tutte le successioni di Cauchy (o successioni fondamentali) sono convergenti, in cui una successione è di Cauchy se, comunque fissato un ε > 0, da un certo punto in poi tutti i suoi elementi sono tra loro più vicini di ε, e dunque la loro distanza tende ad annullarsi; se poi la successione converge ad un elemento dello spazio stesso, allora lo spazio è completo. Pertanto una successione convergente è di Cauchy, ma non è detto l’inverso. Vedi anche https://it.wikipedia.org/wiki/Spazio_metrico_completo
[74]K può essere il campo dei numeri reali , o quello dei numeri complessi , vedi anche https://it.wikipedia.org/wiki/Campo_(matematica). Qualora il campo sia complesso, anche le componenti del vettore lo sono; d’altra parte, le relazioni sviluppate per il caso complesso continuano a valere anche nel caso di vettori a componenti reali.
[75]I perfezionisti possono volersi sentir anche dire che deve esistere l’elemento neutro (zero) rispetto alla somma, che quest’ultima deve essere commutativa, associativa, e distributiva rispetto al prodotto, e che ogni elemento x deve avere il suo opposto  − x. Vedi anche https://it.wikipedia.org/wiki/Spazio_vettoriale
[76]L’indipendenza lineare tra vettori comporta che ni = 1λiui = 0 solo se λi = 0 per tutti gli i.
[77]Per una simulazione bidimensionale si veda ad esempio https://www.geogebra.org/m/mXkurnnd
[78]Vedi anche https://it.wikipedia.org/wiki/Norma_(matematica)
[79]Vedi anche https://it.wikipedia.org/wiki/Spazio_di_Banach
[80]Per altri valori di p si ottengono risultati che hanno senso in particolari circostanze: ad esempio per p = 1 si ha x − y1 = ni = 1|xi − yi| detta distanza Manhattan, vedi https://it.wikipedia.org/wiki/Geometria_del_taxi, mentre per p = ∞ si ottiene x − y = maxi{|xi − yi|}, vedi https://it.wikipedia.org/wiki/Distanza_di_Cebicev.
[81]In genere il termine prodotto interno si riferisce al caso in cui lo spazio sia di natura complessa, mentre si dice prodotto scalare qualora sia definito sul campo dei numeri reali. Nel seguito potrà essere usato prodotto scalare anche nel caso complesso.
[82]Infatti risulta x,  ay = ay,  x* = (ay,  x)* = a*y,  x* = a*x,  y
[83]Le proprietà 0 ≤ x < ∞ e λx = λx che definiscono una norma sono facilmente verificate, mentre per dimostrare che x + y ≤ x + y ovvero x + y,  x + y ≤ x,  x + y,  y occorre utilizzare il risultato (10.20). Scriviamo infatti
x + y,  x + y  = x,  x + x,  y + y,  x + y,  y = x,  x + 2ℜ{x,  y} + y,  y =   ≤ x2 + y2 + 2xy = (x + y)2
in quanto {x,  y} ≤ |x,  y| ≤ xy dove la seconda disuguaglianza è appunto la (10.20). Dunque, dato che in base alla (10.19) si ha x + y = x + y,  x + y, si ottiene x + y ≤ x + y.
[84]Ogni spazio di Hilbert è quindi anche di Banach, ma il viceversa è vero solo se la metrica è indotta da un operatore di prodotto interno, che rispetti le proprietà su indicate; vedi ad es. https://it.wikipedia.org/wiki/Spazio_di_Hilbert
[85]Innanzitutto osserviamo che deve risultare x, y ≠ 0, altrimenti la (10.20) è banalmente 0 = 0. Applichiamo quindi la relazione x,  x ≥ 0 ad un vettore x − λy con un qualunque λ ϵ K (sia per K = ℝ che per K = ℂ), scrivendo
0 ≤ x − λy2  = x − λy, x − λy = x, x − x, λy − λy, x + λ2y, y =   = x, x − x, λy − x, λy* + λ2y, y = x, x − 2ℜ{x, λy} + λ2y, y
Ponendo ora λ = x, yy, y e tenendo conto che x, λy = λ*x, y e che y, y è reale, otteniamo
0 ≤ x, x − 2ℜx, y*y, yx, y + x, y2y, y2y, y = x, x − 2x, y2y, y + x, y2y, y = x, x − x, y2y, y
da cui si ottiene la (10.20). Approfondimenti su
https://it.wikipedia.org/wiki/Disuguaglianza_di_Cauchy-Schwarz.
[86]Infatti in tal caso la (10.20) diviene
|x,  y| = |αy,  y| = |αy, y| = |αy, yy, y| = α2y, yy, y = xy
dato che α2y, y = αα*y, y = αy, αy = x, x.
[87]Come fatto notare si ottiene cosθ = 1 quando x e y sono paralleli per cui la (10.20) è un’uguaglianza. Dal canto suo x,  y è un numero (complesso o reale a seconda se K = ℂ o ), e dunque l’operazione di modulo |x,  y| limita il risultato a  − π2 ≤ θ ≤ π2. Quindi θ è un angolo un po’ per modo di dire; ciononostante, il concetto di parallelismo e ortogonalità che ne deriva è molto utile.
[88]E sufficiente eseguire il prodotto scalare di ambo i membri di x = ni = 1xiui per ciascuno dei vettori uj per ottenere x,  uj = ni = 1xiui,  uj = ni = 1xiui,  uj = xjuj,  uj = xjuj2 dato che ui,  uj = 0 per i ≠ j e che uj,  uj = uj2.
[89]Scriviamo infatti x,  y = ni = 1xiui,  nj = 1yjuj = ni = 1nj = 1xiui,  yjuj ma, essendo ui e uj ortogonali la doppia sommatoria si riduce ad una sola, ovvero x,  y = ni = 1xiui,  yiui = ni = 1xiy * iui2.
[90]Da una qualsiasi base ortogonale se ne può ottenere una diversa ma con elementi di norma unitaria, vedi https://it.wikipedia.org/wiki/Base_ortonormale
[91]A chi si sta chiedendo dove siano finiti gli indici negativi, rispondo che gli indici sono stati riorganizzati alterandone la numerazione, tanto rimangono comunque di una infinità numerabile.
[92]La L usata per definire tali insiemi sta per Lebesgue, legata cioè al modo di calcolare l’integrale che prende nome da tale matematico, e che assegna uguale valore all’integrale di due funzioni che differiscono in un insieme di punti a misura nulla, dette funzioni uguali quasi ovunque, vedi https://it.wikipedia.org/wiki/Integrale_di_Lebesgue e https://it.wikipedia.org/wiki/Spazio_Lp
[93]Ad esempio, la componente continua X0 = 1T T2 − T2x(t)e −j0dt = 1T T2 − T2x(t)dt rappresenta il prodotto scalare tra x(t) ed un segnale costante pari ad uno.
[94]Vedi anche https://it.wikipedia.org/wiki/Analisi_funzionale
[95]Vedi ad esempio https://en.wikipedia.org/wiki/Integral_transform
[96]Vedi ad es. https://en.wikipedia.org/wiki/Unitary_operator
[97]Vedi ad es. https://it.wikipedia.org/wiki/Spazio_duale
[98]Infatti vi(θ) = Tφt, θ[ui(t)] = ui(t), φ(t, θ). Ma è anche vero che ui(t), φ(t, θ) = φ(t, θ), ui(t)* = (Tui[φ(t)])* e dunque i segnali vi(θ) sono anche coniugati alla proiezione di φ(t) lungo il vettore della base ui(t).
[99]E dunque poter esprimere ogni suo vettore come y(θ) = ni = 1yii(θ) in cui yi = y(θ), i(θ) è la proiezione di y(θ) lungo i(θ).
[100]La relazione che lega zj(t) alle altre grandezze dovrebbe risultare zj(t) = ni = 1j(θ), vi(θ)ui(t), ma il testo Signal Theory di L.E. Franks che ho utilizzato per questa parte forse ha saltato qualche passaggio, o non ho avuto la pazienza di ricostruirli.
[101]Vedi https://it.wikipedia.org/wiki/Punto_di_discontinuità.
[102]Occorre però rimuovere il termine 1T dell’eq. (10.6), altrimenti i coefficienti andrebbero a zero, essendo il segnale a durata limitata.
[103]Anche se un segnale di energia non è necessariamente impulsivo, ci viene in soccorso il https://it.wikipedia.org/wiki/Teorema_di_Plancherel.
[104]Da un punto di vista mnemonico, cerchiamo di ricordare che l’esponenziale sotto il segno di integrale prende il segno meno nel passaggio t → f, ed il segno più passando da f a t.
[105]Indicando 1T con F in modo da uniformare la notazione a quella del § 2.2 otteniamo infatti
GnT =  −∞g(t)e −j2πnFtdt = T2 − T2g(t)e −j2πnFtdt = T1T T2 − T2x(t)e −j2πnFtdt = TXn
[106]Nei testi anglofoni la (10.35) è indicata come cross-energy, a volte tradotta letteralmente come energia incrociata, ma qui invece più propriamente intesa come in comune, ovvero mutua.
[107]In realtà l’estensione del teorema di Parseval alla trasformata di Fourier è dovuta a Plancherel, vedi https://en.wikipedia.org/wiki/Plancherel_theorem
[108]Ovvero che mette in corrispondenza coppie di vettori-segnale x(t) e X(f) appartenenti allo spazio vettoriale dei segnali di energia definito rispettivamente sul dominio del tempo e della frequenza. Dato che gli esponenziali complessi {e j2πft} costituiscono una base ortonormale per i segnali di energia (§ 3.8.5), osserviamo come la (10.31) valuti il prodotto interno tra il vettore x(t) e un vettore della base, mentre la (10.32) rappresenta l’equivalente continuo della formula di ricostruzione (10.7).
[109]Infatti X*(f) = [ x(t)e −j2πftdt]* = x*(t)e j2πftdt = X(f) dato che x(t) è reale.
[110]Iniziamo dall’espressione dell’antitrasformata x(t) = −∞X(f)e j2πftdf in cui scambiamo tra loro le variabili f e t ottenendo x(f) = −∞X(t)e j2πftdt; operando quindi un cambio di variabile f →  − f si ha x(f) = −∞X(t)e −j2πftdt che coincide con il risultato mostrato alla prima riga nel testo.
[111] La dimostrazione si basa sul semplice cambio di variabile θ = t − T:
Z(f) =  x(t − T) e −j2πftdt =  x(θ) e −j2πf(T + θ)dθ = e −j2πfT x(θ) e −j2πfθdθ = X(f)e −j2πfT
[112]Tali condizioni corrispondono a quelle descritte a pag. 1 come quelle di un canale perfetto.
[113]Nel seguito (§ 15.1.2.2) illustreremo come il risultato discusso determini la sensibilità delle trasmissioni numeriche alle distorsioni di fase.
[114]Infatti F {x*(t)} = −∞x*(t)e −j2πftdt = [ −∞x(t)e j2πftdt]* = X*(f)
[115]Ebbene si, c’è stato un tempo in cui i suoni venivano registrati su nastri, come bobine e cassette, vedi https://it.wikipedia.org/wiki/Audiocassetta
[116]Risulta x(at) e −j2πftdt = 1a x(at) e −j2πfaatd(at) = 1a x(β) e −j2πfaβdβ = 1aXfa
[117]Detta anche funzione generalizzata, vedi https://it.wikipedia.org/wiki/Delta_di_Dirac e http://it.wikipedia.org/wiki/Distribuzione_(matematica)
[118]Infatti X(f) = F {n = −∞Xn e j2πnFt} = n = −∞Xn F {1 ⋅ e j2πnFt} = n = −∞Xnδ(f − nF)
[119]La (10.43) si dimostra esprimendo δ(t) come limT → 01TrectT(t) in modo da scrivere il primo membro come x(t)limT → 01TrectT(t − τ). Al tendere di T a zero il rettangolo di ampiezza 1T converge ad un impulso, la cui area resta moltiplicata per il valore che x(t) assume per t = τ, dove è centrato il rettangolo.
[120]Senza voler entrare nei dettagli analitici, diciamo che la (10.44) rappresenta l’equivalente della formula di ricostruzione (10.16) per uno spazio a cardinalità infinita, in cui δ(τ − t) al variare di τ costituisce una base di rappresentazione ortonormale, ed i cui coefficienti x(τ) sono calcolati come prodotto scalare x(τ) = −∞x(t)δ(t − τ)dt.
[121]Adottando il cambio di variabile t − τ = θ, si ottiene
−∞x(τ)h(t − τ)dτ = −  −∞x(t − θ)h(θ)dθ =   = −∞x(t − θ)h(θ)dθ
Infatti il cambio di variabile determina quello degli estremi di integrazione, che vengono poi scambiati ripristinando il segno, vedi ad es. https://it.wikipedia.org/wiki/Convoluzione
[122]Per convincerci dell’operazione, verifichiamo che per τ < t l’argomento t − τ di h è positivo, e infatti il valore di h(t − τ) è  ≠ 0.
[123]Osserviamo che un integrale calcola un numero, e la convoluzione produce un segnale solo perché l’integrale è calcolato per tutte le possibili traslazioni di h(t − τ), vedi anche § 2.4.4.3. Alcune animazioni che illustrano l’operazione di convoluzione in questi termini sono reperibili ad es. presso https://it.wikipedia.org/wiki/Convoluzione e
https://mathworld.wolfram.com/Convolution.html
, mentre presso
https://teoriadeisegnali.it/story/pub/stud/script/test/conv_corr_fa.m è disponibile un programma interattivo Octave per visualizzare questa ed altre animazioni collegate.
[124] Z(f)  =  F {x(t) * y(t)} = −∞[ −∞x(τ) y(t − τ) dτ] e −j2πftdt =   =  −∞x(τ) [ −∞y(t − τ) e −j2πftdt] dτ = −∞x(τ) Y(f) e −j2πfτ dτ =   =  Y(f) −∞x(τ) e −j2πfτ dτ = Y(f)X(f)
[125] Svolgiamo i calcoli nel dominio della frequenza, partendo dal risultato di pag. 1:
X(f) = A2 (e jθδ(f − f0) + e −jθδ(f + f0));
Y(f) = X(f)H(f) = A2 M(f0)(e jθe jφ(f0)δ(f − f0) + e −jθe −jφ(f0)δ(f + f0))
e antitrasformando si ottiene
y(t) = AM(f0)cos(2πf0t + θ + φ(f0))
[126]Nel caso dell’esempio il rettangolo è costante e dunque l’ampiezza del coseno non varia, ma il termine modulazione si riferisce al prodotto di una sinusoide per un segnale dall’andamento qualsiasi.
[127]La dimostrazione viene svolta per segnali di energia, applicando in modo diretto la regola di integrazione per parti [f(t)g(t)]dt = f(t)g(t) − [f(t)g(t)]dt:
F dx(t)dt = −∞dx(t)dte −j2πftdt =  x(t)e −j2πft|−∞ + j2πf −∞x(t)e −j2πftdt = j2πf X(f)
in quanto il termine x(t)e −j2πft|−∞ si annulla, dato che se x(t) è un segnale di energia, tende a zero per t → ∞.
[128]
figure f3.16c.png
Se infatti valutiamo t−∞δθ + τ2 − δθ − τ2dθ con t > τ2, otteniamo due gradini ut + τ2 − ut − τ2, che combinati assieme, riproducono il rectτ di partenza.
[129]Essendo x(t) = ddt y(t), ed applicando la (10.54) otteniamo X(f) = j2πfY(f), da cui la (10.55).
[130]Si può giungere ad un risultato anche nel caso in cui X(0) ≠ 0, ricorrendo all’impulso δ(t). Occorre scrivere l’integrale di x(t) nella forma di una convoluzione con un gradino unitario u(t), cioè y(t) = t−∞x(θ)dθ = −∞x(θ)u(t − θ)dθ (si pensi alla costruzione grafica del § 3.4.3). Al § 3.8.6 si ricava che la trasformata del gradino vale U(f) = 1j2πf + 12δ(f), ed applicando la proprietà della trasformata della convoluzione si ottiene Y(f) = X(f)U(f) = X(f)j2πf + δ(f)2X(0) che è la formula più generale per l’integrazione, ed in cui l’ultimo termine scompare per segnali ad area nulla, riottenendo la (10.55).
[131]Sembra strano che πT(t) si ottenga come somma di infiniti coseni a frequenza armonica e tutti della stessa ampiezza 2T? Per verificare il risultato, visitare
https://dspillustrations.com/pages/posts/misc/the-dirac-comb-and-its-fourier-transform.html
[132]Per un approfondimento si veda ad es.
http://it.wikipedia.org/wiki/Formula_di_sommazione_di_Poisson.
[133]Vedi https://www.geogebra.org/m/sgBZefns per una animazione
[134]La derivata di una discontinuità di prima specie è pari ad un impulso di Dirac, di area uguale all’altezza della discontinuità. Infatti l’integrale dell’impulso t−∞δ(θ)dθ è proprio un gradino. Questa considerazione consente di risolvere in modo semplice le trasformate di segnali in cui è presente una discontinuità.
[135]Queste durate corrispondono quindi ad utilizzare 20 cicli di cosinusoide, oppure 5, oppure due e mezzo.
[136]Nel tempo sono state definite un elevato numero di finestre temporali, ognuna migliore sotto certi aspetti, e peggiore sotto altri. Consultando Wikipedia http://en.wikipedia.org/wiki/Window_function, possiamo elencare le finestre di Hamming, Hann, Cosine, Lanczos, Bartlett, Gauss, Blackman, Kaiser, Nuttall, Bessel, Dolph-Chebyshev, Exponential, Tukey....
[137]Nota anche come funzione di Heaviside, vedi
https://it.wikipedia.org/wiki/Funzione_gradino_di_Heaviside
[138]Ciò è vero purché si consideri il metodo di calcolo dell’integrale noto come valore principale di Cauchy , in quanto cos2πftj2πf tende a 10 per f → 0, con valori opposti per 0+ e 0, vedi
https://it.wikipedia.org/wiki/Valore_principale_di_Cauchy.
[139]Vedi ad es. http://bueler.github.io/M611F05/M611heaviside.pdf
[140]Al termine campione è associato il valore di un segnale ad un determinato istante, e può essere considerato come sinonimo di esemplare, o esempio, ovvero sample in inglese; da non confondere con champion, o primatista!
[141]Digits in inglese, che a sua volta deriva dal latino digitus, da cui il termine digitale come sinonimo di numerico. In effetti il dito era una unità di misura utilizzata prima che nell’impero Romano, in Grecia, Egitto e Mesopotamia.
[142]Questo teorema è stato derivato indipendentemente e in tempi diversi da Borel, Whittaker, Kotelnikov e Shannon. Il contributo di Nyquist è in realtà relativo al problema di determinare la massima velocità di segnalazione fs su di un canale limitato in banda, vedi § 15.2.2.2.
[143]Al § 4.2.2 troveremo che in realtà la formula (10.66) non è l’unica possibile.
[144]L’interpolazione individua un insieme di metodi per ottenere un segnale che passi per N punti (istante, valore) prefissati, vedi https://it.wikipedia.org/wiki/Interpolazione.
Qualora i punti siano prelevati a frequenza fc ≥ fcmin da un segnale limitato in banda, la (10.66) fornisce i suoi valori esatti anche per istanti t ≠ nTc, vedi
https://it.wikipedia.org/wiki/Formula_di_interpolazione_di_Whittaker-Shannon.
[145]Il risultato ottenuto replica in frequenza quello della trasformata di segnali periodici nel tempo: ad un segnale periodico in frequenza con periodo fc corrisponde una antitrasformata di Fourier costituita da impulsi nel tempo distanziati dall’inverso Tc = 1fc del periodo fc.
[146]In realtà alias è di origine latina !!!
[147]In un segnale audio, ad esempio, ci si accorge che c’è aliasing quando è udibile una distorsione (rumore) congiuntamente ai passaggi con maggior contenuto di alte frequenze, vedi ad es.
https://dspillustrations.com/pages/posts/misc/aliasing-and-anti-aliasing-filter.html
[148]Applicando il teorema di Parseval (§ 3.2) e la proprietà di traslazione temporale, la (10.69) diviene
−∞Tc rectfc(f)e −j2πfkTcTc rectfc(f)e + j2πfhTcdf = (Tc)2 fc2 − fc2e −j2πfk − hfcdf
in cui l’esponenziale complesso sotto integrale compie un numero intero di oscillazioni a media nulla per f ∈ [ − fc2, fc2] se k ≠ h, e dunque in tal caso l’integrale è nullo; al contrario, l’esponenziale vale 1 se k = h, ed il suo integrale definito vale fc, determinando il risultato mostrato, in cui δ(h, k) è il simbolo di Kronecker, che vale uno quando h = k e zero altrimenti.
[149]Non entriamo nei dettagli del funzionamento del buffer (vedi ad es. https://it.wikipedia.org/wiki/Amplificatore_separatore) qui esemplificato dall’amplificatore operazionale a controreazione unitaria: è sufficiente dire che agisce come un adattatore di impedenza, consentendo al condensatore di caricarsi in modo pressoché istantaneo, e di non scaricarsi prima che s2 sia chiuso, in quanto il secondo amplificatore presenta una impedenza di ingresso pressoché infinita.
[150]Anche la fig. 4.10-b) conferma l’eq. (10.70)
[151]Vedi ad es. https://www.maximintegrated.com/en/app-notes/index.mvp/id/3853
[152]Scegliere τ = Tc può semplificare la progettazione del s&h, riducendone i costi.
[153]Per approfondimenti sulla conversione a/d e d/a vedi ad es.
http://sms.unipv.it/misure/ME/Conversione_A-D_Slides.pdf
[154]Per effetto della massa virtuale dell’amplificatore operazionale, in ciascuno dei resistori per cui bM − i = 1 scorre una corrente Ii = Vr2iR, la cui somma IT scorre anche nella R di controreazione, per cui
Vu = − R ⋅  IT = − R Mi = 1bM − iVr2iR = − Vr Mi bM − i2 − i
e moltiplicando e dividendo per 2M si ha Vr = − Vr2M Mi = 1bM − i2M − i, ossia compresa tra 0 e  − Vr2M − 12M.
A parte il segno meno, ad esempio con M = 3 bit e Vr = 10 si ha un quanto di 108 = 1.25, e valori 0.0, 1.25, 2.5, ..., 8.75, vedi anche
http://www.elemania.altervista.org/adda/architetture/arc1.html
[155]In realtà per valori particolarmente bassi di M il segnale di errore εq tende a divenire fortemente correlato (§ 7.1.4) a quello del segnale originale, vedi ad es.
https://dspillustrations.com/pages/posts/misc/how-does-quantization-noise-sound.html
[156]Se invece gli intervalli hanno ampiezze differenti il quantizzatore è detto non uniforme, vedi il § 4.3.2.
[157]Il caso di L pari, diretta conseguenza dell’essere L = 2M una potenza di due, è detto mid-rise in quanto il grafico x = Q(x) sale per x = 0, mentre ad L dispari (caso mid-tread) corrisponde una regola di quantizzazione basata sull’arrotondamento di x,  ed esiste un valore quantizzato che esprime un valore nullo. Per approfondimenti, vedi ad es. https://www.tutorialspoint.com/digital_communication/digital_communication_quantization.htm
[158]La notazione xΔq individua un troncamento, ovvero il numero intero subito inferiore ad xΔq. Ad esempio, se  − 4 < x < 4, allora avremo xq = − 3.5,  − 2.5,  − 1.5,  − 0.5, 0.5, 1.5, 2.5, 3.5.
[159]Nel seguito della sezione sono usati i concetti definiti al capitolo 6, a cui si rimanda per le definizioni mancanti.
[160]Questa ipotesi, come anche quella delle v.a. uniformi, sono manifestamente non vere in generale, ma permettono di giungere ad un risultato abbastanza semplice, e che può essere molto utile nei progetti di dimensionamento.
[161]Assumendo che il processo sia ergodico, la potenza (media temporale) eguaglia (eq. (10.125)) la corrispondente media di insieme, ovvero il momento di secondo ordine m(2)x, che a sua volta è pari alla varianza σ2x , essendo mx = 0. Vedi § 6.2.3 per il calcolo di σ2x = Δ2x12.
[162]Una discussione relativa alla misura delle grandezze in decibel, è fornita al § 8.1. Qui ci limitiamo ad usare i dB come misura relativa di un rapporto, ossia
SNRq(dB) = 10log10 PxPϵ = 10log10 Px − 10log10 Pϵ = Px[dBV2] −  Pϵ[dBV2]
in cui le grandezze espresse in dBV2 rappresentano potenze di segnale di tensione, in unità logaritmiche.
[163]In alcuni testi alla (10.72) viene aggiunto un termine costante di 1.76 dB, derivante dall’adozione di un segnale sinusoidale con dinamica Δ, anziché un processo uniforme. Ma non ho mai afferrato il senso di un SNR positivo con M = 0 bit/campione.
[164]Vedi ad es. http://en.wikipedia.org/wiki/Quantization_(signal_processing)
[165] Il metodo è iterativo, ed inizia suddividendo l’intervallo Δx in modo uniforme. Per ogni iterazione: Le iterazioni si arrestano quando non si riscontrano cambiamenti apprezzabili.
[166]La sigla pcm sta per Pulse Code Modulation, e trae origine dalla tecnica di quantizzazione di un segnale vocale di qualità telefonica (§ 11.1.2), anche se è stato poi adottato per indicare l’intera gerarchia di multiplazione plesiocrona (§ 24.3.1). Etimologicamente il termine deriva dall’onda pam (§ 7.7.4) in cui degli imPulsi sono Modulati in Ampiezza, mentre in questo caso le ampiezze degli impulsi sono Codificate.
[167]L’andamento esatto della curva segue uno di due standard, denominati legge μ (per USA e Giappone) e legge A (per gli altri), lievemente diverse nella definizione, ma sostanzialmente equivalenti.
[168]Per motivi grafici, nella parte sinistra della figura sono mostrate solo 5 regioni, divise in 4 intervalli.
[169] A prima vista può sembrare ardito accettare che i coefficienti di Fourier (10.74) siano pari ai campioni di segnale xn, ma se proviamo a calcolare
                    X(f) = F {x(t)} = −∞(n = −∞xnδ(t − nTc))e −j2πftdt = 
                                = n = −∞xn −∞e −j2πftδ(t − nTc)dt = n = −∞xne −j2πfnTc
otteniamo esattamente la (10.73).
[170]Condizione sufficiente per la convergenza della serie (10.73) è che risulti n = −∞|xn| < ∞, in quanto
|X(f)| = |n = −∞xn e −j2πfnTc| ≤ n = −∞|xn|
[171]Infatti se applichiamo la (10.73) per calcolare X(f + fc) si ottiene
n = −∞xn e −j2π(f + fc)nTc = n = −∞xn e −j2πfnTce −j2πfcnTc = X(f)
dato che, essendo fc = 1Tc, risulta e −j2πfcnTc = e −j2πn = 1 per qualsiasi n.
[172]Proprio come ai coefficienti della serie di Fourier per segnali periodici, intervallati di F Hz, corrisponde un segnale periodico nel tempo, di periodo T = 1F.
[173]I chip progettati appositamente per svolgere calcoli di elaborazione numerica del segnale sono detti dsp (Digital Signal Processor), che tipicamente eseguono somme di prodotti; Nel caso di dati multidimensionali, sono invce adottate le GPU nate per scopi di accelerazione grafica, vedi ad es. https://en.wikipedia.org/wiki/Multidimensional_DSP_with_GPU_Acceleration
[174]La (10.75) può essere fatta discendere dalla (10.73) vincolando f ad assumere i soli valori discreti f = mN 1Tc, e limitando l’indice della sommatoria ad un insieme finito di campioni, vedi fig. 4.24.
[175] Una prima fonte di approssimazione deriva dall’operazione di finestratura legata all’uso di un numero finito di campioni, operando quindi su xw(t) = x(t)w(tc) anziché su x(t). Per analizzare le altre fonti di approssimazione, iniziamo a scrivere l’espressione di Xw(f) = F {xw(t)} per f = mN fc:
Xwf = mN fc = (N − 1)Tc0x(t)e −j2πmN fctdtN− 1n = 0xn(N − 1)Tc0  sinc(fc(t − nTc))e −j2πnN fctdt
in cui la seconda eguaglianza utilizza l’interpolazione cardinale x(t) = n = −∞xn ⋅ sinc(fc(t − nTc)) fornita dalla (10.66), ed introduce una seconda fonte di approssimazione legata all’intervallo finito di variazione per n: infatti, benché l’integrale abbia estensione limitata, i valori di x(t) che cadono entro tale estensione, dovrebbero dipendere da tutti i suoi campioni. L’ultimo integrale è a sua volta una approssimazione (a causa degli estremi di integrazione limitati, e peggiore per i sinc centrati in prossimità dei confini della finestra) della trasformata (calcolata in f = mN fc) di sinc(fc(t − nTc)), pari quest’ultima a Tc rectfc(f)e −j2πfnTc, che quando valutata per f = mN fc, fornisce il risultato  Xwf = mN fcTcN− 1n = 0xne −j2πmNn  per valori |m| ≤ N2, a causa della estensione limitata (in frequenza) di rectfc(f). E’ però facile verificare che XwmN fc è periodica in m con periodo N, cosicché i valori assunti per m = N2 + 1, N2 + 2, … sono uguali a quelli per m = − N2 + 1,  − N2 + 2, .
[176]Come osservato al § 4.1.1, lo spettro X(f) di un segnale campionato a frequenza fc è costituito dalle repliche del segnale originario, distanziate di multipli di fc: X(f) = n = −∞X(f − nfc), e coincide con X(f) per  − fc ⁄ 2 < f < fc ⁄ 2, se X(f) è limitata in banda tra ± W ed fc ≥ 2W. Al contrario, se fc < 2W, allora le repliche X(f − nfc) si sovrappongono, e la (10.76) si riscrive come XmfcXf = mN fc.
[177]Il metodo esposto di porre a zero i campioni fino al raggiungimento di una potenza di due è detto zero padding. Il calcolo della DFT su di un numero di punti pari ai campioni di segnale disponibili non avrebbe dato luogo all’effetto finestra, ma avrebbe fornito in tutti i casi andamenti simili a quello osservabile per 256 punti. Infine, notiamo che nelle figure sono mostrati solo i primi 128 valori, essendo i rimanenti speculari.
[178]Con la ovvia condizione che sia M > 2 per rispettare il vincolo fc > 2T
[179]Sostituendo infatti la (10.75) nella (10.78), otteniamo
xn = 1N N− 1m = 0(N− 1k = 0xke −j2πmNk)e j2πmNn = 1N N− 1k = 0xkN− 1m = 0 e j2πmN(n − k)
ma, dato che N− 1m = 0 e j2πmN(n − k) =  N se k = n 0  altrimenti , nella sommatoria esterna sopravvive solo il termine xn, dimostrando l’uguaglianza.
[180]La relazione (10.79) si dimostra combinando le relazioni (10.34) e (10.76):
XnfcXnN fc = fcXnNTc = fcXnT = fcX(nF) = fcTXSFn = 1TcTXSFn = NXSFn
[181]Il risultato si ottiene ricordando che n = 0αn = 11 − α qualora |α| < 1.
[182]Infatti e −j2πm + NNn = e −j2πmNne −j2πn, ed il secondo termine vale 1 per qualsiasi n. Indichiamo qui ed al prossimo §, una sequenza periodica mediante la tilde .
[183]Infatti, sostituendo la (10.83) in (10.84), otteniamo n = 1N N− 1k = 0h = −∞xhe −j2πkNhe j2πkNn. Scambiando ora l’ordine delle sommatorie risulta
n = h = −∞xh1N N− 1k = 0 e −j2πkN(h − n)
Dato che 1N N− 1k = 0 e −j2πkN(h − n) =  1  se h = n + rN 0  altrimenti , con r intero, si ottiene il risultato (10.85).
[184]Vedi ad es. http://it.wikipedia.org/wiki/Trasformata_di_Fourier_veloce
[185]Scriviamo la (10.75) come
Xm  =  N − 12n’ = − N + 12xn’ − 12 e −j2πn2Nm = N − 12n’ = − N + 12xn’ − 12cos2πn2Nm − jN − 12m’ = − N + 12xn’ − 12sin2πn2Nm =   =  2N − 12n’ = 12xn’ − 12cos2πn2Nm = 2N− 1n = 0xncos2πn + 122Nm = 2N− 1n = 0xncosπNn + 12m
in cui xn è quella disegnata per seconda in fig. 4.31. La quarta eguaglianza tiene conto del fatto che il termine immaginario si annulla, in quanto sommatoria bilatera di una funzione dispari (ottenuta come prodotto di xn’ − 12 pari e sin2πn2Nm dispari), e del fatto che essendo i termini coseno pari, la sommatoria può essere ristretta ai soli indici positivi, raddoppiati. La penultima eguaglianza rappresenta il semplice cambio di variabile n = n’ − 12, mentre l’ultima è (a parte il fattore 2) la definizione della DCT data in (10.86).
[186]Immagine presa da https://wirelesspi.com/discrete-fourier-transform-dft-as-a-filter-bank/
[187]Infatti, esprimendo l’integrale di convoluzione x(t) * h(t) nei termini dei campioni di x(t) e h(t) (eq. 10.66), e sfruttando la proprietà di ortogonalità dei segnali sinc(fc(t − kTc)) (vedi § 4.1.2), per i campioni dell’uscita possiamo scrivere
y(nTc)  =   −∞x(τ)h(nTc − τ)dτ =   =   −∞[k = −∞x(kTc) ⋅ sinc(fc(τ − kTc))][j = −∞h(jTc) ⋅ sinc(fc(nTc − τ − jTc))]dτ =   =  k = −∞j = −∞x(kTc)h(jTc) −∞ sinc(fc(τ − kTc)) sinc(fc(τ − (n − j)Tc))dτ =   =  1fc k = −∞x(kTc)h((n − k)Tc) = 1fc k = −∞xkhn − k
in cui alla seconda uguaglianza si è applicata la formula di ricostruzione cardinale x(t) = k = −∞x(kTc) ⋅ sinc(fc(t − kTc)) e dunque h(t − τ) = j = −∞h(jTc) ⋅ sinc(fc(t − τ − jTc)), quest’ultima valutata per t = nTc; alla terza uguaglianza si è considerato che sinc(x) è una funzione pari, permettendo di scrivere sinc(fc((n − j)Tc − τ)) =  sinc(fc(τ − (n − j)Tc)), ed alla quarta si è applicata la proprietà di ortogonalità tra sinc(fct) traslati di multipli di Tc = 1fc (vedi § 4.1.2), per cui l’integrale vale Tc = 1fc solo quando k = n − j, ovvero j = n − k.
[188]Infatti, ad xn ed hn corrispondono le DFT periodiche m ed m, che hanno per antitrasformata n ed n. Il prodotto mm, espresso in termini di n ed n, risulta pari a m = mm = N− 1p = 0N− 1q = 0pqe −j2πmN(p + q), ed applicando a questo la IDFT (10.78) , otteniamo:
n = 1N N− 1m = 0me j2πmNn = 1N N− 1p = 0N− 1q = 0pq(N− 1m = 0 e j2πmN(n − p − q))
Dato che N− 1m = 0 e j2πmN(n − p − q) =  N se q = (n − p) + lN 0  altrimenti , con l intero, risulta allora n = N− 1p = 0pn − p, come espresso dalla (10.89).
[189]La normalizzazione per Tc discende dalla (10.88)
[190] In effetti, questo è ciò che succede nel caso di modulazione in banda laterale unica o blu, vedi § 12.1.2
[191]Vedi ad es. https://en.wikipedia.org/wiki/Software-defined_radio
[192]Compreso quindi un segnale analogico che trasporta informazione numerica, § 15.1.2.
[193]Vedi ad es. https://it.wikipedia.org/wiki/Giratore
[194]Vedi ad es. https://en.wikipedia.org/wiki/Filter_(signal_processing)#Technologies
[195]Ad esempio, applicando la trasformata di Laplace alle equazioni differenziali che descrivono la relazione ingresso-uscita di un circuito rlc.
[196]Difatti se s = jπ2f la definizione di trasformata di Laplace H(s) = −∞h(t)e − stdt diviene identica a quella di Fourier, ed equivale a calcolare la H(s) lungo l’asse immaginario. Questa equivalenza è valida solo se il filtro è stabile, che nel dominio di Laplace significa richiedere che tutti i poli di H(s) siano a sinistra di tale asse.
[197]Per approfondimenti, si può consultare http://ens.di.unimi.it/dispensa/cap3.pdf e
https://en.wikipedia.org/wiki/Network_synthesis_filters.
[198]Vedi ad es. https://en.wikipedia.org/wiki/Prototype_filter
[199]La descrizione della maschera in figura avviene nei termini della specifica di
[200]Vedi ad es. https://en.wikipedia.org/wiki/Bessel_filter
[201]Un polinomio P(s) = Nj = 0bjsj si azzera per gli N valori s = βj, noti come gli zeri di P(s). Lo stesso polinomio può quindi essere scritto come P(s) = Nj = 1(s − βj), oppure raggruppando gli zeri a coppie (eventualmente coniugate) si ottiene uno sviluppo in termini di secondo grado P(s) = N2j = 1(s2 + cjs + dj) a cui, se N è dispari, va aggiunto un fattore di primo grado.
[202]Tradizionalmente di tipo rlc, oppure realizzata mediante amplificatori differenziali.
[203]Mnemonicamente possiamo ricordare il passa-basso come quello “con il condensatore in basso”; d’altra parte un filtro rc passa-alto presenta la posizione di r e c scambiate, ovvero con c in alto.
[204]Sappiamo che le tensioni ai capi di R e C valgono vR(t)) = Ri(t) e vC(t) = vu(t) = 1C t−∞i(τ)dτ che, trasformate con Fourier forniscono VR(f) = RI(f) e Vu(f) = 1C 1j2πfI(f). Per la legge di Kirkoff alle maglie si ha Vi(f) = VR(f) + Vu(f) = RI(f) + 1j2πfC I(f); la risposta in frequenza sarà pertanto H(f) = Vu(f)Vi(f) = 1j2πfC I(f)RI(f) + 1j2πfC I(f) = 11 + j2πfRC.
[205]Infatti F 1τe − tτ = 01τe − tτe −j2πftdt = 1τ 0e − tτ − j2πftdt = 1τ e − tτ − j2πft − 1τ − j2πf|t = ∞t = 0 = 1τ 11τ + j2πf = 11 + j2πfτ
[206]Ricordiamo che il modulo è il rapporto dei moduli, e quello del denominatore è 2 + ℑ2 in cui dalla (10.93) ℜ = 1 e ℑ = 2πfRC.
[207]Vedi § 8.1
[208]Ad esempio l’acustica di un ambiente (del bagno di casa, come di un teatro) è il risultato dei contributi legati alle diverse riflessioni dei suoni su pareti ed altri elementi, ognuna più o meno attenuata, e con un diverso ritardo di propagazione tra sorgente e ascoltatore. Un fenomeno simile avviene anche alle onde radio di WiFi e telefonia mobile, vedi § 20.3.3.
[209]Il tema delle realizzazioni numeriche dei filtri digitali è approcciata al § 5.3, e citiamo come fonte di approfondimento http://www.dspguide.com/ch14/6.htm).
[210]Uso questo termine per tradurre il termine taps (rubinetti) utilizzato nei testi inglesi per indicare i coefficienti cn: come se i sommatori in basso in fig. 5.7 raccogliessero l’acqua (o la birra!) spillata dai rubinetti cn, e proveniente dai serbatoi di ritardo T. La cosa buffa è che può accadere di trovare in letteratura riferimenti ai rubinetti o taps come a dei... tappi!
[211]Vedi ad es. https://en.wikipedia.org/wiki/Finite_impulse_response
[212]Ricordando i risultati del § 3.8.4, a seguito della finestratura la reale risposta in frequenza risulterà (f) = H(f) * W(f). Per questo, si sono individuate alcune finestre migliori della rettangolare, vedi ad es. http://www.labbookpages.co.uk/audio/firWindowing.html. E’ chiaro che adottando invece una finestra rettangolare, la finestratura equivale a calcolare la (10.97) solo per gli indici n necessari; l’effetto di tale troncamento sarà la comparsa di oscillazioni in prossimità della regione di transizione di H(f), del tutto analoghe a quelle evidenziate al § 2.2.2.
[213]In pratica, questa h(t) è quella che dà origine alla h(t) = h(t)Nn = 0δ(t − nT) espressa dalla (10.95), vedi anche nota 169 a pag. 4.4.
[214]A prima vista la realizzazione numerica del passa-banda non sembrerebbe possibile, dato che per ottenere una H(f) con periodo in frequenza di fc2 come in figura il ritardo T tra i rubinetti dovrebbe essere T = 2fc cioè il doppio del massimo periodo di campionamento Tc = 1fc necessario ad un segnale di ingresso con frequenza massima fc2. Ma in realtà è molto semplice: basta che il filtro fir adotti un ritardo T = Tc = 1fc in modo da soddisfare il requisito per il segnale in ingresso, ma raggruppi i ritardi a due a due, ossia inserisca un rubinetto ogni due ritardi.
[215]In questo caso H(f) risulta a simmetria coniugata (H(f) = H*(f)), ma è complessa. Pertanto i coefficienti ck ottenibili dalla (10.97) sono reali, ma non necessariamente pari. Svolgendo i calcoli:
ck = T 1 ⁄ 2T − 1 ⁄ 2T(1 + αe −j2πfT)e j2πfkTdf = T 1 ⁄ 2T − 1 ⁄ 2Te j2πfkTdf + αT 1 ⁄ 2T − 1 ⁄ 2Te j2πf(k − 1)Tdf
Il primo integrale è nullo per k ≠ 0, mentre il secondo per k ≠ 1, in quanto le funzioni integrande hanno media nulla sull’intervallo 1 ⁄ T; pertanto c0 = 1 e c1 = α, esattamente come è definita la (10.99).
[216] Per ogni valore di f, H(f) è pari ad un valore complesso z con H(f) = z = a + jb, e dunque il suo quadrato è pari a |z|2 = a2 + b2, in cui a e b sono le parti reale ed immaginaria di H(f), pari rispettivamente a 1 + αcos2πfT e  − αsin2πfT.
[217]Vedi ad es. https://it.wikipedia.org/wiki/Filtro_comb
[218]Con questa espressione si intende un array lineare di dimensione N ed un puntatore che si incrementa modulo N e che ne indicizza l’ultima posizione. Dopo aver utilizzato l’ultimo campione, questo viene sovrascritto da quello nuovo, ed il puntatore incrementato.
[219]In questo caso si parla di filtro ricorsivo, o filtro infinite impulse response (iir).
[220]Vedi as es. https://it.wikipedia.org/wiki/Serie_geometrica
[221]Infatti la (10.101) valutata per f = 0 fornirebbe il valore H(f = 0) = 11 − α
[222]In quanto gli ingressi ad n istanti precedenti hanno peso αn che decresce esponenzialmente con l’età, vedi ad es. https://en.wikipedia.org/wiki/Exponential_smoothing
[223]In realtà quasi ovunque la (10.102) viene riscritta come yn = βxn + (1 − β)yn − 1, in cui β = 1 − α.
[224]Da Exponential Moving Average
[225]Con sma-N (simple moving average) si intende una media mobile eseguita da un filtro fir di lunghezza N e coefficienti tutti uguali e pari ad 1N.
[226]Senza pretesa di rigore e completezza, essendo questi argomenti trattati anche in diversi altri corsi.
[227]Vedi https://en.wikipedia.org/wiki/Parks-McClellan_filter_design_algorithm
[228]Vedi http://www.ee.ic.ac.uk/hp/staff/dmb/courses/DSPDF/00700_OptimalFIR.pdf
[229]Il filtro risultante è detto per questo equiripple.
[230]Vedi ad es. https://it.wikipedia.org/wiki/Trasformata_zeta
[231]E’ sufficiente applicare la definizione H(z) = n = −∞hn z − n = n = −∞(δn + αδn − 1)  z − n = 1 + αz−1, dato che Z{δn} = 1 e che un ritardo di m indici ha trasformata
Z{xn − m} = n = −∞xn − m z − n = k = −∞xk z − k − m = zmk = −∞xk z − k = zmX(z)
(si è posto n − m = k). In particolare, un ritardo unitario corrisponde al prodotto per z−1 della sequenza trasformata, e dunque Z{δn − 1} = z−1.
[232]Si dicono zeri di un polinomio P(z) = Nk = 0βkzk di grado N le radici z = cn (n = 1, 2, ⋯, N) dell’equazione P(z) = 0. La (10.105) può essere riscritta come H(z) = zNNk = 0akzN − k = Nk = 0akzN − kzN e dunque si azzera per N(z) = Nk = 0akzN − k = 0, che è un polinomio a potenze positive. Una volta trovate le sue radici cn possiamo scrivere N(z) = a0Nn = 1(z − cn) o equivalentemente H(z) = N(z)zN = a0Nn = 1(1 − cnz−1).
[233]Vedi ad es. https://it.wikipedia.org/wiki/Serie_geometrica
[234]Ossia una radice del denominatore D(z) di H(z), che scritta come H(z) = zz − α vale D(z) = z − α, e si azzera in z = α.
[235]Il rapporto tra polinomi viene normalizzato in modo da far risultare b0 = 1.
[236]I passaggi iniziano con lo scrivere Y(z)(1 − Nk = 1bkzk) = X(z)Mk = 0akzk ovvero Y(z) − Nk = 1bkzkY(z) = Mk = 0akzkX(z); dato ora che Z− 1{zkX(z)} = xn − k, si arriva al risultato mostrato.
[237]Vedi ad es. http://raffaeleparisi.site.uniroma1.it/didattica/circuiti-a-tempo-discreto/dispense-di-circuiti-a-tempo-discreto, capitolo 8. Alcune architetture si dimostrano (a parità di precisione) migliori di altre nel definire la posizione di zeri e poli nel piano z.
[238]Per ridurre le possibilità di confusione, adottiamo il pedice a per riferirci al mondo analogico.
[239]Nel senso che alimentando il filtro numerico con i campioni di un segnale si ottiene circa lo stesso risultato che campionando l’uscita del filtro analogico di partenza.
[240]Vedi ad es. https://it.wikipedia.org/wiki/Decomposizione_in_fratti_semplici
[241]Vedi esempio a pag. 1
[242]Infatti con alcuni passaggi
H(z) = Nk = 1Ak1 − edkTz−1 = Nk = 1zAkz − edkT
può essere riscritta come
H(z) = kMn = 1(z − cn)Nn = 1(z − ednT)
in cui però gli zeri cn vanno calcolati.
[243]Seppur limitata alla sola corrispondenza per la posizione dei poli, in quanto gli zeri di H(s) non si mappano nel piano z allo stesso modo di come fanno i poli, vedi nota precedente.
[244]Infatti scrivendo s come s = σ + jΩ si ottiene z = esT = eσTe jΩT, e dunque i poli dk = σk + jΩk di Ha(s) che giacciono nel semipiano negativo del piano s, ovvero con σk < 0, vengono mappati all’interno del cerchio unitario nel piano z, in quanto ad essi corrispondono poli per H(z) in z = zk = eσkTe jΩkT, per i quali |zk| = eσkT < 1.
[245]Vedi https://en.wikipedia.org/wiki/Matched_Z-transform_method. Che ci sia qualcosa di sensato nello scrivere z = esT è motivato anche dal fatto che applicando la definizione di trasformata di Laplace ad ha(t) otteniamo
                         Ha(s) = L{ha(t)} = −∞ha(t)e − stdt = −∞[n = 0hnδ(t − nT)]e − stdt = 
                                     = n = 0hn −∞δ(t − nT)e − stdt = n = 0hne − snT
e, dato che H(z) = n = −∞hn z − n, ne discende che Ha(s) =  H(z)|z = esT.
[246]https://en.wikipedia.org/wiki/Bilinear_transform
[247]In tal caso infatti si può ritenere l’arcotangente approssimativamente lineare.
[248]Un buon approfondimento si può trovare in Multirate Digital Filters, Filter Banks, Polyphase Networks, and Applications: A Tutorial, 1990, di P.P.Vaidyanathan, reperibile presso
https://authors.library.caltech.edu/6798/1/VAIprocieee90.pdf
[249] E’ una proprietà che si applica solamente a filtri la cui risposta impulsiva hn contiene L − 1 elementi nulli tra due non nulli e la cui f.d.t. è quindi esprimibile nella forma H(zL); può essere enunciata come H(zL)(L) = (L)H(z). Per verificarne la veridicità, pensiamo ad un impulso δn che entra in H(zL) producendo in uscita la sequenza h0, 0, ⋯, 0, L − 1 voltehL, ⋯, h2L, ⋯ che, dopo decimazione, diviene h0, hL, h2L, ⋯. Nel caso in cui invece δn attraversi prima il decimatore (L) la sequenza δn non muta, ed il successivo passaggio per H(z) produce nuovamente la stessa h0, hL, h2L, ⋯. Vedi anche http://www.ee.ic.ac.uk/hp/staff/dmb/courses/DSPDF/01100_Multirate.pdf#slide.5
[250]Da non confondere con il filtro di restituzione (§ 4.2.2) che è di natura analogica.
[251]E’ la duale di quella espressa alla nota 249 e come quella si applica a filtri la cui risposta impulsiva hn contiene K − 1 elementi nulli tra due non nulli e la cui f.d.t. è quindi esprimibile nella forma H(zK); consiste nella uguaglianza (K)H(zL) = H(z)(K).
[252]Essendo H(ω) =  H(z)|z =  e jω = 11 −  e −jω = 11 − cosω + jsinω, si ha
|H(ω)|2 = 1(1 − cosω)2 + (sinω)2 = 11 − 2cosω + cos2ω + sin2ω = 12 − 2cosω + 1 = 12(1 − cosω)
[253]Vedi ad es. https://en.wikipedia.org/wiki/Cascaded_integrator-comb_filter
[254]https://www.dsprelated.com/showarticle/1337.php, https://dspguru.com/files/cic.pdf, http://www.tsdconseil.fr/log/scriptscilab/cic/cic-en.pdf, https://www.intel.com/content/dam/www/programmable/us/en/pdfs/literature/an/an455.pdf
[255]Utile per scrivere la probabilità di un evento come “1 meno” quella dell’evento complementare.
[256]Lanciando un dado, la probabilità Pr(pari ∪ > 2) di ottenere un numero pari, oppure più grande di due, è la somma delle probabilità dei singoli eventi Pr(pari) = 36 e Pr( > 2) = 46, meno quella che si verifichino assieme Pr(pari ∩ > 2) = 26. Pertanto: Pr(pari ∪ > 2) = 36 + 46 − 26 = 56.
[257]
figure f5.1b.png
La relazione può essere verificata ricorrendo al diagramma in figura, ed interpretando Pr(A ⁄ B) come il rapporto tra la misura di probabilità dell’evento congiunto, rispetto a quella dell’evento condizionante.
[258]Il risultato è pari alla probabilità Pr(A, B) = Pr(pari,   > 2) che i due eventi si verifichino contemporaneamente, divisa per la probabilità PR(B) = PR( > 2) che il numero sia >2.
Si rifletta sulla circostanza che la probabilità del pari PR(A) = 12, quella PR(B) = 46, o quella congiunta di entrambi PR(A, B) = 26, sono tutte riferite ad un qualunque lancio di dado, mentre Pr(pari  ⁄  > 2) è relativa ad un numero ridotto di lanci, solo quelli che determinano un risultato  > 2. Pertanto, essendo Pr(B) ≤ 1, si ottiene Pr(A ⁄ B) ≥ Pr(A, B); infatti per l’esempio del dado si ottiene Pr(pari  ⁄  > 2) = Pr(pari,  > 2) ⁄ Pr( > 2) = 26 ⁄ 46 = 12, che è maggiore di Pr(pari,  > 2) = 13.
Si ottiene invece Pr(A ⁄ B) = Pr(A, B) solo se Pr(B) = 1, ossia se B corrisponde all’unione di tutti gli eventi possibili.
[259]La probabilità marginale di fuori servizio si calcola applicando il teorema delle probabilità totali
Pr(FS) = Pr(FS ⁄ piove)Pr(piove) + Pr(FS ⁄ non p.)Pr(non p.) = .5 ⋅ .03 + .05 ⋅ .97 = .0635 = 6.35%
dato che Pr(non piove) = 1 − Pr(piove) = .97. Applicando il teorema di Bayes si trova quindi
Pr(piove ⁄ FS) = Pr(FS ⁄ piove)Pr(piove)Pr(FS) = .5 ⋅ .03.0635 = .236 = 23.6%
Si noti come la probabilità a priori che piova (3 %) venga rimpiazzata dal suo valore a posteriori (23,6 %) grazie alla nuova informazione di cui disponiamo (collegamento fuori servizio). Per una definizione più precisa delle probabilità a priori ed a posteriori si veda il § 17.1.
[260]E’ pari al prodotto delle probabilità marginali, essendo i lanci statisticamente indipendenti, visto che il dado è “senza memoria”. Pertanto il risultato è (16)3 = 1216 ≃ 4.6296 ⋅ 10 − 3.
[261]Anche l’urna è senza memoria, ma non l’esperimento aleatorio, visto che dopo la prima estrazione le biglie restano in 4! Pertanto ora il prodotto delle probabilità marginali risulta 2514 = 110.
[262]Pr(K, Q) = Pr(K prima, Q seconda) + Pr(Q prima, K seconda) =  Pr(K prima)Pr(Q seconda ⁄ K prima) +  Pr(Q prima) Pr(K seconda ⁄ Q prima) =  2452 451 = 8663 ≅ 1.2 ⋅ 10 − 2
[263]Un esempio classico di v.a. discreta è quello del lancio di un dado, un altro sono i numeri del lotto. Una v.a. continua può essere ad esempio un valore di pressione atmosferica in un luogo, oppure l’attenuazione di una trasmissione radio dovuta a fenomeni atmosferici.
[264]In realtà, l’ordine storico è quello di definire prima FX(x) come la probabilità che X sia non superiore ad un valore x, ovvero FX(x) = Pr{X ≤ x}, e quindi pX(x) = dFX(x)dx. Il motivo di tale “priorità” risiede nel fatto che FX(x) presenta minori “difficoltà analitiche” di definizione (ad esempio presenta solo discontinuità di prima specie, anche con v.a. discrete).
[265]
A fianco è mostrata la FD(x) relativa al lancio di un dado: ricordiamo infatti che la derivata di un gradino è un impulso di area pari al dislivello, e dunque applicando la (10.115) alla (10.114) si ottiene il risultato illustrato.
figure f5.4b.png
[266]Infatti la probabilità che X cada tra x0 e x0 + Δx vale x0 + Δxx0pX(x)dxpX(x0)Δx.
[267]Ricavate ad esempio da basi di dati anagrafici, sanitari, meteorologici o quant’altro, oppure effettuando una apposita campagna di misura basata su di un campione statistico di adeguata numerosità (vedi anche § 6.6).
[268]Un esempio di funzione di v.a. potrebbe essere il valore della vincita associata ai 13 in schedina, che dipende dalla v.a. rappresentata dai risultati delle partite, una volta noto il montepremi e le giocate. Infatti, per ogni possibile vettore di risultati, si determina un diverso numero di giocate vincenti, e quindi un diverso modo di suddividere il montepremi. Essendo i risultati improbabili giocati da un ridotto numero di schedine, a queste compete un valore maggiore in caso di vincita, ben superiore al suo valore atteso, indicativo invece della vincita media.
[269]Per insieme ci si riferisce allo spazio campione Ω, costituito dai possibili valori assunti dalla v.a. X.
[270]In effetti, la E simboleggia la parola Expectation, che è il termine inglese usato per indicare il valore atteso.
[271]Infatti risulta
σ2X  =  E{(x − mX)2} = E{x2 + (mX)2 − 2xmX} = E{x2} + (mX)2 − 2mXE{x} =   =  m(2)X + (mX)2 − 2(mX)2 = m(2)X − (mX)2
Si è preferito usare la notazione E{x}, più compatta rispetto all’indicazione degli integrali coinvolti; i passaggi svolti si giustificano ricordando la proprietà distributiva degli integrali (appunto), ed osservando che il valore atteso di una costante è la costante stessa.
[272]Anziché calcolare σ2X per la pX(x) data, calcoliamo m(2)X per una v.a. uniforme a media nulla, ovvero con mX = 0, sfruttando il fatto che in base alla (10.119) in tal caso risulta m(2)X = σ2X. Si ottiene:
m(2)X = Δ2 − Δ2x21Δdx =  x3||Δ2 − Δ2 = 1 Δ38 + Δ38 = 12Δ38 = Δ212  
[273]Disponendo di un insieme {xn} di N realizzazioni di una variabile aleatoria X, possiamo effettuare le stime ^mx = 1N Nn = 1xn e ^m(2)x = 1N Nn = 1x2n, il cui valore tende asintoticamente a quello delle rispettive medie di insieme, come N (la dimensione del campione statistico) tende a . Al proposito, vedi § 6.6.3.1.
[274]Tanto che la (10.120) è anche detta Normale, e per questo è indicata anche come N(m, σ2).
[275]Questa condizione è anche detta di v.a. indipendenti e identicamente distribuite, ovvero i.i.d.
[276]Il teorema viene dimostrato al§ 6.7.2, ma può essere divertente ed utile sperimentarne la validità ricorrendo alla applet presente presso
http://www.randomservices.org/random/apps/DiceExperiment.html
Inoltre, considerando che al § 6.2.5 si mostra come la d.d.p. di una somma di v.a. indipendenti sia pari alla convoluzione tra le rispettive d.d.p., osserviamo che la convoluzione ripetuta di una stessa d.d.p. con se stessa, la gaussianizza.
[277]Ovvero mediante del software che implementa uno dei metodi descritti ad es. presso
https://en.wikipedia.org/wiki/Numerical_integration
[278]Il termine erfc sta per funzione di errore complementare, e trae origine dai risultati della misura di grandezze fisiche, in cui l’errore di misura, dipendente da cause molteplici, si assume appunto gaussiano. Vedi anche https://it.wikipedia.org/wiki/Funzione_degli_errori.
[279] Ricordando che eα eβ =  eα + β possiamo scrivere Φx(ω) = 12πσ −∞e jωx − x22σ2dx; riformuliamo quindi l’esponente jωx − x22σ2 come
 − x22σ2 + jωx − (jωσ)22 + (jωσ)22 = − 12 x2σ2 − 2jωx + (jωσ)2 + (jωσ)22 = − 12 xσ − jωσ2 + (jωσ)22
in modo da ottenere
Φx(ω) = e12(jωσ)212πσ −∞e− 12 xσ − jωσ2dx = e− 12(ωσ)2 −∞12πe− 12(y)2dy = e− 12ω2σ2
avendo effettuato il cambio di variabile y = xσ − jωσ che dà luogo agli stessi estremi di integrazione, mentre dx = σdy, ed avendo notato come l’integrale ora calcoli l’area di una gaussiana con varianza unitaria, pari a ad uno.
[280]Chiaramente, la maggioranza dei segnali trasmessi da apparati di tlc sono di questo tipo.
[281]Per fissare le idee, conduciamo parallelamente al testo un esempio “reale” in cui il processo aleatorio è costituito da.... la selezione musicale svolta da un dj. L’insieme T sarà allora costituito dall’orario di apertura delle discoteche (dalle 22 all’alba ?), mentre in θ faremo ricadere tutte le caratteristiche di variabilità (umore del dj, i dischi che ha in valigia, la discoteca in cui ci troviamo, il giorno della settimana...).
[282]Nell’esempio, x(t0, θ) è il valore di pressione sonora rilevabile ad un determinato istante (es. le 23.30) al variare di θ (qualunque dj, discoteca, giorno...).
[283]Ad esempio, se in tutte le serate il volume aumenta progressivamente nel tempo, la pX(x(tj)) si allargherà per tj crescenti.
[284]x(t, θi) rappresenta, nel nostro esempio, l’intera selezione musicale (detta serata) proposta da un ben preciso dj, in un preciso locale, un giorno ben preciso.
[285]m(2)X(θi) in questo caso rappresenta la potenza media con cui è suonata la musica nella particolare serata θi.
[286]La “serata in discoteca” stazionaria si verifica pertanto se non mutano nel tempo il genere di musica, il volume dell’amplificazione... o meglio se eventuali variazioni in alcune particolari discoteche-realizzazioni sono compensate da variazioni opposte in altrettanti differenti membri del processo.
[287]In questo caso la pX(x(t)) non è nota, oppure non è stazionaria, ma le maggiori applicazioni della proprietà di stazionarietà dipendono solo da mX(t) e m(2)X(t), che possono essere misurati (o per meglio dire stimati, vedi § 6.6.3.1), e risultare stazionari anche se pX(x(t)) non lo è.
[288]Infatti la d.d.p.  gaussiana è completamente definita qualora siano noti i valori di media e (co)varianza, vedi §§ 6.2.4 e 6.5.
[289]Questo accade se la selezione musicale di una particolare serata si mantiene costante (es. solo raggamuffin) oppure variata ma in modo omogeneo (es. senza tre “lenti” di fila).
[290]Volendo pertanto giungere alla definizione di una serata ergodica in discoteca, dovremmo eliminare quei casi che, anche se individualmente stazionari, sono decisamente “fuori standard” (tutto metal, solo liscio...).
[291]La (10.127) non è frutto di un calcolo, bensì di un ragionamento: l’impulso gT(t) triangolare non “passa più tempo” su di un valore o su di un altro, ma passa lo stesso tempo su un qualunque valore tra 0 ed A. Pertanto i diversi membri del processo, ognuno relativo ad un diverso θ, qualora valutati ad un medesimo istante t, assumono uno qualsiasi dei valori tra 0 ed A con d.d.p. uniforme.
[292]Verifichiamo per esercizio che il valore (10.128) corrisponda a quello calcolato come media temporale. Calcoliamo innanzitutto l’energia Eg di g(t):
Eg  = 2 − T20[g(t)]2dt = 2 − T201 − 2tT2dt = 2 − T201 + 4t2T2 − 4tT2dt =   = 2T2 + 4T2 t33||T20 − 4T t22||T20 = T + 8T2 T33 ⋅ 8 − 8T T22 ⋅ 4 = T + T3 − T = T3
da cui la potenza di x(t) si ottiene come PX = A2EgT = A23.
[293]In assenza del parametro θ, e considerando la sequenza aleatoria degli an stazionaria ed ergodica, x(t, θ = 0) costituisce un processo ciclostazionario in senso stretto (vedi https://en.wikipedia.org/wiki/Cyclostationary_process), ossia per il quale le medie di insieme di qualsiasi ordine sono periodiche di periodo T. La presenza della v.a. uniforme θ rende x(t, θ) un processo stazionario, ed anche ergodico.
[294]In una futura edizione, potrei calcolare le ddp corrispondenti ai diagrammi ad occhio di fig. 15.23
[295]
La dimostrazione segue le medesime linee guida del caso precedente, ed è impostata sulla base della considerazione che la funzione di distribuzione di Y, calcolata in un generico punto ỹ = (1, 2, …, n), rappresenta la probabilità che Y appartenga alla regione (dominio) delimitata dal punto ỹ, indicata con Dỹ:
FY(ỹ) = Pr{Y ≤ ỹ} = Pr{Y ∈ Dỹ}
figure f5.28.png
Alla stessa regione Dỹ, ne corrisponde una diversa Dx̃ nello spazio X, tale che per ogni valore x ∈ Dx̃ risulti y = F(x) ∈ Dỹ. Con queste posizioni, la FY(ỹ) = Pr{Y ∈ Dỹ} si calcola a partire dalla d.d.p. pX(x), integrata sul dominio Dx̃:
FY(ỹ) = Pr{X ∈ Dx̃} = Dx̃pX(x)dx
Infine, osservando che
pY(y1, y2, …, yn) = nFY(y1, y2, …, yn)y1y2⋯∂yn
si ottiene il risultato mostrato.
[296]J(X ⁄ Y) è indicata come matrice jacobiana, ed il suo determinante come jacobiano, vedi https://it.wikipedia.org/wiki/Matrice_jacobiana
[297]Si verifichi per esercizio che nel caso di una coppia di v.a. congiuntamente gaussiane, a media nulla ed uguale varianza, si ottiene l’espressione (14.99) di pag. 1.
[298]Infatti, potendo scrivere xi = nj = 1bjiyj, l’elemento i, j della matrice J risulta pari a jij = xiyj = bji.
[299]Infatti risulta (BΣ− 1xB)− 1 = ( B)− 1 ΣxB− 1 che, essendo B− 1 =  A, fornisce il risultato per Σy.
[300]Vedi ad es. http://it.wikipedia.org/wiki/Inferenza_statistica
[301]Un modello del genere si applica tanto al caso di detezione di un bersaglio radar, che può essere presente o meno, quanto ai casi di una diagnosi medica a partire dai risultati degli esami clinici, a quello di attuare o meno un investimento finanziario a partire dall’andamento delle borse, a quello se prendere o meno l’ombrello prima di uscire di casa a partire dallo scrutare il cielo...
[302]Vedi ad es. http://en.wikipedia.org/wiki/P-value
[303]Vedi ad es. https://en.wikipedia.org/wiki/Receiver_operating_characteristic
[304]Dall’inglese unbiased, ove con bias si intende una forma di errore sistematico. Diversi testi usano il termine non distorto, che qui non è adottato onde evitare confusioni concettuali con il cap. 8.
[305]Vedi ad es. http://it.wikipedia.org/wiki/Disuguaglianza_di_Cramér-Rao
[306]Ad esempio, il teorema centrale del limite (§ 6.7.2) fa si che la media campionaria (10.138) ^mx = 1N Ni = 1xi, in quanto somma di v.a. indipendenti e identicamente distribuite, tenda ad una v.a. gaussiana per N → ∞.
[307]Vedi ad es. http://en.wikipedia.org/wiki/Point_estimation
[308]Vedi § 6.5.1 per l’espressione di una gaussiana multidimensionale.
[309]Per quanto riguarda x, imponendo i(xi − x) = 0 si perviene facilmente al risultato, mentre per σ̂2x l’eguaglianza a zero di Lσ2x produce
12σ̂4x i(xi − x)2 = N2 1σ̂2x ovvero 1σ̂2x i(xi − x)2 = N  
e dunque il risultato (10.138).
[310]Infatti
E{x} = E1N Ni = 1xi = 1N Ni = 1E{xi} = 1NNmx = mx  
[311]In questo caso riscriviamo x come x = Ni = 1xiN, consideriamo che la varianza di una somma di v.a. i.i.d. è la somma delle varianze (vedi § 7.5.2), e che σ2aX = a2σ2X: pertanto si ottiene σ2x = Ni = 1σ2xN2 = σ2xN.
[312]Occorre innanzitutto riscrivere xi − x come xi − mx + mx − x = (xi − mx) − (x − mx), in modo da ottenere (xi − x)2 = (xi − mx)2 − 2(xi − mx)(x − mx) + (x − mx)2. Eseguendo ora la sommatoria su i si ottiene
i(xi − x)2  =  i(xi − mx)2 − 2(x − mx)i(xi − mx) + i(x − mx)2  =  i(xi − mx)2 − 2N(x − mx)2 + N(x − mx)2 = i(xi − mx)2 − N(x − mx)2
in quanto i(xi − mx) = ixi − imx = Nx − Nmx = N(x − mx).
[313]Vedi ad es. https://it.wikipedia.org/wiki/Correzione_di_Bessel
[314]Indipendentemente alla natura di x
[315]Ossia a media nulla e varianza unitaria come a pag. 1, mentre la normalizzazione del § 6.2.4.1 prevede σ2 = 12.
[316]Anche grazie a fatto che la gaussiana è simmetrica, dando luogo ad intervalli centrati rispetto a θ̂.
[317]Il percentile η per una v.a. gaussiana normalizzata z è definito come il valore zη tale che Pr{z ≤ zη} = η e quindi corrisponde alla inversa zη = F− 1Z(η) della funzione di distribuzione della v.a. FZ(zη) = η−∞12πe− 12z2dz = η. Alternativamente, è definito come 1 − Q{zη} = η (vedi pag. 1). Il termine percentile scaturisce dall’essere η ⋅ 100% pari alla percentuale delle volte che una determinazione della v.a. z risulta inferiore a zη.
[318]  − zα2 ≤ θ̂ − mxσθ̂ ≤ zα2  − zα2σθ̂ ≤ θ̂ − mx ≤ zα2σθ̂  − θ̂ − zα2σθ̂ ≤  − mx ≤  − θ̂ + zα2σθ̂ θ̂ − zα2σθ̂ ≤ mx ≤ θ̂ + zα2σθ̂
[319]https://it.wikipedia.org/wiki/Funzione_di_ripartizione_della_variabile_casuale_normale
[320]Ossia con media nulla e varianza unitaria.
[321]Vedi https://it.wikipedia.org/wiki/Distribuzione_t_di_Student. La v.a. t = θ̂ − mxσθ̂ è definita come il rapporto di due v.a.: il numeratore θ̂ − mx si comporta come una gaussiana centrata in quanto la media di insieme è una somma di v.a. gaussiane, mentre il denominatore σθ̂ = σ̂2xN dipende da σ̂2x che è una somma di quadrati di gaussiane, e dunque assume d.d.p. chi quadro o χ2, vedi § 6.6.5.
[322]Oppure dalla tabella presente nella pagina Wikipedia citata prima.
[323]Ad esempio, per la d.d.p. esponenziale (§ 22.2.1) e per quella poissoniana (§ 22.2), vedi Papoulis.
[324]Come dire, minuto più, minuto meno... ;-)
[325]Infatti, calcoliamo prima E{x2} = p ⋅ 12 + (1 − p) ⋅ 02 = p e dunque troviamo σ2x = E{x2} − (E{x})2 = p − p2 = p(1 − p); inoltre, tuttora risulta σ2 = σ2xN.
[326]Effettivamente è richiesto anche un numero di osservazioni ki maggiori di 5-10 per qualunque i; se ciò non fosse vero, è possibile ridurre il numero m degli intervalli Ii, raggruppando tra loro quelli meno popolati.
[327]In realtà essendo ki il numero di casi favorevoli xϵIi rispetto al totale N, esso ha una d.d.p. binomiale (§ 22.1) per la quale mki = Npi e varianza σ2ki = Npi(1 − pi). Al crescere di N, e dunque degli intervalli m, i termini 1 − pi divengono circa unitari, e la binomiale viene approssimata da una poissoniana (§ 22.2), per la quale appunto σ2 = Npi. Tale approssimazione è descritta come test di Pearson, vedi https://it.wikipedia.org/wiki/Test_chi_quadrato_di_Pearson
[328]Vedi ad es. https://it.wikipedia.org/wiki/Distribuzione_chi_quadrato. I gradi di libertà sono m − 1 anziché m in virtù del vincolo ipi = 1.
[329]Vedi ad es.
https://it.wikipedia.org/wiki/Distribuzione_chi_quadrato#Tabella_dei_valori_critici
[330]https://it.wikipedia.org/wiki/Elettrocardiogramma
[331]https://it.wikipedia.org/wiki/Potenziali_evocati
[332]Al § 7.4 si mostra come l’autocorrelazione Rnn(τ) di un processo n(t) che attraversa un filtro divenga pari a Rνν(τ) = Rnn(τ) * Rhh(τ), in cui Rhh(τ) è l’autocorrelazione della risposta impulsiva del filtro.
[333]Vedi https://it.wikipedia.org/wiki/Integrale_di_Gauss, in cui si fa uso della teoria esposta al § 6.4.
[334]Si ricorda che la regola di integrazione per parti stabilisce che ba[f(x)g(x)]dx =  f(x)g(x)|ba − ba[f(x)g(x)]
[335]La derivata prima di p(x) = 12πσe− (x − m)22σ2risulta pari a p’(x) = 12πσe− (x − m)22σ2 − (x − m)σ2 e dunque
p’’(x)  = 12πσe− (x − m)22σ2(x − m)σ22 +  e− (x − m)22σ2 − 1σ2 = 12πσ3 e− (x − m)22σ2(x − m)2σ2 − 1
[336]Infatti, per il caso semplice di due v.a. y1ed y2 a media nulla si ottiene
σ2y = E{(y1 + y2)2} = E{y21 + y22 + 2y1y2} = E{y21} + E{y22} + 2E{y1y2} = σ2y1 + σ2y2
in cui la terza eguaglianza è conseguenza della proprietà distributiva dell’integrale (10.117) che definisce il valore atteso, e la quarta discende dal fatto che l’indipendenza statistica implica incorrelazione (§ 7.1.2).
[337]Facciamo uso del prodotto Hermitiano definito come x, y = xy = ni = 1xiyi, in cui la sopralineatura rappresenta l’operazione di coniugazione. In generale per matrici e vettori reali risulta Ax, y = (Ax)y = xAy = x, Ay, ma se oltre a ciò A è simmetrica si ha A = A e dunque Ax, y = x, Ay. Indicando ora con λ il coniugato di un autovalore di A (per assurdo) complesso, possiamo scrivere λx, x = λx, x = Ax, x = x, Ax = x, λx = λx, x, ma dato che x, x è positivo, dovrebbe essere λ = λ, il che è impossibile: dunque tutti gli autovalori sono reali.
[338]Gli autovettori si considerano normalizzati, ovvero γγ = 1, altrimenti ad uno stesso autovalore ne corrisponderebbero infiniti. Gli autovettori sono inoltre definiti a meno di un termine di fase, dato che se γ è un autovettore, lo è anche γe jθ con 0 < θ < 2π.
[339]Vedi ad es. http://dssm.unipa.it/chiodi/teaching/files/Statistica3_First/MLAmatrix2012.pdf
[340]La prima relazione è conseguenza dell’ortogonalità, la seconda discende dalla prima, e la terza deriva dalla premoltiplicazione di ambo i membri della (10.147) per γj, che produce γiΣxγi = λi se  i = j γjΣxγi = 0  se  i ≠ j
[341]In quanto det(Σx) = det(Γ)det(Λ)det(Γ), e det(Γ) = det(Γ) = det(Γ− 1) = 1.
[342]Vedi https://it.wikipedia.org/wiki/Matrice_definita_positiva
[343]        σ2y  =  E{(y − my)2} = E{(ni = 1cixi − ni = 1cimi)2} =   =  ni = 1nj = 1cicjE{xixj} − ni = 1nj = 1cicjmimj = ni = 1nj = 1cicjσij
[344]Ossia nessuna tra le v.a. xi presenta dipendenza lineare da una o più altre.
[345]Tenendo infatti conto che dalla (10.148) si ottiene Σx = ΓΛΓ, possiamo scrivere Q(c) = cΣxc = cΓΛΓc, che ponendo d = Γc riscriviamo ancora come Q(c) = dΛd = pi = 1λid2i. Se qualche λi fosse negativo o nullo, si potrebbe trovare un vettore d nullo tranne per l’unica componente corrispondente al λi ≤ 0, e produrre una Q(c) ≤ 0, in contrasto con l’ipotesi. Pertanto è vero anche il viceversa, cioè Σx è definita positiva se λi > 0 ∀i.
[346]Vedi https://it.wikipedia.org/wiki/Funzione_convessa. La condizione sulla matrice Hessiana definita positiva è analoga alla proprietà nota per la derivata seconda di una funzione monovariata, ma per una dimostrazione si può visitare ad es.
http://www.statistica.unimib.it/utenti/matematica/AM2/appunti/conv.pdf.
[347]Vedi https://it.wikipedia.org/wiki/Quadrica. In particolare, la proprietà di una matrice definita positiva di avere n autovalori positivi è quella che in due dimensioni determina questo risultato, vedi http://www.mat.uniroma2.it/~gealbis/quadriche.pdf.
[348]Il termine correlazione risale a studi sull’ereditarietà genetica, e via via è stato adottato da tutte le discipline (economiche. cliniche, sociologiche...) che analizzano da un punto di vista statistico la dipendenza (co-relazione) tra due o più grandezze, vedi ad es.
https://it.wikipedia.org/wiki/Correlazione_(statistica).
[349]Come intuitivamente verificabile pensando m(1, 1)X1X2 come media pesata in probabilità dei possibili valori del prodotto x1x2; i termini di eguale ampiezza e segno opposto possono elidersi se equiprobabili.
[350]Il termine si rifà al concetto di regredire, ovvero da un punto di vista genetico, veder riaffiorare tratti remoti. Per approfondimenti si veda https://it.wikipedia.org/wiki/Regressione_lineare
[351]Vedi ad es. https://it.wikipedia.org/wiki/Grafico_di_dispersione
[352]I grafici A, D ed F sono realizzati con 100 punti, mentre B, C ed E con 700.
[353]Ovvero ottenuti a partire dal campione statistico, per cui ad es. (1, 1)X1X2 = 1N Ni = 1x1(i)x2(i).
[354]Omettiamo per brevità di indicare la variabile aleatoria a pedice della densità di probabilità, così come gli istanti temporali.
[355]Ancora una semplificazione di notazione, da intendersi ricordando che un valore atteso è in realtà un integrale che pesa l’argomento per la rispettiva d.d.p., a cui si applica la proprietà distributiva del prodotto per una somma.
[356]Notiamo immediatamente che il termine più corretto sarebbe “incovarianzate”; l’uso (ormai storico e consolidato) dell’espressione incorrelate deriva probabilmente dal considerare usualmente grandezze a media nulla, per le quali le due espressioni coincidono.
[357]Vedi ad esempio il caso F) di fig. 7.3, in cui le variabili aleatorie risultano incorrelate, ma non sono per nulla indipendenti, dato che le coppie di valori si dispongono su di un cerchio. Ciò rappresenta un caso di dipendenza non lineare, in quanto l’equazione che descrive la circonferenza è quadratica.
[358]In effetti in base alle definizioni date al § 61 risulta a(t),  b(t) = −∞a(t)b*(t)dt in cui è il secondo segnale ad essere coniugato, e non il primo come per la (10.156): dunque quest’ultima espressione corrisponde (in termini di prodotto scalare) a
   Rxy(τ) = −∞x*(t)y(t + τ)dt = y(t + τ), x(t) = y(t), x(t − τ) = −∞y(t)x*(t − τ)dt
equivalente alla (10.156) in quanto anziché anticipare y(t), viene ritardato x(t). Si preferisce comunque la definizione (10.156) per la sua somiglianza formale a quella di una convoluzione.
[359]Il risultato (10.157) si basa sul cambio di variabile θ = t + τ che permette di scrivere
Rxy(τ) = −∞x*(t)y(t + τ)dt = −∞x*(θ − τ)y(θ)dθ = x*(τ) * y(τ)  
[360]Infatti otteniamo
   Ry(τ) = −∞y*(t)y(t + τ)dt = −∞x*(t + θ)x(t + θ + τ)dt = −∞x*(α)x(α + τ)dα = Rx(τ)
[361]Adottando la notazione adatta al caso di un processo, in virtù della stazionarietà possiamo scrivere
Rx(τ) =  E{(x0(t) + a)(x0(t + τ) + a)} =   =  E{x0(t)x0(t + τ)} + aE{x0(t)} + aE{x0(t + τ)} + a2 =   =  Rx0(τ) + 2a ⋅ 0 + a2 = Rx0(τ) + a2
[362]Iniziamo con il riscrivere l’espressione Rx(τ) = −∞x*(t)x(t + τ)dt operando il cambio di variabile t + τ = α, da cui t = α − τ e dt = dα, ottenendo
                   Rx(τ) = −∞x*(α − τ)x(α)dα = −∞x(α)x*(α − τ)dα = R*x(τ)
mentre il risultato per Rxy(τ) si ottiene in modo simile.
[363]In realtà le attribuzioni di questo risultato sono molteplici, comprendendo anche Khinchin, Einstein e Kolmogorov - fonte https://it.wikipedia.org/wiki/Teorema_di_Wiener-Khinchin
[364] In tal caso una stima della densità di potenza può essere ottenuta mediante periodogramma (§ 7.3.1) calcolato su di un segmento di segnale xT(t) di durata T estratto da x(t), e facendo tendere T → ∞, ovvero Px(f) = limT → ∞1T|XT(f)|2. Dato che |XT(f)|2 è proprio la densità di energia ExT(f) di xT(t), per il teorema di Wiener la sua anti-trasformata corrisponde alla funzione di autocorrelazione RxT(τ) = F −1{ExT(f)} di xT(t), come definita dalla (10.155). Operando il passaggio al limite, si ottiene che
           F −1{ Px(f)} = F −1limT → ∞{1T|XT(f)|2} = F −1limT → ∞1TExT(f) = limT → ∞1TRxT(τ)
corrispondente alla autocorrelazione Rx(τ) dell’intero segnale, come espressa dalla (10.154).
[365] La dimostrazione del caso dei processi viene svolta al § 7.7.3; la sua validità è vincolata a processi per i quali |τm(1, 1)XX(τ)|dτ < ∞, ed è basata sulla considerazione che se la Pθx(f) di un particolare membro θ è valutabile come Pθx(f) = limT → ∞1T|XθT(f)|2, allora la sua media di insieme può scriversi come Px(f) = limT → ∞1TEΘ{|XθT(f)|2}.
[366]Partendo dalla (10.158) Rx(τ) = 1T T ⁄ 2 − T ⁄ 2x*(t)x(t + τ)dt possiamo scrivere
Rx(τ)  = 1T T ⁄ 2 − T ⁄ 2n = −∞X * n e −j2πnFtm = −∞Xm e j2πmF(t + τ)dt =   = n = −∞m = −∞X * nXm1T e j2πmFτT ⁄ 2 − T ⁄ 2 e j2π(m − n)Ftdt = n = −∞|Xn|2 e j2πnFτ
in cui l’ultima uguaglianza è frutto della proprietà di ortogonalità degli esponenziali (2.3).
[367]Infatti le diverse realizzazioni (10.161) al variare di θ differiscono solo per una traslazione temporale, a cui in frequenza corrisponde un termine di fase lineare, che non incide sulla Px(f).
[368]Il risultato si ottiene applicando la (10.160) all’unica armonica presente, e considerando che la potenza totale Px = A22 si distribuisce per metà a frequenza positiva e per metà negativa.
[369]Media mA e varianza σ2A sono qui riferite ai valori multilivello ak (con k = 1, 2, ⋯, L) che un generico simbolo an può assumere, pesati con le rispettive probabilità pk, ossia
                            mA = Lk = 1pkak       e       σ2A = Lk = 1pk(ak − mA)2
[370]Un esempio può essere un segnale sonoro, ad esempio una voce recitante, per il quale vogliamo studiare le caratteristiche spettrali dei diversi suoni della lingua (i fonemi), per confrontarle con quelle di un altro individuo, o per ridurre la quantità di dati necessaria a trasmettere il segnale in forma numerica (vedi § 10.1.2), o per realizzare un dispositivo di riconoscimento vocale.
[371]Nel caso contrario in cui x(t, θ) non sia ergodico, la sua densità spettrale può essere definita come Px(f) = limT → ∞E{|XT(f)|2T}.
[372] Per una determinata frequenza f0, il valore PxT(f0) = |XT(f0)|2T è una variabile aleatoria (dipende infatti da θ), il cui valore atteso mT = Eθ{PxT(f0)} vorremmo fosse pari alla vera densità Px(f0)), e la cui varianza σ2T = Eθ{(PxT(f0) −  Px(f0))2} vorremmo che diminuisse al crescere di T. Per verificare se tali proprietà siano soddisfatte, valutiamo innanzitutto il valore atteso del periodogramma, a partire dalle relazioni fornite dal teorema di Wiener applicato ad XT(f), e cioè |XT(f)|2 = ExT(f) = F {RxT(τ)}:
Eθ{PxT(f)}  =  EθF 1T  −∞x(t, θ)rectT(t)x(t + τ, θ)rectT(t + τ)dt =   =  F 1T  −∞Eθ{x(t, θ)x(t + τ, θ)}rectT(t)rectT(t + τ)dt =   =  F Rx(τ)1T  −∞rectT(t)rectT(t + τ)dt = F {Rx(τ) ⋅ tri2T(τ)} =   =  Px(f) * T( sinc(fT))2
Osserviamo quindi come una finestra di segnale rettangolare ne produca una triangolare sull’autocorrelazione. Ma c’è comunque di buono che all’aumentare di T lo stimatore tende al valore vero, dato che limT → ∞T( sinc(fT))2 tende ad un impulso.
[373]Quando il valore atteso di uno stimatore tende al valore vero si dice (vedi § 6.6.3) che lo stimatore è non polarizzato (o unbiased); se poi aumentando la dimensione del campione, la varianza della stima tende a zero, lo stimatore è detto consistente. Ci consola verificare che, come commentato alla nota precedente, per T → ∞ la polarizzazione tende a scomparire, rendendo la stima asintoticamente non polarizzata.
[374]La risoluzione spettrale in questo caso dipende dalla larghezza del lobo principale della densità di energia della funzione finestra applicata a Rx(τ), che nel caso del tri2T(τ) risulta ( sinc(fT))2, il cui lobo principale è appunto ampio 1T. Anche la risoluzione, quindi, migliora all’aumentare di T.
[375]Vedi ad es. http://risorse.dei.polimi.it/dsp/courses/ens_l1/books/libro07secondaparte.pdf
[376]Esistono diverse soluzioni a questo problema, tutte legate ad una riduzione della risoluzione spettrale. La prima è quella di smussare il ^Px(f) ottenuto, mediando i valori su frequenze vicine: tale operazione corrisponde ad un filtraggio in frequenza. Un secondo metodo prevede di suddividere l’intervallo di osservazione in diversi sottointervalli, calcolare il periodogramma su ciascuno di essi, e mediare i risultati.
[377]La quarta uguaglianza sussiste in virtù del teorema di Parseval associato a quello di Wiener, mentre l’ultima è valida se RH(τ) è reale, ossia se h(t) è idealmente realizzabile e dunque reale, vedi il § 1.6.
[378]Tenendo conto della natura lineare e permanente del filtro, l’uscita è la combinazione degli effetti degli ingressi, che per un segnale periodico corrispondono alle armoniche.
[379]Essendo h(t) reale sappiamo che Rh(τ) è reale pari (pag. 1), dunque è sufficiente calcolarla solamente per τ ≥ 0; inoltre, essendo h(t) = 0 per t < 0 l’estremo inferiore di integrazione parte da zero, ottenendo
Rh(τ)|τ > 0 = 0h(t)h(t + τ)dt = 0  e− at e− a(t + τ)dt =  e− aτ0 e− 2atdt =  e− aτ e− 2at − 2a||0 = 12a e− aτ
e dunque Rh(τ) = 12a e− a|τ|
[380] Tralasciando il termine 12a risulta
F { e− a|t|}  =  −∞ e− a|t| e −j2πftdt = 0 −∞  e(a − j2πf)tdt + 0  e− (a + j2πf)tdt =  e(a + j2πf)ta − j2πf||0−∞ +  e− (a + j2πf)t − (a − j2πf)||0  = 1a − j2πf + 1a − j2πf = a + j2πf + a − j2πf(a − j2πf)(a + j2πf) = 2aa2 − (j2πf)2 = 2aa2 + 4(πf)2
[381]Infatti in tal caso W − W|H(f)|2df è proprio pari all’energia della h(t); se viceversa W > B una parte di |H(f)|2 cade al di fuori degli estremi di integrazione ( − B, B), e non contribuisce al risultato.
[382]Questo risultato può essere analizzato ricordando che l’integrale di convoluzione calcola i singoli valori in uscita da un filtro, come dipendenti da tutti gli ingressi passati, ognuno pesato con il valore della risposta impulsiva relativo al ritardo tra ingresso passato ed uscita presente (vedi § 3.4.3). Pertanto, anche se i singoli valori in ingresso sono statisticamente indipendenti, quelli di uscita (distanti tra loro per meno della durata della risposta impulsiva) condividono una porzione di storia comune, e quindi i loro valori non sono più incorrelati.
[383] Questo risultato è una diretta conseguenza della proprietà di invarianza dei processi gaussiani rispetto alle trasformazioni lineari discussa al § 6.5.2. Infatti, riscrivendo l’operazione di convoluzione y(t) = x(τ)h(t − τ)dτ in forma approssimata come una somma di infiniti termini y(t) = ix(τi)h(t − τi)Δτi appare evidente come, nel caso in cui x(t) sia un processo gaussiano, l’uscita sia costituita da una combinazione lineare di v.a. gaussiane, e dunque anch’essa gaussiana.
[384]Vedi §§ 87 e 3.4.4.
[385]Infatti in virtù della proprietà distributiva è possibile la saturazione di una v.a. alla volta, ovvero
(x + y)p(x, y)dxdy  =  xp(x, y)dxdy + yp(x, y)dxdy =   =  xp(x)dx + yp(y)dy
[386]Infatti risulta
E{x(t)y(t)}  = xyp(x, y)dxdy = xp(x)dxyp(y)dy =   = E{x(t)}E{y(t)} = mxmy
[387]La proprietà di ergodicità congiunta corrisponde a verificare le condizioni ergodiche anche per i momenti misti m(1, 1)XY(x, y) relativi a coppie di valori estratti da realizzazioni di due differenti processi.
[388]Dimostriamo la (10.170) con un ragionamento forse poco ortodosso ma efficace. Dalla definizione di d.d.p. abbiamo che z = x + y risulta compresa tra z e z + dz con probabilità pZ(z)dz, ma affinché ciò accada è necessario che, per ogni possibile valore di x,  risulti y = z − x; per l’ipotesi di indipendenza statistica tra x ed y ciò avviene con probabilità congiunta pX(x)dxpY(z − x)dz. Per ottenere pZ(z)dz occorre quindi sommare la probabilità congiunta su tutti i possibili valori di x, ovvero pZ(z)dz = ΩXpX(x)pY(z − x)dxdz in cui ΩX è lo spazio campione per la v.a. x. Pertanto in definitiva si ottiene pZ(z) = ΩXpX(x)pY(z − x)dx che corrisponde alla convoluzione espressa nel testo.
[389]Dimostriamo la (10.171) ricorrendo al metodo illustrato al § 6.4.2, scrivendo il sistema (10.134) come z = xy w = y in modo che la trasformazione inversa risulti x = z ⁄ w y = w . A questo punto si ottiene la matrice Jacobiana J =  xz xw yz yw come 1w zw2 0 1 a cui corrisponde il modulo del determinante (jacobiano) |det(J)| = 1|w|. Dunque la d.d.p. congiunta di z e w si ottiene come pZW(z, w) = |det(J)|pXY(x, y = f(z, w)) = 1|w|pXYzw, w = 1|w|pXzwpY(w) in virtù della indipendenza statistica tra x e y. Non resta quindi che saturare la pZW(z, w) rispetto a w, ovvero pZ(z) = 1|w|pXzwpY(w)dw, che corrisponde alla (10.171) qualora avessimo posto θ = x anziché w = y.
[390]Si tratta di una stima (vedi § 6.6.3) in quanto l’intervallo di integrazione T è limitato.
[391]Sfruttando le analogie tra integrale di convoluzione e calcolo dell’intercorrelazione, vedi § 7.1.4.
[392]Indicando rispettivamente con Pe0 e Pe1 i due tipi di errore, pari a (vedi fig. 7.16)
                           Pe0 = λpZ(z ⁄ H0)dz    e    Pe1 = λ−∞pZ(z ⁄ H1)dz
la probabilità di errore complessiva vale Pe = Pe0P0 + Pe1P1, in cui Po = Pr(H0) e P1 = Pr(H1).
[393]Potendo scrivere G * T(f)e −j2πfT = (G(f)e j2πfT)* e ricordando la proprietà (10.41) espressa a pag. 1 F −1{X*(f)} = x*(t), dalla (10.172) otteniamo
hR(t)  =  F −1{HR(f)} = F −1{G*(f)e −j2πfT} = F −1{(G(f)e j2πfT)*} =   =  g*(θ + T)|θ = − t = g*(T − t)
[394]Ricordiamo (vedi § 7.4.2) che l’uscita di un filtro al cui ingresso è posto un processo gaussiano, è anch’essa gaussiana.
[395]Infatti
mHoz(T) = E{z(T) ⁄ H0} = E{RGN(0)} = E{ T0g*(t)n(t)dt} = T0g*(t)E{n(t)}dt
pari a zero se E{n(t)} = 0.
[396]Dato che mH0z(T) = 0, risulta σ2z(T) = E{z2(T)} =  RZ(τ)|τ = 0. Sappiamo inoltre che
RZ(τ) = RN(τ) * RHR(τ) = N02δ(τ) * RHR(τ) = N02RHR(τ)
pertanto
σ2z(T) =  RZ(τ)|τ = 0 = N02RHR(0) = N02 −∞h * R(t)hR(t)dt = N02EG
dato che hR(t) ha la stessa energia di g(t).
[397]Infatti, ora risulta mH1z(T) = E{RG(0) + RGN(0)} = EG + E{RGN(0)} in cui il secondo termine è nullo come già osservato, mentre il primo è un valore certo, pari all’energia EG = RG(0) dell’impulso g(t).
Per ciò che riguarda σ2z(T), osserviamo che zH1(T) = EG + zH0(T), dunque le v.a. centrate sono le stesse, e così la varianza σ2zH1(T) = σ2zH0(T) = N02EG : infatti la componente aleatoria dell’uscita è dovuta al solo n(t).
[398]Il rapporto mH1z(T)σz(T) confronta l’uscita attesa mH1z(T) = E{RGHR(0)} di HR per t = T nell’ipotesi H1, che dipende dall’energia mutua tra g(t) ed hR(t), con la sua deviazione standard σz(T) = N02RHR(0) dovuta al rumore.
[399] Consideriamo il caso di avere una HR(f) generica. In presenza di solo segnale, si ottiene
                            |z(T)|2 = | F− 1{Z(f)}|t = T|2 = | −∞HR(f)G(f)e j2πfTdf|2
A questa espressione può essere applicata la diseguaglianza di Schwartz (a pag. 1 si enuncia la relazione | −∞a(θ)b*(θ)dθ|2 ≤ −∞|a(θ)|2dθ−∞|b(θ)|2dθ, con l’eguaglianza solo se a(θ) = kb(θ)), qualora si faccia corrispondere HR(f) ad a(θ), e G(f)e j2πfT a b*(θ), ottenendo così
                             |z(T)|2 = (mH1z(T))2 ≤ −∞|HR(f)|2df−∞|G(f)|2df
con l’eguaglianza solo se HR(f) = kG*(f)e −j2πfT, ovvero se hR(t) = kg(T − t) (eqq. (10.172) e (10.173)), ossia se HR(f) è adattata a G(f). Scegliendo k = 1, i due integrali a prodotto hanno lo stesso valore, pari a EG, e dunque (mH1z(T))2 = |z(T)|2 = E2G.
[400]In effetti la (10.174) non è adimensionale ma è esprimibile come [sec], dunque non è un vero e proprio SNR, ma dato che il termine rende l’idea, questa accezione è entrata nell’uso comune.
[401]Vedi ad es. https://en.wikipedia.org/wiki/Op_amp_integrator
[402]Il circuito non lineare mostrato non è un filtro adattato, dato che per t > T non produce la stessa uscita (vedi http://dsp.stackexchange.com/questions/9094/understanding-matched-filter).
[403]La condizione (10.175) si ottiene anche in questo caso imponendo la massimizzazione di SNR = (mH1z(T))2σ2z(T) = | −∞Hr(f)G(f)e j2πfTdf|2 −∞|HR(f)|2 PN(f)df il cui denominatore tiene conto che σ2z(T) = −∞PZ(f)df è dovuta al solo rumore. Applichiamo ora a SNR la diseguaglianza di Schwartz posta nella forma
| −∞a(θ)b*(θ)dθ|2 −∞|a(θ)|2dθ ≤  −∞|b(θ)|2dθ
e identifichiamo a(θ) con HR(f)PN(f) e b*(θ) con G(f)e j2πfTPN(f). Imponendo di nuovo la condizione a(θ) = kb(θ) con k = 1, otteniamo il massimo SNR come SNR = −∞|b(θ)|2dθ = −∞|G(f)|2 PN(f)df, e quindi scrivendo a(θ) = b(θ) ossia HR(f)PN(f) = G*(f)e −j2πfTPN(f) si ottiene il risultato (10.175).
[404]Detto whitening filter in inglese.
[405](vedi § 11.1.1.3, § 16.9.2.5)
[406]Anche se nel caso di banda base il segnale trasmesso è reale, volendo applicare la teoria esposta ad un inviluppo complesso (§ 11.2.1) si rende necessario tener conto dell’operazione di coniugato.
[407]Osserviamo infatti che
βkE{ε2}  = 2E(y − ph = 0βhxh)( − xk) = − 2Eyxk + 2ph = 0βhExhxk = − 2myxh + 2ph = 0βhmxhxk = 0
che per k = 0, 1, ⋯p danno luogo al sistema
β0mx0x0 + β1mx1x0 + ⋯ + βpmxpx0 = myx0    β0mx0x1 + β1mx1x1 + ⋯ + βpmxpx1 = myx1    ⋯     β0mx0xp + β1mx1xp + ⋯ + βpmxpxp = myxp
[408]https://it.wikipedia.org/wiki/Metodo_dei_minimi_quadrati
[409]Per approfondimenti vedere
https://it.wikipedia.org/wiki/Regressione_lineare#Regressione_lineare_multipla
[410]Vedi ad es. https://it.wikipedia.org/wiki/Indice_di_correlazione_di_Pearson
[411]L’analogia non è poi troppo peregrina, considerando che se x è estratta da un processo ergodico a media nulla, la sua varianza σ2x coincide con la potenza del segnale da cui è estratta, mentre se x ed y sono estratte da segnali congiuntamente ergodici, la covarianza σxy coincide con la funzione di intercorrelazione (eq. (10.156)), ovvero con la loro potenza mutua.
[412]Tratta da D. Leon, W. Couch, Fondamenti di telecomunicazioni, 2004 Apogeo
[413]Per quanto riguarda i nuovi estremi di integrazione, osserviamo che se τ = t2 − t, allora per t2 = ±T2, τ vale ± T2 − t. Inoltre, la somma degli esponenti risulta pari a  − j2πf(t2 − t) = − j2πfτ.
[414]In tal caso i valori degli an corrispondono ai punti di una costellazione nel piano dell’inviluppo complesso, vedi cap. 16.
[415] Considerando gli an come elementi di una sequenza aleatoria stazionaria ergodica A, con valori ai appartenenti ad un alfabeto finito di cardinalità L, ovvero i = 1, 2, ⋯, L, si definisce per essi in cui pi rappresenta la probabilità dell’i-esimo valore. Qualora mA = 0, si ottiene σ2A = EA{(ai)2}.
[416]Risultando dθ = − du, gli estremi di integrazione si invertono; quando poi θ = T2 si ha u = t − nT − T2, mentre a θ = − T2 corrisponde u = t − nT + T2.
[417]Se la sequenza an è stazionaria ed a simboli indipendenti, per k ≠ 0 si ottiene
RA(k) = E{anan + k} = E{an}E{an + k} = m2A
mentre per k = 0 si ha
RA(0) = E{(an)2} = m(2)A = m2A + σ2A
come mostrato dalla (10.119) a pag. 1.
[418]Infatti, applicando la proprietà di traslazione nel tempo scriviamo
F {πT(t)} = F {kδ(t − kT)} = ke −j2πfkT
ma in base alla (10.61) di pag. 1 risulta
F {πT(t)} = 1T kδf − kT, e dunque ke −j2πfkT = 1T kδf − kT
[419]Elaborazione di segnale è la traduzione di signal processing, e così il segnale risultante viene anche detto processato.
[420]Nella pratica, i valori a e τ non si conoscono, mentre invece possiamo disporre di coppie di segnali (x(t), y(t)). Tali valori vengono quindi valutati come quelli che rendono SNR massimo ovvero Pε minimo. Considerando segnali di potenza reali, ossia processi stazionari ergodici, si ha
         Pε(a, τ) = E{(y(t) − ax(t − τ))2} = E{y2(t)} + a2E{x2(t)} − 2aE{y(t)x(t − τ)} = 
                        = Py + a2 Px − 2aRxy(τ)
in cui si è operata la sostituzione E{y(t)x(t − τ)} = Ryx(τ) = R * xy(τ) = Rxy(τ). Il valore di a che rende minimo Pε(a, τ) si ottiene eguagliandone a zero la derivata: a Pε(a, τ) = 2aPx − 2Rxy(τ) = 0 e dunque aopt = Rxy(τ)Px, che sostituita nell’espressione di Pε fornisce
          Pε(τ) = Py + Rxy(τ)Px2 Px − 2Rxy(τ)PxRxy(τ) = Py − (Rxy(τ))2 Px = Py1 − (Rxy(τ))2 PxPy
Il valore di Pε evidentemente è minimo per quel valore di τ = τopt che rende massima (Rxy(τ))2, ovvero per quella traslazione temporale che rende “più simili” i segnali di ingresso ed uscita.
[421]Una volta individuati i valori di a e τ, è possibile valutare Pu = E{(ax(t − τ))2} = a2 Px, mentre per Pε è valido il risultato di cui alla precedente nota, fornendo in definitiva
         SNR = PuPε = a2 PxPy1 − (Rxy(τ))2 PxPy = a2 P2xPxPy − (Rxy(τ))2
che tende ad infinito qualora ε(t) sia nullo, ovvero (Rxy(τ))2 =  PxPy, mentre si azzera se a = 0.
[422]Vedi ad es. https://it.wikipedia.org/wiki/Legge_di_Weber-Fechner
[423]Dunque un decibel, per come è definito, è la decima parte del Bel, ovvero αBel = log10α. Chissà, forse dopo che definirono il Bel, si accorsero che era troppo grande ? :-)
[424] Ad esempio volt2, oppure watt.
[425]Al cap. 18 verrà approfondita la differenza tra potenza di segnale, espressa in volt2 o ampere2, e potenza assorbita, dissipata o trasmessa, espressa in watt.
[426]Il secondo caso per φh(f) nella (10.204) tiene conto del fatto che la formula di Eulero (10.3) permette di scrivere  − 1 = e j±π, ed il prodotto per sgn(f) rende la fase una funzione dispari di f.
[427]Anche se, tenendo conto che un angolo α è indistinguibile da un altro β = α±2π, per convenzione quando |φh(f)| > π, la stessa viene fatta ruotare di 2π.
[428]Vedi la nota 125 a pag. 1.
[429]Tale analisi è rimandata al § 13.1.3.
[430]L’espressione di |H(f)|2 è stata ricavata al § 5.2.3. La fase si ottiene come φ(f) = arctan{H(f)}{H(f)}, in cui H(f) = 1 + ae −j2πfT.
[431]In questo caso l’uscita sembra precedere l’ingresso, tranne qualora il segnale di ingresso presenti una brusca discontinuità temporale, e quindi non sia più predicibile, In tal caso, l’effetto torna ad essere conseguenza della causa: vedi https://inst.eecs.berkeley.edu/~ee123/sp14/NegativeGroupDelay.pdf
[432]Ascolta ad esempio https://www.youtube.com/watch?v=_xgurzL92Lc
[433]come ad esempio è il caso dei twta introdotti a pag. 1
[434] Si applichi lo sviluppo di Maclaurin arrestato al terzo ordine ossia
        y = g(x) = y0 + 3n = 11n! dng(x)dxn||x = 0xn = y0 +  dgdx||x = 0x + 12 d2gdx2||x = 0x2 + 13 ⋅ 2 d3gdx3||x = 0x3 = 
            = Gx + 12G d2gdx2||x = 0 + 16G d3gdx3||x3
essendo y0 = g(x = 0) = 0 ed avendo posto G =  dgdx ||x = 0.
[435]Si fa uso delle relazioni cos2α = 12 + 12cos2α e cos3α = 34cosα + 14cos3α.
[436]Le relazioni mostrate si ottengono scrivendo
PI  =  G2A221 + 34βA22G2A22  se β43A2  PII  =  G2A4α28 = G4A44 1G2α22 =  P2Iμ22  PIII  =  G2A6β232 = G6A68 1G4β24 =  P3Iμ23
[437]Le relazioni alla nota 436 definiscono i fattori μ2 e μ3 come μ22 PIIP2I = 1G2 α22 μ23 =  PIIIP3I = 1G4 β24 da cui si ottengono i valori riportati nel testo, purché sia verificata la condizione β43A2. In caso contrario decade la possibilità di risalire in modo semplice ad α e β a partire dai fattori di intermodulazione, che restano dunque una misura oggettiva (in quanto ottenuti mediante una misurazione) dell’entità della distorsione non lineare.
[438]Vedi ad es. https://it.wikipedia.org/wiki/Intermodulazione
[439]La valutazione della potenza Pu della componente perfetta in uscita dal canale trasmissivo viene affrontata nella seconda parte del testo, applicando alla potenza Px del segnale in ingresso al canale le relazioni di trasferimento energetico discusse al capitolo 18 e dipendenti dalla tipologia del mezzo trasmissivo, come descritto al capitolo 19.
[440]Infatti al § 7.5.2 si mostra come il risultato della somma di processi indipendenti ed a media nulla abbia potenza pari alla somma delle potenze.
[441]Possiamo pensare che gli elettroni, qualora si trovino in maggior misura in una metà della resistenza, producano una differenza di potenziale negativa in quella direzione. Allo zero assoluto (- 273 oC) il moto caotico degli elettroni cessa, e si annulla così la tensione di rumore. Di qui l’aggettivo termico per descrivere il fenomeno.
[442]Si tratta di una forma della legge di Plank, vedi
[443]Espandendo ex = 1 + x + x22 + x33! + ⋯ si ottiene che per x≪1 risulta ex ≃ 1 + x, e quindi efkT ≃ 1 + fkT. Inoltre per T = T0 = 290  °K si ottiene fkT = 1.65 ⋅ 10 − 13f, e almeno finché f < 50 GHz si ottiene fkT < 0.01 e dunque Pn(f) = 2Rf1 + fkT − 1 = 2RfkTf = 2kTR.
[444]Ovvero rappresentativa delle stadio di uscita del dispositivo o mezzo, a cui è connesso lo stadio di ingresso del ricevitore. L’argomento viene approfondito al cap. 18.
[445]Come sarà illustrato al § 18.1.1, si parla di carico adattato quando il suo valore determina un effetto desiderato, come il massimo trasferimento di potenza in questo caso, o l’assenza di distorsione lineare qualora Zc(f) = αZg(f).
[446]Mentre la potenza di segnale (o a vuoto) è il quadrato di una tensione, quella assorbita dal carico è misurata in Watt, e per questo viene d’ora in poi indicata con W.
[447]Notiamo che lo stesso valore di SNRg è esprimibile anche come rapporto tra le potenze di segnale anziché disponibili: infatti
SNRg(f) = Pg(f)4Rg(f)112kTg = Pg(f)2kTgRg(f) = Pg(f)Pn(f)
[448]Si intende dire che il filtro non introduce altro rumore oltre a quello di natura termica. Al § 18.2 sarà illustrato come mediante il fattore di rumore FdB si possa tenere conto dal rumore introdotto da una o più reti due porte in cascata, sia di tipo passivo come nei collegamenti radio o su rame, sia di tipo attivo come per amplificatori e mixer.
[449]Noto come teorema di Isserlis, vedi https://en.wikipedia.org/wiki/Isserlis'_theorem.
[450]Vedi https://math.stackexchange.com/questions/957351/proving-isserlis-theorem-for-n-4 per la dimostrazione del caso di quarto ordine.
[451]Le permutazioni si definiscono equivalenti se accoppiano con ordine diverso o in posizione diversa le stesse v.a.. Ad esempio, per quattro v.a. si ha
  E{x1x2x3x4} = E{x1x2}E{x3x4} + E{x1x3}E{x2x4} + E{x1x4}E{x2x3}
mentre per un momento di ordine 6 si ottengono 15 termini. Se il momento misto coinvolge un numero di v.a. inferiore al suo ordine, come per le (10.215), le permutazioni intendono indicare la posizione di ogni v.a., e non il suo pedice.
[452] Per calcolare il logaritmo in base 2, sussiste la relazione log2α = log10αlog102 ≃ 3.322 ⋅ log10α. O più in generale, log2α = logβαlogβ2
[453]La notazione α indica l’intero superiore ad α: ad esempio con L = 10 occorrono M = log210 = 3.322 = 4 binit/simbolo, come se fosse stato L = 16.
[454]Si noti la differenza: la ridondanza della codifica di sorgente indica la frazione di binit/simbolo che eccedono il valore dell’entropia, mentre la ridondanza della codifica di canale (pag. 1) indica il rapporto tra binit di protezione e quelli di effettivamente emessi dalla sorgente.
[455]Mettere in corrispondenza i diversi simboli di sorgente con una loro codifica binaria è detta codifica per blocchi, discussa al § 9.1.4, dove si mostra anche la possibilità di produrre ogni parola di uscita in corrispondenza non di un unico simbolo di sorgente alla volta, ma come equivalente di più simboli. Raggruppando ad esempio M simboli binari si ottiene una nuova sorgente equivalente con L’ = 2M simboli.
[456]Essendo biunivoca la corrispondenza tra il simbolo xk ed il gruppo di Nk binit, non vi è perdita o aggiunta di informazione.
[457]Vedi ad es. http://it.wikipedia.org/wiki/Primo_teorema_di_Shannon
[458]In effetti la (10.225) sussiste qualora il codificatore non operi indipendentemente su ogni simbolo di sorgente, ma più in generale possa emettere i binit in corrispondenza di sequenze di xk via via più lunghe. Torneremo su questo aspetto al § 9.1.4, dove il teorema sarà dimostrato.
[459]Ad esempio, un valore η = 0.33 indica che ogni binit trasporta solo 13 di bit di informazione.
[460]Sebbene la (10.222) esprima la ridondanza come D = 1 − HsM, dopo la codifica i simboli di sorgente sono rappresentati (in media) da N binit anziché M, dunque otteniamo η + D = HsN + 1 − HsN = 1.
[461]Vedi ad es. https://en.wikipedia.org/wiki/Kraft-McMillan_inequality
[462]Ad esempio, la sequenza 10110010 potrebbe essere interpretata come x3x4x1x1x3 oppure x2x1x4x1x1x2x1 od anche x3x2x2x1x1x3
[463]Nonostante il codice C non soddisfi la regola del prefisso, non è ambiguo in quanto lo zero indica comunque l’inizio di una nuova codeword.
[464]Soddisfare la (10.228) con il segno di uguale è una condizione solamente necessaria, ma non sufficiente, per ottenere di un codice ottimo.
[465]Vedi http://en.wikipedia.org/wiki/Huffman_coding
[466]Per approfondimenti si veda
https://www2.cs.duke.edu/csed/curious/compression/adaptivehuff.html, mentre per una descrizione dell’algoritmo di Vitter http://en.wikipedia.org/wiki/Adaptive_Huffman_coding
[467] Infatti se calcoliamo K = Lk = 12 − Nk per Nk pari ai due valori indicati in (10.229) otteniamo nel primo caso
Lk = 12 − log21pk = Lk = 12log2pk = Lk = 1pk = 1
mentre nel secondo
Lk = 12 − (log21pk + 1) = Lk = 12log2pk ⋅ 2− 1 = 0.5Lk = 1pk = 0.5
Pertanto in entrambi i casi la disuguaglianza di Kraft K ≤ 1 è soddisfatta, e per valori intermedi si ottengono valori intermedi.
[468]Pari al numero di disposizioni con ripetizione di n oggetti estratti dagli elementi di un insieme di cardinalità L. Ad esempio, raggruppando due (n = 2) cifre decimali (L = 10), si ottiene un numero da 0 a 99, ovvero un simbolo ad L2 = 100 valori.
[469]Indicando con y la v.a. aleatoria discreta in uscita dalla sorgente a blocchi, essa risulta di tipo multivariato (§ 6.2.6), le cui le v.a. marginali sono i simboli x emessi dalla sorgente originale. L’indipendenza statistica di questi ultimi consente di scrivere Pr{y} = Pr{x1}Pr{x2}Pr{xn} in cui i valori xi sono quelli dei simboli originali che compongono y. L’entropia Hbloccos della sorgente a blocchi è definita come valore atteso dell’informazione I(y) = − log2Pr(y), e in base alla proprietà del logaritmo di un prodotto possiamo scrivere log2Pr(y) = log2Pr(x1) + log2Pr(x2) + ⋯ + log2Pr(xn), ottenendo cioè che I(y) è pari alla somma dell’informazione legata ad ogni valore x che partecipa a comporre y. Pertanto si ottiene
Hbloccos  = E{I(y)} = E{ − log2Pr(x1) − log2Pr(x2) − ⋯ − log2Pr(xn)} =   = nj = 1E{ − log2Pr(x)} = nHs
ovvero l’entropia della sorgente equivalente è esattamente pari alla somma di quella dei simboli che rappresenta.
[470]In realtà, nel caso specifico del fax le cose non stanno esattamente in questi termini: infatti, anziché usare una parola di lunghezza fissa di n binit, l’ITU-T ha definito un apposito codebook http://www.itu.int/rec/T-REC-T.4-199904-S/en che rappresenta un codice di Huffman a lunghezza variabile, in modo da codificare le run length più frequenti con un numero ridotto di bit.
[471]Il lettore più curioso si chiederà a questo punto, come è fatto il predittore. Molto semplicemente, scommette sul prossimo simbolo più probabile, in base alla conoscenza di quelli osservati per ultimi, ed ai parametri del modello markoviano: se il prossimo simbolo viene predetto in base ad una sua probabilità condizionata > 0.5, allora la maggior parte delle volte la predizione sarà corretta, ed il metodo consegue una riduzione di velocità. Nel caso di sorgenti continue, al § 9.5.4 troveremo invece alcune particolarità aggiuntive.
[472]Ad esempio con L = 96 simboli si ha n = 7, ed un dizionario iniziale con 128 posizioni, di cui 96 occupate e 32 libere.
[473]Vedi ad es. http://en.wikipedia.org/wiki/Lempel-Ziv-Welch
[474]Il realtà il dizionario non viene aggiunto, ma ri-generato durante il processo di decodifica, come illustrato al link di cui alla nota precedente.
[475]Vedi ad es. https://en.wikipedia.org/wiki/Phil_Katz
[476]Vedi ad es. http://tools.ietf.org/html/rfc1951
[477] In effetti esiste una misura di entropia assoluta per sorgenti continue, che però ha la sgradevole caratteristica di risultare sempre infinita. Infatti, approssimando la (10.234) come limite a cui tende una sommatoria, e suddividendo l’escursione dei valori di x in intervalli uguali Δx, possiamo scrivere
habs(x)  =  limΔx → 0ip(xi)Δxlog21p(xi)Δx  =  limΔx → 0ip(xi)Δxlog21p(xi) + p(xi)Δxlog21Δx = h(x) + h0
in cui h(x) è proprio la (10.234) mentre h0 = − limΔx → 0log2Δx −∞p(x)dx = − limΔx → 0log2Δx = ∞. D’altra parte, la differenza tra le entropie assolute di due sorgenti z e x risulta pari a habs(z) − habs(x) = h(z) − h(x) + h0(z) − h0(x), in cui la seconda differenza tende a  − log2ΔzΔx che, se z ed x hanno la medesima dinamica, risulta pari a zero.
[478]Approfondimenti presso https://en.wikipedia.org/wiki/Principle_of_maximum_entropy
[479]Vedi anche la trattazione al § 17.1.3 e seguenti nel caso in cui X ed Y siano le grandezze in ingresso ed in uscita da un canale di comunicazione.
[480]Vedi ad es. https://en.wikipedia.org/wiki/Mutual_information, ma anche la nota 925 a pag. 17.1
[481]Ciò deriva dall’essere le d.d.p. presenti sia a numeratore che a denominatore dell’argomento di log2.
[482]Vedi ad es. https://en.wikipedia.org/wiki/Kullback-Leibler_divergence
[483]Vedi ad es. https://en.wikipedia.org/wiki/Rényi_entropy
[484]Questo limite può essere causato da una insufficiente capacita di canale (§ 17.3), o da una limitata disponibilità di risorse, come ad es. nella archiviazione dei dati in memoria.
[485]La perdita di informazione per messaggi discreti determina la corruzione del messaggio, come la mancanza di parti di testo, di un’immagine, o di un video. Ma nel caso di trasmissione dati si preferisce impiegare più tempo per la trasmissione, piuttosto che perdere informazione.
[486]Al § 17.3 si mostra come la massima intensità di informazione R (associata ad un segnale x(t) di potenza S ricevuto dopo aver attraversato un canale ideale con banda W ed alla cui uscita è presente un rumore n(t) gaussiano bianco di potenza N) non può superare un limite C noto come capacità di canale, pari a C = Wlog21 + SN bit per secondo.
[487]Per sorgenti continue d(, x) può ad es. corrispondere ad un valore quadratico medio (o varianza, o potenza) dell’errore di quantizzazione dei suoi campioni (§ 4.1), mentre p( ⁄ x) dipende dalla caratteristica di quantizzazione f(x) (§ 4.3), e fornisce prob. pari ad uno al valore quantizzato k (o centroide) associato all’intervallo Ik in cui cade il campione x (vedi anche §§ 4.3.2 e 10.1.2.4). Prevedere anche per un valore probabilistico generalizza sia il concetto che la trattazione.
[488]Per gli amanti del rigore analitico, il processo logico-matematico che motiva tale definizione viene sviluppato ad esempio al cap. 13 del testo Elements of Information Theory di T.M. Cover e J.A. Thomas (1991, Wiley), reperibile ad es. presso
http://www.cs-114.org/wp-content/uploads/2015/01/Elements_of_Information_Theory_Elements.pdf
[489]Per incognito, oppure statisticamente indipendente da x.
[490]Benché esista un metodo iterativo di soluzione, vedi
.  https://en.wikipedia.org/wiki/Blahut-Arimoto_algorithm
[491]Ciò è conseguenza del fatto che, come osservato a pag. 1, l’entropia differenziale di una v.a. dipende dal suo valore medio, che in questo caso è .
[492]Ciò deriva dal considerare x =  + e con ed e v.a. gaussiane statisticamente indipendenti, di varianza rispettivamente e σ2x − D e D: in tali condizioni si ottiene E{(X − )2} = D e I(X;) = 12log2σ2xD.
[493] R = − 12log2Dσ2x ⟹  − 2R = log2Dσ2x ⟹ 2 − 2R = Dσ2xD = 2 − 2Rσ2x
[494]Ad esempio per una v.a. uniforme si ottiene QU = 0.703 ⋅ σ2x
[495]La dimostrazione penso sia simile a quella del § 9.3.2, con le complicazioni della notazione matriciale.
[496]Infatti limn → ∞hn(X) = 12log2(2πelimn → ∞( det(Rx))1n)  ⇒ 
.      ⇒  2h(X) = log2(2πelimn → ∞( det(Rx))1n)  ⇒  22h(X) = 2πelimn → ∞( det(Rx))1n  ⇒ 
.      ⇒  22h(X)2πe = Q = limn → ∞( det(Rx))1n. Per la seconda uguaglianza della (10.252), si veda il § 9.6.3.
[497]Vedi https://en.wikipedia.org/wiki/Spectral_flatness, o meglio N.S. Jayant, P. Noll, Digital Coding of Waveforms, 1984 Prentice Hall. Si può mostrare che γ2x può essere interpretato come il rapporto tra la media geometrica e la media aritmetica della densità spettrale di potenza Px(f) del processo x(t) limitato in banda ± W: indicando con Sk = Px(fk), k = 1, 2, ⋯, N, i campioni equispaziati della densità spettrale valutati a frequenze positive fk tra zero e la massima frequenza , si ha
γ2x = limN → ∞(Nk = 1Sk)1N1N Nk = 1Sk = exp12W W − Wln Px(f)df12W W − WPx(f)df
Nel caso di un processo bianco, per il quale i valori Sk sono tutti uguali, le due medie coincidono, e γ2x = 1. Altrimenti, γ2x risulta tanto più piccolo quanto più i valori Sk si discostano dal loro valore medio.
[498]Di questo non viene fornita dimostrazione, di cui trovo indicazione essere presente in T. Berger, Rate distortion theory, Prentice-Hall 1971, che non trovo pubblicamente disponibile in rete.
[499]I risultati indicati sono derivati al § 9.6.4
[500]Infatti la (10.257) può essere riarrangiata come Dσ2x = 1 − α1 + α mentre dalla (10.256) si ottiene Dσ2x = 2 − 2R(1 − α2); dunque 1 − α1 + α = 2 − 2R(1 − α2)  ⇒  2 − 2R = 1 − α1 + α 11 − α2 = 1(1 + α)2 e quindi infine R = − 12log21(1 + α)2 = log2(1 + α)2 = log2(1 + α)
[501]Vedi ad es. https://en.wikipedia.org/wiki/Lagrange_multiplier
[502]La matrice Jacobiana J{g(x)} (associata ai vincoli gi(x)) è stata introdotta al 6.4.2, ed essendo la sua i − esima riga riga ottenuta come la sequenza delle derivate parziali gixj, si ottiene impilando i vettori gradiente xgi(x) calcolati per ciascun vincolo.
[503]Vedi ad es. https://www.geogebra.org/m/gXyun8mD
[504]Un metodo alternativo è mostrato in https://en.wikipedia.org/wiki/Differential_entropy, mentre https://kconrad.math.uconn.edu/blurbs/analysis/entropypost.pdf approfondisce la questione.
[505]Considerando la derivata come limite di un rapporto incrementale, si tratta di una conseguenza di https://it.wikipedia.org/wiki/Passaggio_al_limite_sotto_segno_di_integrale
[506]Infatti sappiamo che 12πσxe− x22σ2xdx = 1 ovvero, ponendo 12σ2x = β e dunque σ2x = 12β otteniamo e− βx2dx = 2πσ2x = 2π2β = πβ.
[507]Vedi https://en.wikipedia.org/wiki/Differential_entropy
[508]La trattazione segue quella fornita in N.S. Jayant, P. Noll, Digital Coding of Waveforms, 1984 Prentice Hall.
[509]In base a quanto riportato presso https://en.wikipedia.org/wiki/Szego_limit_theorems il teorema si applica quando gli autovalori sono quelli di una matrice di Toeplitz, i cui elementi sono coefficienti di Fourier di una funzione definita sul cerchio unitario, esattamente come nel nostro caso.
[510]Infatti indicando il secondo membro di (10.261) con α otteniamo
limn → ∞ln ni = 1λi1n = limn → ∞ln ( det(Rxx)1n) = α e dunque eα = limn → ∞ det(Rxx)1n
[511]http://www.itu.int/rec/T-REC-G.711/e
[512]Una raccolta di riferimenti a risorse relative a codec audio orientati alle applicazioni multimediali può essere trovata presso https://teoriadeisegnali.it/story/labtel/
[513]http://en.wikipedia.org/wiki/Pitch_accent_(intonation)
[514]Si applica in pratica la stessa teoria valida per le linee elettriche, in cui al posto di tensione e corrente, ora si considerano rispettivamente pressione p e velocità u
[515]Si tratta di un fenomeno in qualche modo simile a quello che si verifica soffiando in una bottiglia, e producendo un suono che dipende dalla dimensione della stessa.
[516]I diversi suoni vocalici e/o consonantici (detti fonemi) sono prodotti mediante diverse posture articolatorie (la posizione di lingua, mascella e labbra), ovvero diversi profili d’area del tratto vocale, nonché l’attivazione o meno del tratto nasale. Presso https://www.youtube.com/watch?v=6dAEE7FYQfc è mostrato il video di una risonanza magnetica effettuata durante l’eloquio. In definitiva ai diversi fonemi corrispondono differenti frequenze formanti, e dunque una diversa risposta in frequenza.
[517]I simboli usati sono noti come arphabet, vedi http://en.wikipedia.org/wiki/Arpabet, e la pronuncia dovrebbe essere qualcosa del tipo sciuduiceis.
[518]Tratti da https://books.google.it/books?id=Z6Otr8Hj1WsC
[519]Una finestra di 10 msec ha durata comparabile con il periodo di pitch, e ciò produce l’effetto a striature verticali del primo diagramma, meno pronunciato verso la fine, dove il pitch è più elevato. Una finestra di 40 msec si estende su più periodi di pitch, e determina una migliore risoluzione in frequenza, cosicché nel diagramma inferiore si possono notare delle striature orizzontali che corrispondono alle armoniche della frequenza di pitch.
[520]Una sillaba può estendere la sua durata tra 10-15 msec per le vocali ridotte, fino a più di 100 msec per quelle accentate.
[521]Sottintendendo una ipotesi di stazionarietà ed ergodicità non vera, ma molto comoda per arrivare ad un risultato.
[522]La (10.265) è effettivamente una stima della autocorrelazione del segnale a durata limitata che ricade nella finestra di analisi, mentre l’inclusione nella sommatoria di un numero di termini pari al numero di campioni disponibili porta ad un diverso tipo di risultato, detto metodo della covarianza, ed un diverso modo di risolvere il sistema (10.266).
[523]dette di Yule-Walker, vedi ad es. https://it.wikipedia.org/wiki/Equazioni_di_Yule-Walker
[524] In base alle assunzioni adottate, Ryy(j) risulta una funzione pari dell’indice j, e la corrispondente matrice dei coefficienti viene detta di Toeplix, consentendone l’inversione mediante il metodo di Levinson-Durbin (vedi https://en.wikipedia.org/wiki/Levinson_recursion), che presenta una complessità O(n2) anziché O(n3), come sarebbe necessario per invertire la matrice dei coefficienti.
[525]Una breve analisi della relazione tra dft e trasformata zeta è svolta al § 4.5.1, ma vedi anche § 5.3.2.2.
[526]Il pitch varia durante la pronuncia di una frase in accordo alla sua semantica, alla lingua, ed all’enfasi emotiva impressa dal parlatore. Da un punto di vista musicale, la dinamica dei valori (da metà al doppio) si estende quindi su di un intervallo di due ottave. L’intera gamma dei registri dell’opera si differenzia per 22 semitoni, dal Mi2 del basso al Do4 del soprano, ovvero un rapporto di frequenze pari a 3,6.
[527]In realtà prima del calcolo della autocorrelazione il segmento di segnale è stato moltiplicato per una finestra di Hamming, che provoca lo smussamento visibile ai bordi.
[528]In questo modo si evita anche di dover operare una esplicita decisione sonoro/sordo, visto che in realtà le due fonti di eccitazione posso essere presenti contemporaneamente, come per i cosiddetti suoni affricati.
[529]Generato per tentativi, oppure da scegliere in un dizionario di sequenze di eccitazione già codificate.
[530]Il filtro di pesatura percettiva si ottiene a partire dagli stessi coefficienti di predizione ai che descrivono l’andamento spettrale della finestra di segnale, definendo la sua trasformata zeta come W(z) = A(zα1)A(zα2) = H(zα2)H(zα1) in cui, se α1, 2 sono numeri reali, i poli di W(z) si trovano alle stesse frequenze di quelli di H(z) ma con raggio α2 volte maggiore, così come gli zeri di W(z) hanno modulo α1 volte maggiore. Scegliendo 0 < α1, 2 < 1 e α1 > α2 per la W(z) si ottiene l’effetto desiderato, e mostrato in fig. 10.16
[531]La procedura di minimizzazione determina una eccitazione tale da rendere bianco il residuo al suo ingresso; dato però che questo ha subito il filtraggio da parte di W(z), significa che le frequenze attenuate da W(z) sono in realtà enfatizzate nel segnale di errore reale.
[532]In effetti, mentre i coefficienti spettrali (denominati parcor in questo caso) sono determinati a partire dall’analisi dell’intera finestra di 20 msec, l’eccitazione rpe ed i parametri ltp sono ottenuti a partire da sottofinestre di 40 campioni, pari a 5 msec.
[533]Vedi ad es. https://en.wikipedia.org/wiki/Vector_quantization
[534]Per questa classificazione, così come per poter definire l’insieme dei centroidi, occorre che sia definita una funzione di distanza tra vettori.
[535]Vedi http://www.data-compression.com/vq.html (al 11/2021 non sembra rispondere), ma anche la nota 165 a pag. 4.3, così come https://en.wikipedia.org/wiki/K-means_clustering
[536]Vedi ad es. https://en.wikipedia.org/wiki/Algebraic_code-excited_linear_prediction
[537]vedi http://en.wikipedia.org/wiki/Speex
[538]Eseguito mediante un banco di filtri polifase, vedi § 5.4 oppure ad es.
http://en.wikipedia.org/wiki/Polyphase_quadrature_filter o
http://cnx.org/content/m32148/latest/. Le uscite dei filtri polifase, anche se campionate a frequenza inferiore della velocità di Nyquist, sono esenti da aliasing, che viene cancellato dall’effetto delle altre sottobande.
[539]Vedi http://en.wikipedia.org/wiki/Modified_discrete_cosine_transform
[540]Esempi di formati per la grafica vettoriale sono pdf, eps, pdf, e vrml.
[541]Per alcuni anni, si è usato come sinonimo anche il termine pel, vedi ad es.
http://www.foveon.com/files/ABriefHistoryofPixel2.pdf.
[542]Il sito di ITU-R http://www.itu.int/ITU-R/index.asp?category=information&link=rec-601&lang=en non consente l’accesso pubblico alla raccomandazione. Un approfondimento può essere svolto presso Wikipedia http://it.wikipedia.org/wiki/BT.601.
[543]Vedi fig. 25.2 a pag. 1.
[544]La figura è tratta da Wikipedia, dove possono essere approfonditi gli altri aspetti legati a queste risoluzioni video https://it.wikipedia.org/wiki/Risoluzione_dello_schermo.
[545]Vedi nota 1515 a pag. 25.1.
[546]Per una breve introduzione alla quantizzazione cromatica, può essere consultata Wikipedia http://en.wikipedia.org/wiki/Color_quantization
[547]Il documento di specifica può essere trovato presso W3C: http://www.w3.org/Graphics/GIF/spec-gif89a.txt
[548]Reperibile presso il sito di ietf: http://tools.ietf.org/html/rfc2083
[549]Scaricabile presso il W3C: http://www.w3.org/Graphics/JPEG/itu-t81.pdf
[550]Notiamo incidentalmente come le dimensioni definite nella tabella di pag 1 siano multipli interi di 8. Se questo non è il caso, i blocchi ai bordi destro ed inferiore vengono riempiti con pixel scelti in modo da minimizzare le distorsioni risultanti.
[551]Potremmo tentare comunque di estendere le considerazioni svolte al § 4.5.3 al caso bidimensionale...
[552]La nuova sequenza di coppie corrisponde ad una sequenza di coefficienti ac pari a 6  7  0  0  0  3   − 1  0  0 …… 0
[553]Il confronto è svolto considerando i soli valori di luminanza, e la similitudine valutata come media tra i valori assoluti delle differenze di luminanza.
[554]l’effettiva estensione dell’area di ricerca non è oggetto di standardizzazione, mentre lo è la rappresentazione del risultato della ricerca.
[555]Viene decretato il fallimento quando anche la migliore compensazione di movimento possibile non determina una riduzione della quantità di bit, rispetto ad una codifica jpeg.
[556]Vedi ad es. http://www0.cs.ucl.ac.uk/teaching/GZ05/08-h261.pdf (una presentazione di Mark Handley), o la trattazione su http://en.wikipedia.org/wiki/H.261.
[557]Il Common Intermediate Format (cif) è stato pensato per facilitare la compatibilità con pal e ntsc; il Quarter-cif ha una superficie di 14. Sono poi stati anche definiti il 4cif e 16cif, oltre che il sif (352 x 240) che interopera con flussi mpeg.
[558]First in First out, è la disciplina di coda del primo arrivato primo servito, opposta a lifo Last In First Out, realizzata come uno stack.
[559]Nel 1998 viene rilasciato l’H.263v2, noto anche come H.263+ o H.263 1998, e nel 2000 è emesso l’H.263v3 noto anche come H.263++ o H.263 2000; inoltre l’MPEG-4 Part 2 è compatibile con l’H.263, in quanto un bitstream H.263 di base viene correttamente riprodotto da un decodificatore MPEG-4.
[560]Qualcuno potrebbe aver notato che nella definizione degli standard fin qui discussi, non sono previsti controlli di tipo checksum nel bitstream prodotto. D’altra parte essendo le informazioni codificate di natura auto-sincronizzante, la presenza di errori determina presto presso il ricevitore una condizione di disallineamento, e la decodifica di valori non previsti, come ad esempio la ricezione di vettori di movimento o coefficienti dct fuori dinamica, o codeword di Huffman non valide, od un numero eccessivo di coefficienti. Per tale via, il ricevitore diviene in grado di accorgersi che si è verificato un errore.
[561]ad es., 22 macroblocchi in risoluzione cif
[562]Si intende una risoluzione verticale ed orizzontale, mentre il rapporto tra le superfici è pari a 4 volte.
[563]Per un approfondimento, vedi http://en.wikipedia.org/wiki/Packetized_elementary_stream
[564]In realtà pts e dts non sono inseriti in tutti i pacchetti, ma una volta ogni tanto (con intervalli fino a 700 msec per i ps e 100 msec per i ts): il decoder rigenera infatti localmente il clock, ed i timestamp ricevuti servono a mantenerlo al passo con quello trasmesso.
[565]in realtà le intestazioni dei pacchetti del ts possono essere estese e contenere più di 4 byte: in questo caso, la dimensione del payload si riduce, in modo che il totale sia ancora 188.
[566]Un payload vuoto è in realtà comunque riempito di 184 bytes inutili, e viene inserito da parte del multiplatore che realizza il ts per mantenere una riserva di banda che consenta di assecondare le fluttuazioni di velocità dei tributari.
[567]Altri pid riservati sono l’uno, che annuncia la presenza di una Conditional Access Table (cat) contenente i parametri crittografici per visualizzare contenuti a pagamento, ed il pid 18, che annuncia la presenza della Network Information Table (nit), che descrive altri ts disponibili. Per approfondimenti, vedi http://en.wikipedia.org/wiki/Program-specific_information.
[568]Ma non sempre questo impedisce la comunicazione, vedi § 16.9.
[569]Un minimo di approfondimento (per il gsm) può essere trovato al § 26.1...
[570]Un altro fattore rilevante è la limitazione della potenza che è possibile immettere su di un singolo collegamento telefonico e che, associato al precedente, caratterizza il canale telefonico come limitato sia in banda che in potenza, e dunque con capacità (§ 17.3) C = Wlog21 +  PsN0W dipendente solo dal livello di rumore. La limitazione in potenza è motivata storicamente da problemi di diafonia (pag. 1) dovuti a fenomeni di induzione elettromagnetica, mentre attualmente è determinata dalla limitata dinamica del segnale che viene campionato e trasmesso in forma numerica (§ 4.3.2).
[571]Questo valore massimo nominale determina che la frequenza di campionamento del PCM telefonico è pari a 2*4000 = 8000 campioni al secondo. Utilizzando 8 bit/campione, si ottiene la velocità binaria fb =  64000 campioni/secondo. Velocità inferiori si possono conseguire adottando metodi di codifica di sorgente per il segnale vocale, vedi § 10.1.
[572]L’ibrido telefonico è un trasformatore con quattro porte, che realizza la separazione tra le due vie di comunicazione che viaggiano sullo stesso cavo (vedi §  24.9.1). Nel caso di una linea ISDN, invece, il telefono stesso effettua la conversione numerica, ed i campioni di voce viaggiano nei due sensi (tra utente e centrale) secondo uno schema a divisione di tempo (vedi §  24.9.2).
[573]Nel secolo scorso venne definita una vera e propria gerarchia di multiplazione, i cui livelli detti di gruppo, super gruppo, gruppo master e gruppo jumbo accolgono rispettivamente 12, 60, 600 e 3600 canali voce, per essere trasmessi su doppino, cavo coassiale, o ponte radio. Un approfondimento presso https://www.vialattea.net/content/883/ e https://en.wikipedia.org/wiki/L-carrier.
[574]Antenne più corte di λ hanno una efficienza ridotta, ma sono ancora buone. Altrimenti la radio AM (540 - 1600 KHz) avrebbe bisogno di 3 ⋅ 1081000 ⋅ 103 =  300 metri ! Al § 20.5.3 è riportata una tabella dei valori di λ per i diversi servizi di tlc.
[575]Per brevità, qui e nel seguito adottiamo a volte la notazione 2πf0 = ω0.
[576]Si faccia uso della relazione cos(α + β) = cosαcosβ − sinαsinβ.
[577]Indicata anche come am (amplitude modulation).
[578]Indicata anche come pm (phase modulation).
[579]Le modalità di sincronizzazione della portante utilizzata al ricevitore rispetto a quella usata in trasmissione sono esposte al §  12.2.1.
[580]Il simbolo figure f8.25.png rappresenta un filtro passa-basso, poiché viene cancellata l’ondina superiore. Nello stesso stile, possono essere indicati un passa-alto figure f8.26.png ed un passa-banda figure f8.27.png .
[581]Si fa uso delle relazioni cos2α = 12(1 + cos2α) e sinαcosα = 12sin2α
[582]Utilizzando stavolta le relazioni sinαcosα = 12sin2α e sin2α = 12(1 − cos2α), ed eseguendo il prodotto  − sinω0t[xc(t)cosω0t − xs(t)sinω0t] .
[583]Vedi https://it.wikipedia.org/wiki/Arcotangente2.
[584] Mostriamo che una matrice di coefficienti della forma cosφ  − sinφ sinφ cosφ individua una rotazione.
figure f11.112-tris.png
Esprimiamo infatti un numero complesso x = xc + jxs in forma polare x = ρe jα, sussistendo l’uguaglianza xc = ρcosα e xs = ρsinα; con riferimento alla figura, immaginiamo ora che x ruoti in senso antiorario di un angolo (positivo) φ, ottenendo il nuovo numero complesso y = xe jφ = ρe jα + φ = yc + jys, in cui
yc = ρcos(α + φ) = ρ(cosαcosφ − sinαsinφ) = xccosφ − xssinφ    ys = ρsin(α + φ) = ρ(sinαcosφ + cosαsinφ) = xcsinφ + xscosφ
ovvero la matrice dei coefficienti corrisponde a quella preannunciata. Alternativamente, le nuove coordinate yc , ys corrispondono a quelle di un vettore fisso, ma riferito ad un sistema di assi ortogonali che ruotano in senso orario dello stesso angolo φ.
[585]Verifichiamo che il prodotto tra le matrici dei coefficienti di (14.10) e (14.11) fornisca la matrice identità
cos −sin sin cos cos sin  −sin cos  =  cos2 + sin2 cos sin − cos sin  − cos sin + cos sin sin2 + cos2  =  1 0 0 1
[586]Dato che i coefficienti cosω0t, sinω0t del sistema (14.11) sono funzione del tempo, le equazioni relative rappresentano una rotazione oraria di x(t) che “ruota” con velocità angolare ω0, ossia con un angolo ω0t che aumenta linearmente nel tempo. Pertanto le coppie di segnali (xc(t), xs(t)) e (x(t), ^x(t)) rappresentano entrambe l’evoluzione dell’inviluppo complesso x(t) = a(t)e jφ(t): mentre i segnali di banda base xc(t) e xs(t) sono e di x(t), i segnali in banda traslata x(t) e ^x(t) sono e di x(t)e jω0t, ovvero di x(t) rotante, vedi le eq. (14.4) e (14.10).
[587]Ricordiamo che la somma di due numeri complessi coniugati è pari al doppio della loro parte reale.
[588]Poneniamo qui x = ae jφ
[589]Vedi ad es. https://it.wikipedia.org/wiki/Segnale_analitico
[590]Il pedice fp sta per frequenze positive.
[591] L’eguaglianza (14.17) si può dimostrare sia nel dominio del tempo che in quello della frequenza. Partendo dalla prima delle (14.14) si ottiene infatti
x+(t)  =  12x(t)e jω0t = 12 (xc(t) + jxs(t))(cosω0t + jsinω0t) =   =  12 [(xc(t)cosω0t − xs(t)sinω0t)] +  j(xc(t)sinω0t + xs(t)cosω0t)]  =  12 (x(t) + j^x(t))
Nel dominio della frequenza si applica invece la definizione di filtro di Hilbert (in cui lo sfasamento di ± π2 equivale al prodotto di X(f) per e±jπ2 = ±j) alla trasformata di (14.17), ottenendo
X+(f) = 12 (X(f) + j^X(f)) =  12{X(f) + j[ − jX(f)]} = X(f) conf > 0 12{X(f) + j[jX(f)]} = 0 conf < 0
dato che a frequenze negative il prodotto jj = − 1 costituisce uno sfasamento di π radianti per tutte le frequenze, provocando l’elisione tra X(f) e -X(f) per tutti i valori f < 0.
[592]Infatti Hfp(f) può essere scritta come Hfp(f) = 12 + 12  sgn(f) = 12(1 + jHH(f)) (vedi eq. (14.25)) , e dunque Hfp(f)X(f) = 12 (X(f) + j(f)), da cui la (14.17).
[593]Scriviamo infatti Ex(f) = |X(f)|2 = X(f)X*(f) da cui otteniamo
Ex(f)  = 14(X(f − f0) + X*( − f − f0))(X*(f − f0) + X( − f − f0)) =   = 14(X(f − f0)X*(f − f0) + X*( − f − f0)X( − f − f0)) = 14(Ex(f − f0) + Ex( − f − f0))
in quanto i prodotti X(f − f0)X( − f − f0) e X*( − f − f0)X*(f − f0) sono nulli, dato che in entrambi i casi i fattori risiedono in regioni di frequenza disgiunte,
[594]La (14.20) può essere motivata seguendo le stesse linee guida indicate alla nota 364 a pag. 7.2.
[595]Approfittiamo dell’occasione per notare che, pur potendo scrivere X(f) = Xc(f) + jXs(f), non è assolutamente lecito dire che {X(f)} = Xc(f) e {X(f)} = Xs(f); infatti sia Xc(f) che Xs(f) possono a loro volta essere complessi (mentre xc(t) e xs(t) sono necessariamente reali).
[596]In realtà si ottiene Rxcxs(τ) = 0 ogni volta che Px(f) ha simmetria pari rispetto ad f0.
[597]Per un approfondimento, vedi ad es. https://en.wikipedia.org/wiki/Hilbert_transform, di cui accenniamo brevemente solamente alcuni risultati::
[598]Come illustrato al § 6.3.7, il processo risultante diviene ergodico qualora al coseno sia aggiunta una fase aleatoria uniformemente distribuita.
[599]Infatti (eq. (14.33)) Rxcxs(τ) = ^Rx(τ)cosω0τ − Rx(τ)sinω0τ, in cui Rx(τ) = F −1{ Px(f)} è pari e sinω0t è dispari, mentre ^Rx(τ) è dispari (non è stato dimostrato, ma vale per le trasformate di Hilbert di segnali pari) e cosω0τ è pari. Inoltre, essendo xc(t) ed xs(t) reali, Rxcxs(τ) è reale.
[600]Per i segnali numerici si usano tecniche peculiari, esposte al capitolo 16.
[601]Qualora xc(t) e xs(t) siano due segnali indipendenti, la forma di modulazione di ampiezza risultante viene detta segnale qam (quadrature amplitude modulation), vedi § 16.3.
[602]Come sarà più chiaro nel seguito, l’acronimo vsb evoca il fatto che, anziché sopprimere completamente una delle due bande laterali, se ne mantengono delle vestigia.
[603]Considerando che la portante del segnale ricevuto può avere una fase arbitraria, e che con una traslazione temporale ci si può sempre ricondurre ad usare una funzione cosω0t, tale convenzione individua il caso più generale di un segnale modulato del tipo x(t) = a(t)cos(ωot + φ) con φ costante. Infatti, introducendo un ritardo τ = φ2πfo si ottiene x(t − τ) = a(t − τ)cos(2πf0(t − τ) + φ) = a(t − τ)cos(2πf0t).
D’altra parte, risultando a(t)cos(ωot + φ) = a(t)(cos(ωot)cosφ − sin(ωot)sinφ) si ottiene che la presenza di una fase incognita φ determina la ricezione di un segnale modulato le cui c.a. di b.f. risultano pari a xc(t) = a(t)cosφ e xs(t) = a(t)sinφ, e che quindi variano in simultanea. Pertanto, in base ai risultati del § 13.1.2.4, il segnale modulato equivale a quello in cui è presente la sola componente in fase xc(t), ma al quale un errore nella fase di demodulazione imprime una rotazione di angolo φ al piano dell’inviluppo complesso.
[604]Cioè che non dipende dal messaggio modulante m(t).
[605]Vedi nota 617 a pag. 12.2.
[606]Il segnale PI(t) = m2(t) può essere indicato come potenza istantanea di m(t), e PMaxI indicato come la sua potenza di picco.
[607]Ad esempio, nel caso in cui m(t) sia un processo con densità di probabilità uniforme tra ± Δ2, la potenza di picco risulta essere Δ24 = 3σ2M, dato che (come mostrato al § 6.2.3) in quel caso risulta σ2M = Δ212; se invece m(t) = asin2πfMt, allora si ha una potenza di picco a2 = 2σ2M (dato che PM = σ2M = a22). Oppure ancora, se m(t) è gaussiano la potenza di picco (e dunque a2P ⁄ k2a per ottenere la portante intera) risulta infinita. E cosa accade allora? Si avrà necessariamente una portante ridotta...
[608]Nel caso ad esempio di ampie zone di immagine uniformi ed a luminosità costante, il segnale è praticamente costante.
[609]Il dispositivo fisico che effettua la moltiplicazione per una portante viene indicato in letteratura con il termine di mixer, il cui significato letterale è mescolatore. Dato che lo stesso termine è usato anche per indicare un circuito od apparato in grado di realizzare la somma di più segnali, come ad esempio avviene per il mixer audio di un sistema di amplificazione sonora, per distinguere i due casi si può parlare di mixer additivo oppure moltiplicativo, come nel nostro caso. In appendice 12.4.1 sono illustrate due tecniche di realizzazione del mixer.
[610]Dato che un qualunque canale presenta un ritardo di propagazione τ, la portante del segnale ricevuto sarà nella forma cos2πf0(t − τ) = cos(2πf0t − 2πf0τ) = cos(2πf0t − φ), ovvero sarà sempre presente una fase φ = 2πf0τ incognita. Nel caso poi di un collegamento radiomobile, può anche essere presente un errore di frequenza, dovuto all’effetto doppler., vedi § 20.4.6.
[611]Le ultime due definizioni sono orientate a differenziarsi dal metodo di demodulazione eterodina, che in realtà si è affermato prima della praticabilità di quello omodina, per i motivi esposti al § 12.2.7.
[612]Realizzato mediante un amplificatore ad elevato guadagno, portato a lavorare in saturazione.
[613]Vedi ad es. https://it.wikipedia.org/wiki/Divisore_di_frequenza
[614]Vedi ad es. https://it.wikipedia.org/wiki/Multivibratore
[615]Vedi ad es. https://it.wikipedia.org/wiki/Oscillatore_controllato_in_tensione
[616]Se ad esempio ε(τ) = Δkf ossia è costante, si ottiene y(t) = sin(2πf0t + 2πΔt) = sin[2π(f0 + Δ)t], ovvero la frequenza si è alterata di una quantità pari a Δ. Infatti, il vco realizza il processo di modulazione di frequenza, vedi eq. (14.7) a pag. 1.
[617] Un diverso circuito controreazionato in grado di operare anche per segnali a portante soppressa prende il nome di Costas loop, vedi https://en.wikipedia.org/wiki/Costas_loop, mentre al § 16.11.1 si discute di una realizzazione relativa ad una trasmissione a spettro espanso.
[618]Trascuriamo la presenza di eventuali modulazioni, il cui effetto si intende mediato dalla caratteristica passa-basso del pll, dovuta sia all’integratore presente nel vco, che al filtro di loop.
[619]Utilizziamo qui la relazione cosαsinβ = 12 [sin(α + β) + sin(α − β)].
[620]La grandezza di controllo ε(t) proporzionale a sin(Δθ) si azzera per Δθ = kπ con k intero, positivo o negativo. Per k dispari si hanno condizioni di instabilità, in quanto ad es. per Δθ che aumenta o diminuisce rispetto a Δθ = π, il segno di ε è rispettivamente negativo e positivo, causando un ulteriore ritardo o aumento di ^θ(t) che causa un ulteriore aumento o diminuzione di Δθ, finché questo non raggiunge il valore 0 o 2π, corrispondenti a condizioni di stabilità. In altre parole, se |Δθ| < π si determina un transitorio alla fine del quale ε → 0, mentre se π < |Δθ| < 3π il transitorio converge verso ε → 2π, e così via.
[621]Notiamo che un moltiplicatore, seguito da un filtro passabasso, esegue il calcolo dell’intercorrelazione tra gli ingressi del moltiplicatore (vedi § 7.5.4), che nel nostro caso è una sinusoide.
[622]Inoltre, le prestazioni del PLL dipendono fortemente anche dalla banda e dall’ordine del filtro di loop, che limita la velocità di variazione di ε(t) e l’estensione dell’intervallo di aggancio. Lo studio teorico si basa sull’uso della trasformata di Laplace e sulla approssimazione sin(Δθ) ≃ Δθ, in quanto così il PLL può essere studiato come un sistema di controllo linearizzato, sommariamente descritto al § 12.3.2.1. Per approfondimenti, vedi http://it.wikipedia.org/wiki/Phase-locked_loop.
[623]Si applichi cosαcosβ = 12 [cos(α + β) + cos(α − β)].
[624]Per il ramo in fase risulta
yc(t)  =  (xc(t)cos(ω0t + θ) − xs(t)sin(ω0t + θ)) ⋅ cosω0t =   =  xc(t)cos(ω0t + θ)cosω0t − xs(t)sin(ω0t + θ)cosω0t =   =  12 xc(t)[cos(2ω0t + θ) + cosθ] − 12 xs(t)[sin(2ω0t + θ) − sin( − θ)]
mentre svolgendo simili sviluppi per il ramo in quadratura, si giunge a
ys(t) = 12xc(t)[sinθ − sin(2ω0t + θ)] + 12xs(t)[cos(θ) − cos(2ω0t + θ)]
Anche qui i filtri passabasso eliminano le componenti centrate a 2f0, permettendo di ottenere la (14.47).
[625]La ricerca dell’emittente può essere l’azione banale di sintonizzare a mano la propria radio sul programma preferito, oppure (come si dice, in modalità ricerca automatica), mediante un circuito del tipo di cui stiamo discutendo, con il quale vengono provate diverse portanti di demodulazione, finché non si riscontra un segnale in uscita.
In generale, la ricezione della comunicazione vera e propria viene preceduta da una fase di acquisizione della portante, svolta ad esempio come qui accennato, dopodiché la sincronizzazione è mantenuta mediante interventi automatici (ad es. via pll), necessari qualora si tratti di dover compensare le variazioni di frequenza dovute ad esempio al movimento reciproco di trasmettitore e ricevitore (effetto doppler), come per il caso delle comunicazioni con mezzi mobili, vedi § 20.4.6.
[626]Il simbolo figure f9.8b.png rappresenta un diodo, costituito da un bipolo di materiale semiconduttore drogato, che ha la particolarità di condurre in un solo verso (quello della freccia).
[627]Presso http://it.wikipedia.org/wiki/Rivelatore_d'inviluppo qualche linea guida di progetto.
[628] Si può dimostrare che per l’inviluppo complesso H(f) di H(f) deve risultare: H(f) + H*(f) = cost perché in tal modo il residuo di banda parzialmente soppressa si combina esattamente con ciò che manca alla banda laterale non soppressa.
[629]Vedi ad es. https://en.wikipedia.org/wiki/Amplitude-companded_single-sideband_modulation
[630]Per la storia in maggior dettaglio, vedi ad es. https://en.wikipedia.org/wiki/Heterodyne
[631]In origine il segnale telegrafico (lett. scrittura a distanza) era trasmesso via cavo; per approfondimenti vedi https://en.wikipedia.org/wiki/Morse_code e
https://en.wikipedia.org/wiki/Wireless_telegraphy
[632]A causa di fenomeni di induzione elettromagnetica che si manifestano tra conduttori presenti all’interno del circuito di demodulazione (che perdipiù aumentano con il valore delle frequenze in gioco) la portante di demodulazione omodina può appunto rientrare nella via percorsa dal segnale modulato. Se in ingresso al mixer è presente, oltre al segnale da demodulare a portante soppressa, anche un termine alla stessa frequenza portante, si verifica un fenomeno noto come self-mixing dovuto all’eguaglianza cos2α = 12(1 + cos2α) che determina la comparsa di un termine in continua, e che non può essere eliminato mediante filtraggio passa alto qualora il segnale modulato presenti componenti energetiche prossime a frequenza zero. Lo stadio di amplificazione successivo mantiene un funzionamento lineare solo per valori di ingresso compresi in uno specifico intervallo, come discusso al § 8.3, mentre il valore medio ora presente può portare il segnale di ingresso al difuori di tale dinamica.
[633]Le difficoltà nascono sia dall’esigenza di accordare il filtro attorno alla frequenza portante desiderata, sia dalla necessità di attenuare sufficientemente le trasmissioni che avvengono su frequenze limitrofe, determinando la necessità di realizzare un filtro con regione di transizione molto ripida, problema che può divenire insormontabile se il rapporto tra banda del segnale e portante (la cosiddetta banda frazionaria) è particolarmente ridotto.
[634]Il prefisso super venne scelto come contrazione di supersonic heterodyne, e dato che agli inizi del ’900 di certo non esistevano aerei supersonici, indicava il concetto di sopra i suoni, in contrapposizione al suo uso originario di traslare il segnale radiotelegrafico in banda audio.
[635]Vedi ad es. https://en.wikipedia.org/wiki/AM_broadcasting
[636]Il valore della frequenza intermedia utilizzata per le diverse bande in cui operano sistemi di radio diffusione è determinato in seno ad enti di standardizzazione, e le autorità di concessione della licenza di trasmissione evitano di assegnare alle emittenti frequenze nella stessa banda in cui è prevista l’uso di una frequenza intermedia, allo scopo di impedire interferenze nella medesima banda da parte di una diversa trasmissione. Oltre alla MF a 455 KHz del broadcast AM, abbiamo ad esempio valori di media frequenza pari a 10.7 MHz per il broadcast FM, 38.9 MHz per la televisione, 70 MHz per trasmissioni a microonde terrestri e satellitari.
[637]Nel caso di trasmissione a portante intera lo stadio eterodina finale viene rimpiazzato da un demodulatore inviluppo, oppure ancora da un demodulatore in fase e quadratura per gli usi più generali.
[638]Vedi ad es. il caso di un trasponder satellitare, § 25.3.3
[639]Si fa qui uso della espansione in serie di potenze dell’esponenziale: ex = 1 + x + x22 + x33! + ....
[640]Un altro caso di multiplex fdm è quello del downlink di un trasponder dvb-s, introdotto al § 25.3
[641]Ricordiamo che arctan2 restituisce un angolo compreso nell’intervallo ( − π, π) anziché ( − π2, π2).
[642]La (14.51) dà luogo ad una funzione di trasferimento ad anello chiuso il cui ordine dipende da come è realizzato il filtro passa basso. Per approfondimenti, vedi https://it.wikipedia.org/wiki/Phase-locked_loop.
[643]La derivata di cos[α(t)] è pari a  − sin[α(t)]α(t), ma il segno  −  è ininfluente ai fini dell’elaborazione successiva.
[644]L’utilizzo del demodulatore inviluppo è possibile solo nel caso di una modulazione a portante intera, ovvero per cui f0kf + m(t) > 0 per t, e dunque è necessario che risulti kf < f0maxt{|m(t)|}.
[645]Da un lato, a22 è banalmente la potenza della portante di ampiezza a. Da una altro punto vista, lo stesso risultato si ottiene a partire dalla Px(f) = 14( Px(f − f0) +  Px( − f − f0)) (eq. 14.20), da cui mediante integrazione in frequenza otteniamo Px = 142 Px = a22.
[646]Si è sostituito cos con sin nel caso pm per omogeneità di formulazione, senza alterare la sostanza delle cose.
[647]Le funzioni di Bessel del primo tipo, ordine n ed argomento β sono definite come Jn(β) = 12π π − πe j(βsinx − nx)dx, riconducibili alla (14.53) mediante un cambio di variabile.
[648]Infatti
x(t)e jω0t = βn = − βJn(β)e j2πnwte j2πf0t = βn = − βJn(β)e j2π(nw + f0)t
la cui parte reale è appunto pari a βn = − βJn(β)cos2π(nw + f0)t
[649]Infatti ad ogni termine Jn(β)cos2π(f0 + nw)t della (14.54) corrisponde una densità di potenza
P(f) = J2n(β)4[δ(f − f0 − nw) + δ(f + f0 + nw)]
e la potenza della somma è pari alla somma delle potenze, in virtù della ortogonalità tra cosinusoidi.
[650]Ovvero, la fig. 12.30 mostra |X+(f)| = 12 X(f − f0) = a2 βn = − β|Jn(β)|δ(f − f0 − nw)
[651]J. R. Carson fu uno dei primi a studiare le tecniche di modulazione negli anni ’20, vedi ad es. http://en.wikipedia.org/wiki/John_Renshaw_Carson
[652]Nel caso di modulazione sinusoidale ad alto indice la (14.56) esprime la banda entro cui è contenuto il 98% della potenza del segnale modulato. Per indici 2 < β < 10 ne fornisce invece una stima per difetto, ed una approssimazione più corretta è BC ≃ 2w(β + 2).
[653]Sinceramente non ho afferrato appieno il motivo di questa limitazione. Quel che ho trovato esprime che “ciò equivale ad avere ΔfW, e quindi comporta il rispetto di una condizione detta approssimazione quasi stazionaria” e fa riferimento ad uno studio di H.E. Rowe del 1965. La tesi è che in tal caso la frequenza istantanea varia lentamente rispetto al periodo 1W della massima frequenza modulante, e dunque il segnale modulato osservato per un breve periodo è approssimato ad una sinusoide non modulata ed a frequenza costante pari a fi(t) = f0 + kfγ in cui γ è il valore di m(t) praticamente costante nel periodo di osservazione. A me sembra che perché ciò avvenga, sia sufficiente che f0≫Δf. Ma forse lo capirò con il tempo.
[654]Volendo applicare la regola di Carson per calcolare la banda, si avrebbe (considerando β≫1) BC = 2W(β + 1) ≃ 2ΔfWW = 2Δf, in cui Δf = kfΔM2. Pertanto risulta BC = 2kfΔM2 = kfΔM, in accordo al risultato previsto nel caso di modulazione ad alto indice.
Qualora si fosse invece posto β = σfW (vedi 12.3.3.4) si sarebbe ottenuto BC = 2W(β + 1) ≃ 2σfWW = 2σf = 2kfPM = 2kfΔ2M12 = 2kfΔM23 = ΔMkf3, un risultato che è circa pari a 0.58 volte quello precedente. Data le particolarità di pM(m) uniforme, in questo caso è da preferire il primo risultato.
[655]Infatti, dalla definizione fi(t) = f0 + kfm(t) si ottiene che σ2f = k2fσ2M, in cui σ2M = PM se m(t) è un processo stazionario ergodico a media nulla.
[656]Come sopra, partendo dalla relazione α(t) = kφm(t).
[657]Vedi ad es. https://en.wikipedia.org/wiki/Ring_modulation e
https://en.wikipedia.org/wiki/Gilbert_cell
[658]Infatti la formula di de Moivre asserisce che (cosα + jsinα)n = cosnα + jsinnα, come confermato anche dalla formula di Eulero (cosα + jsinα)n = (e jα)n = ejnα = cosnα + jsinnα.
[659]Per un esempio di progettazione elettronica che realizza le funzioni descritte, si veda ad esempio https://digilander.libero.it/ingcasanof/quinta/misure/modulatore_am_con_fet/
modulatore_am%20con%20fet.htm
[660]La (14.57) si ottiene applicando l’espressione per i coefficienti Yn dello sviluppo in serie di y(t) in funzione dei campioni della trasformata di un suo periodo G(f)|f = nT data dalla (10.34) ovvero Yn = 1TGnT, a quella Py(f) = n = −∞|Yn|2δ(f − nT) fornita dalla (10.160) per la densità di potenza di un segnale periodico.
[661]Infatti in base alla § 7.5.3 ad un prodotto tra processi statisticamente indipendenti corrisponde la convoluzione in frequenza delle relative densità spettrali, e la (14.58) è conseguenza della convoluzione con gli impulsi presenti nella (14.57).
[662]Dato che G(f) si annulla per f = mτ, se scegliessimo τ = 1hf0 avremmo G(f) = 0 per f = mhf0 impedendo il funzionamento del circuito per qualche armonica di f0 ⁄ k. In particolare, scegliendo h = 1 lo schema sarebbe del tutto inutilizzabile!
[663]Vedi ad es. https://www.analog.com/en/product-category/fractional-n-pll.html
[664]Vedi ad es. https://it.wikipedia.org/wiki/Oscillatore
[665]Vedi ad es. https://it.wikipedia.org/wiki/Oscillatore_al_cristallo
[666]Abbreviazione di parti per milione: 10 ppm equivalgono a 10 cicli ogni 106, ovvero un valore compreso tra 999.990 ed 1.000.010 per una frequenza nominale di 1 MHz.
[667]Vedi ad es. http://studenti.fisica.unifi.it/~carla/appunti/2008-9/slides-7.pdf
[668]Vedi ad es. https://it.wikipedia.org/wiki/Comparatore_di_fase
[669]Infatti risulta −∞X+(f)X(f)df = 0. dato che i due termini non si sovrappongono in frequenza.
[670]Per dimostrare il risultato, mostriamo innanzitutto che il segnale analitico in uscita vale y+(t) = x+(t) * h+(t). Infatti, omettendo di indicare nei passaggi la variabile (t) per compattezza di notazione, risulta
x+(t) * h+(t) = [x * hfp] * [h * hfp] = [x * h] * [hfp * hfp] = y * hfp = y+(t)
in cui hfp(t) è la risposta impulsiva del filtro necessario ad estrarre il segnale analitico. Non resta ora che mostrare lo sviluppo per il risultato anticipato:
12 x(t) * h(t)  =  12 [2x+(t)e −jω0t] * [2h+(t)e −jω0t] =   =  2 −∞x+(τ)e −jω0τh+(t − τ)e −jω0(t − τ)dτ =   =  2 e −jω0t −∞x+(τ)h+(t − τ)dτ = 2 e −jω0ty+(t) = y(t)
[671]Tralasciamo di indicare la dipendenza da t per semplicità di notazione.
[672]Una considerazione del tutto simile può essere svolta qualora sia l’inviluppo complesso del segnale modulato x(t) ad essere solo reale od immaginario, ma viene rimandata al § 13.2.
[673]Come già evidenziato al § 18.4 è preferibile realizzare l’equalizzazione operando sulle c.a. di b.f. xc(t) e xs(t) da trasmettere, in modo da evitare di rendere colorato il rumore in ingresso al ricevitore. Nel caso in cui hc(t) non sia nota, occorre che presso il ricevitore venga effettuata una sua stima, vedi § 18.4.
[674]Espandiamo la (14.74) come
                       H(f) =  rect2W(f − f0) e −j2πfτe j2πf0τ +  rect2W(f + f0) e −j2πfτe −j2πf0τ
da cui antitrasformando si ottiene
h(t)  = 2W sinc(2W(t − τ))e j2πf0(t − τ)e j2πf0τ + 2W sinc(2W(t − τ))e −j2πf0(t − τ)e −j2πf0τ =   = 2W sinc(2W(t − τ))(e j2πf0t + e −j2πf0t) = 4W sinc(2W(t − τ))cosω0t
[675] La (14.76) si ottiene considerando W abbastanza elevato da poter assimilare 2W sinc(2Wt) → δ(t) ossia ad un impulso, in modo che la (14.67) produca y(t) = 12 x(t)*2δ(t − τ) = xc(t − τ) + jxs(t − τ).
[676]Il termine tra parentesi quadre in (14.77) ha anti-trasformata
  F −1{ rect2W(f − f0) +  rect2W(f + f0)} = 2W sinc(2Wt)(e j2πf0t + e −j2πf0t) = 2W sinc(2Wt)cosω0t
ma il termine e −j2πfτ presente in (14.77) produce un ritardo nell’antitrasformata, dunque il risultato (14.78)
[677]L’analisi che interpreta la trasformazione legata ad un sistema lineare con matrice dei coefficienti pari a cosφ  − sinφ sinφ cosφ come una rotazione è stata svolta alla nota 584 di pag. 11.2.
[678]Condizione indicata anche come piccola banda frazionale, definita come Bf0≪1.
[679]Detta anche condizione per un fading piatto nel caso di un collegamento radio, vedi pag. 1, mentre dal punto di vista circuitale ciò corrisponde a realizzare le condizioni di adattamento di impedenza (vedi § 18.1.1.4) in forma approssimata, ponendo Zg(f) = Zi(f0) e Zc(f) = Zu(f0), dato che per frequenze |f − f0| < B2 con Bf0, le impedenze Zi(f) e Zu(f) non variano di molto.
[680]Vedi E. Bedrosian, Distortion and Crosstalk of Linearly Filtered, Angle-Modulated Signals, presso https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/19660014309.pdf
[681]Ovvero i coefficienti dello sviluppo in serie della caratteristica ingresso-uscita, vedi nota 434 a pag. 1.
[682] Infatti, ricordando le definizioni (§ 8.2.2) tp(f) = − φ(f)2πf per il ritardo della portante e tg(f) = − 12π ddfφ(f) per il ritardo di gruppo, sussistono i passaggi
φpb(f) φpb(0) + fdφpb(f)df||f = 0 = φ(f0) + fdφ(f)df||f = f0  =  2πf0φ(f0)2πf0 + f12π dφ(f)df||f = f0 = − 2π(f0tp(f0) + ftg(f0))
[683] E’ sufficiente applicare le definizione
y(t)  = {y(t)e jω0t} = {e −j2πf0τf(f0)a(t − τg(f0)) ⋅ e jω0t} =   = {a(t − τg(f0)) ⋅ e j(2πf0t − 2πf0τf(f0))} = a(t − τg(f0))cos(2πf0(t − τf(f0)))
[684]Il pedice RF sta per radio frequency ed indica l’occupazione di banda a frequenze positive di un segnale modulato.
[685] Infatti i segnali xc(t)cosω0t e xs(t)sinω0t risultano ortogonali, e le potenze si sommano. Volendo sviluppare i calcoli, possiamo valutare Px come
Px  = E{(xAM(t))2} = E{(xc(t)cosω0t − xs(t)sinω0t)2} =   = E{(xc(t)cosω0t)2} + E{(xs(t)sinω0t)2} − 2E{xc(t)xs(t)cosω0tsinω0t}
Possiamo ora aggiungere ad entrambe le portanti una fase aleatoria uniforme in modo da renderle anch’esse processi, indipendenti da xc(t) ed xs(t). Al § 7.5.3 si è mostrato che il prodotto di processi indipendenti ed a media nulla ha potenza pari al prodotto delle potenze, e dunque i primi due termini sono rispettivamente pari a 12  Pxc e 12  Pxv. Per quanto riguarda il terzo termine, esso rappresenta il valore atteso del prodotto di processi indipendenti ed a media nulla, e dunque è nullo. Infine, sviluppando i calcoli a partire dalle medie temporali anziché di insieme si perviene al medesimo risultato.
[686]La tabella estende quella al § 12.1.4, rispetto alla quale si considera il termine ka ora inglobato in m(t).
[687]Riprendendo l’approccio adottato alla nota 685, consideriamo le portanti in fase e quadratura come realizzazioni di un processo armonico con potenza 12, moltiplicate per un processo statisticamente indipendente m(t)2 con potenza Pm2. La potenza di ciascuna c.a. di b.f. è il prodotto di queste due, e dunque partendo dalla (14.92)
Px  = 12 Pxc + 12 Pxs = 12 ⋅ 2 ⋅  Pxc = 1 ⋅ 12 Pm = 12 Pm
[688]Infatti, considerando nuovamente la portante in fase come un processo armonico indipendente da m(t) possiamo scrivere Px = η(a2p + Pm)12 = 12 Pm dato che E{(ap + m(t))2} = a2p + Pm, in quanto E{apm(t)} = 0 qualora m(t) sia a media nulla.
[689]Con questa posizione, la potenza della portante risulta (2 Px)22 = 2 Px2 =  Px.
[690]Si veda il § 14.4.1 per una analisi più approfondita degli aspetti statistici della questione, che portano a definire ρ = |r(t)| una v.a. di Rice.
[691]Si noti che le potenze σ2νc e σ2νs delle c.a. di b.f. del rumore in ingresso al discriminatore sono invece relative alla banda BN,  ≥  di quella BRF del segnale modulato.
[692]Dato che gli operatori di derivata ed integrale si annullano, ovvero Psd = Pot12πkf ddtα(t) = Pot12πkf ddt2πkf t−∞m(τ)dτ = Pot{m(t)} = Pm. In definitiva, abbiamo semplicemente demodulato!
[693]Infatti, il rapporto σfdW definito al § 12.3.3.4 come indice di modulazione βp, rappresenta appunto una misura del rapporto tra l’occupazione di banda efficace del segnale modulato, e la massima frequenza W presente nel segnale modulante.
[694]Miglioramento che può essere sfruttato quando ad esempio il collegamento è di tipo punto-punto, come nel caso di un ponte radio con antenne direttive od una comunicazione satellitare, in modo da contenere la potenza irradiata entro il cono di emissione e non invadere lo spettro radio riservato ad altre trasmissioni.
[695]L’effetto soglia interviene prima per i valori di β più elevati, vedi fig. 14.13-b.
[696]Ovvero (§ 14.1.3) x(t) e y(t) sono processi congiuntamente gaussiani ed incorrelati con media nulla e varianza σ2 = N0BN.
[697]Vedi anche il § 6.5.1. Basta moltiplicare: pX(x)pY(y) = 12πσexp − x22σ212πσexp − y22σ2
[698]Il calcolo dei due termini si esegue come
pX, Y(x(ρ, φ), y(ρ, φ)) = 12πσ2 exp − ρ2(cos2φ + sin2φ)2σ2 = 12πσ2 exp − ρ22σ2
|J(x, y ⁄ ρ, φ)| = ||| xρ xφ yρ yφ ||| = ||| cosφ  − ρsinφ sinφ ρcosφ ||| = ρ(cos2φ + sin2φ) = ρ
[699]Svolgiamo il calcolo solo per la prima relazione:
pP(ρ) = π − πpP, Φ(ρ, φ)dφ = ρ2πσ2exp − ρ22σ2π − πdφ = ρσ2exp − ρ22σ2
[700]Dato che ddρexp − ρ22σ2 = − ρσ2exp − ρ22σ2, si ottiene
λρσ2e − ρ22σ2dρ = − λ − ρσ2e − ρ22σ2dρ = −  e − ρ22σ2 λ = e − λ22σ2
[701]Infatti in questo caso risulta
pX(x)pY(y) = 12πσexp − (x’ − A)22σ212πσexp − y22σ2
[702]Sostituendo nell’esponente della (14.103) x’ = ρcosφ e y = ρsinφ, si ottiene
(x’ − A)2 + y2 = ρ2cos2φ + A2 − 2ρAcosφ + ρ2sin2φ = ρ2 + A2 − 2ρAcosφ
Osservando ora che il giacobiano della trasformazione ha un valore pari a ρ anche in questo caso, otteniamo
pP, Φ(ρ, φ)  =  pX’, Y(x(ρ, φ), y = y(ρ, φ))|J(x’, y ⁄ ρ, φ)|  =  ρ2πσ2exp − ρ2 + A22σ2expρAcosφσ2
A questo punto la saturazione della d.d.p. congiunta, operata eseguendo pP(ρ) = π − πpP, Φ(ρ, φ)dφ, determina il risultato (14.104).
[703]Anche nella figura a pag. 1 si parla di funzioni di Bessel Jn(x), ma queste modificate sono in relazione a quelle, come In(x) = j − nJn(jx) - vedi
https://it.wikipedia.org/wiki/Armoniche_cilindriche.
[704]Il valore di λML va calcolato per via numerica una volta noti σ ed A.
[705]A meno che decidere per H1 non possa provocare danni collaterali documentabili dai media.
[706]Vedi ad es. http://webuser.unicas.it/tortorella/TTII/PDF2003/decisione_bayes.pdf
[707]Vedi ad es. https://en.wikipedia.org/wiki/Neyman-Pearson_lemma
[708]Un modo di ricondursi a questo caso è quello di diminuire la banda del filtro di ingresso, riducendo così σ2 = N0BN. In questo modo però, come osservato a pag. 354, si riduce l’intervallo di frequenza Δf che può essere analizzato.
[709]Vedi https://it.wikipedia.org/wiki/Funzione_degli_errori
[710]O equivalentemente, della distanza che è possibile coprire conoscendo la potenza trasmessa, e quella che è necessario ricevere.
[711]Ovvero lascia passare solo frequenze comprese in un intervallo che non comprende l’origine.
[712]Indichiamo Ts come periodo di simbolo, mentre il suo inverso fs = 1 ⁄ Ts è detto frequenza di simbolo, baud-rate o frequenza di segnalazione, e si misura in simboli/secondo, unità di misura indicata anche come baud, in memoria di Émile Baudot, vedi http://it.wikipedia.org/wiki/Codice_Baudot.
[713]Se non fosse preso questo provvedimento, e si trasmettesse un segnale con una occupazione spettrale maggiore della banda passante del canale, nel segnale ricevuto verrebbero a mancare alcune componenti frequenziali, e di conseguenza la forma d’onda del segnale risulterebbe modificata, causando così il fenomeno di interferenza tra simboli (vedi § 15.1.2.2).
[714]Sembra giusto sottolineare che questo campionamento non ha lo scopo discusso al cap. 4, ma si tratta piuttosto qualcosa di più simile al filtro adattato (§ 7.6), che decide in base al superamento di una soglia. D’altra parte, mentre la decisione operata dal quantizzatore introduce un errore, quella del ricevitore numerico discrimina tra informazioni già discrete.
[715]Oppure mediante una seconda linea di trasmissione.
[716]Se L risulta essere una potenza di due ovvero L = 2M, ogni diverso valore rappresenta un gruppo di M = log2L cifre binarie (bit), e la trasmissione convoglia un messaggio numerico con frequenza binaria pari a fbbitsecondo = Mbitsimbolofssimbolisecondo.
[717]La modalità generale di calcolo per σ2A viene descritta alla nota 415 di pag. 1.
[718]Infatti, se i valori ak fossero tutti uguali, il segnale mg(t − mT) sarebbe semplicemente periodico, come descritto a pag. 1.
[719]Svolgendo i conti si ha
           σ2A = E{a2k} − (E{ak})2 = E{a2k} = pi(a(i)k)2 = 12 ⋅ 12 + 12( − 1)2 = 2 ⋅ 12 ⋅ 1 = 1
essendo E{ak} = 0, mentre per quanto riguarda EG(f) si ottiene
           EG(f) = |G(f)|2 = |F {g(t)}|2 = |τ sinc(fτ)e −j2πfτ2|2 = τ2  sinc2(fτ)
[720]Estendiamo il risultato al caso noto di segnale periodico. Ponendo ak = ( − 1)k si genera un’onda rettangolare, il cui spettro (mancando la componente aleatoria) è a righe, con lo stesso inviluppo di tipo sinc2(fTb).
[721]Infatti il fattore τ2Tb passa da Tb (NRZ) a Tb4 (RZ), pari ad una riduzione di 6 dB.
[722]
fb apparato Tb 10 ⁄ Tb
2.4 ⋅ 103 Modem (anni ’80) 4.2 ⋅ 10 − 3 24 KHz
28.8 ⋅ 103 Modem (anni ’90) 3.5 ⋅ 10 − 5 288 KHz
10 ⋅ 106 Thin Ethernet (anni ’90) 10 − 7 100 MHz
100 ⋅ 106 Fast Ethernet 10 − 8 1 GHz
Nella tabella a fianco è riportata l’occupazione di banda necessaria a contenere 10 lobi di un sinc(fTb) = 1TbF { rectTb(t)}, ovvero relativa ad una trasmissione binaria a velocità fb = 1Tb per alcuni casi tipici del passato: osserviamo che un’onda rettangolare può andar bene a basse velocità di trasmissione, infatti già per 10 Msimboli/sec, velocità di una LAN, occorrono 100 MHz di banda.
[723]
Posiiamo infatti sviluppare le seguente uguaglianze
y(t)  =  [kakg(t − kTs)] * h(t) = [g(t) * kakδ(t − kTs)] * h(t) =   =  g(t) * h(t) * kakδ(t − kTs) = (t) * kakδ(t − kTs) =   =  kak(t − kTs)
[724]Vedi https://it.wikipedia.org/wiki/Oscilloscopio
[725]Proseguiamo l’esposizione riferendoci direttamente al termine livelli, indicando con questo la scelta tra L possibili valori di ampiezza per il segnale trasmesso.
[726]Si tratta di un componente di elettronica digitale noto come registro a scorrimento (vedi https://it.wikipedia.org/wiki/Registro_a_scorrimento), costituito da M celle di memoria di un bit, ciascuna delle quali (con frequenza fb) copia il contenuto della precedente, mentre la prima è caricata (in serie) con un nuovo bit; al termine di M cicli i bit vengono letti tutti assieme, appunto, in parallelo.
[727] In ricezione si effettua il procedimento inverso, ripristinando la codifica binaria originaria di M bit a cui il codificatore ha associato il valore L-ario ricevuto, e quindi serializzando gli M bit, in modo da ri-ottenere la sequenza binaria di partenza. Vedi anche fig.15.38.
[728]In realtà al § 7.7.4 si mostra come il risultato possa essere un po’ diverso nel caso di simboli statisticamente dipendenti e/o non a media nulla.
[729]La non perfetta indipendenza statistica dei simboli prodotti dal generatore di numeri casuali di un computer si può riflettere su di una ridotta generalità del risultato mostrato, che tuttavia rispecchia molto bene i casi reali.
[730]Ottenuta applicando ai dati una finestra triangolare (§ 3.8.4) e quindi valutando il periodogramma (§ 7.3.1).
[731]Viene detto sbilanciato un segnale trasmesso mediante un collegamento (ad es. su rame) in cui uno dei due conduttori è connesso a massa ad entrambe le estremità, dando luogo ad una maggiore sensibilità a fenomeni di induzione elettromagnetica relativi ad altri segnali in transito nelle vicinanze (vedi diafonia a pag. 1), e dunque ad un peggiore SNR rispetto ai segnali (e collegamenti) bilanciati - .vedi ad es. https://it.wikipedia.org/wiki/Linea_bilanciata.
[732]Vedi https://it.wikipedia.org/wiki/Amplificatore_differenziale
[733]Vedi https://it.wikipedia.org/wiki/Codifica_Manchester
[734]La densità spettrale mostrata in figura è relativa all’uso di una g(t) di tipo RZ.
[735]La codifica hdb3 è utilizzata per trasmettere il segnale pcm a 2 Mbps (vedi § 24.3.1), e l’acronimo significa High-Density Bipolar-3-zeroes. Come per ami, rappresenta gli uni con polarità alternate, ma rimpiazza le sequenze di quattro zeri consecutivi forzando una violazione della regola dell’alternanza sull’ultimo bit dei quattro, in modo che il ricevitore, rilevando la violazione, è in grado di riportare il bit a zero. Dato però che la presenza della violazione creerebbe la comparsa di una componente continua nel segnale, sono inseriti anche dei bit di bilanciamento, per rimuovere quest’ultima. Questi si collocano al posto del primo dei quattro zeri, e la loro polarità è scelta in modo che la sequenza delle violazioni abbia un polarità alternata; in definitiva, dopo la prima violazione, si usa sempre anche il bit di bilanciamento.
[736]In tal caso tutti gli zeri diventerebbero uni e viceversa, mentre con la codifica differenziale questo viene evitato.
[737]Come mostrato al § 15.1.2.2, il segnale dati filtrato è basato su impulsi ~g(t) = g(t) * h(t), con una durata pari alla somma delle durate di g(t) e h(t). Pertanto, anche se g(t) è limitato nel tempo, come nei casi descritti al § 15.2.1, l’impulso ~g(t) si può estendere a valori di t > Ts. Considerando ad esempio la trasmissione di soli due simboli a0 ed a1, si otterrebbe x(t) = a0~g(t) + a1~g(t − Ts), e dunque x(Ts) = a0~g(Ts) + a1~g(0) dipenderà da entrambi i simboli anziché solamente da a1, osservando quindi un errore pari a a0~g(Ts), detto appunto interferenza tra simboli.
[738] Il requisito di causalità h(t) = 0 per t < 0 (pag. 1) a cui deve sottostare qualsiasi sistema fisico impedisce infatti di realizzare un filtro la cui risposta impulsiva g(t) abbia una estensione temporale illimitata: per avvicinarsi al risultato desiderato occorre implementare il filtro adottando al posto di
g(t) una sua versione ritardata e limitata  g(t) = g(t − TR) con t ≥ 0 e g(t) = 0 altrimenti, come in figura.
figure f4.10c.png
Se TRTs, l’entità dell’approssimazione è accettabile, ed equivale ad un semplice ritardo pari a TR; d’altro canto, quanto maggiore è la durata della risposta impulsiva, tanto più difficile (ossia costosa) risulta la realizzazione del filtro relativo.
[739]Al contrario, se g(t) =  rectTs(t), il campionamento può avvenire ovunque nell’ambito del periodo di simbolo, ma si torna al caso di elevata occupazione di banda.
[740]Almeno, in assenza di distorsione lineare!
[741]Ad esempio, l’impulso rettangolare è di Nyquist, in quanto rectTs(t) =  1 se|t| < Ts2 0 set = kTs .
[742]La fig. 16.4 a pag. 1 mostra la stessa funzione su di una scala quadratica e in decibel.
[743]Il termine roll-off può essere tradotto come “rotola fuori “.
[744]Molto intimamente legata alla velocità di Nyquist definita al § 4.1 come la minima frequenza di campionamento fc = 2W per un segnale analogico di banda W, mentre la frequenza di Nyquist si riferisce invece a metà della massima frequenza di segnalazione fs2 = B per un segnale dati che transita su di un canale limitato in banda B, per motivi presto chiari. Come evidente due aspetti dello stesso fenomeno, ma in contesti differenti, vedi https://en.wikipedia.org/wiki/Nyquist_rate.
[745]Non ho trovato questi passaggi già svolti in nessun posto, qualche lettore può aiutare? Tutto quel che sono riuscito a calcolare è relativo al caso γ = 1, per cui g(t) = F− 1T2[1 + cos(πTf)] ⋅ rect2T(f) che fornisce
g(t)  = T2δ(t) + 12δt − T2 + 12δt + T2 * 2T sinc2Tt =   =  sinc2Tt + 12 sinc2Tt − T2 + 12 sinc2Tt + T2
figure f4.144.png
che una volta graficato, conferma l’andamento di fig. 15.19. Osserviamo che per t → 12γfs il denominatore di (21.6) si annulla, ma lo stesso avviene anche per il numeratore, che in tal caso tende a cosπ2, dando luogo alla forma 00, ed il cui limite sembra tendere a poco meno di uno.
[746]Le esigenze di mantenere basso l’ordine del filtro tentando al contempo di rispondere ai requisiti sulla fase oltre che sul modulo impediscono di ottenere una sintesi perfetta di Heq(f).
[747]Vedi il § 8.4.2.1 per una descrizione della sua natura fisica.
[748]Al § 8.4.2.1 si illustra come in realtà PN(f) non è costante per qualsiasi valore di f fino ad infinito, ma occupa una banda grandissima ma limitata: altrimenti, avrebbe una potenza infinita.
[749]I due aggettivi White e Gaussian non sono per nulla inscindibili, nel senso che un processo può essere gaussiano ma non bianco, o bianco ma non gaussiano!
[750]Al § 15.5 si descrive un diverso modo di progettare HR(f), in modo da minimizzare la probabilità di errore anziché la potenza di rumore, e che di fatto realizza un filtro adattato, descritto al § 7.6. Come vedremo al § 15.5, nel caso di un impulso a banda minima i due approcci portano al medesimo risultato.
[751]Per i dettagli relativi al filtraggio di processi, ci si può riferire al § 204.
[752]vedi eq. (10.119) a pag. 1
[753]La proprietà di equidistanza delle soglie dal valore di simboli deriva dalla simmetria pari della d.d.p. gaussiana rispetto al suo valor medio: in generale, le soglie sono poste in modo da rendere eguali le probabilità di falso allarme e di perdita, vedi § 6.6.1.
[754]Chiaramente, tutti i valori x minori di λ1 provocano la decisione a favore di a1, e quelli maggiori di λL − 1 indicano la probabile trasmissione di aL.
[755]Sono detti di sistema in quanto indipendenti dalla natura della trasmissione, infatti PR dipende da amplificatori e mezzi trasmissivi, Pν(f) dall’entità dei disturbi additivi presenti in uscita dal canale, mentre fb è imposta dal contratto di servizio con il produttore di contenuti, o sorgente informativa.
[756]Questi sono invece parametri negoziati allo scopo di ottemperare ai vincoli relativi alla banda occupata ed alla precisione del temporizzatore.
[757]Anche se il risultato sarà dimostrato al § 15.8.1, merita comunque un commento: osserviamo che PR diminuisce all’aumentare di γ (si stringe infatti l’impulso nel tempo); inoltre PR diminuisce al crescere di L, in quanto nel caso di più di 2 livelli, la forma d’onda assume valori molto vari all’interno della dinamica di segnale, mentre con L = 2 ha valori molto più estremi.
[758] Per completezza sviluppiamo i passaggi, piuttosto banali anche se non ovvi:
    Pe = 1 − 1LPδ = 1 − 1L erfcΔ22σν(L − 1) = 1 − 1L erfc12L − 1L + 1  PR(1 − γ4)122 Pν(L − 1) = 
          = 1 − 1L erfc23L − 1L + 1 1(1 − γ4)122 PRPν 1(L − 1) = 1 − 1L erfc{32 L − 1L + 11(L − 1)21(1 − γ4)SNR} = 
          = 1 − 1L erfc{32 1L2 − 11(1 − γ4)EbN0 2log2L1 + γ} = 1 − 1L erfc{EbN0 3log2L(L2 − 1)(1 + γ)1 − γ4}
[759]Aumentando L l’argomento di (21.17) diminuisce in quanto (L2 − 1) cresce più velocemente di log2L.
[760]Perché a parità di PR gli intervalli di decisione sono più ravvicinati, le “code” della gaussiana sottendono un’area maggiore, e questo peggioramento prevale sul miglioramento legato alla diminuzione di σν conseguente alla riduzione della banda di rumore.
[761]Perché occorre aumentare la banda del filtro di ricezione e dunque far entrare più rumore. D’altra parte questo peggioramento è compensato dalla riduzione dell’ISI.
[762]Mentre in un array gli elementi sono inviduati in base alla loro posizione od indice, una memoria associativa non è ordinata e restituisce l’elemento associato alla chiave, come ad esempio colore[banana]=giallo.
[763]Infatti con γ > 0 l’argomento di erfc{.} si riduce. Ma non di molto: per γ = 1 il peggioramento risulta di 1.76 dB.
[764]Una volta scelto un valore per L è individuta la curva da usare in fig. 15.39, ed una volta imposta una Pe sulle ordinate l’EbN0|dB necessario a conseguire tale Pe con γ = 0 si ottiene sulle ascisse seguendo la curva. Aumentando γ l’argomento di erfc{.} nella 21.21 si riduce, e ciò equivale a spostarsi verso sinistra sull’asse delle ascisse della stessa quantità di dB, a cui corrisponde (seguendo la curva) un aumento della Pe. Per ristabilire la Pe desiderata non resta quindi altro da fare che aumentare EbN0|dB dello stesso numero di dB.
[765] Infatti il segnale n(t) uscente da HR(f) = rect2B(f) ha autocorrelazione RN(τ) = F −1{|HR(f)|2} = 2B sinc(2Bτ) (vedi § 7.2.4), che passa da zero per τ = 12B.
figure f4.2014.png
Se si utilizza una G(f) a coseno rialzato con γ > 0 occorre estendere la banda di ricezione a B = fs2 (1 + γ), a cui corrispondono campioni di rumore incorrelati se prelevati a distanza multipla di τ = 12B = 1fs(1 + γ), mentre invece il segnale è campionato con frequenza pari a quella di simbolo fs, e dunque con campioni a distanza τ = Ts = 1fs. Pertanto i campioni di rumore sono correlati, con autocorrelazione pari a RN(Ts) = 2B sinc(1 + γ).
[766] Al § 6.5.1 si dimostra come delle v.a. gaussiane incorrelate siano anche statisticamente indipendenti, mentre nel nostro caso i campioni di rumore sono correlati, e statisticamente dipendenti. In accordo alla trattazione della regressione (§ 7.7.1) e della predizione lineare (§ 10.1.2.2), osserviamo che la dipendenza statistica tra campioni di rumore implica la possibilità di ridurre l’incertezza relativa ai nuovi valori a partire dalla conoscenza dei valori passati. Il vero valore di un campione di rumore può essere calcolato sottraendo al valore sk − 1 del segnale ricevuto all’istante di simbolo k − 1, il valore del simbolo deciso senza commettere errore; da questo risultato è possibile predire il successivo campione di rumore come k = nk − 1RN(Ts)RN(0), che viene quindi sottratto al successivo valore sk osservato. In tal modo, anche se la regressione non è esatta, l’ampiezza (e la varianza) del rumore residuo sono comunque ridotte, ed altrettanto la probabilità di errore del decisore.
[767]Infatti quando G(f) è tutta al trasmettitore il segnale generato (e ricevuto) ha espressione (21.7) (vedi anche la (21.1)); indicando ora g(t) = F −1{G(f)}, ed eseguendo un calcolo del tutto analogo a quello svolto in § 15.1.2.2, si ottiene che il segnale ricevuto nel caso di scomposizione di G(f) ha espressione
r(t) = hT(t) * hR(t) * kakδ(t − kTs) = ka[k]g(t − kTs)
in quanto hT(t) * hR(t) = g(t) * g(t) = g(t) per la proprietà di prodotto in frequenza.
[768] Il risultato si può ottenere visivamente, a partire dalla G(f) a coseno rialzato mostrata in fig. 15.19 a pag. 1 ma con altezza 1, e in base alle sue proprietà di simmetria attorno a ± fs2: il risultato dell’integrale −∞G(f)df è quindi pari all’area di un rettangolo di altezza 1 e base fs = 1Ts.
[769]Per una analisi degli effetti della limitazione temporale dell’impulso g(t), vedere il contributo disponibile presso https://engineering.purdue.edu/~ee538/SquareRootRaisedCosine.pdf.
[770]A meno di un contributo di fase lineare e j2πfτ necessario a garantire la causalità dell’insieme.
[771]Anche in questo caso, a meno di un termine di fase lineare, che viene omesso per non appesantire la notazione.
[772]Può essere che H(f) non sia nota a priori e che dunque debba essere stimata al ricevitore (§ 18.4), ma non sia disponibile un canale di ritorno per comunicarla al trasmettitore; oppure si tratti di una trasmissione broadcast (§ 11.1.1.1), e la H(f) è differente per ognuno dei ricevitori, oppure ancora H(f) varia nel tempo, e la sua equalizzazione deve essere modificata di continuo.
[773]Oltre al caso banale in cui la comunicazione sia effettivamente half-duplex (nota. 16), il canale deve essere considerato unidirezionale anche qualora la trasmissione a distanza riguardi informazioni generate in tempo reale e consumate immediatamente in ricezione, come nel caso televisivo o telefonico, in cui l’attesa di una ritrasmissione introdurrebbe, oltre ad una temporanea interruzione, anche un ritardo aggiuntivo a tutto ciò che viene dopo, impossibile da sostenere in una applicazione interattiva.
Un altro caso di applicazione della tecnica fec riguarda ad es. il caso di informazioni memorizzate in forma numerica su data storage, come as esempio cd/dvd, chip di memoria, hard disk.... in cui pur se possibile ri-leggere le informazioni, ciò non cambierebbe nulla, in quanto l’errore è attribuibile al supporto rovinato, e non al rumore. Per questo i dispositivi di memoria aggiungono una ridondanza ai propri dati, usata per rimediare al possibile deterioramento della loro conservazione, o per segnalare la cella di memoria come inaffidabile.
[774]L’aggettivo automatic si riferisce al fatto che spesso la gestione della ritrasmissione avviene a carico di uno strato protocollare (§ 22.5.2.3) di livello inferiore a quello che effettivamente consuma il messaggio, che in definitiva neanche si avvede della presenza del meccanismo di ritrasmissione.
[775]In generale questo raggruppamento è indipendente da quello in simboli operato dal codificatore di linea multilivello, così come non riflette altre suddivisioni come i bit di un campione quantizzato (§ 4.3) o gli intervalli temporali di una multiplazione (§ 24.2) mediante trame (§ 24.3.1) o pacchetti § 22.5.1.
[776]Vedi ad es. https://it.wikiversity.org/wiki/Prove_ripetute
[777]Dal confronto tra (21.26) e (21.27) osserviamo che l’approssimazione consiste nel considerare (1 − p)n − i ≃ 1. Per verificare che ciò sia lecito qualora np≪1, cerchiamo il valore di p tale che (1 − p)n > 0.9, da cui discende che anche (1 − p)n − i > 0.9 per qualunque i. Dato che si può scrivere (vedi nota 1306 a pag. 22.1) (1 − p)n = nk = 0nkpk > 1 − np, otteniamo la condizione (1 − p)n > 1 − np > 0.9, da cui si ottiene np < 1 − 0.9 = 0.1: ad esempio, se n = 1000 occorre che sia almeno p = 10 − 4. Altrimenti l’approssimazione non è valida, e la (21.28) deve essere verificata; qui sotto mostriamo la d.d.p. di Bernoulli (21.26) per diversi valori di np, evidenziando come qualora np < 0.1 essa risulti monotona decrescente con i.
figure f4.19-bern-a.png
[778] In linea di principio, dato che la probabilità che solo il primo bit su n sia sbagliato è pari a p(1 − p)n − 1 e che lo stesso risultato si ottiene anche per gli altri n − 1 casi possibili, la probabilità P(1, n) di un solo (generico) bit sbagliato su n è pari a P(1, n) = np(1 − p)n − 1, che si approssima come np qualora si consideri (1 − p)n − 1 ≃ 1 in virtù della condizione np≪1.
[779]Così come non è opportuno aumentare di troppo la dimensione di un pacchetto dati, anche se in tal modo si riduce l’overhead, vedi § 22.5.1.
[780]Che nel caso di rivelazione richiede la ritrasmissione della parola errata.
[781]Senza pretesa di esaustività, possiamo annoverare l’esistenza dei codici di Hamming, di Hadamard, BCH, Reed-Solomon, Reed-Muller, di Golay, di Gallager, turbo, a cancellazione, a fontana, punturati...
[782]Con riferimento alla figura, 3 è il numero di vertici da attraversare, ovvero di errori da subire, per passare da una codeword all’altra.
[783]Poniamo di dover trasmettere 0110. La sequenza diventa 000 111 111 000 e quindi, a causa di errori, ricevo 000 101 110 100. Votando a maggioranza, ricostruisco la sequenza corretta 0 1 1 0.
[784]Volendo essere esatti la probabilità di 2 bit errati su 3 è data dalla d.d.p. binomiale (§ 22.1) ed è pari a 3\choose2p2(1 − p) = 3p2(1 − p), a cui va sommata la probabilità di 3 bit errati, pari a p3. Pertanto Pr = 3p2(1 − p) + p3 = 3p2 − 3p3 + p3 = 3p2 − 2p3 ≃ 3p2e, approssimazione legittima se np = 3p≪1.
[785]In inglese, errori a burst (scoppio). Dovuti a rumori e disturbi di tipo impulsivo, ad esempio a causa di scintille come per motori elettrici o candele di accensione, o fenomeni di fast fading (§ 20.4.4).
[786]Letteralmente: arrampicamento, ma anche “arruffamento”, vedi scrambled eggs, le uova strapazzate dell’english breakfast.
[787]Leave = foglia, sfogliare, rastrellare, ed il termine potrebbe essere tradotto come intercalamento.
[788]Ad esempio, alla sequenza 001001 verrà aggiunto uno 0, mentre a 010101 si aggiungerà ancora un 1, perché altrimenti gli uni complessivi sarebbero stati 3, che è dispari.
[789]Il ricevitore deve comunque essere al corrente del fatto se la parità sia odd o even !
[790]La conta può essere realizzata in forma algoritmica o circuitale, eseguendo la somma modulo due di tutti i bit che compongono la parola (ovvero complementando il risultato, nel caso di parità dispari). La somma modulo due è equivalente all’operazione di or esclusivo, viene a volte indicata con il simbolo , e corrisponde alla regola 0⊕0 = 0, 0⊕1 = 1, 1⊕0 = 1, 1⊕1 = 0.
[791]Considerando parole di 3 bit, le codeword (di 4 bit, in cui l’ultimo è una parità pari) risultano: (0000, 0011, 0101, 0110, 1001, 1010, 1100, 1111). E’ facile constatare che ognuna di esse differisce da tutte le altre per almeno due bit.
[792]La somma modulo uno è l’equivalente binario dell’operazione di somma (decimale) tradizionale, comprese quindi le operazioni di riporto verso le cifre più elevate. Il riporto finale viene poi nuovamente sommato al risultato della somma.
[793]Tale denominazione indica un’azione di controllo (check) realizzata mediante l’aggiunta di una ridondanza ottenuta applicando un codice ciclico - vedi § 17.4.1.2.
[794]L’insieme di tutti i polinomi di grado minore od uguale ad n costituisce un particolare spazio algebrico, per il quale è possibile dimostrare una serie di proprietà, la cui verifica trascende dallo scopo di questo testo, e che consentono di stabilire le capacità del codice di rivelare gli errori.
[795]Per fissare le idee, consideriamo k = 8 bit a da proteggere, pari a P = 11100110, q = 4 bit di crc, ed un generatore G = 11001.
figure f4.19aa.png
La sequenza P ⋅ 2q risulta pari a 10 0000, e la divisione modulo 2 tra P e G fornisce un quoziente Q = 10110110 (che viene ignorato) ed un resto R pari a 0110. Pertanto, viene trasmessa la sequenza T = P ⋅ 2qR = 11100110 0110 con k + q = 12 bit.     La divisione modulo 2 si realizza come mostrato nella figura a lato: considerando i bit più significativi di P ⋅ 2q e G, l’uno nell’uno ci sta una volta, e scriviamo uno come primo bit di Q. Riportiamo ora G sotto P ⋅ 2q, ed anziché sottrarre i bit, ne calcoliamo l’or-esclusivo bit-a-bit, ottenendo 00101, a cui aggiungiamo un uno abbassando il successivo bit (1) di P ⋅ 2q. Stavolta l’uno nello zero ci sta zero volte, e dunque aggiungiamo uno zero a Q, riportiamo cinque zeri (come la lunghezza di G) allineati sotto al resto parziale, eseguiamo l’exor, ed abbassiamo un’altra cifra (1) di P. Il confronto ora è tra il quinto bit da destra del resto parziale (1) ed il bit più significativo (il quinto, 1) di G, ottendo la terza cifra di Q (1). Ripetiamo il procedimento, e quando tutti i bit del divisore sono stati usati, l’ultima operazione fornisce il resto R cercato.
[796]Dalla (21.30) sembrerebbe che il resto sia E, ma dato che E(x) può avere grado  > q, esso è divisibile per G(x), e dunque il resto non è E - altrimenti, sarebbe possibile correggerlo!!
[797]Ecco quattro scelte utilizzate nei sistemi di trasmissione:
crc-12 G(x) = x12 + x11 + x3 + x2 + x + 1
crc-16 G(x) = x16 + x15 + x2 + 1
crc-ccitt G(x) = x16 + x12 + x5 + 1
crc-32 G(x) = x32 + x26 + x23 + x22 + x16 + x12 + x11 + x10 + x8 + x7 + x5 + x4 + x2 + x + 1
Come discusso, un polinomio di ordine q genera un crc di q bit; pertanto il crc-12, che è usato per caratteri a 6 bit, genera 12 bit di crc, mentre crc-16 e crc-ccitt, utilizzati in America ed in Europa rispettivamente per caratteri ad 8 bit, producono 16 bit di crc. In alcuni standard di trasmissione sincrona punto-punto, è previsto l’uso di crc-32.
[798]https://it.wikipedia.org/wiki/Polinomio_primitivo
[799]Vedi ad es. http://en.wikipedia.org/wiki/Computation_of_cyclic_redundancy_checks
[800]In alternativa al recupero del sincronismo da parte del ricevitore, l’informazione di temporizzazione può essere trasmessa su di una diversa linea, come avviene nel caso di dispositivi ospitati su di una stessa motherboard.
[801]Una sintassi definisce un linguaggio, prescrivendo le regole con cui possono essere costruite sequenze di simboli noti (l’alfabeto), e l’analisi delle sequenze eseguita nei termini degli elementi definiti dalla sintassi, ne permette una interpretazione semantica. Il parallelismo linguistico porta spontaneamente ad indicare i simboli trasmessi come alfabeto, gruppi di simboli come parole, e gruppi di parole come frasi, od in alternativa, trame (frame, ovvero telaio).
[802]In appendice 15.8.4 è riportata la codifica in termini di sequenze binarie dei caratteri stampabili, definita dallo standard ascii; al § 24.3.1 si mostra la struttura della trama pcm, che trasporta i campioni di più sorgenti analogiche campionate.
[803]Un dumb terminal non ha capacità di calcolo, e provvede solo alla visualizzazione di informazioni testuali. Fino agli anni ’70, è stato l’unico meccanismo di interazione (comunque migliore delle schede perforate !!!) con un computer. Per lungo tempo ogni computer disponeva di interfacce seriali rs-232 che possono funzionare sia in modalità asincrona che sincrona, oggi soppiantate dalle prese usb.
[804]In tal caso la linea “.. is marking time” (sta marcando il tempo).
[805]Ovviamente, occorre stabilire un accordo a priori a riguardo la velocità, ossia della frequenza, sia pure approssimata, della trasmissione.
[806]Per accorgersi di questa e delle altre transizioni, il ricevitore può ad esempio sfruttare un circuito che approssimi l’operazione di derivata, di cui constatare il superamento di una soglia.
[807]Una parola di M bit descrive uno spazio di 2M diversi elementi. Se le parole trasmissibili non sono tutte le 2M possibili, alcune di queste (che non compariranno mai all’interno del messaggio) possono essere usate per la sua delimitazione.
[808]Cioè, i dati trasmessi, che ora riempiono tutto lo spazio delle configurazioni possibili, contengono al loro interno la configurazione che è propria del carattere etx.
[809]In termini generali, questo circuito è assimilabile ad un circuito di controllo, in quanto il suo principio di funzionamento si basa sul tentativo di azzerare una grandezza di errore. Infatti, la sincronizzazione dell’orologio del decisore di ricezione con il periodo di simbolo del segnale ricevuto avviene effettuando un confronto tra la velocità dell’orologio locale ed un ritmo presente nel segnale in arrivo: questo segnale di errore alimenta quindi un circuito di controreazione, che mantiene il clock locale al passo con quello dei dati in arrivo. Un diverso caso particolare di questo stesso principio è analizzato al § 16.11.1, ed anche ai § 12.2.2.2 e 12.3.2.1 a proposito del pll.
[810]La dimostrazione sarà sperabilmente sviluppata in una prossima edizione... è una delle poche a mancare in questo libro! ..al momento, la fonte che trovo più in accordo con questa tesi, è ancora una volta https://en.wikipedia.org/wiki/Raised-cosine_filter
[811]Facciamo uso delle relazioni Nn = 1n = N(N + 1)2 e Nn = 1n2 = N(N + 1)(2N + 1)6 , che sono ovviamente ancora valide anche qualora la somma parta da n = 0.
[812]σ2a = E{(ak)2} = 12 d2 + 12( − d)2 = d2
[813]A meno di un valore costante, ininfluente ai fini della valutazione che stiamo svolgendo.
[814]Sempre in quanto G(f)df = 1
[815]Letteralmente, slittamento di tasto a due fasi.
[816]Qui e nel seguito assumiamo di disporre di una portante di demodulazione omodina o coerente (§ 12.2.1), ossia priva di errori di fase e frequenza, così come di una perfetta temporizzazione di simbolo; le considerazioni al riguardo di quest’ultimo aspetto sono svolte all’appendice 16.11.
[817]Il segnale di banda base m(t) = kakg(t − kTb) in cui g(t) =  rectTb(t) ed i simboli ak sono a media nulla ed indipendenti, ha una densità di potenza Pm(f) = σ2ATbsinc2(fTb), il cui andamento è mostrato in fig. 3.18 di pag. 1.
[818]Come ad esempio i collegamenti satellitari, vedi § 25.3.
[819]Per chi si sta chiedendo quanto valgono questi livelli, diciamo che il livello i-esimo (con i = 0, 1, ⋯, L − 1) corrisponde al valore ai = iΔL − 1 − 1 . Verificare per esercizio con Δ = 2 ed L = 4.
[820]Ad esempio: se L = 32 livelli, la banda si riduce di 5 volte, ed infatti con M = 5 bit si individuano L = 2M = 32 configurazioni. Dato che il numero M di bit/simbolo deve risultare un intero, si ottiene che i valori validi di L sono le potenze di 2.
[821]Notiamo che mentre per il bpsk scegliere il primo al posto del secondo comporta perdere i benefici di una ampiezza costante, nel caso multilivello l’ampiezza è intrinsecamente variabile.
[822]Vedi tabella 16.2 a pag. 1.
[823]Ricordiamo che Px esprime la potenza ricevuta, N0 rappresenta il doppio della Pn(f) presente al decisore, e W è la banda del segnale modulante.
[824]Infatti come discusso a pag. 1 Eb = Pxfb, come N0, dipende solamente da parametri di sistema (Px e fb), mentre invece non dipende dai parametri di trasmissione L e γ e dal tipo di modulazione.
[825] Forniamo qui una contro-dimostrazione forse inutilmente elaborata. Con riferimento alla figura seguente, il calcolo della Pe per l’l-ask si imposta definendo valori di Eb ed N0 equivalenti a quelli di banda base, ma ottenuti dopo demodulazione, e cioè Eb’ = PxTb e N0’ = PN’ ⁄ W (infatti, PN’ = N022W, con W = fs2 = fb2log2L). L’equivalenza è presto fatta, una volta tarato il demodulatore in modo che produca in uscita la componente in fase xc(t) limitata in banda tra ± W.
figure f10.6.png
Infatti in tal caso (vedi § 14.2.1) Px’ = Pxc = k2aPM = 2Px e quindi Eb’ = PxTs = 2PxTs = 2Eb; per il rumore si ottiene N0’ = PNW in cui PN’ = Pnc = σ2nc = σ2n = N024W e quindi N0’ = 2N0. Pertanto, il valore Eb’ ⁄ N0 su cui si basa ora il decisore è lo stesso Eb ⁄ N0 in ingresso al demodulatore.
[826]Se γ ≠ 0, valgono le considerazioni svolte al § 15.4.9.
[827]Il caso in cui L = 2 ricade nel bpsk già discusso
[828]che non è una modulazione am-blu dato che xs ≠ ^xc
[829]Infatti un rettangolo di durata Ts ha trasformata sinc(Tsf), con il primo zero in f = 1Ts = fs, e la modulazione am-bld produce un raddoppio della banda occupata.
[830]Se viceversa g(t) =  rectTs(t), |x| giace su di un cerchio, spostandosi istantaneamente da un punto all’altro della costellazione
[831]Nella parte superiore della figura è mostrato l’andamento delle c.a. di b.f. per 5 simboli di un qpsk realizzato adottando g(t) a coseno rialzato con γ = 0.5, e si può notare che ognuna di esse assume il valore ±1 in corrispondenza di ogni periodo di simbolo. Nella parte inferiore è riportato il corrispondente segnale modulato, che come si vede non è affatto ad ampiezza costante.
[832] In effetti, dovremmo verificare che l’attuale valore di EbN0 sia lo stesso del caso bpsk: mentre per N0 al § 14.1.3 si mostra che è vero, per quanto riguarda Eb (a prima vista) sembra che il suo valore si dimezzi. Infatti, a parità di potenza ricevuta, i punti di costellazione del bpsk giacciono all’intersezione tra l’asse cartesiano della c.a. di b.f. ed il cerchio di raggio pari all’ampiezza a del segnale ricevuto, mentre nel qpsk le fasi formano un angolo di 45o rispetto agli assi, moltiplicando per cosπ4 = 22 le coordinate cartesiane, e riducendo dunque la potenza delle c.a. di b.f. di un fattore 2, e così pure il valore di Eb. In realtà, la durata doppia del periodo di simbolo Ts = 2Tb compensa questa riduzione, e dunque anche l’Eb di ogni ramo Eb = PxTs si mantiene invariato.
figure f10.95.png
[833]All’istante di decisione k su ciascun ramo si osserva una v.a. gaussiana dc, s con varianza σ2νc, s (vedi fig. 14.4 a pag. 1) e valor medio xc(kTs) = cosφk e xs(kTs) = sinφk, dove φk è la fase del punto di costellazione trasmesso all’istante t = kTs, vedi eq. (21.43). Nell’esempio di figura la decisione per il secondo dei due bit del simbolo cambia in funzione del segno di dc, e dunque si commette errore sul ramo in fase se ad es. si trasmette x1, ma il rumore su quel ramo ha un valore sufficientemente positivo da far superare lo zero in corrispondenza dell’istante di decisione.
[834]In effetti all’istante di decisione potrebbe verificarsi errore su entrambi i rami, ma tale evento avviene con probabilità PcePse che si ritiene tanto più trascurabile rispetto a Pce quanto più quest’ultimo è piccolo.
[835]Ulteriore rispetto al commento alla nota 832, dove il ragionamento è svolto sull’EbN0, mentre ora sull’SNR.
[836]vedi il § 15.4.9.1
[837]In pratica, l’indice n si incrementa ogni due incrementi dell’indice k.
[838]Per come si è impostata la distribuzione dei bit tra i rami L deve risultare un quadrato perfetto. Sebbene sia possibile realizzare anche costellazioni di forma non quadrata, vedi ad es. AA.VV., A Survey on Design and Performance of Higher-Order QAM Constellations presso https://arxiv.org/pdf/2004.14708.pdf, la soluzione quadrata è preferita per semplicità realizzativa.
[839]Per applicare la (21.39) dobbiamo verificare se il valore di EbN0 è lo stesso nei due casi (vedi nota 832). Mentre per N0 non vi sono dubbi, notiamo (vedi § 12.4.5 per il caso di c.a. di b.f. incorrelate) che la potenza ricevuta Px si dimezza su entrambi i rami, così come la fb, e pertanto si ottiene Eb = Px2fb2 =  Pxfb = Eb.
[840]Il cui effetto su xc(t) è stato discusso al § 12.2.3.1. Facciamo ricadere in questa casistica l’ambiguità di fase dei sistemi di recupero portante come descritto al § 12.2.2.1, ma anche la distorsione di fase introdotta dal canale non selettivo in frequenza, vedi § 13.1.2.4. Che un errore di fase si traduca in una rotazione dell’inviluppo complesso può essere mostrato considerando che l’operazione di demodulazione
figure f10.18f.png
omodina corrisponde a valutare R{xe jω0t}, mentre una portante cos(ω0t + φ) corrisponde a R{xe jω0te jφ}, equivalente alla demodulazione coerente di y = xe jφ ossia un inviluppo complesso ruotato. In figura, un caso per cui φ = π2.
[841]La similitudine non è per nulla casuale, dato che qualora il predittore mostrato a pag. 1 sia realizzato mediante un elemento di ritardo, i due schemi di elaborazione coincidono.
[842]A parte per il primo bit, che ha il solo scopo di stabilire il riferimento di fase per la decodifica del successivo. Da un punto di vista formale, sostituendo la (21.48) nella (21.49) e in assenza di errori (ossia k = yk) si ottiene k = kk − 1 = xkyk −1yk − 1 = xk.
[843]Tratta da Andrea Goldsmith, Wireless Communications, pag. 151.
[844]Nel caso di L > 4 la tabella si modifica molto semplicemente scrivendo accanto al codice di Gray al L livelli, la sequenza crescente delle fasi differenziali Δθk = k2πL − 1.
[845]Vedi ad es. K. Wesolowski, Introduction to Digital Communication Systems, Wiley, pag. 328.
[846] La discussione al riguardo è sviluppata al § 16.12.1, definendo anche le condizioni di demodulazione incoerente e coerente, ovvero se le portanti generate in ricezione cos[2π(f0 + Δfk)t + φk] presentino o meno una fase φk casuale rispetto a quella trasmessa. In particolare, la spaziatura Δ multipla di 12Ts garantisce ortogonalità solo nel caso di modulazione coerente, mentre nel caso incoerente occorre una spaziatura doppia, ossia Δ multiplo di 1Ts.
[847]La condizione di ortogonalità tra le forme d’onda associate ai diversi simboli corrisponde alla intercorrelazione nulla tra le forme d’onda in un periodo (§ 7.1.4), ed infatti scegliendo opportunamente Δ ed f0 (vedi § 16.12.1) l’integrale (21.53) vale Rnm =  .5 ⋅ Ts se n = m 0 altrimenti . Ciò si dimostra (ricordando che cos2α = 12 + 12cos2α), notando che per m = n l’uscita del correlatore vale 12 Ts0(1 + cos(4π(f0 + mΔ)t))dt, e scegliendo opportunamente f0 e Δ (vedi § 16.12.1), il coseno che viene integrato descrive un numero intero di periodi all’interno dell’intervallo (0, Ts), fornendo quindi un contributo nullo. Se invece n ≠ m la funzione integranda non contiene il termine costante, ma di nuovo in virtù di § 16.12.1, contiene solo termini a media nulla.
[848]Infatti il vettore r ha una d.d.p. condizionata p(r ⁄ fn) gaussiana multidimensionale a componenti indipendenti, e dunque (vedi § 6.5.1) si fattorizza nel prodotto di L gaussiane monodimensionali con uguale varianza e media nulla, tranne per la componente n = m relativa all’ipotesi realmente occorsa, che presenta una media non nulla. Pertanto per ogni possibile ipotesi fn la p(r ⁄ fn) è concentrata sulla n − esima componente, e dunque decidere per  = argmaxn{rn} equivale a scegliere  = argmaxn{p(r ⁄ fn)}.
[849]Difatti la (21.52) può essere riscritta come la somma di L segnali xk(t), uno per ogni possibile valore di fk, costituiti da un codice di linea rz che modula la corrispondente f0 + Δfk, a cui corrisponde dunque un tono intermittente. Essendo i simboli indipendenti e (in virtù della portante) a media nulla, la (10.195) di pag. 1 si riduce alla nota forma PXk(f) = σ2ATs|Gk(f)|2 in cui Gk(f) = F {gk(t)} e gk(t) = cos[2π(f0 + Δfk)t]rectTs(t); applicando ora il risultato di fig. 3.14 a pag. 1 si ottiene la densità di potenza mostrata in fig. 16.31.
[850]tipo: Sinclair Spectrum, Commodore Vic20 e 64 ... Come noto, le cassette audio soffrono di variazioni di velocità di trascinamento del nastro (wow & flutter), ma il pll non ne risente.
[851]Tranne che, essendo ora presenti solo 2 frequenze, l’approssimazione (21.54) non è più corretta. In particolare, con riferimento alla fig. 16.31, è tanto meno corretta quanto più fs è elevata, che corrisponde ad oscillazioni del sinc2 più estese in frequenza.
[852]Ovvero qualora siano soddisfatte le condizioni per f0 e Δ valutate al § 16.12.1 per il caso di demodulazione coerente, e si verifichi la sincronizzazione tra le forme d’onda in ingresso ai correlatori del banco.
[853]Ovvero tenendo conto che (vedi § 17.2) fb non può superare la capacità di canale (eq. (21.101)), che a sua volta non può superare il limite C espresso dalla (21.103).
[854]Vedi la discussione seguente per una motivazione informale di questo comportamento.
[855]Ad esempio realizzato mediante un integrate and dump (pag. 1), che deve essere resettato a fine Ts.
[856]Il fattore 1Ts che compare nell’espressione di h(t) rende l’energia dell’impulso complessivo g(t) * h(t) = tri2Ts(t) (vedi eq. (10.56)) normalizzata rispetto a Ts (vedi § 3.8.8).
[857]Infatti il segnale demodulato (as es.) sul ramo in fase ha ampiezza costante A1Tscosθ, che risulta moltiplicata per Ts quando integrato su tale periodo.
[858] Infatti il filtro adattato ha una |G(f)|2 = sinc2(Tsf), e dunque il rumore alla sua uscita (vedi § 14.1.3 e pag. 1) presenta una densità di potenza Pn(f) = N0sinc2(Tsf). La potenza di rumore perciò risulta pari a Pn = σ2 = N0Ts, in quanto n(t) è a media nulla, e −∞sinc2(Tsf) = 1Ts. Quest’ultimo risultato può essere verificato considerando che sinc2(Tsf) ha antitrasformata 1Tstri2Ts(t), e che per la proprietà del valore iniziale (pag. 1) −∞sinc2(Tsf) = 1Ts tri2Ts(t = 0) = 1Ts.
[859]La discussione a pag. 1 fa riferimento ad una sola v.a. (quella in fase) a media A, mentre nel caso attuale sia ha ρ = A ma con una fase qualsiasi. Per le proprietà di simmetria radiale del problema, la conclusione è valida anche nel nostro caso.
[860]adsl = Asymmetric Digital Subscriber Line, vedi § 24.9.4.
[861]La trasmissione numerica contemporanea su più portanti è a volte indicata con il nome di Multi Carrier Modulation (mcm) o Discrete Multi Tone (dmt). La modulazione FSK utilizza invece una portante alla volta, in quanto la sua definizione prevede la presenza di un solo oscillatore.
[862]Osserviamo innanzitutto che per un segnale
x(t) = cosω1t = 12( e jω1t + e −jω1t)
risulta x+(t) = 12 e jω1t, e quindi il suo inviluppo complesso x(t) calcolato rispetto ad f0 vale
x(t) = 2x+(t)e −jω0t = 212 e jω1te −jω0t = e j(ω1 − ω0)t
Allo stesso modo si ottiene che per y(t) = sinω1t risulta y(t