Sezione 2.3: Teorema di Parseval Su Capitolo 2: Serie di Fourier e spazio dei segnali Sezione 2.5: Appendici 

2.4 Spazio dei segnali

Esiste un modo di affrontare l’analisi dei segnali rappresentando gli stessi come elementi di uno spazio vettoriale[71]  [71] Uno spazio vettoriale è la generalizzazione del ben noto spazio euclideo, i cui elementi sono descritti da una n − pla di numeri reali detto vettore x =  x1 x2 xn , e che estende quello mono-, bi- o tri-dimensionale rispettivamente legato a retta, piano e spazio in senso geometrico. Le quantità xi costituiscono dunque le coordinate di un punto, ovvero dove si colloca la testa di un vettore che parte dall’origine, ed individuano quanto di quel vettore è dovuto al contributo di ciascuna delle componenti associate ai versori della base di rappresentazione., estendendo così ai primi le proprietà algebriche e geometriche valide per i secondi. In questa sezione viene prima sinteticamente rivisitata la teoria degli spazi algebrici per i quali è definito un operatore di prodotto scalare, e quindi individuate le possibili corrispondenze tra le proprietà dei vettori e quelle dei segnali, riuscendo così a realizzare una sintesi unificante in relazione ai concetti di base di rappresentazione, ortogonalità, e trasformazione unitaria. Si accenna infine a come molti degli integrali che sono studiati nel testo (trasformata di Fourier e di Hilbert, convoluzione, correlazione) possano essere ricondotti al calcolo di un prodotto scalare, a sua volta associato al concetto di operatore funzionale, ossia di funzioni che dipendono da una seconda funzione.

2.4.1 Spazio metrico

Consiste in un insieme A di elementi (qualunque) per il quale esiste un modo per valutare la distanza (o metrica) tra elementi, ossia un operatore d(x, y) che associa ad ogni coppia di elementi x, y ϵ A un numero reale, e per il quale[72]  [72] Vedi anche https://it.wikipedia.org/wiki/Distanza_(matematica). Un esempio di distanza particolarmente poco utile, ma che rispetta le condizioni mostrate, è definita come d(x, y) =  0  se x = y 1  se x ≠ y
La distanza è un concetto topologico che permette di definire l’intorno di un punto nello spazio.
Spazio completo
Identifica uno spazio metrico in cui il limite a cui tende una successione fa parte dell’insieme stesso[73]  [73] La definizione analitica di completezza consiste nell’affermare che tutte le successioni di Cauchy (o successioni fondamentali) sono convergenti, in cui una successione è di Cauchy se, comunque fissato un ε > 0, da un certo punto in poi tutti i suoi elementi sono tra loro più vicini di ε, e dunque la loro distanza tende ad annullarsi; se poi la successione converge ad un elemento dello spazio stesso, allora lo spazio è completo. Pertanto una successione convergente è di Cauchy, ma non è detto l’inverso. Vedi anche https://it.wikipedia.org/wiki/Spazio_metrico_completo. Uno spazio metrico non completo è sempre contenuto in uno spazio completo più grande, che ne costituisce il completamento, come ad esempio l’insieme dei numeri razionali è contenuto nell’insieme (completo) dei numeri reali, ottenuto dal primo con l’aggiunta dei numeri irrazionali.

2.4.2 Spazio lineare

Un insieme A di elementi viene detto spazio lineare (o spazio vettoriale) su di un campo K[74]  [74] K può essere il campo dei numeri reali , o quello dei numeri complessi , vedi anche https://it.wikipedia.org/wiki/Campo_(matematica). Qualora il campo sia complesso, anche le componenti del vettore lo sono; d’altra parte, le relazioni sviluppate per il caso complesso continuano a valere anche nel caso di vettori a componenti reali., quando sono definite le operazioni di somma tra elementi x, y ϵ A e di moltiplicazione degli stessi per dei coefficienti λ ∈ K, e queste due operazioni danno come risultato ancora un elemento dell’insieme[75]  [75] I perfezionisti possono volersi sentir anche dire che deve esistere l’elemento neutro (zero) rispetto alla somma, che quest’ultima deve essere commutativa, associativa, e distributiva rispetto al prodotto, e che ogni elemento x deve avere il suo opposto  − x. Vedi anche https://it.wikipedia.org/wiki/Spazio_vettoriale, in modo che lo spazio acquisisca le proprietà di una struttura algebrica. Oltre al caso intuitivo dello spazio euclideo n da cui la nozione di spazio trae origine, e quello n i cui vettori sono descritti da elementi complessi, ricadono in questo caso anche lo spazio dei segnali con periodo T, quello dei segnali di energia, e quello dei segnali di potenza.
Base di rappresentazione
Scegliendo un qualunque sottoinsieme B ⊆ A di n vettori ui linearmente indipendenti[76]  [76] L’indipendenza lineare tra vettori comporta che ni = 1λiui = 0 solo se λi = 0 per tutti gli i., la combinazione lineare
(10.16) x = ni = 1xiui
dei vettori ui con coefficienti xi ∈ K esprime un qualunque elemento x ϵ A purché n sia pari alla dimensione dello spazio, ed in tal caso l’insieme B dei vettori ui è indicato come sua base di rappresentazione[77]  [77] Per una simulazione bidimensionale si veda ad esempio https://www.geogebra.org/m/mXkurnnd.
Spazio normato
Individua uno spazio vettoriale per il quale sia definita la norma (o lunghezza) x dei suoi elementi[78]  [78] Vedi anche https://it.wikipedia.org/wiki/Norma_(matematica). Come si può verificare dalle proprietà che la definiscono
la norma corrisponde alla definizione di distanza d(x, y) data al § 2.4.1, semplicemente ponendo d(x, y)x − y. In tal modo lo spazio normato oltre che algebrico (perché lineare) diviene anche metrico, con una metrica che è indotta dalla norma; uno spazio normato che è anche completo è detto spazio di Banach[79]  [79] Vedi anche https://it.wikipedia.org/wiki/Spazio_di_Banach.
Norma per spazi euclidei
Per uno spazio vettoriale con un numero finito n di dimensioni ed isomorfo ad n si può definire norma xp di ordine p (con p = 0, 1, ⋯∞) del vettore x =  x1 x2 xn come la quantità
(10.17) xp = pni = 1xpi
che per p = 2 rappresenta una estensione del teorema di Pitagora, mentre la distanza di ordine p indotta tra coppie di vettori si scrive come
(10.18) dp(x, y) = x − yp = pni = 1|xi − yi|p
che nel caso p = 2 fornisce la ben nota distanza euclidea[80]  [80] Per altri valori di p si ottengono risultati che hanno senso in particolari circostanze: ad esempio per p = 1 si ha x − y1 = ni = 1|xi − yi| detta distanza Manhattan, vedi https://it.wikipedia.org/wiki/Geometria_del_taxi, mentre per p = ∞ si ottiene x − y = maxi{|xi − yi|}, vedi https://it.wikipedia.org/wiki/Distanza_di_Cebicev. d2(x, y) = ni = 1(xi − yi)2.
Esempio Il teorema di Pitagora stabilisce che (x)2 = x21 + x22, ossia che il quadrato costruito sull’ipotenusa è pari alla somma dei quadrati costruiti sui cateti, come in figura.
figure f2.10.png
La geometria euclidea calcola la distanza tra due punti attraverso la costruzione grafica dei vettori le cui componenti sono le coordinate dei punti come in figura, e dunque z = x − y ha componenti z1 = x1 − y1 e z2 = x2 − y2.
figure f2.101.png

2.4.3 Spazio prodotto interno e spazio di Hilbert

Torniamo ora indietro e ripartiamo da un generico spazio lineare definito su di un campo K reale o complesso, per il quale non è definita alcuna norma, mentre invece è definito un operatore detto prodotto scalare o prodotto interno[81]  [81] In genere il termine prodotto interno si riferisce al caso in cui lo spazio sia di natura complessa, mentre si dice prodotto scalare qualora sia definito sul campo dei numeri reali. Nel seguito potrà essere usato prodotto scalare anche nel caso complesso., indicato come x,  y, e che associa uno scalare λ ∈ K a coppie di generici vettori x ed y in modo che
da cui si ottiene che nel caso complesso deve risultare anche x,  ay = a*x,  y detta proprietà antilineare[82]  [82] Infatti risulta x,  ay = ay,  x* = (ay,  x)* = a*y,  x* = a*x,  y. Osserviamo quindi che la relazione x,  x ≥ 0 può essere efficacemente utilizzata come norma di x, semplicemente ponendo[83]  [83] Le proprietà 0 ≤ x < ∞ e λx = λx che definiscono una norma sono facilmente verificate, mentre per dimostrare che x + y ≤ x + y ovvero x + y,  x + y ≤ x,  x + y,  y occorre utilizzare il risultato (10.20). Scriviamo infatti
x + y,  x + y  = x,  x + x,  y + y,  x + y,  y = x,  x + 2ℜ{x,  y} + y,  y =   ≤ x2 + y2 + 2xy = (x + y)2
in quanto {x,  y} ≤ |x,  y| ≤ xy dove la seconda disuguaglianza è appunto la (10.20). Dunque, dato che in base alla (10.19) si ha x + y = x + y,  x + y, si ottiene x + y ≤ x + y.
(10.19) x = x,  x
senza dover ricorrere a definizioni come per la (10.17). L’esistenza del prodotto interno pertanto induce una norma (e dunque una distanza) rendendo metrico lo spazio lineare, che viene detto di Hilbert qualora sia anche completo[84]  [84] Ogni spazio di Hilbert è quindi anche di Banach, ma il viceversa è vero solo se la metrica è indotta da un operatore di prodotto interno, che rispetti le proprietà su indicate; vedi ad es. https://it.wikipedia.org/wiki/Spazio_di_Hilbert; inoltre, il prodotto interno aggiunge allo spazio anche la nozione di angolo θ tra vettori, come discutiamo ora.
Diseguaglianza di Schwartz
Esprime la relazione[85]  [85] Innanzitutto osserviamo che deve risultare x, y ≠ 0, altrimenti la (10.20) è banalmente 0 = 0. Applichiamo quindi la relazione x,  x ≥ 0 ad un vettore x − λy con un qualunque λ ϵ K (sia per K = ℝ che per K = ℂ), scrivendo
0 ≤ x − λy2  = x − λy, x − λy = x, x − x, λy − λy, x + λ2y, y =   = x, x − x, λy − x, λy* + λ2y, y = x, x − 2ℜ{x, λy} + λ2y, y
Ponendo ora λ = x, yy, y e tenendo conto che x, λy = λ*x, y e che y, y è reale, otteniamo
0 ≤ x, x − 2ℜx, y*y, yx, y + x, y2y, y2y, y = x, x − 2x, y2y, y + x, y2y, y = x, x − x, y2y, y
da cui si ottiene la (10.20). Approfondimenti su
https://it.wikipedia.org/wiki/Disuguaglianza_di_Cauchy-Schwarz.
(10.20) |x,  y|2 ≤ x,  xy,  y
ovvero |x,  y| ≤ xy, e quindi afferma che il prodotto interno tra vettori non è mai maggiore del prodotto delle rispettive lunghezze, eguagliandolo solo se i vettori sono proporzionali, ossia x = αy [86]  [86] Infatti in tal caso la (10.20) diviene
|x,  y| = |αy,  y| = |αy, y| = |αy, yy, y| = α2y, yy, y = xy
dato che α2y, y = αα*y, y = αy, αy = x, x.
, o in termini geometrici, paralleli.
Angolo tra vettori
Dopo aver notato che dalla (10.20) si ottiene 0 ≤ |x,  y|xy ≤ 1, indichiamo i due estremi 0 e 1 come condizioni di ortogonalità e parallelismo, e dato che esiste un solo angolo θ tale che cosθ = |x,  y|xy , identifichiamo θ come l’angolo[87]  [87] Come fatto notare si ottiene cosθ = 1 quando x e y sono paralleli per cui la (10.20) è un’uguaglianza. Dal canto suo x,  y è un numero (complesso o reale a seconda se K = ℂ o ), e dunque l’operazione di modulo |x,  y| limita il risultato a  − π2 ≤ θ ≤ π2. Quindi θ è un angolo un po’ per modo di dire; ciononostante, il concetto di parallelismo e ortogonalità che ne deriva è molto utile. tra x e y, in modo che la (10.20) possa essere letta nel consueto modo della fisica e della geometria, ovvero
(10.21) |x,  y| = xy ⋅ cosθ
figure f2.10-schwartz.png
dove y ⋅ cosθ rappresenta la proiezione di y verso la direzione di x. A parole, l’eq. (10.21) si legge come il prodotto scalare è pari al prodotto dei moduli per il coseno dell’angolo compreso tra i vettori, e grazie a questo nuovo risultato, possiamo affermare che
Due vettori si dicono ortogonali se il loro prodotto scalare è nullo, ossia x,  y = 0.
Procediamo con l’individuare una modalità di calcolo per il prodotto scalare, restringendo per ora l’analisi al caso di spazi a dimensione n finita e isomorfi (in quanto con base ortogonale) ad uno spazio euclideo n, ovvero n nel caso più generale di vettori a componenti complesse.
Prodotto scalare tra vettori espressi su di una medesima base ortogonale
Come espresso dalla (10.16) i vettori x di uno spazio lineare n − dimensionale A, tanto più se di Hilbert, possono essere espressi come una combinazione lineare
x = ni = 1xiui
di vettori ui ϵ B linearmente indipendenti, ovvero B è la base di rappresentazione di A mediante coefficienti {xi}. Se ora aggiungiamo che tra gli elementi di B debba sussistere la condizione di ortogonalità a coppie, ovvero ui,  uj = 0 per tutti gli i ≠ j, l’intera base è detta ortogonale, ed i coefficienti xi si determinano[88]  [88] E sufficiente eseguire il prodotto scalare di ambo i membri di x = ni = 1xiui per ciascuno dei vettori uj per ottenere x,  uj = ni = 1xiui,  uj = ni = 1xiui,  uj = xjuj,  uj = xjuj2 dato che ui,  uj = 0 per i ≠ j e che uj,  uj = uj2. eseguendo il prodotto scalare tra x ed ognuno di essi
(10.22) xi = x,  uiui2
Possiamo a questo punto valutare il prodotto scalare tra coppie di vettori x = ni = 1xiui e y = ni = 1yiui con coefficienti {xi} e {yi} ottenuti mediante la (10.22), nei termini del prodotto scalare tra i vettori dei coefficienti, ovvero:[89]  [89] Scriviamo infatti x,  y = ni = 1xiui,  nj = 1yjuj = ni = 1nj = 1xiui,  yjuj ma, essendo ui e uj ortogonali la doppia sommatoria si riduce ad una sola, ovvero x,  y = ni = 1xiui,  yiui = ni = 1xiy * iui2.
(10.23) x,  y = ni = 1xiy * iui2
Calcolo della norma su di una base ortonormale
Se i vettori ui oltre ad essere ortogonali hanno tutti norma pari ad uno ovvero ui2 = ui,  ui = 1 essi vengono detti unitari, la base è detta ortonormale[90]  [90] Da una qualsiasi base ortogonale se ne può ottenere una diversa ma con elementi di norma unitaria, vedi https://it.wikipedia.org/wiki/Base_ortonormale, e dalla (10.23) si ottiene per il prodotto scalare tra x e y
(10.24) x,  y = ni = 1xiy * i
mentre la norma quadratica di un generico vettore x si ottiene come
(10.25) x2 = x,  x = ni = 1xix * i = ni = 1|xi|2
che corrisponde al quadrato della (10.17) per p = 2. Quindi, quando la base B di rappresentazione è ortonormale, ed il prodotto interno è definito dalla (10.24), la norma indotta (10.25) assume la stessa forma della (10.17) corrispondente all’ordine p = 2, accomunando il comportamento degli spazi di Hilbert a quello noto per la geometria euclidea, in cui la base è appunto ortonormale.
Una forma più generale per indicare sia l’ortogonalità che l’unitarietà utilizza la notazione ui,  uj = δi, j, in cui δi, j è detto delta di Kronecker che vale 1 se i = j e zero in caso contrario. La sua versione continua è il delta di Dirac, introdotto al § 3.4.
Notiamo infine come il prodotto scalare x,  ui tra x ed un vettore della base ortonormale sia una proiezione ortogonale, nel senso che potendo scrivere x,  ui = |x| ⋅ |ui| ⋅ cosθ (eq. (10.21)) ed essendo ui a lunghezza unitaria, si ottiene la lunghezza dell’ombra del primo nella direzione del secondo.
Distanza indotta dal prodotto scalare
Si esprime come la norma del vettore differenza ovvero applicando la (10.25)
d(x, y) = x − y2 = x − y,  x − y = ni = 1|xi − yi|2
che a sua volta corrisponde a quella di ordine p = 2 che abbiamo definito per gli spazi euclidei (eq. (10.18)); si ricordi che nel caso di vettori complessi risulta
|xi − yi|2 = (xi − yi)(xi − yi)* = ({xi − yi})2 + ({xi − yi})2.
Esercizio Dati due vettori complessi x =  1 + j2,  0 e y =  3 + j4,   − j2 calcolare la norma di entrambi, e la loro distanza. Si ha x = x,  x = (12 + 22) + 02 = 5 e y = y,  y = (32 + 42) + 22 = 29; mentre
z = x − y =  1 + j2 − 3 − j4,  0 + j2  =   − 2 − j2,  j2
e dunque d(x, y) = (22 + 22) + 22 = 12.

2.4.4 Spazi a dimensionalità infinita

I risultati a cui siamo pervenuti, e che sono stati dimostrati per spazi con un numero n finito di dimensioni, mantengono validità anche qualora detto numero divenga infinito, come per gli spazi dei segnali periodici o di energia.
Un esempio di spazio con infinite (ma numerabili) dimensioni è quello indicato come lp e descritto da un vettore le cui componenti sono elementi di una successione x = {xi} con i = 1, 2, ⋯, ∞, e per le quali la norma xp = pi = 1|xi|p converge ad un numero finito. La successione Xn dei coefficienti di una serie di Fourier rispecchia tale proprietà per p = 2, e la corrispondente norma quadratica (x2)2 = i = 1|X2n| esprime[91]  [91] A chi si sta chiedendo dove siano finiti gli indici negativi, rispondo che gli indici sono stati riorganizzati alterandone la numerazione, tanto rimangono comunque di una infinità numerabile. la potenza di x nei termini del teorema di Parseval.
Un altro spazio ad infinite dimensioni (stavolta non numerabili) è quello Lp delle funzioni x = x(t) la cui p − esima potenza è sommabile[92]  [92] La L usata per definire tali insiemi sta per Lebesgue, legata cioè al modo di calcolare l’integrale che prende nome da tale matematico, e che assegna uguale valore all’integrale di due funzioni che differiscono in un insieme di punti a misura nulla, dette funzioni uguali quasi ovunque, vedi https://it.wikipedia.org/wiki/Integrale_di_Lebesgue e https://it.wikipedia.org/wiki/Spazio_Lp; la norma di ordine p in questo caso viene definita come x(t)p = ( xp(t)dt)1p e per p = 2 ritroviamo la classe dei segnali di energia, alla cui energia corrisponde la norma quadratica Ex = (x(t)2)2 = x2(t)dt, mentre la distanza d2(x(t), y(t)) tra segnali è la radice dell’errore quadratico |x(t) − y(t)|2dt.
Anche se non ci addentreremo nei dettagli analitici soggiacenti,, il tipo di equivalenze appena menzionate sono una conseguenza dell’adattare la definizione di prodotto scalare (10.24) ai casi a dimensionalità infinita, rendendo possibile associare alle relazioni ottenibili una interpretazione geometrica unificante.

2.4.4.1 Spazio dei segnali periodici

E’ quello descritto dall’insieme dei segnali periodici di periodo T, dato che può essere dotato di un operatore di prodotto interno tra segnali x(t) ed y(t) nella forma
(10.26) x(t), y(t) = 1T T2 − T2x(t)y*(t)dt
che quando calcolato per y(t) = x(t) permette di equiparare la norma quadratica di x(t) alla relativa potenza
x(t)2 = 1T T2 − T2|x(t)|2dt
e dunque la sua norma corrisponde al relativo valore efficace (pag. 1). Osserviamo che
La differenza rispetto alla trattazione generale è che ora per descrivere lo spazio occorrono infiniti (ma numerabili) vettori della base; in tal senso, lo spazio (dei segnali con periodo T) è detto separabile, che nel contesto della teoria dei segnali significa che è costituito dalle sole frequenze armoniche della fondamentale.
Una seconda conseguenza dell’ortogonalità della base costituita dagli e j2πnFt è che qualora dalla serie venga omesso qualche termine (ovvero qualche indice n) ottenendo un diverso segnale (t) = incompletaXn e j2πnFt, il corrispondente errore xe(t) = x(t) − (t), periodico anch’esso, giace su di un sottospazio ortogonale a quello esplorato dai vettori presenti nella serie, e (si dimostra che) ha la minima norma, e dunque potenza, possibile.

2.4.4.2 Spazio dei segnali di energia e di potenza

Definizione del prodotto interno
Anche in questi due casi è possibile definire un operatore prodotto interno, che per segnali di energia prende la forma
(10.27) x(t), y(t) =  −∞x(t)y*(t)dt
a cui corrisponde una norma quadratica x(t)2 = x(t), x(t) pari all’energia del segnale Ex = x(t)2 = T2 − T2|x(t)|2dt. Per segnali di potenza invece il prodotto scalare si scrive come
(10.28) x(t), y(t) = limT → ∞1T T2 − T2x(t)y*(t)dt
a cui corrisponde una norma quadratica che è pari alla potenza del segnale Px = x(t)2 = limT → ∞1T T2 − T2|x(t)|2dt.
Diseguaglianza di Schwartz
La (10.20) può essere applicata sia ai segnali di energia che a quelli di potenza, in quanto le relative espressioni per il prodotto interno, quando sostituite nella (10.20), permettono di scrivere (nel caso di energia)
(10.29)
| −∞x(t)y*(t)dt|2 ≤  −∞|x(t)|2dt −∞|y(t)|2dt
ovvero che il quadrato del prodotto scalare (ovvero dell’energia mutua, § 3.2) tra segnali è sempre inferiore al prodotto delle rispettive energie (o potenze), oppure uguale nel caso in cui un segnale sia proporzionale all’altro, ovvero x(t) = αy(t). Per il caso dei segnali di potenza valgono le stesse parole, dopo aver sostituito la (10.29) con
||limT → ∞ 1T T2 − T2x(t)y*(t)dt||2 ≤ limT → ∞ 1T T2 − T2|x(t)|2dtlimT → ∞ 1T T2 − T2|y(t)|2dt
Questi concetti troveranno applicazione ad es. al § 3.2 relativamente all’energia mutua, al § 7.1.4 nel definire la correlazione tra segnali, al § 7.6 per l’analisi del filtro adattato... Ma lanciamoci prima su di una ulteriore speculazione, di cui tralasciamo il rigore teorico: buona parte delle relazioni affrontate nella prima parte del testo sono una forma di prodotto interno.

2.4.4.3 Spazio dei funzionali lineari definiti da un prodotto interno

Al § 1.6 si è definito un sistema come una trasformazione T [.] che produce segnali di uscita in funzione di segnali di ingresso ovvero y(t) = T [x(t)]. Dal punto di vista dell’analisi T [.] viene pensato come un operatore o funzionale[94]  [94] Vedi anche https://it.wikipedia.org/wiki/Analisi_funzionale lineare (eq. (1.3)) che mappa i vettori x dello spazio X dei segnali di ingresso, in elementi y di uno spazio Y di segnali di uscita, eventualmente monodimensionale.
Qualora X sia uno spazio di Hilbert (ossia completo e dotato di prodotto interno), allora qualunque funzionale Tφ[x] può essere espresso nella forma di un prodotto interno
(10.30) Tφ[x] = x, φ
tra il vettore x ∈ X ed un altro vettore-segnale φ che caratterizza la trasformazione. La funzione φ è talvolta chiamata[95]  [95] Vedi ad esempio https://en.wikipedia.org/wiki/Integral_transform la funzione-kernel, il kernel integrale o il nucleo di una trasformazione integrale, ma non in questo testo.
Se anche φ ∈ X l’operatore (10.30) può fornire alcuni risultati ben noti discussi altrove nel testo. Ad esempio se φ = x le espressioni per il prodotto scalare dei segnali (10.27) e (10.28) consentono di ottenere l’energia o la potenza di segnale x; in modo simile , se φ ≠ x si ottengono le formule per l’energia mutua (10.35) e l’intercorrelazione (10.155). Nell’intercorrelazione in particolare il vettore φ che caratterizza il funzionale dipende da due variabili φ = φ(t, θ), in modo che il risultato del prodotto interno
x(t), φ(t, θ) =  −∞x(t)φ*(t, θ)dt = y(θ)
dipenda dalla nuova variabile θ. Dato che stiamo portando esempi che rimandano ad argomenti trattati nei capitoli successivi, può essere opportuno tornare qui dopo aver svolto una prima fase di studio, almeno fino al cap. 7.
Prendiamo ora ad esempio il caso della trasformata di Fourier (10.31), che calcola
X(f) =  −∞x(t)e −j2πftdt = x(t), e j2πft
e che costituisce dunque la proiezione di x(t) nei confronti del segnale e j2πft, che a sua volta rappresenta il vettore φ(t, f). A ben guardare, gli esponenziali complessi costituiscono una base ortonormale per i segnali di energia (§ 3.8.5), condizione che in questo spazio è definita come
φ(t, f), φ(t, λ) = δ(f − λ)
in cui δ è un impulso di Dirac. Da questa proprietà degli e j2πft discende sia l’esistenza della antitrasformata nella forma (10.32), sia la proprietà di unitarietà[96]  [96] Vedi ad es. https://en.wikipedia.org/wiki/Unitary_operator della trasformazione, ovvero di non alterare la lunghezza dei vettori nel passare dagli elementi dello spazio di segnale X  (funzione di t) a quelli dello spazio immagine Y  (funzione di f), e che dà luogo al teorema di Parseval.
In alcuni casi il vettore φ che caratterizza il funzionale (10.30) dipende da una differenza di variabili, ovvero
φ(t, τ) = φ(t − τ)
come nell’operazione di setacciamento (10.44), di trasformata di Hilbert (14.26), o di convoluzione (10.48): in quest’ultimo caso φ(t, τ) = h(t − τ) è direttamente legato alla risposta impulsiva h(t) che caratterizza completamente il sistema.
Se aver verificato che una convoluzione e dunque un filtro corrisponde ad un prodotto scalare e quindi ad un funzionale ovvero un sistema non ci è bastato, allarghiamo il discorso aggiungendo il fatto che l’insieme dei funzionali Tφ che operano su di un medesimo spazio di Hilbert X di ingresso costituisce esso stesso uno spazio di Hilbert, detto spazio duale[97]  [97] Vedi ad es. https://it.wikipedia.org/wiki/Spazio_duale X*,  in cui la norma è definita come
Tφ = φ = φ, φ
e se φ < ∞ il funzionale è continuo. Se inoltre X possiede una base ortonormale {ui(t)} mediante la quale rappresentare i suoi vettori come x(t) = ni = 1xiui(t) in cui xi = x(t), ui(t), allora i funzionali di X* possono a loro volta essere rappresentati come una combinazione lineare di vettori-segnali.
Un modo diretto di procedere esprime il segnale di uscita y(θ) = Tφt, θ[x(t)] come
y(θ) = ni = 1xiTφt, θ[ui(t)] = ni = 1xivi(θ)
in cui[98]  [98] Infatti vi(θ) = Tφt, θ[ui(t)] = ui(t), φ(t, θ). Ma è anche vero che ui(t), φ(t, θ) = φ(t, θ), ui(t)* = (Tui[φ(t)])* e dunque i segnali vi(θ) sono anche coniugati alla proiezione di φ(t) lungo il vettore della base ui(t). vi(θ) è il risultato del funzionale Tφ applicato ai vettori della base ui(t) di X, che dunque opera sommando i suoi vettori di risposta vi(θ) (che appartengono a Y) con pesi pari alle componenti xi di x(t) proiettate sugli ui(t).
Esempio L’integrale di convoluzione y(t) = −∞x(τ) h(t − τ) dτ esprime l’uscita y(t) come combinazione lineare delle h(t − τ) effetto degli impulsi δ(t), che costituiscono una base ortonormale per x(t) nei termini espressi dalla proprietà di setacciamento x(t) = −∞x(τ)δ(t − τ)dτ, vedi § 3.4.
Non è però detto che {vi(θ)} formi una base di vettori linearmente indipendenti per lo spazio di uscita Y; poniamo allora di conoscere una base ortonormale {i(θ)} per lo spazio Y ([99]  [99] E dunque poter esprimere ogni suo vettore come y(θ) = ni = 1yii(θ) in cui yi = y(θ), i(θ) è la proiezione di y(θ) lungo i(θ).): in tal caso esiste un insieme di n vettori {zi(t) ∈ X} che dipende sia da {i(θ)} che da {ui(t)} e dalla sua trasformata {vi(θ)}[100]  [100] La relazione che lega zj(t) alle altre grandezze dovrebbe risultare zj(t) = ni = 1j(θ), vi(θ)ui(t), ma il testo Signal Theory di L.E. Franks che ho utilizzato per questa parte forse ha saltato qualche passaggio, o non ho avuto la pazienza di ricostruirli., e che individua altrettanti funzionali Tzi[x(t)] = x(t), zi(t) in modo da poter scrivere
y(θ) = ni = 1x(t), zi(t)i(θ) = ni = 1 Tzi[x(t)]i(θ)
decomponendo quindi Tφ in n funzionali dipendenti dalla scelta delle basi.
 Sezione 2.3: Teorema di Parseval Su Capitolo 2: Serie di Fourier e spazio dei segnali Sezione 2.5: Appendici