Evoluzione della trasmissione in fibra verso l’ottica coerente

Le tappe storiche che precedono l’affermazione dei sistemi di comunicazione in fibra basati sull’ottica coerente, divenuti oggigiorno uno standard industriale, vengono ripercorse allo scopo di fornire una panoramica degli sviluppi tecnologici, fino ad individuare i fattori che hanno determinato la possibilità di aumentare la capacità trasmissiva per \lambda di un fattore tra quattro a quaranta volte quella del precedente limite dei 10 Gbit/s per \lambda, conseguibili con la demodulazione incoerente.

Indice dei contenuti

Le generazioni della comunicazione in fibra

Per poter comprendere appieno il razionale che ha condotto a rilanciare con nuova linfa la ricerca, lo sviluppo, la produzione industriale e definitivamente la messa in esercizio dei sistemi di comunicazione ottica coerente, è necessario ripercorrere le tappe storiche riguardanti la nascita e l’evoluzione dei sistemi di comunicazione ottica a partire dal grafico mostrato in Fig.1, che schematizza l’andamento del prodotto banda-lunghezza (BL) nel tempo (sostanzialmente dagli anni ’70 ad oggi).


Fig.1 – Prodotto banda-lunghezza (BL) dei sistemi ottici anno dopo anno. I numeri romani ne indicano la generazione.
Legenda: MMF – multimode fiber; SMF – singlemode fiber; EDFA – erbium-doped fiber amplifier; WDM – wavelength division multiplexing; FEC – forward error correction; Raman Amp. – amplificazione Raman; Pol-Mux – polarization multiplexing; DSP – digital signal processing; SDM* – space division multiplexing, su sistemi in in fibra ottica multi-core o multimodali, non ancora in commercio.

La prima generazione di sistemi ottici per le comunicazioni (anni ’70) utilizzava sorgenti luminose consistenti in LED e laser fabbricati con eterostrutture ternarie in AlGaAs (arseniuro di gallio e alluminio) ed emittenti ad una lunghezza d’onda intorno 0,8 μm (cosiddetta prima finestra) su fibre ottiche multimodali graded-index. Il prodotto BL di tali sistemi, unicamente limitati dal fenomeno della dispersione modale intrinseco alle fibre multimodali (multumode fiber, MMF), raggiungeva varie centinaia di Mbit/s·km. Risale al 1980 il primo sistema commerciale di comunicazioni ottiche operante ad una velocità di 45 Mbit/s con spaziatura di rigenerazione del segnale pari a 7 km su fibra multimodale.

Lo sviluppo delle fibre ottiche monomodali nei primi anni ’80 superava il problema della dispersione modale, consentendo la transizione alla seconda generazione di comunicazioni ottiche. Inoltre, gli avanzamenti tecnologici inerenti alla fabbricazione di dispositivi a semiconduttore, permettevano di avere una maggiore padronanza su eterostrutture quaternarie come InGaAsP (arseniuro di gallio e fosfuro di indio), potendo quindi introdurre sorgenti luminose emittenti in seconda finestra, intorno a 1,3 μm, dove l’attenuazione della fibra ottica è più bassa rispetto alla prima, pari circa a 0,5 dB/km, così come più contenuta è la dispersione cromatica (chromatic dispersion, CD) del mezzo trasmissivo. Nel 1987 veniva così commercializzato un sistema di comunicazione ottica con bitrate pari a 1,7 Gbit/s e spaziatura di rigenerazione incrementata a 50 km.

La terza generazione ha visto fondamentalmente un affinamento tecnologico nella fabbricazione di semiconduttori con eterostrutture quaternarie, soprattutto a riguardo la riduzione dei mismatch cristallini nelle giunzioni tra materiali diversi, con lo spostamento della lunghezza d’onda operativa a 1,5 μm (terza finestra), riducendo ulteriormente l’attenuazione dell’impulso ottico trasmesso in fibra a 0,2 dB/km. Nel 1990 i sistemi ottici commercializzati operavano stabilmente a 2,5 Gbit/s.

La quarta generazione ha avuto uno sviluppo clamoroso dato da un consistente salto tecnologico in avanti su vari fronti per le comunicazioni ottiche. Con la messa in esercizio dei sistemi ottici di telecomunicazioni monomodali operativi in terza finestra, si è praticamente spostata la limitazione tecnologica dal dominio ottico al dominio elettronico, cioé quello deputato all’elaborazione del segnale informativo in trasmissione e ricezione. In altri termini, sebbene la fibra aveva abbastanza larghezza di banda inutilizzata, essa rimaneva comunque sprecata a causa dell’inadeguatezza (a quel tempo) dei sistemi elettronici per modulare e rivelare segnali alle elevate velocità di trasmissione consentite dal mezzo ottico. Ecco quindi che la naturale soluzione a questo problema era l’impiego della modulazione a divisione di lunghezza d’onda WDM, introdotta negli anni novanta: in questo modo, la stessa circuiteria elettronica di ciascun trasmettitore e ricevitore continuava ad essere dedicata a un solo canale con portante ad una specifica lunghezza d’onda, mentre la banda inutilizzata del canale ottico di comunicazione tra il trasmettitore e il ricevitore veniva efficientemente sfruttata con un incremento considerevole della sua capacità. Nonostante questo avanzamento, tale soluzione rimaneva molto poco scalabile in termini di costi; infatti, dal momento che la fibra attenuava l’impulso ottico erogato dal laser, questo necessitava di essere periodicamente rigenerato nel dominio elettronico, al fine di ricostruire il flusso di bit trasmesso, e quindi essere nuovamente convertito nel dominio ottico (nota come rigenerazione opto-elettro-ottica, O-E-O), impiegando costosi convertitori ottico-elettro-ottici per ciascun canale. Di conseguenza, il costo delle stazioni di ripetizione diveniva proporzionale al numero delle lunghezze d’onda attive e, considerando che la distanza tra due rigenerazioni consecutive non superava i 100 km, il costo di connessioni ottiche per collegamenti a lunga/lunghissima distanza (in particolare per i cavi sottomarini, con distanze di migliaia di chilometri), con decine di rigeneratori, diveniva praticamente insostenibile.

Più o meno nello stesso periodo, i risultati della ricerca sulle proprietà ottiche di fibre drogate con terre rare, presso l’Università di Southampton (UK), nonché le prime implementazioni di metodi di amplificazione ottica con dispositivi alternativi a quelli a semiconduttore (SOA) e quelli basati sullo scattering di Raman, condotte nei laboratori AT&T Bell (USA), si concretizzavano nella fabbricazione e successivo impiego di amplificatori totalmente ottici EDFA nei sistemi di comunicazione. Si superava così il problema della rigenerazione O-E-O con conseguente drastico abbattimento dei costi operativi, specialmente per le tratte transoceaniche sottomarine (ad esempio, su un collegamento WDM a 20 canali, con lunghezza di tratta di 1000 km, dovendo rigenerare ogni 100 km, ben 9 × 20 = 180 rigeneratori O-E-O venivano rimpiazzati da soli 9 EDFA). Contestualmente all’introduzione degli EDFA, decisivi avanzamenti tecnologici si registravano:

  • sul fronte della rivelazione e correzione d’errore nelle trasmissioni numeriche grazie all’introduzione del meccanismo FEC;
  • sul fronte del trattamento dell’attenuazione di canale con la possibilità di trasmettere anche verso il limite superiore della terza finestra (trasmissioni in banda C+L);
  • sul fronte dello sviluppo e impiego di soluzioni ibride di amplificazione EDFA/Raman.

Dall’analisi della Fig.1, si potrebbe dedurre che la riduzione della pendenza della tangente alla curva (la derivata prima) associata ai sistemi di quinta generazione verso una condizione di massimo relativo, si abbia con l’introduzione effettiva dei sistemi di comunicazione in ottica coerente integranti il digital signal processing (DSP) per l’elaborazione numerica dell’informazione soprattutto in ricezione. Eppure la storia è un po’ diversa… 

Progressi e intoppi per la “luce” della coerenza ottica

La trattazione sintetica delle tappe storiche dei sistemi di comunicazione ottica finora esposta è stata effettuata “facendo i conti senza l’oste” sin dall’inizio; infatti, la prima proposta di uno schema di comunicazione ottica coerente risale addirittura al 1970 ad opera di De Lange. Comunque, prima di rivedere le tappe storiche dei sistemi di comunicazione includendo la coerenza ottica, si rende necessario richiamare subito diversi concetti basilari appartenenti a specifici ambiti tecnici (ad esempio, fisica ottica, tecnica delle radiofrequenze, elettronica dello stato solido, teoria della modulazione, ecc.), peraltro taluni già esaurientemente esposti nel testo del Prof. Falaschi e quindi richiamati laddove occorra, e in ogni caso con lo scopo di sgombrare prima possibile il campo da ogni dubbio concettuale.

1970 – 1980: Modulazione di intensità e rumore nel ricevitore incoerente

Tecnica di ricezione IMDD (Intensity Modulation and Direct Detection)

Come mostrato in Fig.1, il primo quinquennio degli anni ’70 ha visto una febbrile attività di ricerca e sviluppo sui sistemi di comunicazione ottica la cui struttura “trasmettitore-canale-ricevitore” è quella descritta qui dal Prof. Falaschi e nota con l’acronimo IMDD (intensity modulation and direct detection), in cui il meccanismo di fotorivelazione in ricezione è basato sul fenomeno dell’assorbimento ottico. Per chiarirlo, consideriamo la schematizzazione semplificativa in Fig.2 di una barretta di semiconduttore esposta a radiazione elettromagnetica.


Fig.2 – Schematizzazione di una barretta di semiconduttore di spessore W, esposta ad una radiazione elettromagnetica incidente su un solo lato e sottoposta a una differenza di potenziale continua.

E’ ben nota la natura duale della radiazione elettromagnetica in accordo con il principio di dualismo onda-particella. Nel nostro caso, la discussione “prende in prestito” la natura particellare della luce, ossia il concetto di fotone. Sicché, se l’energia

E=h\nu\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[1]

associata ai fotoni incidenti supera la cosiddetta banda proibita (bandgap) del semiconduttore, una coppia elettrone-lacuna viene generata ogniqualvolta un fotone è assorbito dal materiale stesso. Sotto l’influenza di un campo elettrico, ad esempio quello generato da una batteria applicata alla barretta, gli elettroni e le lacune accelerano (in direzioni opposte) in quanto sottoposti alla forza di Coulomb, generando un flusso di carica denominato fotocorrente, con valore istantaneo I_{p}(t). Se E(t) è il campo elettrico associato all’onda elettromagnetica incidente, il segnale di potenza è dato da |E(t)|^{2}; fotocorrente e potenza ottica sono direttamente proporzionali secondo la relazione

I_{p}(t)=R\left | E(t) \right |^{2}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[2]

dove la costante R prende il nome di responsività, un parametro intrinseco ad ogni specifico dispositivo di fotorivelazione (tipicamente un fotodiodo). Si comprende meglio, adesso, l’acronimo “IMDD” in riferimento a una tale tecnica di rivelazione: l’informazione contenuta nella distribuzione di potenza incidente |E(t)|^{2} è mappata sulle variazioni della fotocorrente I_{p}(t), che viene quindi processata a valle del fotodiodo per la ricostruzione del dato trasmesso. Dal momento che la presenza o assenza di segnale ottico (flusso di fotoni) rappresenta i bit 1 o 0, rispettivamente, lo schema di modulazione che lo descrive meglio è l’Amplitude Shift Keying (ASK), e più precisamente lo schema On Off Keying (OOK).

Origine del rumore nei ricevitori ottici

Come anticipato sebbene la prima bozza di sistema ottico coerente per telecomunicazioni fu introdotta nel 1970, questa venne praticamente relegata in soffitta, o comunque ignorata a favore dello schema IMDD che divenne e rimase lo standard dei sistemi di comunicazione ottica almeno per i successivi trent’anni. Senza tutti i torti, poiché effettivamente a quel tempo non vi era motivo di dubitare circa la validità e robustezza di un tale sistema di rivelazione, avendo il grande vantaggio di disaccoppiare totalmente la sensitività del ricevitore sia dalla fase del segnale portante che dallo stato di polarizzazione (state of polarization, SOP) del segnale incidente, che nei sistemi reali è sottoposto a fluttuazioni casuali dovuto all’inevitabile presenza di rumore additivo nel canale.

Ma l’intrinseca essenza “subdola” del rumore non risparmia nessuno, ed infatti nella relazione [2] occorre aggiungere il contributo di due fenomeni di natura intrinseca, il rumore shot e il rumore termico, che introducono fluttuazioni nel segnale di corrente trasdotto, anche considerando (in un mondo ideale) il segnale ottico incidente esente da contributi di rumore introdotti dal canale.

Rumore shot

Il rumore shot è una manifestazione del fatto che una corrente elettrica è effettivamente un flusso di elettroni generati in modo casuale nel tempo. Quando un segnale ottico tempo-invariante, dotato di una certa potenza, incide su un fotorivelatore, la corrente risultante assume la forma seguente:

I(t)=I_{p}+i_{s}(t)\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[3]

dove I_{p} è il valore medio della fotocorrente, secondo la relazione [2], e i_{s}(t) è un termine additivo che compendia le fluttuazioni casuali dovute al rumore shot. A rigore, i_{s}(t) è un processo aleatorio stazionario con distribuzione di Poisson, ma può essere ragionevolmente modellizzato come un processo di rumore gaussiano; pertanto, una volta nota la densità spettrale di potenza S_{s}(f) associata al rumore shot, applicando il teorema di Wiener-Khintchine è possibile determinare la funzione di autocorrelazione come segue:

\left \langle i_{s}(t)i_{s}(t+\tau ) \right \rangle=\int_{-\infty }^{+\infty }S_{s}(f)e^{i2\pi f\tau }\textup{d}f\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[4]

dove le parentesi angolari denotano una media complessiva sulle fluttuazioni.

Si dimostra (cosiddetto Teorema di Schottky, che studiò il fenomeno) che la densità spettrale di potenza S_{s}(f) del rumore shot è una costante data dal prodotto tra la carica elettronica q e la fotocorrente I_{p} (un esempio di rumore bianco), se si considerano anche le frequenze negative (e ovviamente raddoppia se si considerano solo le frequenze positive). Ponendo \tau =0 nella [4], si ottiene la varianza del processo di rumore shot:

\sigma {s}^{2}=\left \langle i_{s}^{2}(t) \right \rangle=\int_{-\infty }^{+\infty }S_{s}(f)\textup{d}f=2qI_{p}\Delta f\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[5]

dove \Delta f è la larghezza di banda efficace di rumore il cui valore è strettamente legato al design del ricevitore. Un ulteriore contributo di rumore shot è causato dalla cosiddetta dark current, I_{d}, generata dal fotorivelatore anche in assenza di radiazione incidente, che quindi consente di scrivere la [5] come segue:

\sigma {s}^{2}=2q(I_{p}+I_{d})\Delta f\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[6]

Ma prima di procedere a parlare del rumore termico investighiamo sulle sue cause, da ricercare nella architettura del…

Ricevitore ottico incoerente

Molto sinteticamente consiste in un fotodiodo seguito da un preamplificatore, in modo da adattare il livello del segnale elettrico trasdotto ai successivi stadi di elaborazione. Esistono diverse configurazioni circuitali di front end per ricevitori ottici; quella qui descritta è nota come front end a trans-impedenza, il cui circuito equivalente è mostrato in Fig.3. La scelta non è casuale, dato che consente di avere allo stesso tempo elevata sensitività e ampia larghezza di banda a cui corrisponde una elevata velocità di trasmissione.

Questo ricevitore di natura (come stiamo per illustrare) incorente, in combinazione con la tecnica IMDD, ha di fatto costituito un pilastro incrollabile nell’ingegnerizzazione dei sistemi di comunicazione ottica, contribuendo pesantemente a “mettere in ombra” per circa un trentennio i benefici che saranno, come vedremo, appannaggio dei rivelatori coerenti.


Fig.3 – Circuito equivalente di un ricevitore ottico con stadio preamplificatore a trans-impedenza.

In particolare, il fotodiodo è modellizzato da un generatore costante di corrente di valore I_{p}; C_{in} è la capacità equivalente che tiene conto dei contributi capacitivi sia del fotodiodo che dello stadio di ingresso dell’amplificatore; R_{L} è il carico resistivo su cui, al passaggio della fotocorrente, sono rilevate le variazioni di tensione utilizzate come informazione da elaborare successivamente. Il carico è connesso come resistore di feedback su una configurazione di amplificatore operazionale invertente (che giustifica il segno negativo davanti al valore del guadagno G, a causa dell’inversione di fase applicata tra ingresso e uscita propria di questo schema). Indicando con R_{in} il valore della resistenza equivalente di Thevenin calcolata all’ingresso dell’amplificatore, per la configurazione invertente (considerando solo il modulo) si ha |G|=R_{L}/R_{in}, da cui R_{in}=G/R_{L}; la larghezza di banda del ricevitore, \Delta f, è l’inverso della costante di tempo complessiva del circuito equivalente di Thevenin, data da:

\Delta f=\frac{1}{2\pi \tau_{in} }=\frac{1}{2\pi R_{in}C_{in}}=\frac{1}{2\pi \frac{R_{L}}{G}C_{in}}=\frac{G}{2\pi R_{L}C_{in}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[7]

In buona sostanza, la larghezza di banda è direttamente proporzionale al guadagno dello stadio amplificatore, certamente quindi più ampia rispetto a configurazioni di front end senza preamplificazione con retroazione (ricevitori ad alta impedenza), e inversamente proporzionale alla resistenza di carico R_{L} su cui si prelevano le fluttuazioni di tensione da post processare.

Rumore termico

La descrizione appena effettuata consente di collegare la presenza del carico R_{L} al secondo processo di rumore che limita le prestazioni dei fotorivelatori ossia, come detto, il rumore termico, per il motivo che segue.

A temperatura ambiente gli elettroni di qualunque conduttore si muovono casualmente. In un resistore tale moto si manifesta sotto forma di fluttuazioni di corrente, anche in assenza di una differenza di potenziale applicata ai suoi capi. Il dimensionamento di R_{L} è quindi determinante perché la sua presenza aggiunge ulteriori fluttuazioni alla fotocorrente generata dal fotodiodo che è, in ultima istanza, il segnale informativo da demodulare. Proprio quest’altra componente aggiuntiva di corrente, i_{T}(t), è il rumore termico (noto anche come rumore Johnson o rumore Nyquist); il contributo complessivo di corrente è quindi dato da:

I(t)=I_{p}+i_{s}(t)+i_{T}(t)\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[8]

Matematicamente, il contributo i_{T}(t) è modellizzato come un processo stazionario gaussiano con una densità spettrale che è indipendente dalla frequenza almeno fino a circa 1 THz (quasi un rumore bianco), data da:

S_{T}(f)=\frac{2k_{B}T}{R_{L}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[9]

dove k_{B} è la costante di Boltzmann, T è la temperatura assoluta ed R_{L} è la resistenza di carico. Procedendo analogamente a quanto fatto per il rumore shot, ossia ponendo \tau =0 nell’integrale di autocorrelazione, si ottiene la seguente varianza per il rumore termico:

\sigma_{T}^{2}=\left \langle i_{T}^{2}(t) \right \rangle=\int_{-\infty }^{+\infty }S_{T}(f)\textup{d}f=\left ( \frac{4k_{B}T}{R_{L}} \right )\Delta f\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[10]

dove \Delta f è sempre la larghezza di banda efficace di rumore.

A onor del vero, la [10] viene tipicamente corretta con un fattore moltiplicativo F_{n} denominato figura di rumore dell’amplificatore che, da un punto di vista fisico, congloba tutti gli effetti attivi (dell’amplificatore) e passivi (dei componenti ohmico-capacitivi) e che di fatto enfatizzano il rumore termico del ricevitore:

\sigma_{T}^{2}=\left ( \frac{4k_{B}T}{R_{L}} \right )F_{n}\Delta f\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[11]

A questo punto è possibile ottenere il valore totale della corrente di rumore come somma dei singoli contributi [6] e [11]; essendo i_{s}(t) e i_{T}(t) processi gaussiani statisticamente indipendenti, la varianza totale delle fluttuazioni di corrente, \Delta I=I-I_{p}=i_{s}+i_{T}, è ottenuta sommando semplicemente le singole varianze:

\sigma ^{2}=\left \langle \left ( \Delta I \right )^{2} \right \rangle=\sigma_{s}^{2}+\sigma_{T}^{2}=2q\left ( I_{p}+I_{d} \right )\Delta f+\left ( \frac{4k_{B}T}{R_{L}} \right )F_{n}\Delta f\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[12]

1980 – 1990: Si approfondiscono gli studi

Si è detto che il primo tentativo di introdurre la rivelazione coerente in un sistema di comunicazione ottica si deve a De Lange nel 1970, con la proposta di uno schema di demodulazione in eterodina. La novità della sua pubblicazione non risiedeva tanto nel fatto di utilizzare l’eterodina, già allora una tecnica consolidata nella progettazione dei radioricevitori, quanto di adattare, o meglio, trasferire una tecnica tipica delle radiofrequenze a un dominio ottico, spostando considerevolmente verso l’alto (in termini di frequenza, o verso il basso, in termini di lunghezza d’onda) il campo operativo del sistema di comunicazione.

Principio fisico della coerenza ottica

Quando si parla di rivelazione coerente nel dominio delle frequenze ottiche, il termine “coerente” si riferisce al fatto che

il segnale ottico, in arrivo dal canale, viene combinato coerentemente con un altro segnale ottico ad onda continua, generato localmente al ricevitore, prima che il segnale risultante incida sul fotodiodo

Il concetto di coerenza è proprio della fisica ottica, quando si indaga il fenomeno dell’interferenza; nella fattispecie, due sorgenti si dicono coerenti quando emettono onde che mantengono una relazione costante di fase.


Fig.4 – Comparazione tra due sorgenti elettromagnetiche emittenti onde coerenti e incoerenti.

Come mostrato in Fig.4, la coerenza delle sorgenti si esplica nel fatto che le onde non si muovono relativamente l’una rispetto all’altra al variare del tempo. Nell’ambito delle comunicazioni ottiche, pertanto, il ruolo della prima sorgente è ricoperto dal segnale informativo che viaggia in fibra ottica; il ruolo della seconda sorgente è ricoperto dal cosiddetto oscillatore locale (local oscillator, LO), poiché la radiazione è emessa da un laser che è locale, cioé prossimo al ricevitore, prima del fotorivelatore.

Cenni di rivelazione coerente via demodulazione eterodina

Nel 1980, due studi indipendenti ad opera di Okoshi & Kikuchi e di Fabre & Le Guen, dimostravano gli avanzamenti tecnologici raggiunti per avere una precisa stabilizzazione nell’emissione del fascio laser, e la conseguente possibilità di usarli come sorgenti idonee per sistemi di comunicazione ottica integranti ricevitori con demodulazione in eterodina.


Fig.5 – Schema del ricevitore in eterodina proposto da Okoshi & Kikuchi per sistemi di comunicazione ottica FDM (frequency-division multiplexing). LO: local oscillator, PD: photodiode, IFA: intermediate-frequency amplifier, Det: detector.

La Fig.5 mostra il ricevitore in eterodina proposto da Okoshi e Kikuchi per sistemi di comunicazione ottica basati sulla multiplazione a divisione di frequenza (FDM, frequency-division multiplexing). Ciascun canale FDM, demultiplato mediante un opportuno divisore di potenza ottica (in questa trattazione introduttiva, i dispositivi ottici sono schematizzati come black-box), veniva quindi selezionato mediante la rivelazione in eterodina con multipli oscillatori locali ubicati nel ricevitore stesso. Nelle more di approfondire analiticamente, nei successivi capitoli, il dettaglio tecnico della ricezione coerente applicata ai sistemi ottici, si può comunque anticipare che:

  • con i ricevitori coerenti è possibile ricostruire l’intera informazione trasportata dalla portante ottica a partire dalle componenti in fase e in quadratura dell’ampiezza complessa del campo elettromagnetico incidente, e dello stato di polarizzazione (SOP) del segnale;
  • per converso, i ricevitori coerenti sono sensibili alle variazioni rumorose sia della fase che del SOP del segnale incidente.

Come conciliare le due cose? Aumentare, rispetto a un sistema IMDD, la complessità architetturale del sistema coerente (in tal senso, lo schema di Fig.5 è effettivamente auto esplicativo se comparato a questo). Un altro aspetto essenziale che i due studi del 1980 dimostravano (sorprendentemente sempre in modo indipendente) riguarda la possibilità di mantenere al di sotto dei 10 MHz la deriva (drift) della frequenza centrale di emissione dei laser a semiconduttore integrati nei trasmettitori e nei ricevitori (come oscillatori locali). In ogni caso, anche ipotizzando di sopprimere il drift di frequenza centrale della sorgente laser (solo teoricamente, perché a quei tempi lo sviluppo tecnologico non forniva ancora gli strumenti per attuarlo praticamente) permarrebbe il grosso contributo di rumore di fase sulla portante ottica, sempre introdotto in trasmissione (e comunque esacerbato dal canale trasmissivo), di fatto non risolvendo il problema generale dell’instabilità di fase della sorgente.

Ecco quindi che il restringimento della larghezza spettrale di emissione dei laser a semiconduttore, in trasmissione, si presentava come il grande ostacolo da superare, nel triennio 1980 – 1983, per poter realizzare sistemi di rivelazione in eterodina anch’essi stabili. Perché?Restringendo la linea spettrale di emissione, con un allungamento della cavità risonante di Fabry-Perot, si riduce un effetto di instabilità interna a questa cavità (riscontrato sperimentalmente), consistente in ampie e rapidissime fluttuazioni della fase della radiazione che fanno “saltare” continuamente lo stato di auto-aggancio del laser (praticamente la condizione di risonanza non si riesce a mantenere a una frequenza fissa). Questo si ripercuote in variazioni di fase notevoli introdotte già in trasmissione che, aggiunte a quelle del canale e dell’oscillatore locale, rendevano complicata la realizzazione di circuiti capaci di far fronte a queste ampie fluttuazioni (i PLL erano troppo lenti per seguire queste rapidissime variazioni di fase).

Banda del laser AlGaAs

Si deve ancora a Okoshi e Kikuchi l’invenzione del metodo di autoeterodina ritardata (delayed self-heterodyne method), risalente ancora al 1980, per la misura della larghezza spettrale di emissione laser: con tale contributo scientifico si dava una spinta decisiva a uno studio estensivo (forse mai intrapreso prima) delle proprietà dei laser a semiconduttore nella prima metà degli anni ottanta. I primi interessanti risultati (pubblicati tra il 1982 – 1983) mostravano che la larghezza spettrale di un laser fabbricato in AlGaAs era tipicamente contenuta in un range frequenziale di 10 MHz; pertanto, un’ampiezza così stretta, accompagnata da un preciso controllo della frequenza centrale di emissione, accelerava i lavori di ricerca sulle comunicazioni ottiche coerenti basate su laser a semiconduttore.

L’elevata sensibilità dei ricevitori coerenti alle fluttuazioni randomiche della fase osservata più sopra e, contestualmente, la loro dipendenza dalle variazioni del SOP, aveva spinto all’ingegnerizzazione di complessi schemi di ricezione che in realtà rendevano più onerosa l’implementazione della circuiteria, piuttosto che contrastare efficacemente la dipendenza dal SOP.

Diversità di polarizzazione

Si deve a B. Glance, nel 1987, l’introduzione della tecnica di diversità di polarizzazione (polarization diversity, PD), allo scopo di eliminare la sopracitata dipendenza, con lo schema a blocchi proposto in Fig.6.


Fig.6 – Ricevitore in eterodina con diversità di polarizzazione. PBS: polarization beam splitter, Demod.: demodulator.

Incremento della sensitività del ricevitore coerente

Allo stesso tempo, nel biennio 1980 – 1981 un paio di pubblicazioni (tra cui alcune sempre con il contributo di Okoshi e Kikuchi) dimostravano alcuni importanti risultati ottenibili con la rivelazione coerente:

  • la possibilità di rendere trascurabile l’effetto del rumore termico al ricevitore;
  • controllare la potenza del rumore shot, mediante l’espediente di far si che la potenza dell’oscillatore locale superi quella quella della portante ottica incidente
    • in questa maniera si riusciva a disaccoppiare la sensitività del ricevitore dal rumore termico (si parla di shot-noise-limited receiver sensitivity), migliorando la qualità di ricezione;
  • l’uso dell’informazione sullo stato della fase della portante incrementa ulteriormente la sensitività del ricevitore, poiché permette di estendere la distanza tra i simboli sul piano complesso (piano IQ).

I vantaggi espressi nei due punti precedenti, sintetizzabili sostanzialmente nell’incremento della sensitività del ricevitore coerente, si possono considerare come il “manifesto” che ha motivato e guidato consistentemente la ricerca e sviluppo sui sistemi di comunicazione ottica coerente per tutto il decennio 1980 – 1990: un tale risultato, infatti, continua ad avere un’eco fino ai giorni nostri dal momento che ha consentito di aumentare la distanza di rigenerazione se non addirittura di ingegnerizzare tratte in fibra ottica senza necessità di ripetitori.

Ricezione coerente in omodina con PLL (Costas loop)

La ricerca e sviluppo di comunicazioni ottiche coerenti negli anni ’80 si orientava parallelamente anche all’investigazione di ricevitori coerenti che implementassero la tecnica della demodulazione in omodina. Il vantaggio di un tale approccio, rispetto alla tecnica in eterodina, consisteva nella ricostruzione in ricezione del segnale direttamente in banda base, semplificando sostanzialmente lo schema di demodulazione con l’eliminazione dello stadio di conversione a frequenza intermedia; il che costituiva un punto a favore soprattutto per le implementazioni ad alta frequenza in un dominio puramente analogico che, per la tecnologia di allora, si mostravano ancora discretamente complesse se comparate a quelle ibride analogico-digitali attuali.

Bisogna aspettare il 1990 affinché una pubblicazione su IEEE Photonics Technology Letters dimostrasse la possibilità effettiva di implementare un sistema con i suddetti requisiti (Fig.7).


Fig.7 – Configurazione di un ricevitore in omodina con OPLL di Costas.

La proposta pubblicata nell’articolo era quella di un ricevitore in omodina basato su PLL “ottico” (Optical PLL, OPLL) con schema di modulazione BPSK. Ad ogni modo, l’eliminazione dello stadio a frequenza intermedia si pagava con la difficoltà a ricostruire la fase della portante. Il segnale ottico modulato, infatti, non contiene alcuna componente della portante; conseguentemente, definite \theta_{S}(t) e \theta_{n}(t) le fasi di modulazione e di rumore, rispettivamente, al fine di ricostruire la fase della portante, occorre moltiplicare le componenti in fase e in quadratura, cioé \mathrm{sin}[\theta_{S}(t)+\theta_{n}(t)] e \mathrm{cos}[\theta_{S}(t)+\theta_{n}(t)], rispettivamente (tramite un opportuno mixer).

Senza entrare eccessivamente nel dettaglio, lo schema proposto è noto come anello di Costas (Costas loop) per demodulazioni angolari, in cui il risultato del prodotto elimina di fatto la modulazione BPSK, introducendo un errore di fase \theta_{n}(t) tra il trasmettitore e l’oscillatore locale. L’errore di fase pilota in tensione l’oscillatore locale (voltage-controlled oscillator, VCO) cosicché questo possa “inseguire” la fase della portante. In retrospettiva, al tempo in cui tale implementazione veniva proposta (1990, come detto), la larghezza di banda del PLL era tipicamente limitata al di sotto di 1 MHz, a causa del consistente ritardo temporale introdotto dall’anello di retroazione, rendendo quindi difficoltoso il mantenimento della stabilità globale del sistema, specialmente in presenza dell’intrinseco drift e del rumore di fase dei laser a semiconduttore. Per superare brillantemente questo problema, bisognerà aspettare qualche anno più tardi con la commercializzazione dei laser a semiconduttore a feedback distribuito (distribuited-feedback laser, DFB).

1990 – 2000: l’amplificazione ottica ritarda l’avvento della coerenza

Gli anni ’90 sono indubbiamente segnati dall’invenzione, sviluppo e commercializzazione degli amplificatori EDFA (Erbium Doped Fiber Amplifier) nei sistemi di comunicazione ottica. Anche in questo caso, al fine di comprendere l’influenza di tale invenzione sulla complessità dei sistemi di comunicazione, bisogna richiamare un po’ di fisica dello stato solido, con particolare riguardo al fenomeno dell’emissione spontanea amplificata e, conseguentemente, della sua influenza sulle prestazioni di un ricevitore ottico.

Rapporto segnale-rumore (SNR) di un ricevitore ottico

La prima figura di merito per valutare le prestazioni di un ricevitore ottico è indubbiamente il rapporto segnale-rumore (Signal to Noise Ratio, SNR) che, richiamando le definizioni analitiche fornite precedentemente per i contributi di rumore shot e il rumore termico, assume la seguente espressione:

\textup{SNR}=\frac{\textup{potenza media di segnale}}{\textup{potenza di rumore}}=\frac{I_{p}^{2}}{\sigma ^{2}}=\frac{R^{2}P_{in}^{2}}{2q\left ( RP_{in}+I_{d} \right )\Delta f+4\left ( \frac{k_{B}T}{R_{L}} \right )F_{n}\Delta f}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[13]

dove R è la nota responsività del fotorivelatore.

Emissione spontanea amplificata (ASE)

Tutti i materiali, in condizioni ordinarie, assorbono radiazione elettromagnetica piuttosto che emetterla. Ne é un esempio il fenomeno dell’assorbimento ottico in un semiconduttore, già discusso come principio di funzionamento della fotorivelazione.

L’emissione spontanea, uno dei due noti meccanismi fisici di emissione luminosa (l’altro fenomeno è quello dell’emissione stimolata, su cui si basa il funzionamento dei laser) si può considerare come duale all’assorbimento ottico: infatti, se in quest’ultimo una coppia elettrone-lacuna viene generata ogniqualvolta un fotone con energia maggiore della bandgap è assorbito dal materiale stesso, nell’emissione spontanea si ha il comportamento inverso ovvero, casualmente nel tempo e del tutto spontaneamente, cioé senza alcuna stimolazione esterna, un elettrone decade da uno stato atomico eccitato a uno di quiete, emettendo un fotone. La radiazione emessa è incoerente in tutte le direzioni, ovvero ogni fotone ha una fase totalmente non correlata a quella di un altro (si veda qui per approfondimento). Indubbiamente, il punto di forza di un amplificatore ottico come l’EDFA, è quello di rigenerare il segnale interamente nel dominio ottico, senza alcuna trasduzione O-E-O; anche qui esiste un prezzo da pagare: anche il rumore viene amplificato.

Contributo di rumore dell’ASE

Per l’esattezza, si ha un degrado dell’SNR del segnale utile dovuto proprio al fenomeno dell’emissione spontanea, che aggiunge rumore al segnale durante la fase di amplificazione indotta da un segnale di pompa: si parla allora di emissione spontanea amplificata (amplified spontaneous emission, ASE). Dal punto di vista analitico, l’effetto dell’ASE è compendiato nel fattore figura di rumore di amplificazione, F_{n}, già introdotto nel computo della [11] che, come qui anticipato e peraltro dimostrato anche da Okoshi e Kikuchi nelle pubblicazioni post-1980, si può considerare predominante nei ricevitori coerenti; formalmente, per un amplificatore, tale fattore è definito come segue:

F_{n}=\frac{(\textup{SNR})_{\textup{in}}}{(\textup{SNR})_{\textup{out}}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[14]

Considerando un amplificatore con guadagno G, le potenze ottiche di ingresso e uscita sono legate dalla relazione P_{out}=G\cdot P_{in}; in condizioni di presenza del solo rumore shot, l’espressione dell’SNR [13] diviene ora

\left (\textup{SNR} \right )_{\textup{in}}=\frac{\left \langle I \right \rangle^{2}}{\sigma_{S}^{2}}=\frac{\left ( RP_{in} \right )^{2}}{2q\left ( RP_{in} \right )\Delta f}=\frac{P_{in}}{2h\nu \Delta f}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[15]

dove \left \langle I \right \rangle=R\cdot P_{in} è la fotocorrente media, R=q/h\nu è la responsività di un fotorivelatore ideale con un’efficienza quantica unitaria e con dark current nulla (I_{d}=0), mentre \nu=c/\lambda, in modo che l’\textup{SNR}_{\textup{in}} migliori linearmente con \lambda.

Influenza dell’ASE sull’SNR di un amplificatore ottico

Per valutare l’SNR del segnale amplificato, occorre aggiungere il contributo dell’ASE al rumore in ricezione. La densità spettrale del rumore causato dall’ASE è sostanzialmente costante (anche questo parametro si comporta come un rumore bianco) e può scriversi come:

S_{\textup{ASE}}(\nu )=n_{\textup{sp}}h\nu _{0}(G-1)\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[16]

dove \nu _{0} è la frequenza portante del segnale da amplificare. Il parametro n_{\mathrm{sp}} è chiamato fattore di emissione spontanea e tiene conto della distribuzione statistica degli elettroni sui livelli energetici fondamentale e di eccitazione, di un atomo.

L’emissione spontanea, di fatto, aggiunge fluttuazioni randomiche al segnale amplificato che, trasdotte, divengono fluttuazioni indesiderate aggiunte al processo di fotorivelazione, quindi ripercosse anche sulla corrente elettrica:

  • per la precisione, la radiazione ottica emessa dai fotoni che decadono spontaneamente dallo stato eccitato allo stato fondamentale dell’atomo (quindi, la componente di rumore indesiderata dovuta all’emissione spontanea) si combina con la radiazione ottica del segnale amplificato (cioé la componente utile, quella a contenuto informativo che deve essere demodulata);
  • dal momento che tali radiazioni pulsano a valori di frequenza molto vicini tra loro, la loro combinazione dà origine a un fenomeno analogo a quello del battimento, ma a frequenze ottiche piuttosto che acustiche, e questo fenomeno diviene il contributo dominante del rumore in ricezione.

Alla luce di quanto esposto finora, si dimostra che il valore della fotocorrente, formalizzato nella [2], si particolarizza ora come

I=R\left | \sqrt{G}E_{in}+E_{\textup{sp}} \right |^{2}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[17]

dove E_{in} e E_{\mathrm{sp}} sono i contributi dei campi elettromagnetici associati alle radiazioni da amplificare e da emissione spontanea, rispettivamente, che oscillando a differenti frequenze e con una differenza di fase randomica, innescano il sopracitato battimento ottico e producono una corrente di rumore data da:

\Delta I=2R\sqrt{GP_{in}}\left | E_{\textup{sp}} \right |\textup{cos}\theta\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[18]

dove \theta è una fase che varia molto velocemente nel tempo in modo casuale. Mediando rispetto alla fase, la varianza associata alla fotocorrente, esplicitata nella [12], assume la seguente forma particolare:

\sigma ^{2}=2q\left ( RGP_{in} \right )\Delta f+4\left ( RGP_{in} \right )\left ( RS_{\textup{ASE}} \right )\Delta f\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[19]

dove il termine \mathrm{cos} ^{2}\theta è stato rimpiazzato dal suo valor medio, che è pari a 1/2. Applicando la definizione [13], l’SNR del segnale amplificato è quindi dato da:

\left ( \textup{SNR} \right )_{\textup{out}}=\frac{\left ( RGP_{in} \right )^{2}}{\sigma ^{2}}\approx \frac{GP_{in}}{\left ( 4S_{\textup{ASE}}+2h\nu \right )\Delta f}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[20]

Effettuando le opportune sostituzioni, la figura di rumore di amplificazione [14] assume l’espressione finale:

F_{n}=2n_{\textup{sp}}\left ( 1-\frac{1}{G} \right )+\frac{1}{G}\approx 2n_{\textup{sp}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[21]

dove l’ultima approssimazione è valida per G>>1. Tale equazione mostra come l’SNR del segnale amplificato è degradato di 3 dB anche per un amplificatore ideale in cui n_{\mathrm{sp}}=1. Nei casi reali, F_{n} può assumere valori che si spingono anche a 6 – 8 dB, anche se per gli EDFA è possibile attestarsi intorno i 3,5 dB.

Motivi pre-2000 della prevalenza dei sistemi IMDD ad EDFA rispetto a quelli coerenti

Riprendendo la rivisitazione storica, alla luce dei risultati finora discussi, lo stato dell’arte dei sistemi di comunicazione ottica nel decennio 1990 – 2000 è sintetizzabile nei seguenti punti:

  • gli amplificatori EDFA rendevano trascurabile il problema della sensitività dei ricevitori ottici coerenti al rumore shot, dal momento che il maggior degrado dell’SNR del segnale trasmesso lungo la catena di amplificatori è dovuto all’accumulo del rumore legato all’ASE;
  • anche in presenza di tratte non rigenerate, lo stadio di preamplificazione a basso rumore (low-noise amplifier, LNA) degli EDFA eliminava in ogni caso la necessità di avere ricevitori coerenti ad alta sensitività;
  • anche se le pubblicazioni dell’epoca mostravano i grandi potenziali dei sistemi di comunicazione ottica coerente (come la gestione di formati di modulazione multilivello, le funzioni di post-elaborazione nel dominio elettrico per la compensazione della dispersione, etc.), in quel momento storico tali avanzamenti non eranourgenti né (soprattutto) economicamente sostenibili. Infatti:
    • all’aumentare della domanda di servizi ad alta capacità, e dunque della velocità di trasmissione della sorgente, gli stadi a frequenza intermedia dei ricevitori coerenti ad eterodina avrebbero dovuto essere campionati a frequenza ancor più elevata di quella del segnale trasmesso, mentre (fino a quel momento) il massimo bitrate gestibile da un ricevitore eterodina era sempre stato meno della metà di quello ottenibile mediante un ricevitore a legge quadratica (ossia IMDD);
    • l’alternativa alla demodulazione eterodina, ossia l’impiego dei ricevitori coerenti in omodina, non era esente da problemi, principalmente dovuti alla difficoltà di trovare soluzioni non troppo complesse (con uso estensivo di PLL in varie configurazioni) in grado di inseguire qualcosa di intrinsecamente instabile, ossia la fase della portante ottica, a sua volta resa fluttuante dal drift introdotto dalle sorgenti laser, in quel periodo ancora non sufficientemente stabili;
    • I sistemi IMDD già in esercizio, con l’introduzione a costi contenuti (in termini economici e di dispendio di risorse tecniche) di stadi di amplificazione in EDFA, stavano traendo grande beneficio dalla tecnica WDM, soprattutto la Dense WDM (DWDM), con un notevole incremento della capacità trasmissiva su singola fibra; e dunque
    • l’adozione da parte dei service provider di apparati DWDM si diffuse con estrema rapidità sia per la relativa semplicità, che per i costi contenuti. O perlomeno, laddove fossero richieste funzionalità più complesse, erano scelti in base ad un’analisi costi-benefici favorevole, dal momento che più canali DWDM potevano essere simultaneamente amplificati da un singolo amplificatore EDFA.

Sono quindi questi i principali razionali che hanno, in ultima istanza, ritardato (se non interrotto, principalmente nell’ambito della commercializzazione) quell’incedere pressante dei fronti di ricerca e sviluppo per i sistemi coerenti di comunicazione ottica; e per almeno 20 anni, considerando cumulativamente la finestra 1980 – 2000.

Nuovo millennio: il rilancio dei sistemi di comunicazione ottica coerente

All’inizio degli anni 2000 l’avvento di Internet introduceva la comunità scientifica, le industrie, i mercati tecnologici, i consumatori, ecc., in uno stato di intensa eccitazione con idee, visioni e scenari futuristici dotati di un potenziale tale da rivoluzionare irreversibilmente il corso dell’evoluzione tecnologia e sociale a livello globale. Con prospettive di un esponenziale aumento del traffico dati, gli stakeholders (costruttori di apparati di telecomunicazioni, in primis) iniziavano ad investire massicciamente su ricerca e sviluppo tecnologico per adeguare i sistemi di comunicazione ottica a questa rivoluzione. Con il passare del tempo però le grandiose aspettative venivano presto deluse e l’entusiasmo lasciava il posto alla frustrazione: in buona sostanza, la domanda di servizi ad alti bitrate aumentava ad un ritmo talmente travolgente che era impossibile poterla soddisfare in modo congruo. Con il risultato che varie compagnie tecnologiche che avevano investito in ricerca e sviluppo per la commercializzazione di apparati e sistemi di comunicazione ad alta velocità, andarono in fallimento e chiusero i battenti e, in generale, l’industria delle comunicazioni ottiche andò in sofferenza come poche altre in quel momento storico.

A onor del vero, in quel periodo i transponder a 10 Gbit/s stavano solo cominciando ad essere commercializzati, e i nuovi studi sui futuri sistemi a 40 Gbit/s (che non è una cifra casuale, bensì il massimo bitrate consentito dai sistemi di telecomunicazioni con gerarchia SDH) non erano che all’inizio. Quindi, mentre la “bolla Internet” sembrava sgonfiarsi di fronte alle deluse (lucrose) aspettative del mercato, a “mente fredda” un ragionevole quesito si materializzava nella mente degli ingegneri di rete più o meno in questi termini:

«la ricerca sui transponder a 40 Gbit/s sembrerebbe fornire dei risultati promettenti, ma è certo che questi possano continuare a funzionare sulla stessa infrastruttura in fibra su cui, fino a poco tempo prima, operavano sistemi a 10 Gbit/s per canale?».

Come noto, sia la dispersione cromatica (CD) che la dispersione del modo di polarizzazione (polarization-mode dispersion, PMD) hanno effetti limitanti sulle prestazioni di una trasmissione in fibra ottica, in primis, l’allargamento temporale \Delta T a cui è soggetto l’impulso transitando lungo il canale; sicché, quadruplicando il bitrate da 10 Gbit/s a 40 Gbit/s, per la condizione di Nyquist, si ha un conseguente incremento di un fattore 4 della larghezza di banda B occupata dall’impulso ottico. Un criterio conservativo per limitare l’effetto della dispersione è quello di mantenere il ritardo \Delta T al di sotto del tempo di bit, che è l’inverso di B, come qui esposto; la condizione limite per la CD si esplica quindi nella seguente diseguaglianza:

B D\Delta \lambda L<0.25\Rightarrow D<\frac{0.25}{B \Delta \lambda L}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[22]

Quindi, a fronte di una quadruplicazione di B, la frazione a secondo membro scala contestualmente di 4 volte e quindi, a parità di gamma spettrale della sorgente laser \Delta \lambda e di lunghezza L della fibra ottica, il contributo di dispersione D deve essere ridotto di 4 volte per mantenere valida la diseguaglianza [22].

Fortunatamente però, le varie tecniche di compensazione della dispersione cromatica (sia lungo il collegamento che a ridosso del ricevitore) disponibili già a quel tempo, consentivano una gestione discreta della CD accumulata in trasmissione. La PMD invece, fino ad allora un fenomeno trascurabile a bassi bitrate, relegato praticamente alla sola teoria o a test di laboratorio, all’aumentare delle velocità di trasmissione iniziava piuttosto a mostrare la sua preponderanza come fenomeno dispersivo limitante. Per tal motivo, vale la pena effettuare un ulteriore approfondimento rispetto a quanto qui discusso.

La dispersione del modo di polarizzazione (PMD) nella trasmissione ottica a velocità elevata

Polarizzazione ottica

Prima di tutto chiariamoci assieme il concetto di polarizzazione elettromagnetica ed in particolare luminosa, gustandoci non più di due minuti e mezzo del video, a partire da dove inizia.

Origini della PMD: la birifrangenza

Dando per scontato (per ragioni di brevità) il formalismo matematico dell’analisi modale applicata alla propagazione elettromagnetica in un mezzo dielettrico, ossia quella trattazione rigorosa che usa le equazioni di Maxwell (comunque sempre consultabile a pag.16, sez.3 da questo storico numero del Notiziario Tecnico di TIM) piuttosto che le semplificazioni al prim’ordine dell’ottica geometrica, un risultato rilevante della suddetta analisi riguarda la possibilità di esprimere un campo elettromagnetico dotato di uno stato di polarizzazione qualunque, propagantesi in una fibra ottica monomodale, come combinazione lineare di due modi \mathrm{HE}_{11} (che è il modo fondamentale della fibra ottica) con polarizzazioni mutuamente ortogonali (\mathrm{HE}_{11}^{x} e \mathrm{HE}_{11}^{y}).

A seconda della differenza di fase \varphi tra i due modi, potremo avere un vettore campo elettrico che, spostandosi lungo il mezzo di propagazione, si dispone su una delle seguenti possibili traiettorie (o stati di polarizzazione) mostrate a lato.

In condizioni ideali in cui la simmetria cilindrica del core e del cladding di una fibra è perfettamente mantenuta, i modi \mathrm{HE}_{11}^{x} e \mathrm{HE}_{11}^{y} si propagano alla stessa velocità, rendendosi di fatto indistinguibili, o meglio degeneri. E’ proprio questa degenerazione che giustifica, a rigore, il termine “mono-modale”; nelle fibre ottiche realmente impiegate per le telecomunicazioni, tale degenerazione è ottenuta ad un livello più o meno elevato come conseguenza del processo di fabbricazione (ad esempio stress compressivo sul core, eccentricità del cladding, tendenza ellittica, ecc.), nonché delle sollecitazioni meccaniche esterne cui esse sono sottoposte (come torsioni, stress compressivi sul cladding, curvature, ecc.). Pertanto, le fibre reali sono caratterizzate da un certo livello di anisotropia dovuta alla perdita casuale della simmetria circolare, come mostrato in Fig.8, mentre in questo video possiamo sperimentare come anche lievi sollecitazioni meccaniche modifichino il SOP all’uscita della fibra.


Fig.8 – Birifrangenza su fibre reali come origine della PMD.

Tale condizione dà luogo a due distinti modi \mathrm{HE}_{11}^{x}, con polarizzazioni ortogonali e differenti velocità di gruppo: ergo, con la perdita della degenerazione, la fibra monomodale diventa bimodale e può considerarsi come un mezzo lineare birifrangente. Il grado di birifrangenza modale B_{m} è dato dalla relazione:

B_{m}=\left | \overline{n}_{x} - \overline{n}_{y} \right |\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[23]

dove n_{x} e n_{y} sono gli indici di rifrazione equivalenti “subiti” dai due modi ortogonali lungo i due principali assi di birifrangenza.

Un problema (fra tanti) causato della birifrangenza è quello di innescare un “rimpallo” di potenza ottica periodico tra le due componenti modali. Il periodo spaziale L_{B}, denominato lunghezza di battimento, è dato da:

L_{B}=\frac{\lambda }{B_{m}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[24]

Nelle fibre ottiche comunemente impiegate nei sistemi in esercizio, il valore di B_{m} si attesta intorno a 10-7 quindi, ad esempio, per \lambda \sim 1 μm si avrebbe L_{B} \sim 10 m, avendo applicato la [24].

Da un punto di vista fisico, la birifrangenza fa si che la polarizzazione con cui la radiazione elettromagnetica incide all’ingresso della fibra vari periodicamente lungo tutta la sua lunghezza (ad esempio, da lineare ad ellittica, da ellittica a circolare, da circolare a lineare, e così via) fino alla sua uscita, come mostrato in Fig.9. Osserviamo anche come L_B sia diverso per ogni \lambda (frequenza portante) su cui è centrato l’impulso emesso dal laser; se si cambia canale DWDM, ad esempio, centrato su un’altra frequenza, la lunghezza di battimento cambierà.


Fig.9 – Evoluzione spaziale del SOP, causata dalla birifrangenza. La figura mostra il caso di un campo e.m. inizialmente polarizzato a 45° rispetto gli assi di birifrangenza della fibra; la polarizzazione evolve assumendo vari stati e, dopo un periodo di 2 \pi, riassume quello iniziale.

Il cosiddetto asse “veloce” in Fig.9 corrisponde sostanzialmente all’asse spaziale in cui l’indice di rifrazione equivalente subito dal modo è più basso, consentendo una propagazione “più veloce”; con analoghe considerazioni, si definisce l’asse “lento”.

Il ritardo differenziale di gruppo (DGD) causato dalla birifrangenza

Per ciò che attiene la trasmissione dei segnali, l’azione limitante della variazione casuale della birifrangenza, legata ai meccanismi fisici finora descritti, consiste nell’acquisizione randomica di stati di polarizzazione diversi per le varie componenti frequenziali che costituiscono l’impulso ottico: il risultato è, come per la CD, un allargamento temporale dell’impulso medesimo e il fenomeno è quello già denominato in precedenza, ovvero la dispersione del modo di polarizzazione (PMD).

L’effetto si concretizza in un ritardo temporale \Delta \tau tra le due polarizzazioni ortogonali, come mostrato in Fig.10, e tale quantità prende il nome ritardo differenziale di gruppo (differential group delay, DGD) che rappresenta un limite per la massima velocità di trasmissione ottenibile in sistemi di comunicazioni operativi ad alti bitrate.


Fig.10 – Effetto della variazione non uniforme della birifrangenza su fibra monomodale: introduzione di un ritardo temporale differenziale (DGD) tra i due modi ortogonali di polarizzazione, con conseguente distorsione (allargamento) della forma d’onda dell’impulso in uscita (con effetto additivo al tempo di bit originariamente trasmesso).

La stima di tale ritardo è tutt’altro che banale almeno per i seguenti motivi:

  • gli assi cartesiani x e y finora considerati come coincidenti con gli assi principali di birifrangenza, non sono in genere direzioni ortogonali note in una fibra, essendo determinate dalle caratteristiche geometriche del core, quindi unicamente stimabili solo in termini medi;
  • tali direzioni ortogonali non sono fisse ma variano con la distanza e la frequenza, in conseguenza del fatto che l’aliquota aleatoria di birifrangenza (ossia legata al processo produttivo ed alla posa in opera non è del tutto eliminabile.

Cenni sul calcolo del DGD: formalismo di Stokes e statistica maxwelliana

Tra i vari approcci proposti, quelli pubblicati con il principale contributo di K. Iga nel primo quadriennio degli anni 2000 hanno riscontrato il maggiore consenso nella comunità scientifica. In breve, si considera un modello semplificato in cui la fibra ottica è suddivisa in un certo numero di segmenti e, sia il grado di birifrangenza che l’orientazione degli assi dei modi ortogonali, rimangono costanti in ciascuna sezione mentre cambiano casualmente da una sezione all’altra. In questa maniera, ciascun segmento della fibra è trattabile come una lamina di fase (letteralmente dall’inglese phase plate) e lo studio si può attuare utilizzando la rappresentazione matriciale di Jones, un caso particolare del formalismo vettoriale di Stokes, in cui le proprietà trasmissive di una fibra monomodale birifrangente sono rappresentate da una matrice di trasmissione quadrata di rango 2 a coefficienti complessi.

Tale approccio consente di studiare la PMD nel dominio della frequenza, utilizzando la teoria degli stati principali di polarizzazione (principal state of polarization, PSP), introdotta da Pool e Wagner nel 1986; il fondamento di questa teoria si basa sull’osservazione che, per una data matrice di trasmissione associata alla fibra ottica, per ogni frequenza, esiste una coppia di stati principali di polarizzazione, ortogonali, all’ingresso della fibra tali per cui, se la polarizzazione del campo elettromagnetico incidente è concorde con uno dei due suddetti stati, la corrispondente polarizzazione alla fine della fibra risulta, in prima approssimazione, invariante rispetto alla frequenza.

Questo vuol dire che se l’impulso ottico lanciato all’ingresso della fibra è allineato lungo uno degli stati principali, tutte le componenti frequenziali del corrispondente impulso all’uscita avranno la stessa polarizzazione: in altri termini, dal punto di vista della PMD,

l’impulso subirà soltanto una distorsione di fase che, al prim’ordine, non ne modificherà la forma, ma lo traslerà solo nel tempo

Tralasciando il complesso dettaglio matematico, è possibile calcolare gli stati principali all’ingresso della fibra, e la loro esplicitazione ha due risvolti importanti:

  1. le loro proprietà garantiscono che un segnale reale, allineato all’ingresso lungo uno dei due stati principali, dia luogo ad un campo in uscita dalla fibra caratterizzato certamente da un SOP dipendente dal grado di birifrangenza casuale intrinseco del mezzo ma, perlomeno in prima approssimazione, non da quelle spettrali del segnale d’ingresso;
  2. l’ortogonalità degli stati consente di adottarli come vettori di una base “conveniente” per il calcolo dei momenti statistici associati al DGD, ovvero media e varianza di \Delta \tau.

Giusto per dare un cenno che giustifichi il ricorso a metodi matematici avanzati, il formalismo di Stokes consente di esprimere la PMD in modo dinamico, mediante un’equazione integro-differenziale vettoriale, le cui incognite sono vettori complessi rappresentativi della birifrangenza e dell’effetto dispersivo, rispettivamente.

L’effetto dispersivo è tipicamente indicato come \mathbf{\Omega} (z,\omega ), funzione della direzione di propagazione z e della frequenza \omega, e ruota in modo aleatorio al variare casuale della birifrangenza. La quantità \mathbf{\Omega} (z,\omega ) ha quindi, a sua volta, una natura stocastica che occorre determinare per quantificare il DGD; specificamente, la densità di probabilità del DGD, ossia \Delta \tau =|\mathbf{\Omega} |, può essere determinata nell’ipotesi che la lunghezza della fibra sia molto più grande di un parametro l_{c} noto come lunghezza di accoppiamento o lunghezza di correlazione, definita come lunghezza entro la quale due componenti di polarizzazione rimangono correlate; il suo valore può variare in un ampio range che va da circa 1 m a 1 km per diverse tipologie di fibre, con valori tipici di circa 10 m. Dunque, per z>>l_{c}, le tre componenti spaziali del vettore \mathbf{\Omega} sono caratterizzate da una densità di probabilità gaussiana e, poiché risulta:

\Delta \tau =\left | \mathbf{\Omega (r,\omega )} \right |=\sqrt{\Omega_{x}^{2}+\Omega_{y}^{2}+\Omega_{z}^{2}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[25]

ovvero la radice quadrata della somma del quadrato di tre variabili gaussiane, il DGD risulta essere una variabile aleatoria con distribuzione maxwelliana, come mostrato in Fig. 11.


Fig.11 – Distribuzione maxwelliana del DGD.

La distribuzione di probabilità condizionata ad una lunghezza z della fibra è esprimibile nella forma

p(\Delta \tau /z)=\sqrt{\frac{2}{\pi }}\frac{\Delta \tau ^{2}}{q^{3}(z)}\textup{exp}\left [ -\frac{\Delta \tau ^{2}}{2q^{2}(z)} \right ]\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[26]

in cui la funzione q(z) tiene conto del rapporto tra la lunghezza z e l_{c} secondo la relazione

q(z)=\Delta \tau \sqrt{z\cdot l_{c}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[27]

dove \Delta \tau è il DGD della fibra per unità di lunghezza, dipendente dalle caratteristiche intrinseche della fibra medesima. Per una data distanza z, il valor medio del DGD vale:

\textup{E} [\Delta \tau] = \sqrt{\frac{8}{\pi }}q(z)\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[28]

ed il suo valore quadratico medio

\textup{E}[ \Delta \tau^{2}]=3q(z)\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[29]

ottenendo infine la deviazione standard del DGD come

\sigma =\textup{E}[\Delta \tau ^{2}]-\textup{E}^{2}[ \Delta \tau ]=\sqrt{\frac{3\pi -8}{\pi }}q(z)\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[30]

Il coefficiente Dp di dispersione PMD per la stima delle prestazioni

Un parametro per la valutazione prestazionale sistemica è il coefficiente D_{p}, denominato coefficiente di dispersione PMD (PMD parameter), che fornisce appunto una stima sull’entità della PMD nella trasmissione dell’informazione su sistemi di comunicazione ottica, la cui definizione dipende dal tipo di fibra. Fissata la lunghezza della fibra L, e nota la lunghezza di correlazione l_{c} sopra definita, si possono considerare due condizioni limite:

  • L << l_{c}, condizione per fibre ad alta birifrangenza, in cui gli assi principali di birifrangenza possono essere considerati fissi e coincidenti con gli assi di dispersione. In tal caso, durante la propagazione non si verifica alcun accoppiamento tra i due modi degeneri. Tale condizione è peraltro conseguibile con opportune fibre a mantenimento di polarizzazione (polarization-maintaining fibers, PMF) in cui, intervenendo già in fase di fabbricazione soprattutto sulla geometria del core, si introduce intenzionalmente (deterministicamente) un’opportuna aliquota di birifrangenza tale da bilanciare, quanto più possibile, quell’aliquota aleatoria intrinseca, pervenendo a un compromesso ragionevole di costanza della birifrangenza il più possibile lungo tutta la lunghezza. Il coefficiente di dispersione in tal caso vale:

D_{p}=\frac{\left \langle \Delta \tau \right \rangle}{L},\,\,\,\left [ \frac{\textup{ps}}{\textup{km}} \right ]\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[31]

  • L >> l_{c}, condizione per fibre a bassa birifrangenza, in cui si verifica l’accoppiamento modale durante la propagazione e vale la già discussa modellizzazione con segmentazione della fibra in micro-sezioni proposta da Iga. Il coefficiente di dispersione in tal caso vale:

D_{p}=\frac{\left \langle \Delta \tau \right \rangle}{\sqrt{L}},\,\,\,\left [ \frac{\textup{ps}}{\textup{km}^{1/2}} \right ]\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[32]

Valori tipici di D_{p} variano in base al tipo di fibra e al suo stato (avvolgimento su bobina, cordatura in cavo, posa aerea, ecc.):

  • impianti con posa antecedente al 1996 (fibre ottiche monomodali con standard G.652) presentano elevati valori di D_{p} compresi tra 3 e 5 ps / km1/2;
  • fibre convenzionali ottimizzate per operare in seconda finestra, presentano valori anche inferiori a 0,1 ps / km1/2 nel caso di fibre avvolte su bobina, tra 0,2 e 0,3 ps / km1/2 per fibre cablate in cavo installato;
  • per fibre dispersion-shifted (DS) cablate in cavo si hanno, tipicamente, valori dell’ordine di 0,3 – 0,7 ps / km1/2.

Quindi, per impianti con posa successiva al 1996 (fibre ottiche monomodali con standard aggiornato G.652 e G.653, G.655), il D_{p} è mediamente non superiore a 0,2-0,3 ps / km1/2.

Per bitrate al di sotto dei 10 Gbit/s la dipendenza dalla radice quadrata di L rende l’allargamento dell’impulso dovuto alla PMD ragionevolmente trascurabile rispetto al contributo della CD. Infatti, per tratte di fibra dell’ordine dei 100 km, i valori del DGD quadratico medio si attesta intorno a 1 ps e l’effetto della PMD è trascurabile per larghezze dell’impulso di trasmissione maggiori di 10 ps.

Come anticipato, i problemi trasmissivi introdotti dalla PMD iniziano a diventare rilevanti traguardando bitrate maggiori o uguali a 40 Gbit/s. Inoltre, come se non bastasse, tali inconvenienti sono esacerbati da ulteriori fluttuazioni istantanee della DGD, su un ampio range, al variare della temperatura di lavoro.

Le prestazioni di un sistema di comunicazione con limitazioni dovute alla PMD sono quantificabili utilizzando il concetto di probabilità di fuori servizio o indisponibilità (outage probability), che deve mantenersi al di sotto di un valore di soglia, tipicamente fissato a 10-5 o 5 minuti/anno, per considerare accettabili le suddette performance. Una stima accurata della probabilità di fuori servizio richiederebbe simulazioni numeriche intensive (disponibili comunque in letteratura) caso per caso. Si può dire comunque, come considerazione a carattere generale, che questa probabilità dipende principalmente dalla forma d’onda dell’impulso di trasmissione (quindi dallo specifico codice di linea adottato), come mostrato in Fig.12.


Fig.12 – Probabilità di fuori servizio in funzione della DGD media, normalizzata rispetto al tempo di bit T_{B} per formati NRZ e RZ (in cui il duty cycle varia dal 20 al 40%).

La Fig.12 mostra la probabilità di outage in funzione del valor medio del DGD per formati di modulazione NRZ (non-return to zero) e RZ (return to zero), assumendo che l’indisponibilità si presenti allorquando il margine di potenza (power penalty) supera i 2 dB per mantenere un BER (bit error rate) al di sotto di 10-12. Si può vedere come, effettivamente, le prestazioni migliorino per formati RZ in cui l’impulso di segnalazione è di breve durata; è chiaro quindi che il valore quadratico medio del DGD dovrebbe essere solo una piccola frazione di T_{B} (bit slot), per un dato bitrate B della sorgente.

L’esatto valore di questa frazione del bit slot varia in un range compreso tra 0,1 e 0,15, in dipendenza sempre, in prima istanza, dal formato di modulazione (e da altri dettagli progettuali del sistema di comunicazione); utilizzando un criterio conservativo per il quale si impone contestualmente che la frazione di T_{B}=1/B non ecceda il 10% e che B\cdot D_{p}\sqrt{L}=0,1, avendo applicato la [32], si ottiene la seguente disequazione:

B^{2}L<\frac{1}{\left ( 10D_{p} \right )^{2}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[33]

Questa condizione può essere utilizzata per stimare la massima distanza di trasmissione consentita dalla PMD a cui un sistema di comunicazione ottica può operare a un dato bitrate B. Nel caso di “vecchie” fibre G.652 (pre-1996), la [33] si semplifica come segue:

B^{2}L<10^{4}\,\,\,[(\textup{Gb/s})^{2}\cdot \textup{km}],\,\,\,@D_{p}=1\,\textup{ps}/\sqrt{\textup{km}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[34]

In tale condizione, sarebbe richiesta una compensazione della PMD per una velocità di trasmissione pari a B = 10 Gbit/s e la tratta in fibra superi i 100 km. D’altra parte, su fibre “moderne” (post-1996 e anche oltre) la [33] si modifica come segue:

B^{2}L>10^{6}\,\,\,[(\textup{Gb/s})^{2}\cdot \textup{km}],\,\,\,@D_{p}=0.1\,\textup{ps}/\sqrt{\textup{km}}\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,[35]

Per cui, se un’azione di compensazione non è effettivamente giustificata a 10 Gbit/s, si rende praticamente necessaria dai 40 Gbit/s a salire, come ad esempio nei moderni collegamenti punto-punto a 100 Gbit/s su rete OTN, laddove le tratte ottiche superano i 400 o i 600 km di distanza. La Fig.14 mostra una comparazione del coefficiente di dispersione da PMD, rispetto alla distanza di tratta L, al variare del bitrate B (e relativa comparazione con flussi SDH), avendo applicato la condizione di stima [33], e assunto:

  • un andamento maxwelliano della distribuzione di probabilità del DGD;
  • l’applicazione di una codifica NRZ;
  • la trasmissione di un impulso ottico con laser centrato a 1550 nm;
  • un margine di potenza massimo accettabile di 1 dB;
  • un BER compreso tra 10-9 e 10-12.

Fig.13 – Massima distanza di tratta ottica conseguibile come funzione del coefficiente di dispersione PMD a differenti bitrate.

Dalla Fig.14 si può vedere con ulteriore evidenza l’impatto limitante della PMD (senza applicare alcuna azione di compensazione, si intende) all’aumentare del bitrate: per un coefficiente D_{p} = 0,5 ps / km1/2 la massima distanza di tratta ottica conseguibile è 6400 km a 2,5 Gbit/s (la retta più in alto), 400 km a 10 Gbit/s e si riduce a 25 km per un bitrate pari a 40 Gbit/s!

Implicazioni della PMD sull’efficienza spettrale (SE)

Ritornando ora alla questione inerente la pressante richiesta di servizi di telecomunicazioni ad alto bitrate, con l’esplosione di Internet e del traffico video, un rimedio per soddisfare la domanda con una (almeno) sufficiente qualità di servizio sarebbe dovuto passare dallo sviluppo di opportune tecniche di compensazione della PMD, possibilmente ingegnerizzate nel dominio puramente ottico. Ma con un problema: ancora una volta, soluzioni troppo poco sostenibili, se riferite agli inizi degli anni 2000 per quanto di seguito elencato:

  • elevati costi di produzione dei dispositivi ottici di compensazione PMD;
  • dal punto di vista implementativo, necessità, per ogni ricevitore, di integrare un proprio compensatore adattivo, a causa delle rapidissime fluttuazioni temporali della PMD anche molto al di sotto del millisecondo, peraltro significativamente variabili tra un canale DWDM e un altro;
  • occupazione spettrale duplicata rispetto al bitrate effettivo, per segnali modulati secondo lo schema IMDD (con codifica binaria) e conseguente difficoltà a trasmettere su sistemi DWDM già progettati e operativi con canalizzazione (detta anche griglia) fissa a 50 GHz (da standard ITU-T G.694-1).

Pertanto, nel periodo 2000 – 2003 la ricerca si è focalizzata sulla messa a punto di metodologie di compensazione PMD più sostenibili e, soprattutto, sullo studio di schemi di modulazione spettralmente efficienti.

Dal punto di vista teorico, l’efficienza spettrale (spectral efficiency, SE) ha oggettivamente varie definizioni più o meno dipendenti dal contesto applicativo; in questa trattazione si usa quella di rapporto tra il tasso di informazione, misurato in bit/s, e l’effettiva larghezza spettrale, misurata in Hz, occupata per poterlo trasmettere. La SE si misura quindi in [bit / s / Hz]. Sicché, in quel periodo, formati duo-binari (duobinary, DB) e a codifica differenziale come DQPSK, con caratteristiche idonee a conseguire discreti valori di SE, iniziavano a conquistare l’interesse della comunità scientifica, specialmente se comparati con gli scarsi valori conseguibili con i sistemi a modulazione di intensità impieganti schemi di modulazione OOK, ad esempio:

  • per un sistema DWDM trasmittente a 10 Gbit/s con griglia fissa a 50 GHz, la SE è pari a 0,2 bit / s / Hz;
  • per un sistema DWDM operativo a 40 Gbit/s, con la medesima griglia, la SE si incrementa a 0,8 b / s / Hz.

Qualche anno più tardi, sistemi a rivelazione coerente operativi a 100 Gbit/s avrebbero raggiunto valori di SE superiori a 2 bit / s / Hz utilizzando la preesistente infrastruttura impiegata per trasmissioni a 10 Gbit/s!

A questo riguardo, occorre davvero riconoscere la grande inventiva di ingegneri e ricercatori nel rimettere in gioco la rivelazione coerente, sebbene in un ambito completamente diverso da quello che ci si sarebbe aspettato. Infatti, fino a quel momento, la maggioranza dei ricevitori utilizzava lo schema IMDD basato su un singolo fotorivelatore; come evidente dalla formula [2], qualsiasi informazione di fase contenuta nel campo incidente E(t) è totalmente persa nel processo di fotorivelazione. Dunque, questa mappatura non lineare (di fatto, quadratica) tra il campo ottico ricevuto e la corrente trasdotta limitava i sistemi di comunicazione ottica in due modi:

  1. esclusione a priori della possibilità di demodulare in fase la portante ottica, con limitazione della SE del sistema;
  2. preclusione all’uso di un robusto filtraggio lineare per la compensazione della CD e, soprattutto, della PMD, a causa dell’intrinseco meccanismo non lineare di trasduzione ottico-elettrica.

Ecco quindi che il focus della ricerca su metodologie per incrementare l’efficienza spettrale portavano alla pubblicazione, nel 2005 e ad opera di K. P. Ho, di un metodo che prevedeva l’uso di interferometri ottici con linee di ritardo posti in ricezione, e contestuale adozione in sede di trasmissione di una codifica differenziale di fase (entrambi approfonditi nei capitoli successivi), al fine di poter convertire le informazioni di fase mappate sulla portante ottica in variazioni di intensità.

Il digital signal processing rende finalmente possibile la rivelazione ottica coerente

Il primo segno di un ritorno alla rivelazione coerente appariva nel 2004. M.G. Taylor pubblicava su IEEE Photonics Technology Letters, al numero 16, un articolo dal titolo: “Coherent detection method using DSP for demodulation of signal and subsequent equalization of propagation impairments“. Nella pubblicazione si dimostrava l’efficacia di un setup sperimentale (che sarebbe stato poi ampiamente impiegato come riferimento in moltissimi altri studi), schematizzato in Fig.14 per il momento soltanto a scopo illustrativo, costituito da un front-end deputato alla conversione optoelettronica del segnale incidente, seguito da un oscilloscopio ad altissima velocità in grado di memorizzare finestre di dati per la successiva elaborazione offline.


Fig.14 – Schema a blocchi del setup sperimentale proposto da Taylor per la rivelazione ottica coerente con uso di DSP.

L’articolo mostrava altresì un algoritmo di ricostruzione della fase portante senza l’utilizzo del PLL, oltre alla compensazione della residua CD, entrambi effettuati interamente nel dominio elettronico (tramite DSP). Contemporaneamente a Taylor, quindi sempre nel 2004, R. Noé pubblicava su Proceedings of Opto-Electronics and Communications Conference (OECC) uno studio intitolato “Phase noise tolerant synchronous QPSK receiver concept with digital I&Q baseband processing“, che riproponeva i concetti della rivelazione coerente degli anni 90 arricchiti da una consistente interdipendenza con algoritmi DSP.

Ad ogni modo, nel 2004 sussisteva ancora un numero non trascurabile di ostacoli da superare, sia di natura commerciale che di natura tecnica. Sotto il secondo aspetto, infatti, i due lavori pioneristici di Taylor e Noé risolvevano in modo egregio il problema della compensazione della CD e della sincronizzazione di fase, ma mancavano ancora di un robusto controllo della PMD. Non passò molto tempo prima che anche questo problema fosse indagato ed affrontato utilizzando tecniche DSP, esattamente un anno dopo: nel 2005 sempre Noé pubblicava “PLL-free synchronous QPSK polarization multiplex/diversity receiver concept with digital I&Q baseband processing” su IEEE Photonics Technology Letters, in cui veniva proposto uno schema di ricezione coerente con controllo automatico elettronico della polarizzazione con tempi di risposta inferiori al microsecondo.

Nello stesso periodo, Y. Han e G. Li dimostravano su Optics Express, con una rivoluzionaria ricerca intitolata “Coherent optical communication using polarization multiple-input-multiple-output“, la possibilità di modellizzare i sistemi di comunicazione ottica coerente a multiplazione di polarizzazione (polarization-division multiplexing, PDM) in modo analogo ai sistemi wireless MIMO (multiple-input-multiple-output), essendo la PDM effettivamente una tecnica nativa all’ambito delle radiofrequenze. Inoltre, tale studio mostrava come gli algoritmi per la stima del canale wireless MIMO potevano applicarsi al dominio ottico per separare, al ricevitore, segnali multiplati in polarizzazione.

Il biennio successivo 2006 – 2007, si caratterizzava per un ulteriore affinamento e padronanza delle tecniche di ricezione coerente con supporto DSP, quindi con una maturazione dal punto di vista tecnico, sebbene permanessero ancora dubbi sul fronte dei costi, soprattutto relativamente alla redditività commerciale derivante dall’implementazione di siffatti sistemi. Anche questi dubbi, comunque, svanivano quasi subito nel 2008, l’anno della svolta definitiva per l’adozione dei sistemi di comunicazione ottica coerente con uso del DSP, tanto da coniare la nomenclatura di sistemi digitali in ottica coerente (digital coherent optical systems).

Gli ingegneri H. Sun, K. T. Wu e K. Roberts del settore R&D della Nortel Network Corporation (che paradossalmente avrebbe purtroppo chiuso i battenti appena un anno dopo, nel 2009, per bancarotta), pubblicavano su Optics Express un articolo dal titolo “Real-time measurements of a 40 Gb/s coherent system“, dove discutevano l’implementazione dei primi transponder da 40 Gbit/s con rivelazione coerente ed elaborazione numerica del segnale in tempo reale. Sulla base di lavori pubblicati negli anni precedenti e potendo contare su un team multidisciplinare costituito da oltre cento persone, i transponder a 40 Gbit/s della Nortel consolidavano definitivamente l’uso della rivelazione coerente come nuovo standard per i sistemi di comunicazione ottica operanti ad alti bitrate.

Uno dei fattori chiave per il successo di una tale implementazione era costituito dall’uso di convertitori analogico-digitali (analog-to-digital converters, ADCs) capaci di operare idoneamente alle velocità richieste per tali sistemi, nonché l’utilizzo di ASIC (application-specific integrated circuit) basati su tecnologia CMOS (complementary metal-oxide semiconductor) espressamente dedicati all’implementazione sia degli ADC che di tutta l’elettronica per il DSP, come mostrato nelle Figg.15 e 16 (estratte direttamente dall’articolo della Nortel).


Fig.15 – Schema a blocchi del ricevitore coerente DP-QPSK (Dual Polarization QPSK), estratto dall’articolo originale della Nortel.

Fig.16 – Scheda del transponder Nortel a 40 Gbit/s basato su ASIC CMOS, integrante 20 ADC con velocità di campionamento pari a 20 Gs/s, e con logica DSP capace di effettuare operazioni simultanee di ricostruzione del clock, recupero della portante, compensazione della CD e PMD, totalmente nel dominio elettronico, con 12 trilioni (12 x 1012) di istruzioni operative (intere) al secondo. La foto è direttamente estratta dall’articolo originale della Nortel.

Una tale pubblicazione, di fatto, portava con sé

  • la promessa di eliminare l’onere (funzionale e soprattutto economico), per i sistemi a 40 Gbit/s e oltre, di dover integrare compensatori ottici per la gestione della CD e della PMD, a favore di un più efficiente filtraggio digitale adattivo; nonché
  • il vantaggio di conseguire una migliore qualità del collegamento grazie all’eliminazione delle perdite di inserzione, introdotte dai compensatori, e
  • una maggiore tolleranza agli effetti non lineari.

Il DSP, integrato sia in trasmissione che in ricezione, dimostrava oggettivamente di essere un abilitatore per la progettazione di sistemi innovativi per le telecomunicazioni (non necessariamente ottici) che sarebbero stati implementati da quel momento in poi. Indubbiamente, alla fine del primo decennio degli anni 2000, una nuova generazione di sistemi di comunicazione ottica era stata inaugurata.


Stampa questa pagina

2 commenti

  1. Bravo Claudio, mi sono divertito a leggere tutto l’articolo, occupandomi della gestione e manutenzione degli apparati, mi sono reso conto che un sano ripasso della teoria aiuta a gestire meglio qualsiasi situazione in campo.

    1. Grazie Tano per l’apprezzamento, sono contento che sia stato utile. Ed è solo il capitolo introduttivo a carattere più “storico”, nonostante i richiami teorici. I successivi credo ti piaceranno ancora di più: cercherò di non deludere le aspettative.
      Ancora grazie.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *