TOMOGRAFIA COMPUTERIZZATA: IERI OGGI E DOMANI ALLA LUCE DEL PROGRESSO

G. Guidi dirigente I livello
Servizio di Radiologia generale e di PS AORN A. Cardarelli - Napoli


Alla fine degli anni '80 una nuova metodica si affaccia alla ribalta della Diagnostica per immagini: uno scanner radiologico costituito da un elemento radiogeno che compiva un movimento complesso lungo una circonferenza illuminando lungo il tragitto un elemento sensibile (un trasduttore), capace di trasformare i fotoni incidenti in segnali elettrici modulati. Un computer interpretava tali segnali, convertiti in cifre binarie, fornendo una mappa di valori di densità dell'oggetto attraversato. Successivamente a tali numeri (numeri TC) si pensò di accoppiare un tono di colore per offrire una rappresentazione grafica visiva dell'oggetto in esame. Era nata la Tomografia Computerizzata, originariamente Assiale (TAC), successivamente Assistita (dal computer) quindi al giorno d'oggi solo TC (Tomografia Computerizzata)
La rivoluzione offerta da tale metodica era terrificante: consentiva un imaging dettagliato dei tessuti molli, rispetto all'ecografia (che anch'essa nasceva negli stessi anni) offriva l'enorme vantaggio di non soffrire le barriere ossee, proponendosi quindi come tecnica di prima scelta per il neuroimaging, fino ad allora appannaggio delle sole metodiche indirette (e cruente come mielografia e ventricolografia) tra l'altro decisamente poco attendibili.
Il principale artefice di tale invenzione fu un inglese, Godfrey Hounsfield, che nei laboratori della EMI insieme ad Allan Cormack realizzò i primi prototipi del macchinario. L'impatto sull'imaging radiologico e sul mondo medico in generale fu tale che i due vinsero il Nobel per la Medicina con tale invenzione nel 1979.
In maggiore dettaglio, il principio di base era il seguente: un sistema radiologico tomografico mosso da un complesso di motori ruotava su un percorso circolare definito con un movimento misto di traslazione-rotazione. Lungo il tragitto il tubo X emetteva un fascio continuo di radiazioni, un sottile pennello che illuminava un singolo elemento radiosensibile (un fotomoltiplicatore) che in maniera sincrona ed opposta al tubo ruotava lungo la medesima circonferenza. Il compito del trasduttore (definito anche detettore) era ed è di trasformare i fotoni residui dell'attraversamento dell'oggetto da studiare in un segnale elettrico discreto, e quindi mediante un DAC (convertitore analogico-digitale) in dati numerici binari. Ciascuno di tali dati era il risultato dell'attenuazione del fascio lungo un intero tragitto. Mediante un complesso sistema di calcoli matematici definiti attraverso una funzione complessa detta trasformata di Fourier l'integrazione dei valori forniti da ciascun singolo tragitto associati alla rispettiva posizione nello spazio individuato da un sistema di assi x,y (matrice) riesce a definire quale fosse la densità originaria di ciascun punto nello spazio, in relazione ad un sistema numerico convenzionale che attribuisce un valore 0 all'acqua, -1000 all'aria e +1000 all'osso compatto.
L'EMI scanner, come veniva anche chiamato, impiegava diverse decine di minuti per completare una scansione del cranio, così che l'esame aveva una durata molto elevata. La qualità delle immagini, limitata da matrici di poche decine di pixel, era quanto meno discutibile (oggi per noi improponibile), ma sempre superiore a quanto allora disponibile. Organi ed apparati fino ad allora muti improvvisamente entravano nella pratica clinica con la necessità tra l'altro di codificare una semeiotica nuova ed adeguata.
Non appena accertatasi dell'interesse del mondo medico verso tale tecnologia l'industria vi si buttò a capofitto, costruendo e commercializzando differenti varianti di tali apparecchiature con miglioramenti sensibili del progetto di base.
La prima variante fu affiancare al primo originario detettore singolo un certo numero di altri detettori disposti su un piano, utilizzando non più un pennello quanto un ventaglio di fotoni, in modo da aumentare la superficie coperta nell'unità di tempo. Il movimento restava peraltro misto di traslazione-rotazione. Fu introdotto quindi il concetto di generazione nelle apparecchiature TC, dove la I generazione corrispondeva a quanto espresso dal progetto originario, mentre la variazione appena descritta fu definita come II generazione. Nella III generazione il sistema di detettori in piano fu sostituito da un complesso disposto su un arco di circonferenza, che eseguiva un movimento adesso circolare puro e non più misto. Il fascio si manteneva a ventaglio, ma le deformazioni geometriche ovviamente introdotte con la II generazione tendevano a ridursi drammaticamente. Lo scanner di III generazione rappresentava un ottimo compromesso fra semplicità costruttiva e qualità dei risultati, a differenza degli scanner di IV generazione molto più costosi poiché la corona di detettori è completa, a circonferenza intera non già ad arco. Ovviamente per coprire l'intera circonferenza di movimento il numero dei detettori deve essere molto più elevato, quindi per mantenere un compromesso accettabile fra qualità e costi veniva ridotta la densità degli elementi sensibili per unità di spazio occupato, con un conseguente scadimento della qualità di immagine. Praticamente comunque tutte le apparecchiature TC prodotte negli ultimi 20 anni sono quindi macchine di III generazione.
Come elemento sensibile (detettore) in prima fase si erano utilizzati i fotomoltiplicatori, poi abbandonati per ecessiva produzione di rumore di fondo (correnti spurie che inquinano l'immagine) a favore delle camere di ionizzazione gravate da un minimo rumore di fondo a fronte peraltro di una scarsa efficienza di conversione fotonica, cioè della capacità di convertire i fotoni raccolti in segnale elettrico. Verso la fine degli anni '80 vengono presentati i primi elementi sensibili allo stato solido, cioè materiali cristallini drogati che offrivano una elevatissima efficienza di conversione ed un notevole rapporto segnale/rumore, consentendo per la prima vota una drastica riduzione dei mAs erogati dai tubi radiogeni, con conseguente riduzione della dose al paziente. Parallelamente viene messa a punto una nuova tecnologia distribuita in commercio nei primi anni '90, lo slip ring, con la nascita delle TC spirali. Si pensò infatti di sostituire il classico sistema di cavi elettrici di trasmissione dal gantry al tubo con un nuovo contatto a pattini striscianti, concettualmente analogo ai modellini di treni che tutti conosciamo. In tale modo la sequenza movimento lettino-scansione di acquisizione viene sostituita da un unico processo di acquisizione in movimento che dà inizio alla ad una nuova rivoluzione, ovvero svincolare il processo di ricostruzione da quello di acquisizione: una volta cioè acquisito il volume di esame l'operatore può scegliere di ricostruire le immagini ad intervalli arbitrari, poiché tutti i dati del volume originario sono disponibili e non già solo quelli delle sezioni già acquisite. Comincia quindi la ricerca dell'imaging volumetrico, che oggi sta raggiungendo finalmente il compimento. Con queste apparecchiature la velocità esecutiva dell'esame crolla a poche decine di secondi: in tale modo era possibile un imaging del body di elevatissima qualità per la virtuale immobilità consentita dalla ricerca di una breve apnea associata alla certezza di non avere volumi non esaminati per la mancanza di collaborazione del paziente, con la ricerca del dato funzionale della vascolarizzazione delle lesioni come ulteriore atout per la caratterizzazione delle focalità parenchimali dell'addome. La drastica riduzione dei tempi di acquisizione consente inoltre una progressiva riduzione degli spessori del fascio: ciò comporta quindi il miglioramento della risoluzione spaziale sull'asse z (cioè nella direzione della scansione) che a sua volta condiziona la possibilità di ottenere ricostruzioni elettroniche su piani diversi da quello assiale. Anche la risoluzione spaziale sugli assi x, y migliora per la riduzione degli spessori di acquisizione, rendendosi ormai di pochi decimi di mm anche per esami di routine e non dedicati. La conseguenza immediata è la possibilità di valutare strutture anatomiche complesse del neuroimaging come le rocche petrose ed il massiccio facciale su di un unico piano di acquisizione, per poi ricostruire elettronicamente le immagini sugli altri piani, dimezzando di fatto la dose di esposizione ed il tempo di esame. L'irradiazione del paziente e la velocità esecutiva possono inoltre essere notevolmente migliorate selezionando pitch elevati superiori a 1: in tale modo ampi volumi del corpo non vengono irradiati, distribuendo di fatto la dose totale su un volume maggiore e riducendo quindi la dose media.
Una conseguenza negativa comportata da queste apparecchiature è il fenomeno della slice pollution, ovvero dell'incremento vertiginoso del numero delle immagini da valutare sostenuto dalla richiesta dei radiologi di "vedere di più": dagli 8-10 mm standard di una scansione convenzionale del body ai 5 mm standard della spirale-body fino a 3 mm per quesiti particolari (es. ricerca dell'embolia polmonare) si raddoppia o triplica il numero di scansioni (da 18-20 fino a 60-80 per un torace) con grossi problemi di attenzione per il medico nella refertazione di tante immagini.
La velocità esecutiva consente il cosiddetto imaging multifasico, in cui si ottengono informazioni nelle varie fasi della diffusione del mdc dagli spazi vascolari a quelli extravascolari che pongono indicazioni precise sulle caratteristiche anatomo-patologiche delle lesioni: il prezzo è stavolta l'incremento della dose radiante, che si moltiplica per ciascun passaggio in più richiesto dal quesito diagnostico o dal radiologo stesso. Comincia inoltre l'applicazione della TC all'imaging vascolare, soprattutto i grossi vasi addominali ed i TSA possono essere studiati abbastanza agevolmente senza ricorrere alle metodiche invasive endovascolari.
Quasi parallelamente alla presentazione delle TC spirali una piccola casa israeliana commercializza una TC caratterizzata da un sistema sensibile costituito da una doppia fila di detettori affiancati: detta twin, questa macchina già nel '92 sarà precursore delle TC multislice che oggi sono alla ribalta radiologica. La semplice idea di raddoppiare le file di elementi sensibili comporta dei tangibili miglioramenti: è possibile raddoppiare la velocità esecutiva, il volume esaminabile, la risoluzione spaziale a parità di tempo o la potenza erogata a parità di spessore. I tubi radiogeni sostengono sollecitazioni minori poiché non è necessario un fascio collimato per eseguire scansioni sottili visto che la scelta dello spessore può essere eseguita a valle selezionando una opportuna configurazione del detettore. Minori sollecitazioni termiche sul tubo dovute all'uso di macche focali grandi prolungano la possibile durata di erogazione della corrente e quindi del volume esaminabile.
Grande artefice di questo processo è comunque anche il miglioramento dell'hardware informatico dedicato alla elaborazione e gestione dei dati: il silicio è il vero motore della tecnologia della fine del secolo. Fioriscono stazioni di elaborazione dedicate al post-processing dei dati che progressivamente diventa una funzione indispensabile alla diagnosi, non più limitata alla valutazione bruta delle immagini assiali.
Questo processo ha raggiunto l'apice oggi, epoca in cui l'idea di affiancare più banchi di detettori ha condotto alle macchine definite multislice: ciascuna fila di detettori estende lo spazio esaminabile, riduce il tempo di esecuzione, incrementa la risoluzione spaziale sull'asse z. Si svincola del tutto l'ampiezza del fascio radiogeno dallo spessore ottenibile in ricostruzione. Ora non solo l'intervallo di ricostruzione diventa arbitrario, ma anche lo spessore finale dell'immagine che può essere selezionato retrospettivamente e dipende solo dalla configurazione del detettore e dal numero di convertitori DAC accoppiati. Quest'ultimo è il fattore limitante nel definire la tipologia di apparecchio, poiché il numero di scansioni ottenibili dipende dal numero dei convertitori e non da quello dei detettori: una MSCT-4 ha 4 DAC e un detettore che a seconda della marca di apparecchiature può avere 8, 16 o anche 32 file di elementi sensibili affiancate, ma potrà fornire sempre e solo 4 serie di immagini contemporaneamente. Il flusso di dati vero i computer di ricostruzione diventa sempre più elevato e le case costruttrici usano tale fattore per fornire le novità ad intervalli accuratamente pianificati così che dalle MSCT-4 presentate nel '98 oggi si è arrivati alle MSCT-64.
Il grande pregio di queste apparecchiature è stato il rendere reale l'imaging volumetrico, con la possibilità di ottenere virtualmente la medesima risoluzione spaziale su tutti gli assi di ricostruzione: dividendo infatti l'immagine di 40 cm Ø ottenuta sul piano x,y con una matrice quadrata di 512 ciascun pixel avrà 0,8 mm lato. Se il singolo elemento del detettore ha un'ampiezza di 0,5-1 mm il risultato è un voxel cubico (detto anche isotropico), in cui sull'asse z si può avere la medesima risoluzione spaziale del piano di acquisizione.
Dal punto di vista tecnologico tuttavia le Case costruttrici hanno dovuto affrontare il grave problema della distorsione geometrica del fascio ai bordi: il ventaglio di radiazioni è divenuto così ampio che ai lati l'incidenza sul singolo elemento sensibile non è più perpendicolare ma decisamente obliqua, per cui l'analisi morfodensitometrica alla periferia del detettore è falsata rispetto al centro. Ogni casa ha messo a punto dei metodi di correzione generalmente basata su di una approssimazione matematica. Questa stessa deformazione del fascio è all'origine dell'incremento della dose media di queste macchine rispetto alle precedenti tipologie, poiché anche con pitch>1 i fotoni spuri della periferia di ciascuna rivoluzione si sommano a quelli adiacenti innalzando la dose media, senza contare che quasi nessuno resiste alla tentazione dello studio multifasico anche quando non propriamente indispensabile data la velocità esecutiva dell'esame.
Quanto era stato solo accennato con le macchine TC spirali diventa ora abituale, in particolare con la generazione MSCT-16 che secondo la letteratura concordemente sono ritenute il vero step dell'imaging volumetrico totale per qualsiasi distretto, indipendentemente dalla sua estensione o dalla necessità della collaborazione respiratoria del paziente. La applicazione al distretto vascolare diviene agevole, con la possibilità di studiare anche vasi di piccole dimensioni o molto estesi come negli arti inferiori, dove senza alcuna invasività la fase diagnostica può essere gestita senza più ricorrere all'angiografia con risultati del tutto sovrapponibili.
La gestione dei protocolli di esame richiede una decisa revisione: l'uso degli iniettori automatici di mdc, già necessario per le TC spirali diventa imprescindibile con le MSCT, che forniscono software di sincronizzazione del bolo di mdc che lanciano l'acquisizione in momenti prestabiliti per ottimizzare la fase di enhancement parenchimale o vascolare. Ciononostante la addirittura eccessiva velocità esecutiva obbliga di ritardare l'esecuzione dell'esame in relazione all'iniezione del mdc ev rispetto a quanto in uso con le TC spirale single-slice.
Aumenta drammaticamente anche il numero degli incidentalomi, in particolare a livello toracico il numero dei noduli definibili comporta la possibilità di numerosi falsi positivi dalle gravi ricadute in termini terapeutici, così che viene suggerito di usare algoritmi di ricostruzione particolari come il MIP per studiare correttamente i noduli polmonari sospetti.
La tentazione di proporre protocolli di screening per le neoplasie non può essere giustificata solo dalla velocità esecutiva: svariati studi multicentrici hanno nuovamente dimostrato come il tentativo di screening dei tumori polmonari abbia comportato sì un aumento dei tumori scoperti in stadio precoce, ma anche una enorme ricaduta in termini di costi economici e pure di conseguenze psicologiche sui pazienti quando la lesione scoperta allo screening sia risultata successivamente non neoplastica, a fronte fra l'altro di una dubbia ricaduta pratica in termini di aumento della sopravvivenza nelle lesioni positive.
Circa la effettiva utilità di scoprire lesioni sempre più piccole recentemente è apparsa in letteratura una revisione statistica della ricaduta clinica in sopravvivenza a distanza dei pazienti con microembolie distali misconosciute e non trattate, del tutto sovrapponibile al gruppo di controllo.
Un caposaldo reale della MSCT è stata invece l'introduzione dell'imaging cardiologico virtuale: si sta infatti tentando il blitz radiologico di "scippare" la diagnostica cardiaca ai cardiologi, che a loro volta si sono impossessati dell'ecocardiografia e dell'emodinamica una volta appannaggio del mondo radiologico. Già lanciato con le MSCT-4, questo imaging comincia a trovare una vera espressione con le MSCT-16, che riescono a studiare il cuore in un tempo di apnea accettabile. Allo stato attuale i reports della Letteratura sono concordi nel ritenere sufficientemente affidabile lo studio cardiaco in pazienti con frequenze non superiore a 70 bpm e che non abbiano presentato fluttuazioni anomale del polso durante l'esame. Tecnicamente lo scanner deve essere allo stato dell'arte, preferibilmente in grado di eseguire rivoluzioni di 0,4" per sincronizzare più facilmente l'acquisizione dei dati con la pulsatilità cardiaca. Il principio di base consiste nell'acquisizione ridondante di dati ottenuti esaminando ciascun punto del cuore virtualmente in tutte le fasi del ciclo cardiaco: ciò comporta di eseguire l'esame con pitch molto inferiori ad 1 per ripassare più e più volte su ciascun singolo punto. Contemporaneamente viene acquisito un segnale elettrocardiografico e memorizzato. Retrospettivamente l'esame viene ricostruito sincronizzando la rivoluzione con l'ecg (gating).
L'imaging cardiologico consente una valutazione adeguata dei vasi coronarici di dx e sx e dei primi rami collaterali, con alcune importanti limitazioni: è del tutto inaffidabile lo studio degli stents da angioplastica, poiché l'artefatto di blooming impedisce una adeguata valutazione del lume, e non è possibile stabilire la direzione del flusso ematico a valle di una stenosi (ovvero se il compenso emodinamico di un territorio miocardio avviene secondo o contro-corrente ad opera di circoli collaterali). Valida invece la valutazione del bypass, sia per la relativa grandezza di questi vasi e delle anastomosi chirurgiche sia per la relativa lontananza dal cuore che li rende di fatto isolati dalla sua pulsatilità e quindi di più agevole valutazione.
Nello studio del cuore assumono importanza essenziale le workstation grafiche ed i softwares dedicati di elaborazione dell'immagine: la valutazione della vascolarizzazione dell'organo richiede perizia e calma, essendo meno immediata rispetto all'emodinamica, ma con l'indubbio vantaggio di essere pressoché del tutto scevra da rischi di qualsiasi genere salvo quello generico del mdc.
Appare ben chiaro come il processo di introduzione di macchine sempre più performanti con un numero via via maggiore di canali attivi sia legato sì allo sviluppo dell'hardware informatico e del sofware di ricostruzione ma anche a ragioni di puro marketing, in modo da presentare macchine che sempre più offrono rispetto alle precedenti tipologie e i cui risultati si propongono come nettamente superiori.
In tale ottica le MSCT >16 sicuramente forniranno migliori risultati nell'imaging cardiologico, poichè la grande ampiezza del banco di detettori permette di ridurre il tempo di esame a parità di dati acquisiti.
E' invece molto dubbio che si possano ottenere tangibili miglioramenti per altre problematiche diagnostiche, come l'imaging vascolare, che già si avvale di apparecchiature in grado di fornire un imaging isotropico "reale". Già oggi si denota che le apparecchiature disponibili siano ampiamente sottoutilizzate poichè per rispondere ad almeno due terzi dei quesiti diagnostici è ampiamente sufficiente una macchina a spirale singola, e che l'incremento dlle lesioni microscopiche rilevate non produce alcun apprezzabile beneficio sulla salute dei pazienti anzi magari addirittura genera un danno, in termini di trattamenti terapeutici inutili e di perdita di ore/lavoro senza risultati.
E' chiaro che il progresso, e con esso l'industria che lo muove, non si arresta, e continuerà a fornire prodotti ultra-tecnologici dalle applicazioni pratiche sempre più ridotte e sempre più di nicchia, lontane dalla routine clinica le cui esigenze vengono altrettanto soddisfatte da macchine ben più semplici ed economche.
Compito del Radiologo è selezionare nell'ambito delle potenzialità delle apparecchiature il migliore compromesso in termini di dose, costi e risultati e ridurre al massimo il cosiddetto "fattore umano" per aumentare la costanza dei risultati. La certezza è quindi che nonostante tutte queste complesse procedure, softwares dedicati, workstation e bolus tracking, l'intervento umano risulta imprescindibile garantendo una lunga sopravvivenza della nostra professione peculiare.



Torace: Tromboembolia polmonare, acquisizione volumetrica assiale e ricostruzione MIP parassiale



AngioTC whole body: metodica diagnostica totale





cardioTC: ricostruzione MPR curva e volume rendering (due pazienti diversi)