Dans la perspective d’améliorer le suivi des modèles animaux en oncologie, nous avons pensé à utiliser l’imagerie au FDG avec une TEDC, ce qui nous a amené à revoir les principes physiques à la base de cette technique. Nous allons résumer les principales caractéristiques physiques du positon, antiparticule singulière qui est à la base de la technique d’imagerie TEP (tomographie d’émission de positon). Puis nous verrons les techniques de détection du positon lui-même. Ces techniques ne pouvant être utilisées qu’in vitro, nous verrons comment il est possible d’utiliser in vivo, les rayonnements émis secondairement par l’annihilation du positon avec un électron du milieu. Nous détaillerons les différents aspects techniques de l’imagerie TEP en décrivant les principes généraux d’un TEP, puis nous étudierons le détecteur, les procédures d’acquisition et de traitement du signal. Nous verrons les limites de la technique et les corrections physiques et logicielles mises en place pour les corriger. Nous aborderons le problème de la quantification de la fixation du traceur en TEP. Nous détaillerons les différentes techniques de quantifications et de correction d’atténuation nécessaires à cette quantification. Nous énumérerons les différentes techniques de contrôle des performances des caméras TEP et les procédures de comparaison de machines de technologies différentes. Les techniques d’imagerie en Médecine Nucléaire étudient le devenir d’un radiotraceur administré au patient à l’aide d’une caméra. Après avoir étudié la caméra, il faudra étudier le radiotraceur émetteur de positon. Le traceur émetteur de positon le plus utilisé et le plus répandu, actuellement en oncologie, est le Fluorodéoxuglucose (FDG) marqué au [18F]. Nous détaillerons les principales caractéristiques du FDG et nous recenserons les autres traceurs (émetteurs de positons ou émetteurs monophotoniques) utilisables et utilisés en oncologie. Nous terminerons cette Partie introductive par l’aspect pratique de la réalisation d’une acquisition TEP: en détaillant la préparation du patient, l’injection du FDG, l’acquisition, le traitement des données et la présentation des résultats.
« Tout ce qui est atteint est détruit »
Montherlant
Un émetteur de positon est un noyau en état instable, caractérisé par un excès de charge positive. Pour obtenir un état stable, il se désintègre en transformant un proton en neutron conduisant à l’émission d’un positon et d’un neutrino. Le positron à une masse équivallente à celle d’un électron mais de charge opposée. Le neutrino est une particule de masse nulle qui n’interagit pas avec la matière.
Formule générale de la réaction de l’émission β+ et exemple du 18F :
La période radioactive ou demi-vie correspond à la durée nécessaire pour que l’activité d’une source soit divisée par deux. On peut classer les émetteurs de positon en fonction de leur demi-vie.
L’énergie totale libérée par la transformation de valeur fixe Eβ+max se répartit de manière variable entre le β+ et neutrino. Il s’agit d’une transmutation isobarique avec un spectre d’énergie cinétique continu des particules β+ qui peuvent prendre toutes les valeurs comprises entre 0 et Eβ+max. Ce spectre est caractérisé par sa valeur maximale Eβ+max et sa valeur moyenne Eβ+moy avec Eβ+moy≅ Eβ+max / 3 (figure 1).
Cette transformation concerne les éléments qui se trouvent dans la zone d’instabilité nucléaire par excès de protons.
Figure 2-1 : Spectre d’énergie du β+ du 18F
Le positon émis par le noyau parcourt quelques millimètres dans le milieu en perdant toute son énergie cinétique. En fin de course, quand il est au repos, il interagit avec un électron du milieu en produisant une réaction d’annihilation. Le parcours maximal du positon dans le milieu dépend de l’énergie cinétique maximale que la transformation nucléaire est capable de lui fournir. Ce parcours maximal qui caractérise le positon peut varier de 0,63 mm pour le 18F à 3,98 pour le 76Br.
Isotopes | 11C | 13N | 15O | 18F | 76Br |
Energie maximum des β+ en MeV | 0,98 | 1,19 | 1,72 | 0,63 | 3,98 |
Energie la plus probable des β+ en MeV | 0,39 | 0,49 | 0,73 | 0,25 | 1,20 |
Parcours maximum dans l’eau en mm | 3,9 | 5 | 7,9 | 2,3 | 20 |
Parcours moyen dans l’eau en mm | 1,1 | 1,5 | 2,7 | 0,6 | 5 |
Période de l’isotope en min | 20,4 | 10 | 2,1 | 109,8 | 972 |
La réaction d’annihilation entre une particule et son anti-particule, transforme la masse des deux particules en émission de photons gamma de 511 keV, émis dans des directions opposées pour maintenir la conservation du bilan énergétique. Si le positon n’a pas perdu totalement son énergie dans le milieu et toujours pour respecter le bilan de conservation d’énergie, les photons seront émis de façon non colinéaire avec des angles différents de 360°. Le défaut de colinéarité d’émission peut être de l’ordre de 0,5° (Figure 2-2).
Figure 2-2 : Parcours du positonet sa désintégration lors de la réaction d’annihilation :
Le principe du TEP consiste à détecter les deux photons de 511 keV pour déterminer l’origine de la réaction d’annihilation. Le parcours du positon avant son annihilation (d) et le défaut de colinéarité d’émission des deux photons γ seront les deux limites intrinsèques en terme de résolution spatiale propre à la détection en coïncidence. Elle est de l’ordre du mm pour le 18F.
Le principe du cyclotron consiste à accélérer des particules chargées, par passages successifs dans un champ électrique de haute fréquence. Pendant leur accélération, ces particules sont guidées par un champ magnétique.
Le cyclotron comprend un électro-aimant fournissant un champ magnétique. Dans son entrefer est installée une chambre d’accélération contenant en son centre l’extrémité du dispositif d’injection des particules et dans le plan médian, un système d’électrodes d’accélération. Un vide de l’ordre de 10-4 Pa (10-6 millibars) est maintenu dans la chambre d’accélération. Les particules ionisées extraites de la source d’ions circulent dans l’entrefer de l’électroaimant le long d’une spirale et reçoivent une énergie cinétique supplémentaire lors de chaque passage entre les électrodes. Les particules chargées accélérées vont percuter une cible pour transformer des noyaux de la cible en radioisotopes. La réaction de transformation des atomes de la cible se fait par absorption d’une partie de l’énergie cinétique des particules chargées incidentes. Les réactions nucléaires sont du type (p,n) ou (p,2n), c’ est à dire qu’un proton incident éjecte un ou plusieurs neutrons du noyau des atomes de la cible en fonction de l’énergie des particules incidentes et de la nature du matériau bombardé. Les émissions produites lors de l’irradiation des cibles (neutrons et rayons gammas) doivent être atténuées pour protéger le personnel et l’environnement. Le cyclotron et la ciblerie sont donc installés dans des constructions avec des murs épais en béton (2m) équipés de portes adaptées. Le cyclotron peut être équipé d’un blindage composite (auto-blindage en béton et plomb) qui permet de réduire l’épaisseur des murs et de la porte de la salle du cyclotron. Pour produire du 18F la cible est remplie d’eau enrichie en 18O, isotope stable. L’irradiation consiste à bombarder la cible enrichie en 18O par des protons de 10 MeV pendant un temps d’irradiation (1h ou 2h) qui est fonction de la puissance du cyclotron, du nombre de cible irradiées et de la quantité de 18F que l’on désire obtenir. Le 18F ayant une demi-vie de 110 minutes, après 2 heures d’irradiation, on obtient un équilibre entre sa production et sa disparition.
Pour détecter le positon initial on pourra faire appel aux techniques utilisées pour détecter les électrons. Ces techniques qui ont l’avantage d’avoir les meilleures résolutions spatiales nécessitent des activités peu importantes mais avec des temps d’exposition relativement longs parfois peu compatibles avec les périodes des émetteurs de positon utilisés en médecine.
Ces détecteurs sont constitués de micrograins d’halogénure d’argent en suspension dans un film de gélatine. Le fonctionnement se fait en 3 étapes : l’exposition, la révélation et la fixation. Lors de l’exposition aux rayonnements, des électrons sont arrachés aux halogénures d’argent le transformant en Ag+ qui sera réduit en argent métallique après révélation par un agent chimique réducteur. Le temps de révélation doit être limité dans le temps pour ne réduire que les grains d’argent sensibilisés par le rayonnement à détecter. Lors de la fixation, les ions Ag+ non réduits (qui sont sous une forme soluble) sont éliminés. Classiquement les films d’autoradiographie sont utilisés pour des localisations microscopiques au niveau cellulaire de traceurs marqués par des β- et peuvent donc être utilisés pour des traceurs β+.
La chambre à avalanche à fils (β-imageur®). La détection originale de ce système développé par Charpak est basée sur la détection et l ‘analyse de la lumière produite par l’interaction d’un rayonnement β- ou β+ dans un gaz (Figure 2-3). Ce dispositif est très sensible (500 fois plus que le film radiographique pour le 3H). La résolution qui dépend de l’énergie de l’isotope est de 30 µm avec le 3H et de l’ordre de 150 µm pour le 18F.
Le micro-imageur utilise un film scintillant placé contre l’échantillon radioactif. La lumière produite par le film est analysée par une caméra CCD sur une surface limitée (2 x 2 cm2) mais avec une résolution spatiale de l’ordre de 20 µm.
Figure 2-3 : Exemple de détection de positons par chambre à fil. Coupes frontales de cerveau de rat 6h après injection de 37 MBq (1 mCi) de FDG sur un ß-imageur® de la faculté de Médecine de Bordeaux II
D’autres types de détecteurs peuvent être utilisés pour détecter le positon directement : détecteurs à semi-conducteurs, scintillation liquide ou détecteurs thermoluminescents. Ces détecteurs n’étant pas utilisés en routine pour faire de l’imagerie, ils ne seront pas abordés ici.
Toutes ces techniques de détection directe du positon ne permettent pas de faire de l’imagerie in vivo et sont donc réservées à des études nécropsiques sur coupes microscopiques ou des quantifications in vitro.
Pour faire de l’imagerie in vivo avec des émetteurs de positons, il faudra utiliser la détection des photons d’annihilation de 511 keV. Il est possible de faire de la détection monophotonique des photons de 511 keV sans coïncidence en utilisant des systèmes de collimation adaptés à la haute énergie (poids important et encombrement majeur). Ces systèmes ont été abandonnés car la détection collimatée pénalise fortement la résolution spatiale et surtout la sensibilité. Les caméras actuelles sont toutes basées sur la détection des deux photons opposés à l’aide d’un circuit électronique mais sans collimation permettant un rendement de détection élevé (De Dreuille 2002).
Il faut au minimum deux détecteurs placés à 180° l’un de l’autre pour enregistrer les photons de coïncidences. La plupart des caméras TEP sont constitués d’une série de couronne de détecteurs élémentaires disposés en anneau («ring PET» des anglo-saxons).
Figure 2-4 : Principaux systèmes de détection de l’annihilation de positon.
A : Caméra TEDC ou gamma caméra deux têtes avec cristaux de NaI de 19 mm d’épaisseur avec circuit électronique de détection de coïncidence. ll est nécessaire de faire tourner les têtes sur 180° pour acquérir un champ de vue. Cette caméra peut aussi faire de la détection monophotonique pour les traceurs usuels en médecine nucléaire. La caméra est équipée de septa en plomb pour diminuer les rayonnements incidents venant de l’extérieur du champ de vue. Ces caméras fonctionnent uniquement en acquisition 2D.
B : TEP dédiée (CPET) constitué de 6 détecteurs de grandes tailles de NaI. Pas de septa de plomb et acquisition en mode 3D.
C : TEP dédié composés de plusieurs centaines de cristaux (BGO, GSO, LSO) constituant plusieurs couronnes jointives. Acquisition systématiquement en 3D, mais possibilité sur certaines machines de faire des acquisitions en 2D avec septa additionnels.
D : TEP dédié de dernière génération avec un module TDM associé permettant lors du même examen d’obtenir des coupes pour localiser anatomiquement les anomalies fonctionnelles détectées au TEP. Le TDM est aussi utilisé systématiquement pour obtenir une cartographie de densité nécessaire à la réalisation de la correction d‘atténuation.
Toute désintégration d’un positon qui rencontre un électron se caractérise par l’émission de deux photons gamma de 511 keV émis dans des directions opposées. Pour déterminer la projection du lieu de l’annihilation, il faut deux détecteurs indépendants et opposés pour mesurer simultanément les deux photons de 511 keV, émis. L’électronique de détection appelée circuit de coïncidence détecte les signaux en fonction de deux critères principaux :
Le système mesure des coïncidences vraies qui correspondent à la détection de deux photons de 511 keV provenant de la même annihilation. Mais le système, qui est limité en résolution temporelle et énergétique, peut aussi détecter de nombreux éléments qui parasitent et génèrent du bruit de fond.
Les coïncidences aléatoires et les coïncidences diffusées sont les principaux événements responsables du bruit de fond (Figure 2-5).
Figure 2-5 : Différentes sortes de coïncidences possibles.
a: coïncidences vraies
b: absence de détection d’un photon entraînant l’absence de ligne de réponse et la diminution de l’efficacité de détection.
c: acceptation d’un photon diffusé ayant pourtant perdu une partie de son énergie lors de la diffusion avec le patient ou dans le cristal. C’est la résolution limitée en énergie du scintillateur qui entraîne l’acceptation de coïncidences de photons diffusés.
d: mesure d’une coïncidence aléatoire provenant de deux annihilations distinctes dans la même fenêtre temporelle. L’information spatiale enregistrée est incorrecte et responsable de bruit.
Le détecteur élémentaire arrête le photon incident, analyse son énergie et enregistre le moment exact de sa détection. Les paramètres influençant les performances du détecteur sont la densité, la résolution énergétique et la résolution temporelle. Les détecteurs sont constitués d’un ou plusieurs cristaux scintillateurs couplés à un ou plusieurs photomultiplicateurs (PM). Tout photon interagissant dans le détecteur est analysé individuellement.
Un photon entrant dans le détecteur va interagir avec les électrons du cristal et peut céder toute son énergie, par effet photoélectrique, ou seulement une partie de son énergie, par effet Compton. Les électrons du cristal vont exciter d’autres électrons du cristal et provoquer des phénomènes de scintillation, c‘est à dire d’émission de lumière visible. Le cristal se comporte donc comme un transformateur de longueur d’onde puisqu’il permet de passer d’un rayonnement gamma (dont la gamme énergétique varie de quelques dizaines de keV à 511 keV) à un rayonnement de scintillation de longueur d’onde visible. Le nombre de photons de scintillation est proportionnel à l’énergie déposée dans le cristal par le photon incident. L’énergie lumineuse créée est transmise par un guide de lumière vers la photocathode du PM dont le rôle est de transformer l’énergie lumineuse en énergie électrique. Les électrons créés sont accélérés et focalisés sur la première dynode, par la différence de potentiel. L’amplification du courant est obtenue par un enchaînement de dynodes. A la sortie du PM, un courant électrique est mesurable et l’intégrale du signal est proportionnelle à l’énergie déposée dans le cristal. La durée de l’intégration dépend de la rapidité de la décroissance de la lumière dans le cristal (Figure 2-6). Pendant cette durée, le détecteur est incapable de mesurer un autre événement. C’est le phénomène de temps mort qui est responsable de la perte en sensibilité pour des taux de comptages élevés (problème rencontré lors des acquisitions en 3D).
Figure 2-6 : Principe de fonctionnement du détecteur élémentaire.
Le cristal est caractérisé par :
Tous ces paramètres influent sur le coût des cristaux et donc sur le prix de la machine TEP.
Il existe plusieurs catégories de cristaux scintillateurs :
Les paramètres de l’atténuation des photons de 511 keV est fonction :
La photofraction détermine, le nombre de photons visibles créés par effet photoélectrique par rapport aux différentes interactions dans le cristal. L’effet photoélectrique correspond à un dépôt énergétique de 511 keV dans le détecteur alors que les effets Comptons ne permettent de déposer qu’une partie de l’énergie. La chaîne de mesure élimine les événements Compton qui correspondent à un dépôt énergétique inférieur à 511 keV. Les interactions de type Compton qui se produisent dans l’organisme du patient, doivent être éliminées puisqu’elles correspondent à de mauvaises lignes de coïncidences et sont donc responsables de bruit. Dans le cristal, la création d’interaction Compton se traduit par une perte d’efficacité. La photofraction du détecteur est un paramètre fondamental d’efficacité.
La nature de l’émission lumineuse conditionne la durée de la fenêtre de coïncidence, le temps mort et la résolution en énergie, et elle influence donc le taux des coïncidences parasites enregistrées. Plus la constante de temps de scintillation lumineuse est rapide, plus elle permet de réduire la fenêtre temporelle de coïncidence en éliminant un nombre important de coïncidences aléatoires. Le BGO et le NaI ont des constantes de temps relativement lentes nécessitant l’utilisation de fenêtre de coïncidence large de 12 ns. Les scintillateurs plus récents comme le GSO et le LSO avec une constante de temps plus courte autorisent des fenêtres de coïncidences de l’ordre de 6 ns. En dessous de cette limite de 6 ns et dans un anneau de détection de l’ordre de 70 cm, la fenêtre temporelle s’approche du temps de vol du photon (pour un photon se déplaçant à 300 000 000 m/s dans le vide, il faut 3 ns pour parcourir les 70 cm de l’anneau). La constante de temps influe sur le temps mort du détecteur puisqu’il est impossible de mesurer un autre événement en même temps. D’autre part, plus la surface du cristal est petite et plus la surface du détecteur est réduite plus la probabilité de mesurer un autre évènement est faible.
Le rendement lumineux correspond au nombre de photons de scintillation, émis par photon arrêté dans le cristal scintillant. On l’exprime de manière relative par rapport au cristal de NaI(Tl) qui présente un rendement lumineux des plus élevés. Un rendement lumineux élevé s’accompagne d’une bonne détection des événements et d’une bonne résolution en énergie.
Avec une réponse temporelle brève, il est possible de réaliser des acquisitions en temps de vol. Le BaF2 est caractérisé par deux émissions lumineuses dont l’une a une constante de décroissance brève de l’ordre 0,8 ns. Le principe de détection repose sur la différence du temps d’arrivée des deux photons émis lors de la réaction d’annihilation du positon. Connaissant la vitesse de la lumière, le décalage dans l’arrivée des deux photons permet de préciser l’origine de l’annihilation sur la ligne de réponse avec une précision inférieure à 10 cm. Cette information est exploitée par les algorithmes de reconstruction d’image. L’inconvénient du BaF2 pour réaliser des détecteurs élémentaires de petite taille, réside dans sa faible densité et son faible rendement lumineux. Dans un avenir proche et grâce aux progrès constant de l’électronique (actuellement les électroniques d’acquisition autorisent une fenêtre de coïncidence < 6 ns), on devrait pouvoir utiliser les renseignements obtenus par le temps de vol dans les machines TEP cliniques de prochaine génération.
Le spectre de la lumière émise doit être adapté aux photomultiplicateurs associés. La nature du cristal ne doit pas être trop opaque pour ne pas atténuer la lumière émise par les phénomènes de scintillation provoqués par les interactions des photons qui pénètrent dans le cristal.
Pour une résolution en énergie limitée, la détection pourra prendre en compte des photons ayant subi une interaction Compton car la perte d’énergie du photon diffusé est insuffisante pour pouvoir être détectée par un système de faible résolution énergétique. Le changement de direction consécutive à la diffusion du photon conduit à une mauvaise localisation de la projection de l’annihilation (Figure 2-5 :c). Dans le cristal, un photon peut, aussi, être diffusé par effet Compton. Le photon diffusé est responsable d’une erreur de localisation mois pénalisante que l’erreur de localisation consécutive à une diffusion dans le patient mais il n’existe pas de moyen pour différencier l’origine de la diffusion.
Le principal avantage du cristal de NaI est sa résolution énergétique de l’ordre de 10%. Le BGO est caractérisé par la plus mauvaise résolution énergétique de l’ordre de 16%. Les cristaux les plus récents ont une résolution énergétique intermédiaire de 15% pour le LSO et 12 % pour le GSO.
Le BGO a été le cristal le plus utilisé en raison de sa densité élevée et malgré une faible résolution en énergie et une constante de décroissance lente. La recherche sur les cristaux s’oriente vers des cristaux dont les caractéristiques sont plus favorables en particulier pour l’acquisition en mode 3D. Actuellement en 2004, la société GEMS (General Electric Medical System) commercialise un TEP avec des cristaux de BGO alors que la société Siemens qui commercialisait des TEP avec des cristaux en BGO s’oriente vers des TEP avec des cristaux en LSO qu’elle développe et fabrique en exclusivité à Knoxville dans le Tenessee. La troisième société d’imagerie médicale, Philips commercialisait des TEP avec des cristaux de grande taille de NaI (CPET) abandonnés maintenant au profit de TEP avec des cristaux de GSO. L’intérêt du NaI résidait dans sa très bonne résolution énergétique et son faible coût de fabrication malgré une faible densité. Il équipait les gamma caméra multi-têtes transformées en machine polyvalente mono et biphotonique grâce à un système de détection électronique de coïncidence. Les 3 constructeurs ont arrêté le développement de ces machines et se consacrent exclusivement au développement de TEP dédiés dont les performances sont supérieures.
Pour résumer : Les caractéristiques principales des cristaux scintillateurs sont:
Tableau 2-2 : Caractéristiques des principaux cristaux scintillateurs utilisés en TEP
Le détecteur est constitué d’un couplage de cristaux scintillateurs et de photodétecteurs.
Plusieurs possibilités de montages peuvent être utilisés.
La solution la plus simple est le montage associant un cristal scintillateur à un photomultiplicateur. La grande taille des PM est un facteur limitant avec des cristaux de petite taille (Figure 2-7A). Ce type de montage utilisé dans les premières machines TEP donnait de mauvaise résolution spatiale car l’échantillonnage et l’épaisseur des coupes sont conditionnés par la taille des détecteurs.
Pour la fabrication de TEP animal nécessitant une très grande résolution spatiale, il faut des détecteurs de petite taille. Le PM est remplacé par une diode à avalanche de petite taille permettant un couplage direct avec des cristaux élémentaires de petite dimension (Figure 2-7B). L’inconvénient des diodes à avalanche est leur moindre efficacité que les PM ce qui les rend impropres à leur utilisation en TEP clinique.
Le détecteur bloc est la solution retenue pour les TEP à cristaux de BGO et LSO (Figure 2-7C). Les cristaux peuvent être taillés plus ou moins profondément pour compenser le rendement lumineux moindre en périphérie. Le couplage est réalisé entre une matrice de petits cristaux élémentaires de quelques millimètres avec un réseau de quelques PM. Par exemple le détecteur bloc de la caméra Hi-Rez® de Siemens est constitué de 169 cristaux (13 x 13 cristaux de 4 mm x 4 mm et de 20 mm d’épaisseur) couplés à 4 PM. Il faut 624 cristaux par anneau et 39 anneaux associés pour explorer 162 mm de champ axial, couverts par 3 blocs autorisant des mesures de 2 mm dans 81 plans de coupe. Chaque plan de coupe sera échantillonné par 624 cases de mesure.
Pour les gamma caméras, le monocristal de NaI de grande taille est associé à un réseau de plusieurs dizaines de PM par l’intermédiaire d’un guide de lumière. C’est le principe d’Anger et la localisation de l’interaction du photon incident avec le cristal s’effectue par le barycentre des intensités mesurées par l’ensemble des PM de la tête de détection. La taille du pixel et l’épaisseur de la coupe sont déterminées par la taille de la matrice d’échantillonnage appliquée à la surface utile du détecteur. La faible densité du cristal et la taille du cristal qui augmente le temps mort sont les principales limites de ce type de détecteur. L’augmentation de l’épaisseur (jusqu’à 25 mm) et la pixellisation du cristal permettent d’améliorer l’efficacité et le taux de comptage sans dégrader la résolution spatiale. Ces cristaux ont été utilisés dans les TEP dédiés, développés par la société Adac (CPET®).
Un autre type de montage associe des matrices parallélépipédiques de cristaux élémentaires de GSO et un réseau de nombreux PM (sans intervalle de séparation et sans bloc) par l’intermédiaire d’un guide de lumière continu sur toute la couronne de détection permettant une collection homogène de la lumière.
Figure 2-7 : Principaux couplages cristaux scintillateurs/photodétecteurs en TEP.
Les dimensions du cristal scintillateur conditionnent l’échantillonnage des données :
La largeur (l) donne la taille de la cellule de mesure dans le plan de l’anneau
La longueur (z) donne l’épaisseur de la coupe
L’épaisseur (h) contribue à l’efficacité de lé détection
A : le couplage cristal/photomultiplicateur. La taille des PM ne permet pas la conception de détecteurs élémentaires de petite taille
B : le couplage cristal/diode à avalanche permet un couplage avec des cristaux de petite taille (TEP animal)
C : le bloc détecteur : couplages de plusieurs PM sur une matrice de petits détecteurs élémentaires. Les cristaux peuvent être fendus sur une partie de leur hauteur pour compenser la perte de transmission de lumière scintillante près des bords.
D : le couplage de multiples PM sur un cristal de grande taille selon le principe d’Anger permet un meilleur échantillonnage continu des données
E : le couplage entre une matrice de multiples cristaux de petite taille et des PM correspond à de nouvelles générations de détecteurs. Il permet de gagner en résolution spatiale grâce à la taille des cristaux et de faciliter l’échantillonnage continu des données.
Figure 2-8 : Différents exemples de couplages cristaux scintillateurs/photodétecteurs de TEP commercialisés.
A : Bloc détecteur de 8 x 8 cristaux de LSO associant 4 PM.
B et C : montage en continu des PM sans intervalle de séparation et sans bloc avec un guide de lumière continu.
L’image obtenue correspond à la projection de la localisation des annihilations de l’objet que l’on examine. La reconstruction tomographique est l’étape mathématique obligatoire pour retrouver l’objet à partir des projections mesurées. Ces méthodes mathématiques sont similaires à toutes les techniques d’imagerie en coupe (TDM ou TEMP).
Le sinogramme est la matrice où sont rangées toutes les données concernant les projections d’une coupe de l’objet. Chaque ligne de cette matrice correspond à la projection de la coupe pour un angle φ particulier. Le nombre de lignes de la matrice correspond au nombre d’angles de mesure et le nombre de colonnes correspond aux nombres de mesures par position angulaire. En général la taille du sinogramme est de 256 (angles) par 192 (mesures/angle). Un pixel du sinogramme correspond à une ligne de réponse entre deux détecteurs élémentaires. L’information contenue dans ce pixel est la somme de tous les photons émis dans cette incidence par tous les points de l’objet situés sur la ligne de réponse. Les dimensions de la ligne de réponse sont en liaison avec la taille des détecteurs élémentaires (en général le cristal). En pratique, chaque photon émis par l’objet est analysé par le circuit de coïncidence, et chaque coïncidence (2 photons de 511 keV reçus pendant l’ouverture de la fenêtre de coïncidence par 2 détecteurs en ligne) incrémentera d’une unité, le pixel correspondant à la ligne de réponse. L’enregistrement de l’acquisition en TEP correspond au remplissage des pixels du sinogramme pendant un temps donné. Les comptages d’activité en TEP fluctuent selon un mode statistique obéissant à la loi de Poisson.
En bref, toutes les données des projections d’une coupe de l’objet sont contenues dans le sinogramme (Figure 2-9). La reconstruction tomographique consiste à retrouver la distribution de l’activité contenue dans l’objet à partir du calcul des données de projections rangées dans le sinogrammes.
Figure 2-9 : Rangement des données d’acquisition.
Une ligne de réponse définie par l’angle φ1 reçoit deux photons provenant de la source S1. Cette ligne de réponse sur l’angle φ1 est située à une distance OS1 du centre du TEP. Dans une autre fenêtre temporelle de coïncidence, une deuxième ligne de réponse sur le même angle φ1 reçoit deux photons provenant de la source S2 située à la distance OS2 du centre du TEP. Ces deux événement s incrémentent le sinogramme de une unité dans les pixels qui correspondent à (φ1,S1) et (φ1,S2).
C’est la méthode d’acquisition la plus ancienne. Elle est utilisée dans les TEP dédiés ainsi que dans les gamma caméras équipées de détection de coïncidence. Dans l’acquisition 2D, ne sont acceptés que les événements concernant des lignes de réponses perpendiculaires au détecteur. Les acquisitions en 2D se font à l’aide d’anneaux ou septa de plomb placés entre les différentes couronnes de détecteur en TEP ou à intervalle régulier lorsque l’on utilise un monocristal de grande taille type NaI.
La forme et la taille des septa sont étudiées pour ne permettre la détection que :
Donc un TEP de n couronnes de détecteurs (de 4 à 5 en fonction des tailles des cristaux) mesure simultanément en acquisition en mode 2D :
L’information volumique sera obtenue après la reconstruction indépendante de la somme des (n) + (n-1) soit des (2n-1) sinogrammes à l’aide d’algorithme 2D.
Figure 2-10: Acquisition 2D sur un détecteur 4 couronnes.
Il existe deux façons de reconstruire l’image à partir des données de projection enregistrées en 2D sur les sinogrammes : la rétroprojection filtrée et la reconstruction itérative.
Deux étapes constituent l’algorithme de rétroprojection filtrée:
En bref, la rétroprojection permet de reconstruire une image voisine de l’objet réel à partir des données de projections contenue dans les sinogrammes. L’image de rétroprojection est la convolution de l’image réelle par la fonction de dispersion ponctuelle. Pour restituer au mieux la coupe de l’objet, il faut corriger l’effet de dispersion ponctuelle et pour cela, on utilise la Transformée de Fourier qui permet de passer du domaine spatial au domaine fréquentiel.
C’est l’approche algébrique pour répondre au problème de la reconstitution de l’image originale, à partir d’un nombre fini de projections angulaires de cette image. Pour une matrice en 1282, il existe trop d’inconnues (16 324) pour résoudre de façon classique un système d’équations linéaires et la solution passe par l’utilisation de méthodes itératives.
Le principe est de partir d’une image numérique a priori (uniforme) et de calculer ses projections dans les mêmes directions que l’acquisition réelle. On compare les projections calculées par simulation (sinogramme simulé) aux projections réellement obtenues (sinogrammes acquis) et on modifie l’image simulée de manière à diminuer l’écart entre la réalité et la simulation. La même procédure est répétée de façon itérative jusqu’à l’obtention d’une différence la plus faible possible entre les projections simulées et réelles. On dit que l’algorithme a convergé.
Les méthodes itératives reposent sur un processus d’estimation-ajustement représenté par :
Σ j cijAj =Si
que l’on peut écrire sous forme matricielle : cA = S
avec :
On suppose connue une approximation A(n) de la solution A. Pour calculer une meilleure approximation A(n+1), les processus itératifs sont basés sur la comparaison entre la projection acquise S et la projection estimée cA(n).
La méthode itérative se résume en 4 étapes :
On continue le processus itératif jusqu’au moment où il n’y a plus d’amélioration entre les estimations successives de l’estimation de la distribution de l’activité.
Différents algorithmes itératifs se différencient par la façon dont les comparaisons de sinogrammes sont mises en œuvre. L’ algorithme le plus utilisé est dérivé de la méthode EM (expectation maximization) accélérée par l’organisation des sinogrammes à comparer par le principe des sous ensembles ordonnés OSEM (Ordered Subset Expectation Maximization).
L’erreur de la distribution de l ‘activité est évaluée au moyen d’un quotient de la projection mesurée par la projection estimée : εS(n)=S/cA(n)
La projection axiale estimée A(n) doit être multipliée par la quantité correctrice pour obtenir A(n+1). Mais la quantité εS(n) doit être transformée en quantité axiale en appliquant la transposée normalisée c^ qui suppose que la projection mesurée S a été contaminée par du bruit poissonien. On calcule la correction à effectuer pour que l’estimation suivante soit statistiquement plus probable. L’algorithme s’écrit : A(n+1)= A(n) c^S/cA(n)
Il présente plusieurs avantages :
Mais il présente aussi plusieurs inconvénients :
C’est aussi un algorithme multiplicatif. Chaque itération se décompose en sous-itérations dans lesquelles le processus d’estimation-ajustement ne porte que sur une partie des projections choisies judicieusement. Toutes les projections sont utilisées dans l’itération complète. OSEM se différencie des méthodes EMML qui estiment toutes les projections dans l’ordre, avant de les comparer aux projections mesurées et passer à l’itération suivante. OSEM aboutit à des résultats comparables à EMML mais avec des temps de calcul significativement réduits. Pour être efficace, les projections à analyser doivent être les moins redondantes possibles dans chaque sous-itération et les projections analysées doivent être séparées par un angle important (90°). Plus on réduit le nombre de projections utilisées pour chaque sous-itération, plus la convergence de la répartition de l’activité est théoriquement rapide. L’accélération de cet algorithme a pour conséquence la survenue plus précoce des problèmes de divergence qui peuvent imposer le recours à une régularisation.
Les méthodes itératives nécessitent de grandes ressources informatiques et des temps de calcul importants pour effectuer les nombreuses opérations concernant les multiples itérations. Les méthodes itératives ont l’avantage de pouvoir facilement intégrer, lors de la phase de simulation, des données de corrections d’atténuation, de correction géométriques, ou des caractéristiques du détecteur. Les reconstructions itératives permettent d’éliminer les artéfacts en étoile produits autour des zones hyperfixantes par les méthodes de rétroprojection filtrée.
Ce mode d’acquisition, réalisé sans septa, permet de mesurer des coïncidences entre des détecteurs sur des couronnes non adjacentes pour des angles θ, non nuls (Figure 2-11).
L’acquisition 3D entraîne une augmentation importante de la sensibilité du système en permettant la mesure d’un plus grand nombre de lignes de réponse. Par contre, il faut tenir compte du fait que la sensibilité de détection est variable suivant l’axe longitudinal (axe z) : en effet une source radioactive au centre du détecteur peut être détectée par plus de lignes de réponse qu’une source excentrée. Lorsque le système d’acquisition fonctionne sans limitation de l’angle d’acceptance θ, le profil de sensibilité longitudinal est triangulaire.
Figure 2-12 : Profil de sensibilité en 3D.
De nombreux systèmes limitent l’angle d’acceptance θ pour avoir un profil de sensibilité en plateau. Avec ces profils de sensibilité variables, sur l’axe longitudinal z, il est nécessaire de faire des acquisitions chevauchées en mode corps-entier. Les recouvrements du champ de vue permettent de garder un profil de sensibilité plus uniforme pendant le balayage longitudinal. L’importance du recouvrement est directement lié à la valeur de l’angle d’acceptance θ (le recouvrement peut intéresser la moitié du champ de vue, pour des valeurs maximales correspondant à la largeur totales des couronnes de détection).
Pour des valeurs de l’angle d’acceptance θ plus faible, la sensibilité du système diminue mais, le recouvrement étant mois important, il faut moins de pas successifs pour couvrir la même longueur de balayage. Il faut donc trouver un compromis entre la valeur de l’angle d’acceptance θ (qui conditionne la sensibilité du système en 3D) et l’importance du chevauchement des champs de vue qui conditionne le nombre de pas nécessaires pour balayer la longueur voulue (Figure 2-12).
En mode 2D, l’ensemble des données de projection d’un plan de coupe est rangé dans le sinogramme dont la matrice est composée de colonnes (dont le nombre correspond au nombres de mesures S enregistrées dans le diamètre de l’anneau) et de lignes (dont le nombre correspond aux différents angles φ des projections). En 3D, comme en 2D, il faut tenir compte des sinogrammes du plan du détecteur (angle θ = 0°) et correspondant à la même couronne de détection. Il faut tenir compte, aussi, des lignes de mesures enregistrées sur des couronnes distinctes et non nécessairement jointives, correspondant à des sinogrammes supplémentaires (angle θ ≠ 0°). Pour tenir compte de toutes les lignes de réponse dans un système équipé de n anneaux, il faudra enregistrer (n x n) sinogrammes par champ de vue. Il est plus facile en pratique de limiter le nombre d’angle θ et les lignes de réponses sont rangées dans les sinogrammes ayant l’incidence la plus proche. En général le nombre d’angle θ est de l’ordre de 7 (ce qui correspond à la valeur θ = 0 et à 3 valeurs de θ positives et 3 valeurs de θ négatives). Pour des valeurs de θ trop grandes, le nombre de projections incomplètes s’accroît de façon très importante. (Figure 2-13).
Figure 2-13 : Sinogrammes et projections incomplètes.
A : sinogrammes dans le plan des détecteurs sans décalage avec θ = 0° (idem 2D)
B : sinogrammes avec θ > 0° correspondant à une différence de 3 détecteurs donnant 6 projections incomplètes en lignes fines et 6 projections complètes en lignes épaisses.
C : sinogrammes avec θ >> 0° correspondant à une différence de 6 détecteurs donnant 12 projections incomplètes en lignes fines et 3 projections complètes en lignes épaisses.
En 3D et en l’absence de septa, les lignes de réponse intéressent plusieurs couronnes de détecteurs. Les algorithmes de reconstruction doivent être capable de reconstruire les plans de coupe à partir des informations contenues dans les différents sinogrammes. Le volume tomographique est reconstruit globalement, contrairement aux reconstructions 2D qui reconstruisent des coupes adjacentes qui sont assemblées de façon conjointe pour obtenir un volume.
Il y a deux façon de procéder en 3D :
Intuitivement, il s’agit d’étendre à la 3D, les méthodes bidimensionnelles de reconstruction volumique.
La méthode de rétroprojection se déroule en plusieurs étapes :
Le nombre de sinogrammes et la succession des différentes étapes nécessitent des temps de reconstruction très longs (peu compatibles avec une activité clinique). Mais avec les progrès constant des ressources informatiques, ces méthodes sont en train de se généraliser et il est possible d’envisager des reconstructions 3D par méthodes itératives selon les principes dérivés des algorithmes 2D.
Pour bénéficier des données acquises en 3D et sans passer par des algorithmes de reconstruction 3D, il faut réarranger les données des sinogrammes 3D sous forme de sinogrammes 2D. Les données 3D réarrangées en 2D sont reconstruites dans un deuxième temps, par des algorithmes de reconstruction 2D itératifs rapides. Plusieurs algorithmes de réarrangement des données sont utilisés :
L’acquisition 3D permet une augmentation importante de la sensibilité du système par rapport au 2D. Cette augmentation de sensibilité permet de diminuer les quantités de radiotraceur injectées au patient et/ou une diminution de la durée des examens. Par contre, l’absence de septa augmente le taux d’événements aléatoires et le taux d’événements diffusés en 3D par rapport au 2D. Pour diminuer ces événements parasites, responsables de bruit de fond, et pour obtenir des images de qualité en 3D, il faudra utiliser des méthodes de correction des événements aléatoires et diffusés.
Les images TEP sont obtenues par comptage de coïncidences détectées. Ces coïncidences détectées ne représentent qu’une fraction faible des coïncidences émises par le patient. Les phénomènes physiques (diffusion Compton, atténuation) et les caractéristiques limitées des appareillages (événements aléatoires, résolution spatiale, fenêtre électronique de coïncidence, temps mort…) dégradent l’information. Ces pertes de détection d’événements émis dans une ligne de réponse sont variables en fonction de la position de la source dans le champ d’exploration ainsi que dans le patient. La compréhension des phénomènes physiques et leurs corrections éventuelles permettent d’approcher une représentation significative de la distribution du traceur radioactif dans l’organisme du patient étudié.
La détection de coïncidences aléatoires ou fortuites correspond à l’enregistrement de deux photons issus de deux annihilations différentes mais arrivant dans la même fenêtre temporelle de coïncidence. Il en résulte une information spatiale incorrecte.
Le taux de coïncidences aléatoires augmente:
Le taux de coïncidences aléatoires est une source importante de bruit qui doit être pris en compte et corrigé. Compte tenu des éléments intervenant dans la genèse des coïncidences aléatoires, on peut comprendre que la distribution des coïncidences aléatoires s’effectue de façon uniforme dans le champ de vue.
Ce taux de coïncidences aléatoires est aussi très variable en fonction des conditions d’acquisition et de la conception des machines :
Pour caractériser les différentes machines TEP, il faut effectuer des mesures de taux de comptage de coïncidences totales et aléatoires pour différentes géométries et des gammes radioactives étendues. A titre d‘exemple, en acquisition 3D corps-entier et en situation clinique, la fraction de coïncidences peut atteindre et même dépasser 50% quand des organes très actifs (cerveau, vessie) sont dans le champ de vue.
La solution réside dans la soustraction des coïncidences fortuites. L’estimation des coïncidences fortuites est soustraite à chaque ligne de réponse des coïncidences totales.
Comment estimer la contamination des aléatoires dans les détections de coïncidences ?
1-Par mesure directe dans une fenêtre temporelle décalée (delay window).
Puisque la distribution s’effectue de façon uniforme dans le champ de vue, la probabilité de détecter de telles coïncidences est uniforme dans le temps. Cette probabilité est corrélée à l’annihilation de deux positons dans la même fenêtre temporelle et cette probabilité est la même dans la fenêtre de coïncidence et dans la fenêtre décalée (Figure 2-11).
Il faut utiliser une autre fenêtre de coïncidence décalée dans le temps par une ligne à retard. Ce décalage doit être largement supérieur à la constante de temps de décroissance du cristal pour ne pas enregistrer la même coïncidence (en général le décalage est de l’ordre de 100 ns).
Par projection de ligne de réponse (c’est à dire par pixel du sinogramme), le nombre total de coïncidences (CT) est la somme des coïncidences vraies (CV) et des coïncidences fortuites (CF) estimées par la fenêtre décalée :
CT = CV-CF
Cette technique est la plus utilisée par les différents constructeurs car elle est simple à mettre en place et elle permet de mesurer la distribution spatiale des aléatoires.
Figure 2-14 : Estimation des coïncidences fortuites par la fenêtre décalée.Sur la ligne de réponse (d3,d4): il est enregistré une coïncidence vraie suivie d’une fortuite . Un photon détecté dans la fenêtre de coïncidence et dans la fenêtre décalée sur la même ligne de réponse (d3,d4) ne peut pas être une coïncidence vraie.
Sur la ligne de réponse (d1,d2): il est enregistré une vraie et une aléatoire (photon unique sur d1 dans la fenêtre décalée).
Sur la ligne de réponse (d2,d3) : il est enregistré une vraie et pas d’événement dans la fenêtre décalée.
2-Par estimation indirecte à partir du nombre de photons détectés par chaque détecteur.
Cette estimation est donnée par la formule suivante :
Fd1,d2 = Sd1 Sd2 2τ
avec :
3-Par estimation de la distribution des aléatoires dans les projections en dehors du patient.
Il faudra soustraire un niveau constant de fortuits. C’est la méthode la plus simple mais la moins performante car elle ne tient pas compte des variations locales des taux d’événements aléatoires que l’on trouve dans des situations géométriques complexes comme dans l’exploration de patients. Cette méthode est par contre utilisable pour des études sur fantôme.
Une fois estimé le taux de fortuits et leurs distributions spatiales, il suffit de soustraire par ligne de réponse les événements aléatoires. Cette soustraction majore le bruit dans les projections en diminuant les taux de comptage, mais il est possible de filtrer les sinogrammes correspondant aux fortuits pour diminuer les fluctuations statistiques.
Les photons peuvent diffuser par effet Compton avec une perte d’une partie de leur énergie et un changement de direction. Le changement de trajectoire du photon va entraîner une détection sur une ligne de réponse non corrélée à son émission. L’image va donc être faussée par des informations non correctes. La perte d’énergie du photon diffusé par effet Compton est théoriquement prise en compte par les détecteurs, puisque ne sont acceptés que des photons dont l‘énergie est de 511 keV. En fait, la résolution en énergie des cristaux scintillateurs est limitée de 15 % (pour les plus résolutifs) à 20 % (pour les moins performants). Cette résolution énergétique limitée fait que le système ne pourra pas discriminer les photons diffusés des photons non diffusés.
En mode d’acquisition 2D et grâce à la présence de septa, le taux de photons diffusés dans les coïncidences acceptées est estimé à 10 %. En mode 3D le taux de diffusé est plus important et peut dépasser 50 %. Par exemple pour les cristaux de GSO (qui possèdent une bonne résolution énergétique de 16 %) et en plaçant le seuil bas de la fenêtre de détection le plus haut possible (à 436 keV), la fraction de photons diffusés détectée est de l’ordre de 30%.
L’acceptation de photons diffusés comme coïncidence est responsable d’une dégradation de la qualité de l’image par:
Compte tenu de la résolution énergétique non optimale des cristaux scintillants, l’effet des diffusés est le plus difficile à corriger particulièrement en mode 3D qui est très sensible à la radioactivité présente hors du champ de vue.
On peut faire appel à trois techniques différentes :
1-L’utilisation de plusieurs fenêtres énergétiques.
Cette méthode utilise l’information en énergie en combinant des données acquises dans plusieurs fenêtres énergétiques (au minimum 2)
2-L’utilisation de l’information spatiale
Ce sont des méthodes de convolution qui supposent que la distribution des coïncidences totales enregistrées est le produit de convolution de la distribution des coïncidences vraies non diffusées par une fonction de réponse incluant les effets de la résolution spatiale et la distribution des coïncidences diffusées. Cette fonction de réponse du diffusé est obtenue expérimentalement pour une géométrie donnée. Il faut tenir compte de la variation de la fonction de réponse du diffusé suivant l’axe du tomographe. Cette méthode permet d’obtenir par un calcul simple la distribution du diffusé dans les cas ou l’activité est répartie dans tout l’objet à analyser.
3- les méthodes de calcul (section efficace de Klein-Nishina et simulation de Monte Carlo)
Pour obtenir une carte des coïncidences diffusées , il faut:
C’est une méthode assez précise qui tient compte des sources hors du champ de vue des détecteurs, qui limite les données acquises par rapport aux méthodes multifenêtriques et qui s’exécute dans des temps compatibles avec une activité de routine clinique. C’est la méthode mise en œuvre dans les systèmes commercialisés.
La résolution spatiale limitée se traduit par une sous-estimation systématique de la concentration radioactive dans les structures dont la taille est inférieure à deux à trois fois la résolution spatiale de l’image reconstruite. C’est l’effet de volume partiel qui est dû, au fait qu’une partie de l’activité se trouve en dehors de la structure examinée. L’effet de volume partiel est responsable d’un effet lissant sur l’image.
Il existe aussi un effet de superposition de l’activité de structures tissulaires voisines situées à une distance de deux à trois fois la résolution spatiale du système. Cette contamination par les structures environnantes induit des surestimations des concentrations radioactives.
Coefficients de recouvrement :
Les concentrations radioactives déterminées par des régions d’intérêt (ROI) sont multipliées par un facteur correcteur qui
dépend de la taille des lésions. Ces coefficients de recouvrements sont déterminés à partir de mesures expérimentales sur
des géométries simples (fantômes de sphères remplissables de différents diamètres). Le rapport entre la concentration obtenue
par la machine et la concentration réelle connue donne le facteur de recouvrement qui sera appliqué sur les régions de taille
comparable.
En pratique on utilise une carte anatomique (recalée) pour définir les limites des régions cibles dont l’activité doit être
quantifiée et corrigée à partir de cette information anatomique :
Cette technique simple largement employée pour obtenir des comptages corrigés de l’effet de volume partiel ne permet pas d’améliorer la qualité de l’image ni d’améliorer la détectabilité des petites lésions.
Dans le domaine fréquentiel (Fourier) : La déconvolution par la fonction de réponse du tomographe est une méthode dont l’inconvénient principal est d’amplifier le bruit. Pour limiter l’amplification du bruit, l’opération de déconvolution se limite au fréquences intermédiaires et ne permet qu’une restauration incomplète de l’information.
Dans le domaine spatial. Il est possible de restituer l’image corrigée du volume partiel en admettant les hypothèses suivantes :
La précision de cette méthode de correction repose sur l’exactitude du recalage des données TEP et des données morphologiques, et de la qualité de la segmentation des contours à partir des données anatomiques. La diffusion des machines hybrides TEP/TDM devrait faciliter le développement de ce type de correction.
L’atténuation des photons dans le corps du patient est un effet important. On estime que seulement 1 % des paires de photons émises au centre du thorax sortira sans avoir subi d’interaction dans l’organisme alors que dans le cerveau cette proportion intéresse 17 % des paires. L’atténuation est un phénomène non isotrope dans l’organisme qui est fonction de la composition et de l’épaisseur des tissus traversés. L’atténuation des coïncidences est indépendante du point où a eu lieu l’annihilation le long de la ligne de réponse. Sans correction d’atténuation, les images en TEP sous évaluent les fixations profondes.
Pour réaliser une correction il faut obtenir une carte de distribution des coefficients d’atténuation du patient par mesure de transmission, soit par source externe, soit par rayons X. Pour des raisons pratiques et d’efficacité, cette mesure de transmission doit être réalisée au moment de l’acquisitions de l’émission.
L’utilisation de source de 68Ge est la méthode la pus ancienne. Il faut une activité des sources suffisamment importante pour donner des statistiques de comptage satisfaisante dans un temps d’acquisition assez court mais sans saturer les détecteurs. L’acquisition se fait en mode 2D avec des septa intercoupes pour limiter le temps mort des détecteurs et diminuer le taux de coïncidences diffusées provenant des sources radioactives situées en dehors du plan de coupe. On utilise de plus une collimation électronique pour limiter l’enregistrement des événements de transmissions ayant subi une diffusion Compton. Ce type d’acquisition avec une source à haute activité n’est pas réalisable en mode 3D. L’avantage majeur de cette méthode réside dans le fait que les mesures de transmissions sont réalisées à 511 keV. Les mesures de transmissions se faisant sur un patient injecté (et donc radioactif par émission de positons), il faudra corriger la mesure de transmission, par une soustraction des événements d’émission.
La période du 137Cs est de 30 ans ce qui est un avantage, d’un point de vue économique, par rapport à la période 68Ge qui est de 9 mois en permettant de conserver la source pendant toute la durée de vie du TEP. Le 137Cs est un émetteur simple photon de 662 keV . Le taux de détection des simples photons est environ 100 fois plus important que le taux de détection des coïncidences. On peut utiliser des sources de faible activité pour une acquisition rapide avec une électronique rapide et adaptée à la détection des photons de 662 keV. La mesure de transmission est contaminée par les photons de 511 keV de l’émission du patient qui sont enregistrés dans la fenêtre de 662 keV. L’importance de la contamination dépend de la résolution en énergie du cristal scintillant. Ce mode de transmission est surtout utilisé avec les cristaux résolutifs en énergie comme le NaI ou GSO. Les données acquises permettent d’obtenir une cartographie de segmentation, avant d’être utilisée dans les sinogrammes de reconstruction.
La carte des coefficients d’atténuation peut être obtenue par un examen TDM par rayons x. Le couplage d’un tomographe d’émission de positon et d’un TDM est proposé par tous les constructeurs pour effectuer des examens standards de routine clinique. Le TDM permet d’obtenir dans un temps d’acquisition très court des images de transmission avec une très bonne résolution spatiale. Ce gain de résolution spatiale se traduit par une meilleure correction des phénomènes d’atténuation en particulier pour les structures de petite taille non vues par les mesures de transmission par sources radioactives. En fonction de leurs coefficients d’atténuation, il faudra segmenter les différents tissus de l’organisme puis utiliser un facteur d’échelle pour calculer l’atténuation à 511keV à partir du carte d’atténuation mesurée avec des sources de rayons x polyénergétique (de 40 à 120 keV).
D’autre part, la double acquisition permet d’obtenir des renseignements dépassant la seule problématique de la correction d’atténuation. En effet, l’imagerie fonctionnelle du TEP et l’imagerie morphologique du TDM se complètent en permettant de localiser avec précisions des anomalies fonctionnelles. L’association des deux modalités sur la même machine hybride simplifie et améliore les problèmes de recalage intercoupes intermodalités.
En TEP, la correction d’atténuation associée aux autres corrections des phénomènes physiques déjà abordés va permettre de comparer des intensités de fixation de différentes lésions. La correction d’atténuation va permettre de mieux visualiser les lésions profondes et faciliter leur localisation (en particulier à l’interface foie/poumon). La correction d’atténuation est une étape fondamentale pour quantifier les fixations radioactives. Cette quantification de la fixation des lésions devrait avoir plus d’importance dans l’avenir pour le suivi thérapeutique des patients et l’évaluation thérapeutique que pour la caractérisation tumorale lors du bilan initial.
Quantifier en TEP, c’est connaître la quantité de radiotraceur (concentration radioactive) fixée par différentes lésions ou organes.
Le problème de quantification en TEP concerne:
Pour obtenir une mesure exacte de la quantité de radioactivité présente dans une structure à partir d’une image, il faut contrôler toutes les étapes de la fabrication en tenant compte de tous les phénomènes physiques qui interviennent depuis l’émission du signal (annihilation d’un positon) jusqu’à la détection des coïncidences, et la reconstruction des images avec les corrections nécessaires pour ne pas perdre ou déformer les informations :
1-acquisition des données d’émission du patient (coïncidences enregistrées dans les sinogrammes)
2-soustraction des coïncidences aléatoires
3-correction des phénomènes d’atténuation par les mesures de transmission
4-estimation et correction des coïncidences diffusées
5-obtention d’une quantification relative de la fixation qui permet de comparer des fixations différentes au sein d’un même volume exploré.
Ces quantifications relatives ne permettent pas de comparer des données quantitatives pour un même patient dans le temps ou pour des individus différents. Pour cela, il faut obtenir une quantification absolue. Une calibration du TEP est obligatoire. Elle s’effectue à l’aide de mesure d’un fantôme cylindrique de concentration radioactive connue. Les données acquises par la caméra sont corrigées de tous les phénomènes physiques déjà énumérés. Une ROI placée au centre du cylindre permet d’obtenir une concentration radioactive (en nombre de coups/pixel) que l’on compare à la concentration connue du cylindre (en kBq/mL). Ce facteur d’étalonnage permet de convertir des coups/pixel en kBq/mL. Cette quantification absolue signifie que les concentrations mesurées par la machine TEP sont reliées par un étalonnage à une mesure de référence. Elle ne garantit pas la justesse de la mesure ni la correction parfaite de tous les problèmes physiques intervenant dans la mesure.
Il est plus intéressant en pratique clinique d’exprimer la quantification de la fixation tissulaire d’un radiotraceur sur chaque pixel de l’image par une valeur normalisée qui intègre l’activité injectée et la morphologie du patient que de représenter une concentration radioactive en unité absolue comme le kBq/mL. L’expression du standardized uptake value (SUV) correspond à une normalisation du rapport de la fixation du traceur par l’activité injectée diluée dans le volume du patient.
SUV = Fixation tissulaire(Bq/mL) / (Activité injectée(Bq) / Volume (mL))
avec :
En bref : une valeur de SUV égale à 1 signifie que la concentration radioactive mesurée est équivalente à la radioactivité injectée diluée dans le volume du patient au moment de la mesure. Une valeur de SUV de 5 dans une lésion est l’expression d’une fixation radioactive 5 fois plus concentrée que la dilution uniforme du radiotraceur.
Pour les tumeurs fixant le FDG, la captation cellulaire du FDG est le reflet de la prolifération des cellules tumorales et du nombre de cellules viables. Dans le suivi des patients, une thérapeutique efficace va altérer le métabolisme cellulaire et détruire les cellules tumorales. La possibilité de mesurer la valeur de SUV d’une lésion tumorale peut être intêressante dans plusieurs situations cliniques :
Comparer la fixation par rapport à une population de référence (pour préciser la nature tumorale ou non d’une lésion, pour disposer de facteur pronostique tumoral indépendant des facteurs pronostiques classiques …)
Evaluer la réponse thérapeutique dont l’efficacité devrait être corrélé à la diminution de la fixation. La quantification en SUV permettant de disposer de données quantifiées utiles dans des situations intermédiaires entre la réponse nulle et la réponse complète.
Pour que ces évaluations soient valides et reproductibles, il faut respecter des conditions standardisées de réalisation de l’examen. La préparation du patient et le protocole d’examen conditionnent la distribution du radiotraceur dans l’organisme et peuvent donc modifier les valeurs de SUV.
Il faut être en situation physiologique analogue pour garantir la reproductibilité de la méthode :
On sait que la glycémie est un facteur important qui influence directement la captation cellulaire du FDG. Quand la glycémie s’élève, la captation tissulaire du FDG diminue. Il ne s’agit pas que d’un effet compétitif entre le glucose froid et le FDG mais l’insuline joue un probablement rôle majeur dans la captation cellulaire du FDG. C’est pour ces raisons physiologiques que les examens se font après un jeune de 6 heures pour les patients non diabétiques et pour les patients insulino-dépendants, on diminue la dose d’insuline par un facteur 2.
Le métabolisme glucidique est différent dans les tissus adipeux et les autres tissus mous. Une variation de poids pourra se traduire par une variation de la captation de FDG amplifiée par le mode de calcul du SUV qui tient compte du poids du patient.
Il existe donc d’autres modes de normalisation des fixations tissulaires du FDG tenant compte:
De la surface du patient
SUVsurf= Fixation tissulaire(Bq/mL) / ((Activité injectée(Bq) / surface (m2))
La surface du patient est calculée empiriquement par des formules reliant le sexe, le poids et la taille des patients.
De la masse maigre du patient
SUVmaigre= Fixation tissulaire(Bq/mL) /((Activité injectée(Bq)/masse maigre (kg))
La masse maigre d’une femme (kg) = 1,07 Poids (kg) – 148 (Poids(kg)/Taille(cm))2
La masse maigre d’un homme (kg) = 1,10 Poids (kg) – 120 (Poids(kg/Taille(cm))2
Ces normalisations de la fixation donnent des SUV indépendants des variations de poids.
Le SUV correspond à un paramètre de dilution du FDG dans le volume de l’organisme. Il est possible de calculer un indice correspondant à une densité de récepteurs cellulaires de glucose par une approche compartimentale avec une détermination des taux d’échange entre les différents compartiments. Les compartiments correspondent, soit à une étape du métabolisme du traceur, soit à une étape de la fixation du traceur. La cinétique d’échange du traceur entre les différents compartiments est d écrite par des équations différentielles du premier ordre avec des taux d’échange constants qu’il faut préciser. Pour résoudre les équations différentielles par la méthode des pentes (Patlak 1983 et 1985) il faut connaître les taux d’échange et obtenir des données concrètes de variations, dans le temps, des concentrations du radiotraceur dans le plasma artériel. Il faut donc obtenir des prélèvements artériels et réaliser des acquisitions dynamiques qui représentent des contraintes incompatibles avec des examens cliniques en routine.
Les TEP sont très différents dans leur conception, le choix des cristaux scintillateurs, la configuration des détecteurs et de l’électronique, les techniques de correction et même dans les algorithmes utilisés pour la reconstruction des images. Il faut donc disposer de procédures standardisées de tests et de contrôle de qualité. Les procédures NEMA 1994 réactualisées en 2000 sont maintenant généralisées et leur utilisation admise pour comparer les performances de différents systèmes. Pour plus de concision, seules les procédures NEMA 2000 seront abordées dans ce travail.
Il faut distinguer les tests d’évaluation des performances avant la reconstruction qui sont caractéristiques du détecteur et les mesures sur l’image reconstruite qui permettent d’évaluer l’exactitude des procédures de reconstruction et de quantification. Compte tenu de la diversité des méthodes et des algorithmes utilisés par les constructeurs, il est souvent délicat de comparer les différents systèmes disponibles.
Les performances principales des détecteurs concernent la résolution spatiale et les taux de comptage.
La résolution spatiale correspond à la capacité de détecter deux sources voisines. Plusieurs facteurs influencent ce paramètre :
Pour les machines TEP humaines les deux premières composantes sont peu importantes par rapport aux autres paramètres. Pour les machines animales, il faut diminuer le diamètre de l’anneau et surtout réduire de façon très important la taille des détecteurs élémentaires pour s’approcher au plus prés des résolutions intrinsèques du mode de désintégration du positon. Des résolutions spatiales de l’ordre de 2 mm sont maintenant obtenues dans des machines dédiées au petit animal.
D’un point de vue pratique la résolution spatiale est obtenue au moyen d’une source linéaire ou ponctuelle dans l’air (NEMA 1994,1999) ou dans un milieu diffusant (Figure 2-15).
Figure 2-15 : La résolution spatiale
Elle est définie comme la largeur à mi-hauteur du profil d’activité (FWHM) et la largeur au dixième de la hauteur (FWTM) renseigne sur la queue des distributions. Il faut réaliser ces tests dans les conditions les plus fines du système et en plaçant la source dans différentes positions dans le champ de vue. Quand ce paramètre est estimé après reconstruction il faut préciser le mode de reconstruction et le filtre utilisés.
Les valeurs des résolutions dépendent de la taille des cristaux, de leur épaisseur, de la génération et de la conception du tomographe ainsi que de l’émetteur de positon testé. Pour le 18F, la résolution spatiale peut varier de 5 à 8 mm sans filtre et de 7 à 10 mm sur les données filtrées en situation clinique de routine.
Le taux de comptage est l’élément essentiel de la performance des TEP. Les images sont obtenues par reconstruction des projections mesurées qui sont rangées dans le sinogramme. Une faible fraction des coïncidences produites est enregistrée et une fraction des événements enregistrés correspond à des coïncidences vraies. Chaque valeur du sinogramme correspond au nombre de coïncidences mesurées pendant le temps d’acquisition. Le bruit propre à chaque mesure élémentaire est déterminé par la loi de Poisson. Les fluctuations statistiques sont inversement proportionnelles à la densité des événements mesurés.
Le taux de comptage qui caractérise une machine TEP est représenté par le rapport entre le nombre de coïncidences vraies détectées (signal) et le nombre de coïncidences aléatoires et diffusées (bruit). Le NEC (noise equivalent count) est le rapport entre le signal utile et le bruit. Il donne une idée du taux de comptage du système après élimination des coïncidences diffusées et aléatoires, mais ne tient pas compte des amplifications du bruit lors de l’étape de la reconstruction des projections. Le NEC correspond à une courbe qui est fonction de l’activité de la source. Le maximun de la courbe NEC correspond à la situation où le rapport signal/bruit est le plus favorable et devrait se situer dans la plage des activités utilisées en pratique clinique.
Les performances en taux de comptages sont le résultat de la conception de l’appareil et de son mode de mesure. La machine idéale est constituée d’un cristal scintillateur dense, rapide avec une bonne résolution en énergie pour permettre d’optimiser la sensibilité de détection tout en limitant les phénomènes physiques qui interviennent dans la mesure d’événements aléatoires ou diffusés parasites. Le mode d’acquisition 2D ou 3D joue sur la sensibilité du système. Le mode 3D augmente la sensibilité de détection mais avec un accroissement du nombre des coïncidences parasites. La situation des sources radioactives influence les performances des détecteurs : en 3D, les sources extérieures au champ de vue des détecteurs sont responsables de coïncidences diffusées et aléatoires.
En bref, les performances en taux de comptage d’un système est un critère global qui prend en compte la conception générale du détecteur, de son électronique et des mesures mises en place pour éliminer les coïncidences aléatoires et diffusés parasites.
Les mesures sont réalisées à l’aide de 2 fantômes permettant d’étudier le compartiment des machines pour le cerveau et pour le corps-entier.
Il faut calculer :
Le fantôme est rempli avec une concentration radioactive permettant initialement de saturer les détecteurs. Des acquisitions sont réalisées de façon régulière dans le temps pendant 4 à 5 périodes radioactives pour mesurer les performances de la machine avec des gammes étendues de radioactivité. La durée de chaque acquisition est inférieure au 1/4 de la période de l’isotope et les acquisitions sont réalisées jusqu’à ce que le nombre d’aléatoires représente moins de 1% des coïncidences vraies et que les pertes des taux de comptage par temps mort soient inférieures 1%. A chaque acquisition, on mesure le taux de coïncidences vraies, aléatoires et diffusées et le rapport entre le signal et le bruit parasite est estimé par le calcul du NEC.
En pratique, le test est réalisé avec du 18F dont l’activité est telle que le taux de comptage des aléatoires et les pertes de comptage dûs au temps mort est inférieure à 5%. Une ligne source de 3,2 ± 0,2 mm de diamètre interne est remplie d’une quantité connue de 18F est placée à 45 mm dans la verticale inférieure du centre du fantôme.
Traitement des données :
Figure 2-16 : Calcul des diffusés
Tous les sinogrammes sont générés sans correction pour chaque acquisition j de la coupe i. Les sinogrammes contiennent toutes les informations concernant les coïncidences vraies, aléatoires et diffusées. Pour chaque sinogramme la ligne source correspond au pixel ayant la plus grande valeur. La projection est arrangée par déplacement pour que le pixel le plus chaud soit situé au centre de la ligne du sinogramme. Après l’alignement, on somme les projections c’est à dire qu’un pixel dans la projection somme représente la somme des pixels de chaque projection angulaire.
Les dernières acquisitions j’ possèdent un taux d’événements aléatoire et de perte < 1% et sont donc utilisées pour le calcul de la fraction de diffusés.
On considère que, au niveau des pixels Cij’ dt et Cij’ gche , il n’existe que des événements diffusés et que CTot, i,j’ représente toutes les coïncidences vraies et diffusées (Figure 2-16).
La fraction de diffusé SFi pour chaque coupe est calculée en sommant toutes les acquisitions de faible activité :
SFi = Σj’ Cij’ dt + gche /Σj’ Cij’ Tot
La fraction des diffusés est donc la moyenne des valeurs de SFi.
Pour chaque acquisition j le taux de comptage global RTot,i,j des événements vrais est donné dans chaque coupe i par : RTot,i,j = CTot,i,j / Tacq,j
Puis on somme toutes les coupes i de l’acquisition j
Pour chaque acquisition j le taux de comptage des événements vrais Rv,i,jest donné dans chaque coupe i par :
Rv,i,j = (CTot,i,j -C dt+gche,i,j ) / Tacq,j
Puis on somme toutes les coupes i de l’acquisition j
Pour chaque coupe i le taux de comptage des événements aléatoires Ra,i,jest donné par :
Ra,i,j = RTot,i,j –(Rv,i,j / (1-SFi))
Puis on somme toutes les coupes i de l’acquisition j
Pour chaque coupe i le taux de comptage Rd,i,j des événements diffusés est donné par :
Rd,i,j = Rv,i,j (SFi / (1-SFi))
Puis on somme toutes les coupes i de l’acquisition j
Pour les systèmes qui ne réalisent pas de mesure directe de soustraction des aléatoires : pour chaque acquisition j, le taux de comptage RNEC,i,jpour chaque coupe i est donné par :
RNEC,i,j = (Rv,i,j )2 / RTot,i,j
Pour les systèmes qui réalisent une mesure directe de soustraction des aléatoires : pour chaque acquisition j, le taux de comptage RNEC,i,jpour chaque coupe i est donné par :
RNEC,i,j = (Rv,i,j )2 / (RTot,i,j+ Ra,i,j )
L’évolution de nombre total de coïncidences mesurées met en évidence l’écart entre les événements mesurés et la relation linéaire extrapolée à partir des concentrations faibles. L’écart, de plus en plus important lorsque la concentration radioactive s’accroît, s’explique par la saturation des détecteurs. En effet, la détection de deux coïncidences pendant la fenêtre temporelle d’intégration entraîne un phénomène d’empilement des deux photons de 511 keV donnant une intégration de 1022 keV (511 keV + 511 keV) qui sera rejetée par le système d’analyse de l’énergie. Pour des activités importantes et pour des champs de vue importants, le phénomène d’empilement devient majoritaire (typique sur les cristaux de NaI de grande surface) et la chute des taux de comptage entraîne une diminution globale des performances du système. La saturation du système dépend de plusieurs facteurs :
La courbe NEC est obtenue en combinant les taux de comptages des différentes coïncidences. La courbe NEC passe par un maximum pour lequel le rapport signal/bruit est optimum et qui devrait correspondre aux conditions d’acquisitions pratiques en clinique (Figure 2-17). La concentration radioactive du NEC devrait permettre de déterminer l’activité à injecter aux patients pour utiliser au mieux, les performances de tomographe, en tenant comte du délai d’attente entre l’injection et le passage sous la caméra.
Figure 2-17 : Courbes des taux de comptage.
En pratique, pour préciser les performances d’un système et pour toutes les concentrations radioactives moyennes, il faut tracer la courbe des :
RTot,i,j , Rv,i,j, Ra,i,j , Rd,i,j et RNEC,i,j
On déduit des courbes tracées, les valeurs maximales des :
L’analyse des différentes courbes de taux de comptage et des courbes NEC permet de comparer différents tomographes. La courbe NEC, qui intègre la combinaison des différents comptages des coïncidences vraies et parasites, est probablement l’index le plus performant pour juger les performances techniques intrinsèques des machines (Figure 2-18).
Figure 2-18 : Comparaisons des courbes NEC (NEMA 1994 avec un fantôme de 20 cm) de 3 tomographes équipés de cristaux de NaI.
La Vertex® et la Varicam® sont des gamma caméras grands champs double têtes équipées de détection de coïncidences (TEDC) et la CPET est un TEP dédié composé de 6 cristaux « grand-champ » répartis en anneau (de Dreuille 1999). Les maximums des courbes NEC des TEDC sont comparables mais il existe une augmentation d’un facteur 10 du maximum de la courbe NEC entre les TEDC et le TEP dédié CPET. Les performances limitées des caméras TEDC s’expliquent par l’utilisation de cristaux de NaI de 19 mm d’épaisseur et d’un angle solide de détection assez réduit en comparaison de la CPET. En raison de leurs grandes surfaces de détection, les phénomènes de saturation se produisent pour des concentrations faibles pour les détecteurs-plans de NaI par rapport aux autres types de conception de caméras.
Les TEP conçus à partir de détecteurs blocs sont moins sensibles aux phénomènes d’empilements que les TEP avec des détecteurs plans. Les cristaux modernes plus rapides autorisent une durée d’intégration plus courte et donc des fenêtres de coïncidences plus courtes permettant d’augmenter les taux de comptages et donc de fonctionner avec des gammes de concentrations radioactives plus élevées.
La sensibilité exprime la capacité de l’appareil à détecter les photons. Sa détermination en kcps/MBq/mL peut être réalisée avec ou sans correction des coïncidences diffusées mais toujours dans des conditions de faibles taux de comptage pour éviter les phénomènes de saturation des détecteurs et les coïncidences aléatoires. La procédure effectue une mesure de sensibilité absolue. Les positons émis s’annihilent en rencontrant des électrons de la matière. Il faut donc entourer la source de matière pour avoir des annihilations et cette matière est responsable de phénomènes d’atténuations des photons de coïncidences dont il faudra tenir compte.
La mesure : Elle s ‘effectue avec une ligne source de 700 + 5 mm en plastique remplie de 18F dont l’activité est telle, que le taux de coïncidences aléatoires n’excède pas 5 % et que les pertes de comptages soient inférieures à 1 %. Cette activité parfaitement connue est notée Acal et l’heure de la mesure Tcal. Il faut utiliser une série de 5 manchons en métal d’épaisseurs connues (de 3,9 mm à 16,6 mm en diamètre interne et de 6,4 à 19,1 mm de diamètre externe). Plusieurs séries d’acquisition sont réalisées avec la ligne source au centre du fantôme (non rempli d’eau) ou avec un décalage de 10 cm. A chaque acquisition, on interpose un tube de métal supplémentaire. La durée de chaque acquisition est déterminée pour obtenir une statistique de comptage supérieure à 100 000 coïncidences vraies /coupe.
Traitement des données : il faut disposer
Rcor,j,l = Rj,i 2(Tj - Tcal)/T1/2
Rcor,j = Rcorr,O exp(- µM 2Xj)
Avec les inconnues : Rcorr,O et µM
Xj = épaisseur cumulée
Rcorr,O = taux de comptage sans atténuation
µM = la valeur de l’atténuation dans le métal métal
La sensibilité du système est donnée par la formule:
STot = Rcorr,O / Acal
Le profil axial de sensibilité est obtenu avec le plus petit tube de métal et la ligne source au centre du fantôme pour chaque coupe i :
Si = (Rcorr,l,i / Rcorr,l) STot
Objectif : vérifier l’exactitude des corrections en particulier pour les forts taux de comptages rencontrés en clinique.
Mesure : les données acquises pour les différents taux de comptage sont utilisées pour la mesure des erreurs après application des méthodes de correction. La comparaison se fait entre le taux des événements vrais corrigés et celui attendu et extrapolé à partir des acquisitions à faible taux de comptage (considérant comme négligeables, les pertes de temps mort et les coïncidences < 1%). On travaille sur une ROI circulaire de 180 mm centrée sur la ligne source et tracée sur chaque coupe de l’image.
Traitement des données :
On connaît le nombre d’événements vrais plus diffusés : Rv+d,i,j
Rv+d,i,j = Cv+d,i,j / Tacq,j
Pour chaque coupe i , de chaque acquisition j, on calcule le rapport Rext,i,j que l’on devrait mesurer si, il n’y avait pas de saturation du détecteur pour les 3 acquisitions k1, K2 et K3 réalisées avec les plus faibles activités:
Rext,i,j = (Aave,j /3) 3Σk=1(Rv+d,i,j/Aave,k)
Pour chaque coupe i , de chaque acquisition j, le pourcentage de perte PDTi,j due à la saturation du détecteur est:
PDTi,j = 100- 100 (Rv+d,i,j/Rext,i,j)
Pour chaque coupe i , on fait une interpolation linéaire pour déterminer la concentration d’activité qui donne une perte de 50%
Pour le système, toutes les coupes i , de chaque acquisition j, sont sommées :
PDTsys,j = 100- 100 (Rv+d,sys,j/Rext,sysj)
L’erreur relative du taux de comptage (Δri,j) est la différence entre le taux de comptage attendu et celui mesuré. On l’exprime en pourcentage
Δri,j = 100 (RROI,i,j/RExt,i,j)
Objectif : Pouvoir comparer la qualité d’image de différents systèmes dans des situations standardisées simulant les conditions cliniques avec un fantôme contenant des sphères froides et chaudes. Le contraste de l’image, le rapport signal/bruit des sphères chaudes et froides sont utilisés pour mesurer la qualité de l’image. On peut même déterminer l’exactitude des corrections d’atténuation et de diffusion.
Acquisition: la concentration du bruit de fond du fantôme doit être de 5,3 kBq/mL ± 5% calibrée pour le début de l’acquisition. Cette concentration de 370 MBq/ 70 000 mL (soit 10 mCi pour 70 Kg) correspond à une activité standard injectée en clinique.
Le fantôme (Figure 2-19) est constitué de 4 parties :
Mesure :
Traitement des données :
les coupes sont reconstruites en utilisant toutes les corrections accessibles en clinique et les paramètres de traitement des données standardisés et correspondant à ceux de la routine clinique (même taille de matrice, même taille de pixel, même épaisseur de coupe, même filtrage, même reconstruction…)
On utilise une coupe transverse centrée sur les sphères chaudes et froides.
Figure 2-19 : Fantôme de boules
Plusieurs ROI sont tracées :
6 ROI circulaires dont les diamètres sont les plus proches possibles, des diamètres des sphères à étudier, sont placées sur les 6 sphères.
Le contraste QH,j des sphères chaudes j est calculé de la façon suivante:
QH,j= 100 (CH,j /CB,j –1) / ((aH /aB ) –1)
Avec
CH,j : nombre de coups moyens dans la ROI pour la sphère j
CB,j : nombre de coups moyens dans la ROI de bruit de fond pour la sphère j
aH j : concentration d’activité dans les sphères chaudes
aB j : concentration d’activité dans le bruit de fond
Le contraste QC,j des sphères froides j est calculé de la façon suivante:
QC,j= 100 (1- (CC,j /CB,j))
Avec
CC,j: nombre de coups moyens dans la ROI pour la sphère j
CB,j : nombre de coups moyens dans la ROI de bruit de fond pour la sphère j
La variabilité du bruit de fond pour une sphère j est calculé de la façon suivante:
Nj= 100 (SDj /CB,j)
Avec
SD,j: déviation standard du nombre de coups dans la ROI du bruit de fond pour la sphère j calculé par la formule : SD,j= ( KΣk=1(CB,K,j- CB,j)2 / (K-1))1/2
et k = 60
La notion de l’hyperconsommation de glucose par les cellules tumorales en particulier par l’accélération de la glycolyse avec production accrue de lactates au détriment de la voie des pentoses est une notion ancienne (Warburg 1956) mais fondamentale pour expliquer l’impact de l’imagerie TEP au FDG. Le FDG est un analogue du 2-désoxy-glucose qui pénètre dans les cellules par diffusion facilitée comme le glucose. Dans la cellule, il est phosphorylé en fluoro-2-DG-6-phosphate par l’hexokinase. Sous cette forme, il n’est pas métabolisé, ni déphosphorylé et il s’accumule dans la cellule. C’est ce mécanisme amplifié dans les cellules tumorales.
Les altérations du métabolisme glucidique ne sont pas liées à l’hypoxie mais à la modification tumorale du métabolisme glucidique et de ses intrications multiples avec les autres métabolismes. Il s’agit d’une dysrégulation correspondant à l’exagération d’adaptations transitoires et contrôlées de la prolifération cellulaire normale. Il faut un échappement aux mécanismes de régulation par rétrocontrôle pour aboutir à la permanence de réactions métaboliques normalement transitoires et déclenchées par des facteurs de croissances cellulaires. Pour résumer, il y a dans les cellules tumorales une inhibition de la voie oxydative:
Le transport facilité du glucose dans la cellule tumorale est assuré par le transporteur GLUT1. Il existe parallèlement une augmentation du transport du glucose dans la cellule tumorale par plusieurs mécanismes :
L’augmentation du métabolisme glucidique par les tumeurs peut provenir de différents phénomènes (Vuillez 1998):
L’augmentation du transport du glucose est sous la dépendance de l’expression du gène de GLUT1 qui s’intègre dans la cascade des événements conduisant à la division cellulaire.
L’augmentation de la glycolyse résultant de la dysrégulation de la phosphorylation d’enzymes, elle est donc plus liée au contrôle de la glycolyse qu’à sa capacité métabolique en relation étroite et dépendante des autres métabolismes.
Pour résumer : Les modifications du transport du glucose reflètent plus le niveau de prolifération cellulaire que les modifications enzymatiques et métaboliques.
La fixation du FDG n’est pas spécifique des cellules tumorales. La variabilité relative des modifications du transport et du métabolisme glucidique va dépendre des modèles ou des tumeurs étudiées. L’augmentation du métabolisme glucidique et/ou du nombre de transporteurs peut être évalué par scintigraphie au FDG . La fixation de FDG par les tumeur pourrait refléter plus ou moins le niveau de :
Il faudra se souvenir que la scintigraphie au FDG dont l’intérêt en oncologie n’est plus à démontrer, n’explore que certains aspects du métabolisme cellulaire et l‘importance de l ‘accumulation intracellulaire de FDG étant plurifactorielle, elle ne pourra pas être toujours expliquée de façon simple et univoque.
Les indications générales en cancérologie ont été récemment bien documentées (Gambhir 2001) et peuvent être résumées en plusieurs catégories :
Le FDG possède en France depuis 1998 une AMM réactualisée en 2001, 2002 et 2004. Les indications s’appuient sur « les données bibliographiques et le contexte clinique amenant à la décision pluridisciplinaire d’utilisation ». Les indications plus particulièrement documentées concernent le poumon, les voies aéro-digestives supérieure (VADS), les récidives des cancers colo-rectaux, le lymphome et le mélanome malin cutané, et plus précisément :
Les indications de l’AMM ont été reprises et l’analyse des résultats a été précisé dans les Standards Options et Recommandation (SOR) publié en février 2002 avec une mise à jour en novembre 2003 (Bourguet 2003).
En dehors de ces indications, l’utilisation du FDG est possible dans des projets de recherche validés par les délégations de recherche clinique dans le cadre de la loi Huriet ou en fonction de données publiées dans la littérature.
TRACEUR TEP | Cible du marquage | Application |
[11C] méthionine | Transport cellulaire des acides aminés | Imagerie tumorale(cérébrale) |
[18F] FET | Transport cellulaire des acides aminés | Imagerie tumorale (cérébrale) Différenciation inflammation et tumeur |
[11C] choline [18F] choline |
Synthèse des lipides (membranaires) | Imagerie tumorale (prostate et vessie) |
[11C] acétate | Métabolisme lipidique | Imagerie tumorale (prostate) |
[18F] FLT | Prolifération - Apoptose | Imagerie tumorale, stadification, suivi thérapeutique |
[11C] Thymidine | Catabolisme de la thymidine | Demi-vie du 11C rend inutilisable en pratique courante |
[24I] annexine V | Apoptose | Suivi thérapeutique |
[18F]FDOPA | Stockage des amines Transport des acides aminés |
Imagerie des tumeurs neuroendocrines. Tumeur cérébrale |
[18F]FP-GlucTOCA | Récepteur de la somatostatine | Imagerie des tumeurs neuroendocrines |
[86Y] DOTATOC | Récepteur de la somatostatine | Traitement des tumeurs neuroendocrines |
[18F] FMISO | Oxydoréduction cellulaire | Imagerie de l’hypoxie tumorale |
[18F] FAZA | Oxydoréduction cellulaire | Imagerie de l’hypoxie tumorale |
[60Cu] ATSM | Oxydoréduction cellulaire | Imagerie de l’hypoxie tumorale |
[18F] FETNIM | Oxydoréduction cellulaire | Imagerie de l’hypoxie tumorale |
[18F] RGD | Adhésion cellulaire | Imagerie de la néoangiogenèse |
L’augmentation du métabolisme tumoral concerne (a) le métabolisme glucidique (étudié par le [1 8F] FDG) mais aussi (b) le métabolisme des acides aminés. La [11C] méthionine et la [18F] FET (fluoro-ethyl-tyrosine) sont capables de se fixer sur les tumeurs. La captation cellulaire de la [11C] méthionine et de la [18F] FET est le reflet du transport des acides aminés par l’intermédiaire des systèmes de transport spécifiques (A ou L). Après leur pénétration cellulaire, la [11C] méthionine et la [18F] FETne peuvent plus être métabolisés ni incorporés dans la synthèse protéique. Ces traceurs peuvent permettre de localiser des tumeurs en complément du FDG, dans des régions de forte consommation physiologique de glucose (comme dans le cerveau). Par contre, leur utilisation est inutile dans le tube digestif en raison de leur forte concentration physiologique. La [11C] MET pourrait permettre de mieux différencier l’infiltration tumorale de l’inflammation sur des modèles expérimentaux (Rau 2002). La réponse thérapeutique est mal estimée par les méthodes conventionnelles morphologiques qui ne permettent pas de prédire la chimiosensibilité comme l’imagerie fonctionnelle au FDG. La TEP au FDG a été étudiée pour prédire précocement la chimiosensibilité de différents cancers (colo-rectaux, pulmonaires, de l’œsophage et les lymphomes). La diminution de la fixation tumorale précoce après chimiothérapie permet de discriminer les bons et les mauvais répondeurs. Les donnés plus parcellaires pour juger de l’intérêt potentiel des traceurs du métabolisme des acides aminés dans la réponse thérapeutique. L’imagerie à la [11C] MET permettrait de différencier dans les cancers de la tête et du cou les bon répondeurs à la radiothérapie (Nuutinen 1999).
La [11C] choline devrait être intéressante pour certaines tumeurs de l’arbre urinaire comme les cancers de la prostate et de la vessie. L’imagerie TEP à la [11C]choline permet de localiser la tumeur primitive et l’envahissement ganglionnaire dans le bilan initial comme dans le suspicions de récidives avec élévation des PSA (de Jong 2003).
La [11C] Thymidine ne peut pas être utilisée en pratique courante compte tenue de son catabolisme important et de sa demi-vie trop courte. La [18F] Fluoro-3’- déoxythymidine (FLT) pénètre dans les cellules, puis la [18F] FLT est phosphorylée par la thymidine kinase (TK-1) et s’accumule dans dans la cellule sous cette forme. La [18F] FLT serait un traceur indirect de la prolifération cellulaire dans les cancers du poumon (Buck 2003) et les lymphomes (Wagner 2003). Mais ces traceurs seraient moins performants que le [18F] FDG pour la stadification tumorale.
La prolifération tumorale est étroitement liée aux phénomènes d’apoptose. De nombreuses stratégies thérapeutiques (chimiothérapie ou radiothérapie) exercent une partie de leurs effets en induisant des phénomènes d’apoptose. L’apoptose peut se caractériser par l’extériorisation de phosphatidylsérine du feuillet interne vers le feuillet externe de la membrane cellulaire dans les 90-120 min qui suivent l’initialisation du processus d’apoptose. L’annexine V est une protéine d’origine humaine qui présente une affinité très importante pour les membrannes cellulaires qui exprime le motif phosphatidylsérine. L’annexine V recombinante marquée au [99mTc] a été utilisée pour détecter l’apoptose induite par la chimiothérapie dans des modèles animaux (Blankenberg 2001). Il est possible de marquer l’annexine V par 124I ou 18F pour bénéficier des avantages de l’imagerie TEP en terme de résolution et de quantification. La prédictibilité de la chimiosensibilité après la première cure de chimiothérapie a été testée dans une série de 15 patient porteurs de tumeurs variées avec des résultats intéressants à l’aide de l’imagerie par [99mTc] annexine V (Belhocine 2002).
L’identification de molécules spécifique sur la surface de cellules tumorales permet leur détection par utilisation de ligands spécifiques. L’antigène CD20 est une phosphoprotéine exprimée à la surface des lymphocytes B matures et des lymphomes B à grandes cellules. Des anticorps anti CD20 (Rituximab) sont utilisés depuis 1997 avec succès dans lee traitement des lymphomes malins non hodgkiniens qui expriment le CD20. L’effet de l’anti-CD20 peut être majoré en couplant un émetteur β comme l’ 131I ou 90Y (Zévalin) et a été utilisé avec un certain succès dans les lymphomes réfractaires au rituximab.
Certaines tumeurs d’origine neuro-endocrine expriment des récepteurs membranaires à la somatostatine. Des analogues à la somatostatine (octréotide) peuvent être marqués par des émetteurs monophotoniques comme l’ 111In pour l’imagerie tumorale (Octreoscan) ou pour des éssais de thérapie avec des émetteurs β. En TEP, il est possible de marquer avec du 18F un analogue de la somatostatine qui se lie avec les sous-types SST2 des récepteurs à la somatostatine. Le [18F] FP-Gluc-TOCA ([18F] fluoropropionyl-Lys-Tyr-octréotate) permet la détection spécifiques de tumeurs exprimant le récepteur SST2 avec l’amélioration de la sensibilité et de la résolution par rapport à l’imagerie monophotonique.
La croissance et la viabilité tumorale sont sous la dépendances de facteurs environnementaux qui induisent et favorisent la formation de vaisseaux. La formation de néoangiogenèse entraîne l’apparition de marqueurs cellulaires spécifique sur la surface membranaire des cellules endothéliales néoformées. L’intégrine αvβ3 joue un rôle important dans la néoangiogenèse en favorisant l’adhérence des néocellules endothéliales sur la matrice extracellulaire. Des anticorps ou des peptides dirigés contre l’intégrine αvβ3 en permettant son inhibition, provoquent une diminution majeure de la néoangiogenèse péritumorale entraînant une régression de la tumeur.
Le [18F] RGD est un peptide contenant une séquence arginine-glycine-aspartate qui permet de visualiser l’intégrine α vβ3 exprimée par les néovaisseaux (Haubner 2001). L’imagerie morphologique conventionnelle est limitée pour juger de l’effet de thérapeutiques antiangiogéniques. En effet, ce type de thérapie provoque des effets de type cytostatique plutôt que cytotoxique. Les effets de type cytostatiques sont mal évalués par les techniques morphologiques qui détectent des diminutions du volume de la tumeur et non des variations fonctionnelles. L’imagerie fonctionnelle a un rôle important à jouer à côté de l’imagerie morphologique en permettant de visualiser l’effet cytostatique d’une nouvelle thérapeutique sur une tumeur de volume stable.
Enfin parmi les facteurs environnementaux influençant la réponse thérapeutique, il faut souligner l’importance de l’hypoxie. Dans des conditions d’hypoxie, les cellules tumorales sont plus résistantes aux radiations ionisantes. Il peut être intéressant de définir l’hétérogénéité de l’hypoxie du tissu tumoral, avant la détermination du volume cible à irradier. Plusieurs marqueurs sont utilisables in vivo pour étudier l’hypoxie tumorale :
Ces traceurs s’accumulent dans les cellules par mécanisme de réduction intracellulaire dans des conditions d’hypoxie. La détermination de régions hypoxiques au sein des tumeurs peut avoir une utilité dans la détermination des volumes cibles et comme facteur pronostique. La survie et la réponse au traitement de radiothérapie est inversement corrélée à la fixation des traceurs d’hypoxie (Sorger 2003). La mise en évidence de région hypoxiques pourrait justifier (a) des mesures pour augmenter l’oxygénation tumorale (oxygénothérapie hyperbarre, erythropïétine, transfusion sanguine) avant la radiothérapie ou (b) modifier la détermination des volumes cibles en augmentant les doses à délivrer sur les régions tumorales hypoxiques, détermineés en TEP/TDM
La fixation du gallium par les tumeurs est connue depuis la fin des années 60, mais son mécanisme de fixation est encore en partie incompris. La fixation du gallium pourrait faire intervenir la transferrine plasmatique qui se lierait à la surface cellulaire par le récepteur de la transferine et dans la cellule la fixation du gallium se ferait en liaison avec la ferritine. Les tumeurs primitives comme les métastases fixent en général le gallium mais avec de taux de faux négatif supérieurs à 20%. Le gallium ne joue pas de rôle décisif dans le bilan d’extension initial ni dans la recherche de métastase. Il n’y a pas de relation entre l’intensité de la fixation et la nature histologique. La fixation diminuant après chimiothérapie, le gallium a été utilisé dans le suivi thérapeutique des lymphomes.
Le thallium est un analogue du potassium. La captation tumorale du thallium dépend de l’activité Na-K-ATPase cellulaire et reflète donc la viabilité et de l’activité métabolique de la cellule. Le thallium est capté de façon importante, par de nombreuses tumeurs, et il se fixe peu dans les lésions inflammatoires et nécrosées. C’est dons un marqueur de viabilité dont la fixation n’est pas modifiée par la chimiothérapie, les stéroïdes et la radiothérapie. Dans les tumeurs cérébrales il permettrait de différencier les gliomes de bas grades des gliomes de haut grades qui captent plus le thallium (Kim 1990). Les cellules gliales normales et les zones œdémateuses ou nécrotiques ne fixent pas le thallium, et il est utilisé pour différencier radionécrose de reprise évolutive après radiothérapie dans les tumeurs cérébrales. Les lymphomes de bas grades fixent plus le thallium que le gallium alors que c’est l’inverse pour les lymphomes de haut grade.
La captation cellulaire du MIBI est fonction des potentiels de la membrane cellulaire et mitochondriale et le MIBI est stocké dans les mitochondries. La captation tumorale impliquerait de forts potentiels membranaires induits par l’accélération métabolique cellulaire.A la différence du Thallium, le MIBI intracellulaire ne migre plus sauf si il existe un transporteur membranaire : la P-glycoprotéine et le MIBI pourrait être un marqueur indirect de la chimiorésistance.
La métaiodobenzylguanidine = MIBG
C’est un analogue chimique de la Norepinephrine. Elle est captée par les cellules du tissu sympathique medullaire et stockée par les granules intra-cytoplasmiques concentrant les catécholamines. La MIBG est utilisée pour tumeurs de la médullosurrénale (phéochromocytomes) mais aussi pour les neuroblastomes et les tumeurs neuroendocrines (apudomes).
L’utilisation d’anticorps monoclonaux permet de réaliser des immuno-scintigraphies. L’anticorps monoclonal doit être dirigé vers un antigène tumoral spécifique et présent de façon abondante (plusieurs milliers) sur la surface membranaire. La fixation tumorale de l’anticorps dépend de sa biodisponibilité, de sa rémanence vasculaire et de l’absence de fixation parasite (hépatique) de la perfusion tumorale et de l’affinité tumorale. La rapide disparition de l’activité sanguine est nécessaire pour pouvoir détecter les lésions tumorales et des techniques d’injection en plusieurs temps ont été développées ou bien en utilisant des anticorps bifonctionnels. Ils ont été utilisés dans les mélanomes (225-28S), le cancer colo-rectal (Oncoscint B72.3 et anti ACE), les cancers ovariens (HMFG, SM3, MOV18, OC125, Oncoscint), le cancer de la prostate (CYT356) et le lymphome (CD20, CD33).
Le premières images corps entier d’un radiotraceur émetteur de positon sont des images planaires obtenues à la fin des années 70, pour analyser la biodistribution et la dosimétrie de nouveaux radopharmaceutiques chez l’homme (Phelps 1978). Les premières tomographies n’apparaissent qu’au début des années 90 avec l’utilisation d’une fraction des projections puis l’ensemble des projections sur 180° (Dalhlbom 1992).
L’obtention des données en imagerie TEP est la conséquence de multiples étapes successives et la qualité du résultat final dépend de nombreux paramètres à optimiser pour améliorer les performances diagnostiques de l’examen. Le protocole d’examen en tomographie d’émission de positon est fonction du traceur utilisé, des qualités intrinsèques et des possibilités offertes par la machine. Tous les paramètres doivent être optimisés en fonction de l’examen demandé pour un patient donné, en vue de répondre à la question posée par le clinicien. Ces données vont être résumées dans la partie qui va suivre et ont été publiées récemment (Monteil 2004)
Des recommandations ont été publiées afin de standardiser et assurer une qualité d’examen qui commence par une bonne préparation du patient. Le patient doit être à jeun depuis plusieurs heures pour ne pas être en situation d’hyperglycémie et surtout d’hyperinsulinisme réactionnelle. La glycémie, contrôlée systématiquement par prélèvement capillaire, doit être comprise entre 4 et 7 mmol/L au moment de l’injection du FDG. Le patient doit être au repos avant et après l’injection du FDG pour diminuer les fixations musculaires. Pour diminuer les fixations physiologiques musculaires, il faut respecter un délai entre l’injection du radiotraceur et l’acquisition du FDG qui est au minimum de 45 minutes et qui en fonction des habitudes des équipes peut s ’allonger jusqu’à 90 minutes. Lorsque l’on désire faire de la quantification par SUV, il est fondamental de réaliser des examens selon les mêmes protocoles standardisés au sein de la même équipe.
Certaines équipes réalisent une prémédication avec des benzodiazépines à visée myorelaxante (Valium) ainsi qu’une relaxation des muscles digestifs à l’aide d’un antispasmolytique intestinal (Spasfon). Pour augmenter la diurèse et provoquer une chasse uretérale, il est possible d’injecter un diurétique (Furosemide) avant le passage sous la caméra. Le gain attendu par l’injection de diurétique pour éliminer les fixations artéfactuelles d’origine urinaire peut parfois être contrebalancé par l’impériosité mictionnelle, qui rend l’immobilité du patient incertaine pendant l’acquisition.
La grossesse reste une contre-indication de principe et l’allaitement une contre-indication temporaire pendant 24h (à la fois pour l ‘élimination du FDG et diminuer le temps de contact proche entre la mère et son enfant).
Le diabète équilibré ne contre-indique pas l’examen, mais il vaut mieux réaliser l’injection de FDG à distance de l’injection d’insuline, pour les diabètiques insulino-dépendants. Cela permet d’éviter les phénomènes de captation cellulaires physiologiques du glucose secondaires à l’élévation de l’insulinémie.
La principale indication de la TEP en clinique concerne l’oncologie, avec en particulier le bilan d’extension de la maladie au niveau local et général ce qui impose l’examen de l’ensemble du patient.
L’exploration axiale en TEP dédié est limitée par le nombre d’anneaux de détection qui autorisent une acquisition de l’ordre de 16 cm. Pour acquérir la totalité du corps, il est nécessaire de déplacer le patient dans le champ de vue par incréments successifs du lit du patient appelés « pas » (Figure 2-20) .
Le nombre « pas » est défini en fonctions de plusieurs paramètres :
Figure 2-20 : Déplacement du lit sur 2 positions adjacentes.
La correction de normalisation rétablit l’uniformité du profil de sensibilité en multipliant les projections par un facteur proportionnel à l’inverse de la sensibilité relative. Ce facteur de normalisation ne permet pas de contrôler la variance du bruit dans les lignes de réponse des bords de champ. Ce phénomène est en partie compensé par le chevauchement des champs de vue obtenu par un déplacement du pas inférieur au champ de vue axial. L’intervalle de recouvrement du lit permet de réduire les troncatures et donc d’améliorer l’uniformité du rapport signal/bruit dans le plan axial (Figure 2-21).
Figure 2-21: Protocole d‘acquisition avec recouvrement du lit et réduction des troncatures.
Un recouvrement de plus de 50% de position de lit permet de diminuer de façon importante le nombre de projections incomplètes en acquisition en mode 3D.
En TEP, le taux de comptage et donc la durée de l’acquisition influencent la qualité statistique des données. Les erreurs relatives des mesures sont inversement proportionnelles à la racine carrée du temps d’acquisition. Il faut déterminer des durées d’examen qui sont un compromis entre la durée acceptable pour le patient et la qualité d’image nécessaire pour répondre aux impératifs cliniques.
Pour le cerveau la contamination est peu importante car il est à distance des autres zones d’hyperfixation (cœur, reins et vessie). Pour le poumon, la situation est plus critique puisqu’il subit l’influence du cerveau et du foie et l’abdomen subit l’influence de la vessie des reins et du cœur. Les coïncidences fortuites générées par les sources hors du champ de vue sont assez bien corrigées par les mesures traditionnelles (ligne à retard…), sans oublier que le taux de coïncidences aléatoires peut atteindre 50% des événement des détectés.
Les diffusés sont corrigés de façon plus délicate par les méthodes analytiques et simulées du type de Monte-Carlo ou bien par les méthodes d’analyse spectrale par multi-fenêtrage.
En oncologie, les méthodes de reconstruction itératives sont maintenant devenues un standard en particulier les méthodes OSEM qui ont l’avantage de diminuer les artéfacts en étoiles des reconstructions par rétro-projection filtrée. Pour des acquisitions 3D, les reconstructions itératives 3D n’ont pas encore la diffusion que l’on attend des résultats théoriques obtenus sur fantôme. Il s’agit probablement d’un problème temporaire de développement et de disponibilité des algorithmes sur les différentes machines commercialisées. Pour l’instant, le standard correspond aux réarrangements des sinogrammes 3D par méthode de Fourier (FORE) auxquels on applique des reconstructions itératives 2D de type OSEM. En routine et pour des temps de reconstruction rapide, les algorithmes FORE-OSEM sont les plus répandus.
La correction d’atténuation est une nécessité en TEP, compte tenu du taux d’atténuation des photons qui peut dépasser 90 % sur les lignes de réponses les plus atténuées. Pour corriger de l’atténuation, il faut disposer de données de transmission pour établir une cartographie des coefficients d’atténuation propre au patient étudié. Les méthodes les plus anciennes utilisent des sources de positons (68Ge) ou des sources monophotoniques de forte énergie (137Cs). Ces méthodes robustes qui ont fait leur preuve sont maintenant remplacées par des sources de rayons x sur les appareils de dernière génération. En effet non seulement les sources de rayons x permettent d’obtenir les données d’atténuation propres au patient, en des temps d’acquisition de l’ordre de la minute, mais en plus, et ce n’est pas le moindre des avantages, les données de tomodensitométrie permettent de localiser avec une précision anatomique les anomalies de fixation détectées par le TEP.
Les protocoles d’acquisition en TEP doivent être adaptés aux indications cliniques qui demandent principalement des renseignements de deux types :
Ce deux types d’application imposent des stratégies d’optimisations différentes car il n’est pas évident qu’un protocole optimisé sur le plan de la détection soit le plus performant sur le plan de la quantification.
Il est intéressant de lister les problèmes qui influençent les performances de détection, avant de parler d’optimisation:
L’activité à injecter au patient
Il existe une grande variation des activités injectées qui dépendent des performances et de générations des machines mais aussi de la disponibilité du FDG, des habitudes et de l’expérience des équipes.
La cinétique du radiotraceur dans les tissus sains et anormaux
Pour déterminer le délai optimal entre l’injection et l’acquisition de manière à faire les acquisitions au moment du plateau de captation tumorale avec une bonne élimination des tissus sains.
Le choix du mode d’acquisition 2D et 3D
Le choix dépend des caractéristiques du TEP, de son cristal et de l’expérience acquise empiriquement par l’équipe. Pour certaines équipes et avec des machines de dernière génération, le choix ne se pose pas car, seul le mode d’acquisition 3D est disponible. Pour les machines qui peuvent fonctionner en mode 2D ou en 3D il n’y a pas de réponse toute faite.
Par exemple pour une personne de poids important et pour une machine équipée de cristaux de BGO qu’elle est la stratégie la plus judicieuse :
La durée de l’acquisition
Elle dépend du choix du mode d’acquisition, des caractéristiques physiques du système de détection en particulier des performances des taux de comptage.
La correction d’atténuation
La stratégie d’optimisation doit tenir compte des méthodes de correction disponibles sur les machines. Un seul industriel commercialise des machines avec une source de rayons x et une source radioactive pour l’acquisition les données de transmission. Les deux autres constructeurs ont choisi la correction d’atténuation unique par source de rayons x. Pour ne pas se faire piéger par les artéfacts de correction d’atténuation, et en particulier par l’apparition de foyers hyperfixants, artéfactuels créés artificiellement par sur-correction, il paraît raisonnable de regarder les images non corrigées de l’atténuation.
L’algorithme de reconstruction
Les algorithmes itératifs permettent de mieux contrôler la propagation du bruit et la diminution des artéfacts en étoile près des zones hyperfixantes. Mais il faut s’assurer que la texture du bruit généré ne gène pas la tâche de détection et d’interprétation.
Les images sont présentées sous formes de coupes dans les 3 axes : transverse, sagittal et frontal. L’épaisseur des coupes est adaptée aux performances du système en terme de résolution spatiale et donc à la taille des pixels d’acquisition. Les différentes coupes sont examinées avec et sans correction d’atténuation et présentées sous forme d’échelle linéaire de gris.
Pour les images normalisées et quantifiées en valeur de SUV : les valeurs de SUV de chaque pixel de chaque coupe sont exprimés en échelle de gris linéaire jusqu’à une valeur de SUV de 2,5 et pour des valeurs de SUV > 2,5, on utilise une échelle de couleur discrète avec une couleur différente correspondant à chaque unité de SUV supplémentaire (Figure 2-22).
Il est souvent utile de disposer les acquisitions sous forme de projection transparente par les méthodes de lancer de rayon ou MIP (maximum intensity projection) qui permet de représenter les pixels les plus chauds rencontrées sur chaque ligne de réponse reconstruite.
Habituellement, pour des acquisitions optimisées et pour des activités injectées satisfaisantes, il n’est pas utile de filtrer les données reconstruites par les méthodes itératives.
Figure 2-22: Représentation d’une échelle d’affichage linéaire de 1024 valeurs.
A : correspondance linéaire des coups exprimés dans chaque pixel par une valeur de gris ou de couleur.
B : Pour profiter de toute la largeur de l’échelle et lorsque l’amplitude des activités exprimées dans l’image est importante, il est utile de seuiller les valeurs à afficher :
En dessous d’une activité, tous les pixels sont représentés par un niveau de noir
Au-dessus d’une autre activité, tous les pixels sont représentés par le niveau de blanc.
C : Pour les images normalisées et quantifiées en valeur de SUV : les valeurs de SUV de chaque pixel sont exprimées en échelle de gris linéaire jusqu’à une valeur de SUV de 2,5 et pour des valeurs de SUV > 2,5, on utilise une échelle de couleur discrète avec une couleur différente pour chaque unité de SUV.
La localisation anatomique des anomalies détectées en TEP est d’une importance cruciale, dans la prise en charge des patients en oncologie et en particulier, lorsqu’il est envisagé une intervention chirurgicale ou une radiothérapie centrée. Sur les images TEP corrigées de l’atténuation par des sources externes radioactives, la localisation anatomique était insuffisante pour programmer les gestes thérapeutiques interventionnels nécessitant des repérages minutieux, habituellement obtenus sur des modalités résolutives (TDM ou IRM). La complémentarité des images anatomiques et fonctionnelles explique le développement des techniques de superposition d’images et la généralisation des machines hybrides TEP/TDM qui permettent d’obtenir des images fusionnées des deux modalités.
Pour obtenir des images exploitables, il faut être capable de mettre en correspondance des images recalées obtenues dans les deux modalités. De nombreux travaux s’intéressent à cette partie de l’imagerie médicale en plein essor actuellement.
La première approche est basée sur des techniques de recalage d’image obtenues des machines indépendantes. Il faut transférer sur une station de travail commune, les données mesurées sur les deux machines. Le transfert nécessite l’utilisation d’images codées dans un même format qui est en général DICOM. Pour réaliser le transfert, il existe deux possibilités :
Les images transférées doivent être mises au même format de matrice et d’épaisseur de coupe. En pratique, l’imagerie anatomique (TDM ou IRM) la plus résolutive est acquise avec les matrices les plus grandes (5122 ou 10242). L’imagerie la moins résolutive (TEP) qui est acquise avec des matrices plus petites (1282 ou 2562) est transformée en matrice équivalente par simple transformation des pixels.
Ce sont les algorithmes de recalage les plus utilisés. Pour le recalage de structures rigides et non déformantes comme le cerveau, ces algorithmes donnent de bon résultat en terme de recalage. Par contre pour le thorax et l’abdomen, les résultats sont plus limités. Les mouvements respiratoires et les mouvements du patient, le remplissage d’organe (comme la vessie) font que les images de structures identiques dans les deux modalités sont difficilement mises en correspondance. Il faut utiliser des algorithmes de déformation non rigide dite élastique qui sont plus complexes à mettre en place. On peut limiter les défauts de mise en correspondance en prenant des précautions lors des acquisitions des deux modalités (en limitant les différences de positionnement du patient par l’utilisation de cales identiques, en demandant une respiration moyennée au lieu d’une inspiration forcée…)
Les algorithmes de triangulation
En mettant en concordance un minimum de 3 points dans les deux jeux de coupes des deux modalités, il est facile de déformer et réorienter les coupes dans les trois plans de l’espace. C’est le principe du positionnement par triangulation.
Il faut disposer sur la peau du patient des repères externes visibles dans les deux modalités. On peut utiliser des repères de petite taille comme des billes de métal contenant un émetteur de positon (comme le 24Na) qui sont visibles en TDM comme en TEP. L’inconvénient de ce type de marqueurs réside dans le prix et des difficultés prévisibles, entrainées par la perte éventuelle d’un de ces repères qui sont soumis aux mêmes obligations que toutes les sources radioactives dans le domaine de la radioprotection. Une autre solution (utilisée en pratique courante dans notre service) est de disposer de petites sources remplissables. Des pastilles de plastique de 2 cm de diamètres et 1 cm d’épaisseur sont percées sur la moitié de leur hauteur. Une bille de plomb est enchassée dans le trou qui est rempli d’une goutte de 18FDG ou (≈ 0, 3 MBq ou 10 µCi). Les repères sont fermés par une bande adhésive, avant d’être positionnés sur la peau du patient. Il est nécessaire d’installer sur le patient, un minimum de 3 repères (4 au mieux ), avant la réalisation des deux examens. Les repères sont récupérés après le deuxième examen. Pour optimiser la méthode et limiter les erreurs, les deux examens doivent être programmés la même demi-journée ce qui alourdit la procédure. Les repères visibles sur les deux modalités permettent de mettre en correspondance les coupes des deux modalité par triangulation.
On peut mettre en concordances les coupes des deux modalité par triangulation à l’aide de repères anatomiques internes visibles sur les deux modalités. Cette méthode moins lourde à mettre en place permet de recaler des examens non réalisés le même jour. Elle a les mêmes inconvénients que toutes les méthodes de recalages rigides, c’est à dire les limitations dues aux mouvements du patient et des organes entre les deux examens.
Pour s’affranchir des méthodes de recalage, tous les industriels proposent des appareils TEP/TDM qui réalisent des acquisitions TEP et TDM non pas simultanément, mais de façon enchaînée, pendant le même examen. Les avantages de ces machine hybrides sont nombreux :
La double information morphologique et fonctionnelle est particulièrement intéressante pour l’optimisation des balistiques de radiothérapie, mais elle améliore la performance du TEP en précisant mieux, la stadification tumorale et en améliorant l’identification de structures non pathologiques hyperfixantes (fixation musculaire, digestive, urinaire …)
La TEP est un moyen diagnostique très sensible et performant de détection d’anomalies métaboliques concernant des lésions tumorales de petite taille. Ces dernières années, de nombreuses innovations ont permis de généraliser un certain nombre de techniques innovantes (nouveaux cristaux scintillateurs, acquisition en mode 3D, couplage TEP/TDM pour la correction d’atténuation et la localisation anatomique). La France est en train de combler son retard d’installation de machine TEP en s’équipant de machines de dernière génération bénéficiant de toutes ces innovations technologiques. C’est le cas de notre service qui va être équipé, fin 2004, d’un TEP/TDM en remplacement d’une caméra TEDC deux têtes. Cette machine a permis de réaliser depuis 1999 (l’année de son installation) plus de 4 500 explorations au 18FDG. C’est tout le processus d’optimisation de cette machine, et de son impact aussi bien en oncologie clinique qu’expérimentale avec des modèles animaux, que nous allons présenter par la suite.