2. Situation du problème

Dans la perspective d’améliorer le suivi des modèles animaux en oncologie, nous avons pensé à utiliser l’imagerie au FDG avec une TEDC, ce qui nous a amené à revoir les principes physiques à la base de cette technique. Nous allons résumer les principales caractéristiques physiques du positon, antiparticule singulière qui est à la base de la technique d’imagerie TEP (tomographie d’émission de positon). Puis nous verrons les techniques de détection du positon lui-même. Ces techniques ne pouvant être utilisées qu’in vitro, nous verrons comment il est possible d’utiliser in vivo, les rayonnements émis secondairement par l’annihilation du positon avec un électron du milieu. Nous détaillerons les différents aspects techniques de l’imagerie TEP en décrivant les principes généraux d’un TEP, puis nous étudierons le détecteur, les procédures d’acquisition et de traitement du signal. Nous verrons les limites de la technique et les corrections physiques et logicielles mises en place pour les corriger. Nous aborderons le problème de la quantification de la fixation du traceur en TEP. Nous détaillerons les différentes techniques de quantifications et de correction d’atténuation nécessaires à cette quantification. Nous énumérerons les différentes techniques de contrôle des performances des caméras TEP et les procédures de comparaison de machines de technologies différentes. Les techniques d’imagerie en Médecine Nucléaire étudient le devenir d’un radiotraceur administré au patient à l’aide d’une caméra. Après avoir étudié la caméra, il faudra étudier le radiotraceur émetteur de positon. Le traceur émetteur de positon le plus utilisé et le plus répandu, actuellement en oncologie, est le Fluorodéoxuglucose (FDG) marqué au [18F]. Nous détaillerons les principales caractéristiques du FDG et nous recenserons les autres traceurs (émetteurs de positons ou émetteurs monophotoniques) utilisables et utilisés en oncologie. Nous terminerons cette Partie introductive par l’aspect pratique de la réalisation d’une acquisition TEP: en détaillant la préparation du patient, l’injection du FDG, l’acquisition, le traitement des données et la présentation des résultats.

2.1 Physique du Positon

« Tout ce qui est atteint est détruit »

Montherlant

2.1.1 Origine

Un émetteur de positon est un noyau en état instable, caractérisé par un excès de charge positive. Pour obtenir un état stable, il se désintègre en transformant un proton en neutron conduisant à l’émission d’un positon et d’un neutrino. Le positron à une masse équivallente à celle d’un électron mais de charge opposée. Le neutrino est une particule de masse nulle qui n’interagit pas avec la matière.

Formule générale de la réaction de l’émission β+ et exemple du 18F :

2.1.2 Demi-vie

La période radioactive ou demi-vie correspond à la durée nécessaire pour que l’activité d’une source soit divisée par deux. On peut classer les émetteurs de positon en fonction de leur demi-vie.

  • Demi-vie inférieure à une heure: on utilise l’oxygène 15 (15O) dont le demi-vie est de 2 minutes, l’azote 13 (13N) dont le demi-vie est de 10 minutes, et le carbone 11 (11C) dont le demi-vie est de 20 minutes.
  • Demi-vie supérieure à une heure: le fluor 18 (18F) est le plus utilisé avec une demi-vie de 110 minutes et le brome 76 (76Br) présente une demi-vie de 16 heures.
  • Isotopes issus de générateurs isotopiques de longues périodes: le gallium 68 (68Ga) a une demi-vie de 68 minutes mais il est issu du germanium 68 dont la période est de 271 jours et le rubidium 82 (82Rb) avec une période de 76 secondes est issu du strontium 82 (82S) de 25 jours de période.
  • Isotopes de demi-vie longue : le germanium 68 (68Ge) de période de 271 jours et le sodium 22 (22Na) de période de 2,6 ans.

2.1.3 Énergie

L’énergie totale libérée par la transformation de valeur fixe Eβ+max se répartit de manière variable entre le β+ et neutrino. Il s’agit d’une transmutation isobarique avec un spectre d’énergie cinétique continu des particules β+ qui peuvent prendre toutes les valeurs comprises entre 0 et Eβ+max. Ce spectre est caractérisé par sa valeur maximale Eβ+max et sa valeur moyenne Eβ+moy avec Eβ+moy≅ Eβ+max / 3 (figure 1).

Cette transformation concerne les éléments qui se trouvent dans la zone d’instabilité nucléaire par excès de protons.

Figure 2-1 : Spectre d’énergie du β+ du 18F

2.1.4 Parcours dans la matière

Le positon émis par le noyau parcourt quelques millimètres dans le milieu en perdant toute son énergie cinétique. En fin de course, quand il est au repos, il interagit avec un électron du milieu en produisant une réaction d’annihilation. Le parcours maximal du positon dans le milieu dépend de l’énergie cinétique maximale que la transformation nucléaire est capable de lui fournir. Ce parcours maximal qui caractérise le positon peut varier de 0,63 mm pour le 18F à 3,98 pour le 76Br.

Tableau 2-1 : Caractéristiques physiques des principaux émetteurs de positons utilisés en TEP :
Isotopes 11C 13N 15O 18F 76Br
Energie maximum des β+ en MeV 0,98 1,19 1,72 0,63 3,98
Energie la plus probable des β+ en MeV 0,39 0,49 0,73 0,25 1,20
Parcours maximum dans l’eau en mm 3,9 5 7,9 2,3 20
Parcours moyen dans l’eau en mm 1,1 1,5 2,7 0,6 5
Période de l’isotope en min 20,4 10 2,1 109,8 972

2.1.5 Rayonnement d’annihilation

La réaction d’annihilation entre une particule et son anti-particule, transforme la masse des deux particules en émission de photons gamma de 511 keV, émis dans des directions opposées pour maintenir la conservation du bilan énergétique. Si le positon n’a pas perdu totalement son énergie dans le milieu et toujours pour respecter le bilan de conservation d’énergie, les photons seront émis de façon non colinéaire avec des angles différents de 360°. Le défaut de colinéarité d’émission peut être de l’ordre de 0,5° (Figure 2-2).

Figure 2-2 : Parcours du positonet sa désintégration lors de la réaction d’annihilation :

Le principe du TEP consiste à détecter les deux photons de 511 keV pour déterminer l’origine de la réaction d’annihilation. Le parcours du positon avant son annihilation (d) et le défaut de colinéarité d’émission des deux photons γ seront les deux limites intrinsèques en terme de résolution spatiale propre à la détection en coïncidence. Elle est de l’ordre du mm pour le 18F.

2.1.6 Fabrication - Cyclotron

Le principe du cyclotron consiste à accélérer des particules chargées, par passages successifs dans un champ électrique de haute fréquence. Pendant leur accélération, ces particules sont guidées par un champ magnétique.

Le cyclotron comprend un électro-aimant fournissant un champ magnétique. Dans son entrefer est installée une chambre d’accélération contenant en son centre l’extrémité du dispositif d’injection des particules et dans le plan médian, un système d’électrodes d’accélération. Un vide de l’ordre de 10-4 Pa (10-6 millibars) est maintenu dans la chambre d’accélération. Les particules ionisées extraites de la source d’ions circulent dans l’entrefer de l’électroaimant le long d’une spirale et reçoivent une énergie cinétique supplémentaire lors de chaque passage entre les électrodes. Les particules chargées accélérées vont percuter une cible pour transformer des noyaux de la cible en radioisotopes. La réaction de transformation des atomes de la cible se fait par absorption d’une partie de l’énergie cinétique des particules chargées incidentes. Les réactions nucléaires sont du type (p,n) ou (p,2n), c’ est à dire qu’un proton incident éjecte un ou plusieurs neutrons du noyau des atomes de la cible en fonction de l’énergie des particules incidentes et de la nature du matériau bombardé. Les émissions produites lors de l’irradiation des cibles (neutrons et rayons gammas) doivent être atténuées pour protéger le personnel et l’environnement. Le cyclotron et la ciblerie sont donc installés dans des constructions avec des murs épais en béton (2m) équipés de portes adaptées. Le cyclotron peut être équipé d’un blindage composite (auto-blindage en béton et plomb) qui permet de réduire l’épaisseur des murs et de la porte de la salle du cyclotron. Pour produire du 18F la cible est remplie d’eau enrichie en 18O, isotope stable. L’irradiation consiste à bombarder la cible enrichie en 18O par des protons de 10 MeV pendant un temps d’irradiation (1h ou 2h) qui est fonction de la puissance du cyclotron, du nombre de cible irradiées et de la quantité de 18F que l’on désire obtenir. Le 18F ayant une demi-vie de 110 minutes, après 2 heures d’irradiation, on obtient un équilibre entre sa production et sa disparition.

2.2 Détection du positon

2.2.1 Détection du Positon directement

Pour détecter le positon initial on pourra faire appel aux techniques utilisées pour détecter les électrons. Ces techniques qui ont l’avantage d’avoir les meilleures résolutions spatiales nécessitent des activités peu importantes mais avec des temps d’exposition relativement longs parfois peu compatibles avec les périodes des émetteurs de positon utilisés en médecine.

2.2.2 Emulsions photographiques :

Ces détecteurs sont constitués de micrograins d’halogénure d’argent en suspension dans un film de gélatine. Le fonctionnement se fait en 3 étapes : l’exposition, la révélation et la fixation. Lors de l’exposition aux rayonnements, des électrons sont arrachés aux halogénures d’argent le transformant en Ag+ qui sera réduit en argent métallique après révélation par un agent chimique réducteur. Le temps de révélation doit être limité dans le temps pour ne réduire que les grains d’argent sensibilisés par le rayonnement à détecter. Lors de la fixation, les ions Ag+ non réduits (qui sont sous une forme soluble) sont éliminés. Classiquement les films d’autoradiographie sont utilisés pour des localisations microscopiques au niveau cellulaire de traceurs marqués par des β- et peuvent donc être utilisés pour des traceurs β+.

2.2.3 Imageurs béta :

2.2.3.1 Détecteurs à gaz

La chambre à avalanche à fils (β-imageur®). La détection originale de ce système développé par Charpak est basée sur la détection et l ‘analyse de la lumière produite par l’interaction d’un rayonnement β- ou β+ dans un gaz (Figure 2-3). Ce dispositif est très sensible (500 fois plus que le film radiographique pour le 3H). La résolution qui dépend de l’énergie de l’isotope est de 30 µm avec le 3H et de l’ordre de 150 µm pour le 18F.

2.2.3.2 Film Scintillant

Le micro-imageur utilise un film scintillant placé contre l’échantillon radioactif. La lumière produite par le film est analysée par une caméra CCD sur une surface limitée (2 x 2 cm2) mais avec une résolution spatiale de l’ordre de 20 µm.

Figure 2-3 : Exemple de détection de positons par chambre à fil. Coupes frontales de cerveau de rat 6h après injection de 37 MBq (1 mCi) de FDG sur un ß-imageur® de la faculté de Médecine de Bordeaux II

2.2.4 Autres types de détecteurs :

D’autres types de détecteurs peuvent être utilisés pour détecter le positon directement : détecteurs à semi-conducteurs, scintillation liquide ou détecteurs thermoluminescents. Ces détecteurs n’étant pas utilisés en routine pour faire de l’imagerie, ils ne seront pas abordés ici.

Toutes ces techniques de détection directe du positon ne permettent pas de faire de l’imagerie in vivo et sont donc réservées à des études nécropsiques sur coupes microscopiques ou des quantifications in vitro.

2.3 Détection du rayonnement d’annihilation

Pour faire de l’imagerie in vivo avec des émetteurs de positons, il faudra utiliser la détection des photons d’annihilation de 511 keV. Il est possible de faire de la détection monophotonique des photons de 511 keV sans coïncidence en utilisant des systèmes de collimation adaptés à la haute énergie (poids important et encombrement majeur). Ces systèmes ont été abandonnés car la détection collimatée pénalise fortement la résolution spatiale et surtout la sensibilité. Les caméras actuelles sont toutes basées sur la détection des deux photons opposés à l’aide d’un circuit électronique mais sans collimation permettant un rendement de détection élevé (De Dreuille 2002).

2.3.1 Description générale d’un TEP

Il faut au minimum deux détecteurs placés à 180° l’un de l’autre pour enregistrer les photons de coïncidences. La plupart des caméras TEP sont constitués d’une série de couronne de détecteurs élémentaires disposés en anneau («ring PET» des anglo-saxons).

Figure 2-4 : Principaux systèmes de détection de l’annihilation de positon.

A : Caméra TEDC ou gamma caméra deux têtes avec cristaux de NaI de 19 mm d’épaisseur avec circuit électronique de détection de coïncidence. ll est nécessaire de faire tourner les têtes sur 180° pour acquérir un champ de vue. Cette caméra peut aussi faire de la détection monophotonique pour les traceurs usuels en médecine nucléaire. La caméra est équipée de septa en plomb pour diminuer les rayonnements incidents venant de l’extérieur du champ de vue. Ces caméras fonctionnent uniquement en acquisition 2D.

B : TEP dédiée (CPET) constitué de 6 détecteurs de grandes tailles de NaI. Pas de septa de plomb et acquisition en mode 3D.

C : TEP dédié composés de plusieurs centaines de cristaux (BGO, GSO, LSO) constituant plusieurs couronnes jointives. Acquisition systématiquement en 3D, mais possibilité sur certaines machines de faire des acquisitions en 2D avec septa additionnels.

D : TEP dédié de dernière génération avec un module TDM associé permettant lors du même examen d’obtenir des coupes pour localiser anatomiquement les anomalies fonctionnelles détectées au TEP. Le TDM est aussi utilisé systématiquement pour obtenir une cartographie de densité nécessaire à la réalisation de la correction d‘atténuation.

2.3.2 Principes élémentaires de la détection

Toute désintégration d’un positon qui rencontre un électron se caractérise par l’émission de deux photons gamma de 511 keV émis dans des directions opposées. Pour déterminer la projection du lieu de l’annihilation, il faut deux détecteurs indépendants et opposés pour mesurer simultanément les deux photons de 511 keV, émis. L’électronique de détection appelée circuit de coïncidence détecte les signaux en fonction de deux critères principaux :

  • la fenêtre temporelle de 6 à 15 ns
  • la fenêtre en énergie

Le système mesure des coïncidences vraies qui correspondent à la détection de deux photons de 511 keV provenant de la même annihilation. Mais le système, qui est limité en résolution temporelle et énergétique, peut aussi détecter de nombreux éléments qui parasitent et génèrent du bruit de fond.

Les coïncidences aléatoires et les coïncidences diffusées sont les principaux événements responsables du bruit de fond (Figure 2-5).

Figure 2-5 : Différentes sortes de coïncidences possibles.

a: coïncidences vraies

b: absence de détection d’un photon entraînant l’absence de ligne de réponse et la diminution de l’efficacité de détection.

c: acceptation d’un photon diffusé ayant pourtant perdu une partie de son énergie lors de la diffusion avec le patient ou dans le cristal. C’est la résolution limitée en énergie du scintillateur qui entraîne l’acceptation de coïncidences de photons diffusés.

d: mesure d’une coïncidence aléatoire provenant de deux annihilations distinctes dans la même fenêtre temporelle. L’information spatiale enregistrée est incorrecte et responsable de bruit.

Le détecteur élémentaire arrête le photon incident, analyse son énergie et enregistre le moment exact de sa détection. Les paramètres influençant les performances du détecteur sont la densité, la résolution énergétique et la résolution temporelle. Les détecteurs sont constitués d’un ou plusieurs cristaux scintillateurs couplés à un ou plusieurs photomultiplicateurs (PM). Tout photon interagissant dans le détecteur est analysé individuellement.

Un photon entrant dans le détecteur va interagir avec les électrons du cristal et peut céder toute son énergie, par effet photoélectrique, ou seulement une partie de son énergie, par effet Compton. Les électrons du cristal vont exciter d’autres électrons du cristal et provoquer des phénomènes de scintillation, c‘est à dire d’émission de lumière visible. Le cristal se comporte donc comme un transformateur de longueur d’onde puisqu’il permet de passer d’un rayonnement gamma (dont la gamme énergétique varie de quelques dizaines de keV à 511 keV) à un rayonnement de scintillation de longueur d’onde visible. Le nombre de photons de scintillation est proportionnel à l’énergie déposée dans le cristal par le photon incident. L’énergie lumineuse créée est transmise par un guide de lumière vers la photocathode du PM dont le rôle est de transformer l’énergie lumineuse en énergie électrique. Les électrons créés sont accélérés et focalisés sur la première dynode, par la différence de potentiel. L’amplification du courant est obtenue par un enchaînement de dynodes. A la sortie du PM, un courant électrique est mesurable et l’intégrale du signal est proportionnelle à l’énergie déposée dans le cristal. La durée de l’intégration dépend de la rapidité de la décroissance de la lumière dans le cristal (Figure 2-6). Pendant cette durée, le détecteur est incapable de mesurer un autre événement. C’est le phénomène de temps mort qui est responsable de la perte en sensibilité pour des taux de comptages élevés (problème rencontré lors des acquisitions en 3D).

Figure 2-6 : Principe de fonctionnement du détecteur élémentaire.

2.3.3 Scintillateur idéal

Le cristal est caractérisé par :

  • Une densité élevée pour offrir une efficacité de détection satisfaisante pour les photons de 511 keV.
  • Une efficacité de conversion lumineuse importante. Elle correspond au nombre de photons de scintillation produits par photon incident dans le cristal. Ce paramètre influe sur la résolution en énergie du scintillateur et donc sur le taux de coïncidences diffusées.
  • La constante de décroissance lumineuse qui correspond au temps pendant lequel des photons de scintillation sont émis par le cristal après une interaction. La constante de décroissance lumineuse doit être la plus faible possible car elle conditionne la résolution temporelle du système de détection et réduit le temps mort relatif à chaque mesure.
  • La transparence pour les photons de scintillation qui ne doivent pas être atténués par le cristal avant d’interagir avec les photomultplicateurs. Le cristal doit présenter un spectre d’émission des photons de scintillation compatible avec la fenêtre spectrale de la photocathode du photomultiplicateur (rôle des agents dopants du cristal).
  • Des caractéristiques physiques favorables à leur utilisation dans des conditions normales :
    • Non hygroscopie
    • Insensibilité aux variations de température d’assemblage
    • Reproductibilité, homogénéité et facilité de fabrication, de découpe, d’usinage.

Tous ces paramètres influent sur le coût des cristaux et donc sur le prix de la machine TEP.

Il existe plusieurs catégories de cristaux scintillateurs :

  • NaI : iodure de sodium dopé au Thallium
  • BGO : germanate de bismuth
  • BaF2 : fluorure de baryum
  • GSO : orthosilicate de gadolinium
  • LSO : orthosilicate de lutétium
  • YSO : orthosilicate d’yttrium
  • LuAp : lutétium aluminium Perovskite
2.3.3.1 Atténuation

Les paramètres de l’atténuation des photons de 511 keV est fonction :

  • de la densité du matériau et en particulier de la densité électronique que l’on estime par le numéro atomique effectif de l’élément (Zeff) et qui donnera un coefficient d’atténuation µ.
  • de l’épaisseur du cristal qui pourra être d’autant moins épais que son µ sera élevé.
  • de la taille des détecteurs. Plus le cristal est épais, plus il pourra atténuer les photons de 511 keV. Mais l’augmentation de la taille des cristaux limite la résolution spatiale des détecteurs.

La photofraction détermine, le nombre de photons visibles créés par effet photoélectrique par rapport aux différentes interactions dans le cristal. L’effet photoélectrique correspond à un dépôt énergétique de 511 keV dans le détecteur alors que les effets Comptons ne permettent de déposer qu’une partie de l’énergie. La chaîne de mesure élimine les événements Compton qui correspondent à un dépôt énergétique inférieur à 511 keV. Les interactions de type Compton qui se produisent dans l’organisme du patient, doivent être éliminées puisqu’elles correspondent à de mauvaises lignes de coïncidences et sont donc responsables de bruit. Dans le cristal, la création d’interaction Compton se traduit par une perte d’efficacité. La photofraction du détecteur est un paramètre fondamental d’efficacité.

2.3.3.2 Mécanisme de scintillation et spectre d’émission

La nature de l’émission lumineuse conditionne la durée de la fenêtre de coïncidence, le temps mort et la résolution en énergie, et elle influence donc le taux des coïncidences parasites enregistrées. Plus la constante de temps de scintillation lumineuse est rapide, plus elle permet de réduire la fenêtre temporelle de coïncidence en éliminant un nombre important de coïncidences aléatoires. Le BGO et le NaI ont des constantes de temps relativement lentes nécessitant l’utilisation de fenêtre de coïncidence large de 12 ns. Les scintillateurs plus récents comme le GSO et le LSO avec une constante de temps plus courte autorisent des fenêtres de coïncidences de l’ordre de 6 ns. En dessous de cette limite de 6 ns et dans un anneau de détection de l’ordre de 70 cm, la fenêtre temporelle s’approche du temps de vol du photon (pour un photon se déplaçant à 300 000 000 m/s dans le vide, il faut 3 ns pour parcourir les 70 cm de l’anneau). La constante de temps influe sur le temps mort du détecteur puisqu’il est impossible de mesurer un autre événement en même temps. D’autre part, plus la surface du cristal est petite et plus la surface du détecteur est réduite plus la probabilité de mesurer un autre évènement est faible.

2.3.3.3 Rendement lumineux

Le rendement lumineux correspond au nombre de photons de scintillation, émis par photon arrêté dans le cristal scintillant. On l’exprime de manière relative par rapport au cristal de NaI(Tl) qui présente un rendement lumineux des plus élevés. Un rendement lumineux élevé s’accompagne d’une bonne détection des événements et d’une bonne résolution en énergie.

2.3.3.4 Réponse temporelle

Avec une réponse temporelle brève, il est possible de réaliser des acquisitions en temps de vol. Le BaF2 est caractérisé par deux émissions lumineuses dont l’une a une constante de décroissance brève de l’ordre 0,8 ns. Le principe de détection repose sur la différence du temps d’arrivée des deux photons émis lors de la réaction d’annihilation du positon. Connaissant la vitesse de la lumière, le décalage dans l’arrivée des deux photons permet de préciser l’origine de l’annihilation sur la ligne de réponse avec une précision inférieure à 10 cm. Cette information est exploitée par les algorithmes de reconstruction d’image. L’inconvénient du BaF2 pour réaliser des détecteurs élémentaires de petite taille, réside dans sa faible densité et son faible rendement lumineux. Dans un avenir proche et grâce aux progrès constant de l’électronique (actuellement les électroniques d’acquisition autorisent une fenêtre de coïncidence < 6 ns), on devrait pouvoir utiliser les renseignements obtenus par le temps de vol dans les machines TEP cliniques de prochaine génération.

2.3.3.5 Spectres d’énergie

Le spectre de la lumière émise doit être adapté aux photomultiplicateurs associés. La nature du cristal ne doit pas être trop opaque pour ne pas atténuer la lumière émise par les phénomènes de scintillation provoqués par les interactions des photons qui pénètrent dans le cristal.

2.3.3.6 Résolution en énergie

Pour une résolution en énergie limitée, la détection pourra prendre en compte des photons ayant subi une interaction Compton car la perte d’énergie du photon diffusé est insuffisante pour pouvoir être détectée par un système de faible résolution énergétique. Le changement de direction consécutive à la diffusion du photon conduit à une mauvaise localisation de la projection de l’annihilation (Figure 2-5 :c). Dans le cristal, un photon peut, aussi, être diffusé par effet Compton. Le photon diffusé est responsable d’une erreur de localisation mois pénalisante que l’erreur de localisation consécutive à une diffusion dans le patient mais il n’existe pas de moyen pour différencier l’origine de la diffusion.

Le principal avantage du cristal de NaI est sa résolution énergétique de l’ordre de 10%. Le BGO est caractérisé par la plus mauvaise résolution énergétique de l’ordre de 16%. Les cristaux les plus récents ont une résolution énergétique intermédiaire de 15% pour le LSO et 12 % pour le GSO.

2.3.3.7 Comparaison des scintillateurs

Le BGO a été le cristal le plus utilisé en raison de sa densité élevée et malgré une faible résolution en énergie et une constante de décroissance lente. La recherche sur les cristaux s’oriente vers des cristaux dont les caractéristiques sont plus favorables en particulier pour l’acquisition en mode 3D. Actuellement en 2004, la société GEMS (General Electric Medical System) commercialise un TEP avec des cristaux de BGO alors que la société Siemens qui commercialisait des TEP avec des cristaux en BGO s’oriente vers des TEP avec des cristaux en LSO qu’elle développe et fabrique en exclusivité à Knoxville dans le Tenessee. La troisième société d’imagerie médicale, Philips commercialisait des TEP avec des cristaux de grande taille de NaI (CPET) abandonnés maintenant au profit de TEP avec des cristaux de GSO. L’intérêt du NaI résidait dans sa très bonne résolution énergétique et son faible coût de fabrication malgré une faible densité. Il équipait les gamma caméra multi-têtes transformées en machine polyvalente mono et biphotonique grâce à un système de détection électronique de coïncidence. Les 3 constructeurs ont arrêté le développement de ces machines et se consacrent exclusivement au développement de TEP dédiés dont les performances sont supérieures.

Pour résumer : Les caractéristiques principales des cristaux scintillateurs sont:

  • la densité et le numéro atomique qui influencent l’efficacité du détecteur et sa sensibilité
  • le temps de décroissance qui influence le temps mort du détecteur et le taux de rejet des aléatoires
  • le rendement lumineux qui influence la résolution spatiale et la résolution énergétique
  • la résolution en énergie qui influence le taux de rejet des diffusés
  • la solidité et la non hygroscopie qui facilitent la fabrication, l’usinage et la fiabilité.

Tableau 2-2 : Caractéristiques des principaux cristaux scintillateurs utilisés en TEP

2.3.4 Conception des détecteurs

Le détecteur est constitué d’un couplage de cristaux scintillateurs et de photodétecteurs.

Plusieurs possibilités de montages peuvent être utilisés.

La solution la plus simple est le montage associant un cristal scintillateur à un photomultiplicateur. La grande taille des PM est un facteur limitant avec des cristaux de petite taille (Figure 2-7A). Ce type de montage utilisé dans les premières machines TEP donnait de mauvaise résolution spatiale car l’échantillonnage et l’épaisseur des coupes sont conditionnés par la taille des détecteurs.

Pour la fabrication de TEP animal nécessitant une très grande résolution spatiale, il faut des détecteurs de petite taille. Le PM est remplacé par une diode à avalanche de petite taille permettant un couplage direct avec des cristaux élémentaires de petite dimension (Figure 2-7B). L’inconvénient des diodes à avalanche est leur moindre efficacité que les PM ce qui les rend impropres à leur utilisation en TEP clinique.

Le détecteur bloc est la solution retenue pour les TEP à cristaux de BGO et LSO (Figure 2-7C). Les cristaux peuvent être taillés plus ou moins profondément pour compenser le rendement lumineux moindre en périphérie. Le couplage est réalisé entre une matrice de petits cristaux élémentaires de quelques millimètres avec un réseau de quelques PM. Par exemple le détecteur bloc de la caméra Hi-Rez® de Siemens est constitué de 169 cristaux (13 x 13 cristaux de 4 mm x 4 mm et de 20 mm d’épaisseur) couplés à 4 PM. Il faut 624 cristaux par anneau et 39 anneaux associés pour explorer 162 mm de champ axial, couverts par 3 blocs autorisant des mesures de 2 mm dans 81 plans de coupe. Chaque plan de coupe sera échantillonné par 624 cases de mesure.

Pour les gamma caméras, le monocristal de NaI de grande taille est associé à un réseau de plusieurs dizaines de PM par l’intermédiaire d’un guide de lumière. C’est le principe d’Anger et la localisation de l’interaction du photon incident avec le cristal s’effectue par le barycentre des intensités mesurées par l’ensemble des PM de la tête de détection. La taille du pixel et l’épaisseur de la coupe sont déterminées par la taille de la matrice d’échantillonnage appliquée à la surface utile du détecteur. La faible densité du cristal et la taille du cristal qui augmente le temps mort sont les principales limites de ce type de détecteur. L’augmentation de l’épaisseur (jusqu’à 25 mm) et la pixellisation du cristal permettent d’améliorer l’efficacité et le taux de comptage sans dégrader la résolution spatiale. Ces cristaux ont été utilisés dans les TEP dédiés, développés par la société Adac (CPET®).

Un autre type de montage associe des matrices parallélépipédiques de cristaux élémentaires de GSO et un réseau de nombreux PM (sans intervalle de séparation et sans bloc) par l’intermédiaire d’un guide de lumière continu sur toute la couronne de détection permettant une collection homogène de la lumière.

Figure 2-7 : Principaux couplages cristaux scintillateurs/photodétecteurs en TEP.

Les dimensions du cristal scintillateur conditionnent l’échantillonnage des données :

La largeur (l) donne la taille de la cellule de mesure dans le plan de l’anneau

La longueur (z) donne l’épaisseur de la coupe

L’épaisseur (h) contribue à l’efficacité de lé détection

A : le couplage cristal/photomultiplicateur. La taille des PM ne permet pas la conception de détecteurs élémentaires de petite taille

B : le couplage cristal/diode à avalanche permet un couplage avec des cristaux de petite taille (TEP animal)

C : le bloc détecteur : couplages de plusieurs PM sur une matrice de petits détecteurs élémentaires. Les cristaux peuvent être fendus sur une partie de leur hauteur pour compenser la perte de transmission de lumière scintillante près des bords.

D : le couplage de multiples PM sur un cristal de grande taille selon le principe d’Anger permet un meilleur échantillonnage continu des données

E : le couplage entre une matrice de multiples cristaux de petite taille et des PM correspond à de nouvelles générations de détecteurs. Il permet de gagner en résolution spatiale grâce à la taille des cristaux et de faciliter l’échantillonnage continu des données.

Figure 2-8 : Différents exemples de couplages cristaux scintillateurs/photodétecteurs de TEP commercialisés.

A : Bloc détecteur de 8 x 8 cristaux de LSO associant 4 PM.

B et C : montage en continu des PM sans intervalle de séparation et sans bloc avec un guide de lumière continu.

2.3.5 Mode d’acquisition et reconstruction

2.3.5.1 Principe de base

L’image obtenue correspond à la projection de la localisation des annihilations de l’objet que l’on examine. La reconstruction tomographique est l’étape mathématique obligatoire pour retrouver l’objet à partir des projections mesurées. Ces méthodes mathématiques sont similaires à toutes les techniques d’imagerie en coupe (TDM ou TEMP).

2.3.5.2 Sinogramme

Le sinogramme est la matrice où sont rangées toutes les données concernant les projections d’une coupe de l’objet. Chaque ligne de cette matrice correspond à la projection de la coupe pour un angle φ particulier. Le nombre de lignes de la matrice correspond au nombre d’angles de mesure et le nombre de colonnes correspond aux nombres de mesures par position angulaire. En général la taille du sinogramme est de 256 (angles) par 192 (mesures/angle). Un pixel du sinogramme correspond à une ligne de réponse entre deux détecteurs élémentaires. L’information contenue dans ce pixel est la somme de tous les photons émis dans cette incidence par tous les points de l’objet situés sur la ligne de réponse. Les dimensions de la ligne de réponse sont en liaison avec la taille des détecteurs élémentaires (en général le cristal). En pratique, chaque photon émis par l’objet est analysé par le circuit de coïncidence, et chaque coïncidence (2 photons de 511 keV reçus pendant l’ouverture de la fenêtre de coïncidence par 2 détecteurs en ligne) incrémentera d’une unité, le pixel correspondant à la ligne de réponse. L’enregistrement de l’acquisition en TEP correspond au remplissage des pixels du sinogramme pendant un temps donné. Les comptages d’activité en TEP fluctuent selon un mode statistique obéissant à la loi de Poisson.

En bref, toutes les données des projections d’une coupe de l’objet sont contenues dans le sinogramme (Figure 2-9). La reconstruction tomographique consiste à retrouver la distribution de l’activité contenue dans l’objet à partir du calcul des données de projections rangées dans le sinogrammes.

Figure 2-9 : Rangement des données d’acquisition.

Une ligne de réponse définie par l’angle φ1 reçoit deux photons provenant de la source S1. Cette ligne de réponse sur l’angle φ1 est située à une distance OS1 du centre du TEP. Dans une autre fenêtre temporelle de coïncidence, une deuxième ligne de réponse sur le même angle φ1 reçoit deux photons provenant de la source S2 située à la distance OS2 du centre du TEP. Ces deux événement s incrémentent le sinogramme de une unité dans les pixels qui correspondent à (φ1,S1) et (φ1,S2).

2.3.5.3 Acquisition Bidimensionnelle ou 2D

C’est la méthode d’acquisition la plus ancienne. Elle est utilisée dans les TEP dédiés ainsi que dans les gamma caméras équipées de détection de coïncidence. Dans l’acquisition 2D, ne sont acceptés que les événements concernant des lignes de réponses perpendiculaires au détecteur. Les acquisitions en 2D se font à l’aide d’anneaux ou septa de plomb placés entre les différentes couronnes de détecteur en TEP ou à intervalle régulier lorsque l’on utilise un monocristal de grande taille type NaI.

La forme et la taille des septa sont étudiées pour ne permettre la détection que :

  • des lignes de réponses de détecteur situés sur la même couronne. Les coïncidences sont mesurées dans des plans directs correspondant au plan transverse du tomographe (angle θ de 0°)
  • des lignes réponses de détecteurs situés sur deux couronnes adjacentes. Les coïncidences sont mesurées dans des plans faisant un angle θ non nul mais de l’ordre d’un degré par rapport au plan transverse du tomographe. Cet angle faible est d’ailleurs négligé dans les algorithmes de reconstruction 2D qui nécessitent un angle θ = 0 (Figure 2-10).

Donc un TEP de n couronnes de détecteurs (de 4 à 5 en fonction des tailles des cristaux) mesure simultanément en acquisition en mode 2D :

  • n sinogrammes dans les plans directes
  • et (n-1) sinogrammes de plans croisés

L’information volumique sera obtenue après la reconstruction indépendante de la somme des (n) + (n-1) soit des (2n-1) sinogrammes à l’aide d’algorithme 2D.

Figure 2-10: Acquisition 2D sur un détecteur 4 couronnes.

  • Les plans directs sont reconstruits à partir des lignes de réponses mesurées sur la même couronne (1, 2, 3 ou 4)
  • Les plans croisés sont reconstruits à partir des lignes de réponses mesurées sur des détecteurs de couronnes adjacentes (1&2, 2&3 ou 3&4).
  • Les lignes de réponses entre couronnes non jointives ne sont pas mesurées (1&3 ou 1&4 ou 2&4) du fait de l’interposition de septa.
2.3.5.4 Reconstruction 2D

Il existe deux façons de reconstruire l’image à partir des données de projection enregistrées en 2D sur les sinogrammes : la rétroprojection filtrée et la reconstruction itérative.

2.3.5.4.1 La Rétroprojection Filtrée

Deux étapes constituent l’algorithme de rétroprojection filtrée:

  • Le filtrage de chaque ligne du sinogramme (corespondant à chaque profil de projection) par un filtre rampe souvent combiné à un filtre passe-bas pour éviter l’amplification du bruit.
  • La rétroprojection dans le plan des projections filtrées pour chaque angle de mesure.

En bref, la rétroprojection permet de reconstruire une image voisine de l’objet réel à partir des données de projections contenue dans les sinogrammes. L’image de rétroprojection est la convolution de l’image réelle par la fonction de dispersion ponctuelle. Pour restituer au mieux la coupe de l’objet, il faut corriger l’effet de dispersion ponctuelle et pour cela, on utilise la Transformée de Fourier qui permet de passer du domaine spatial au domaine fréquentiel.

2.3.5.4.2 La Reconstruction Itérative

C’est l’approche algébrique pour répondre au problème de la reconstitution de l’image originale, à partir d’un nombre fini de projections angulaires de cette image. Pour une matrice en 1282, il existe trop d’inconnues (16 324) pour résoudre de façon classique un système d’équations linéaires et la solution passe par l’utilisation de méthodes itératives.

Le principe est de partir d’une image numérique a priori (uniforme) et de calculer ses projections dans les mêmes directions que l’acquisition réelle. On compare les projections calculées par simulation (sinogramme simulé) aux projections réellement obtenues (sinogrammes acquis) et on modifie l’image simulée de manière à diminuer l’écart entre la réalité et la simulation. La même procédure est répétée de façon itérative jusqu’à l’obtention d’une différence la plus faible possible entre les projections simulées et réelles. On dit que l’algorithme a convergé.

2.1.1.4.2.1 Principe :

Les méthodes itératives reposent sur un processus d’estimation-ajustement représenté par :

Σ j cijAj =Si

que l’on peut écrire sous forme matricielle : cA = S

avec :

  • S : projection mesurée
  • Si : projection mesurée dansle pixel i
  • A : distribution inconnue de l’activité (image réelle a reconstruire à partir de ses projections acquises et ordonnées dans les sinogrammes)
  • Aj : distribution inconnue de l’activité dans le pixel j
  • C : projecteur (qui peut prendre en compte des caractéristiques physiques de résolution de la caméra, atténuation et diffusion).
  • cij : probabilité qu’un photon émis par un voxel j (équivalent volumique du pixel) soit détecté dans le pixel i de la projection.

On suppose connue une approximation A(n) de la solution A. Pour calculer une meilleure approximation A(n+1), les processus itératifs sont basés sur la comparaison entre la projection acquise S et la projection estimée cA(n).

La méthode itérative se résume en 4 étapes :

  • estimation de la première distribution de l’activité A(0)
  • appréciation de l’erreur en comparant cA(0) avec la projection mesurée S
  • ajustement de la valeur estimée en tenant compte de l’appréciation de l’erreur pour obtenir une meilleure évaluation
  • retour à la 1ére étape avec la nouvelle estimation A(n+1)

On continue le processus itératif jusqu’au moment où il n’y a plus d’amélioration entre les estimations successives de l’estimation de la distribution de l’activité.

2.1.1.4.2.2 Les méthodes de reconstruction itératives:

Différents algorithmes itératifs se différencient par la façon dont les comparaisons de sinogrammes sont mises en œuvre. L’ algorithme le plus utilisé est dérivé de la méthode EM (expectation maximization) accélérée par l’organisation des sinogrammes à comparer par le principe des sous ensembles ordonnés OSEM (Ordered Subset Expectation Maximization).

2.1.1.4.2.3 EMML : Expectation Maximization Maximum Likelihood.

L’erreur de la distribution de l ‘activité est évaluée au moyen d’un quotient de la projection mesurée par la projection estimée : εS(n)=S/cA(n)

La projection axiale estimée A(n) doit être multipliée par la quantité correctrice pour obtenir A(n+1). Mais la quantité εS(n) doit être transformée en quantité axiale en appliquant la transposée normalisée c^ qui suppose que la projection mesurée S a été contaminée par du bruit poissonien. On calcule la correction à effectuer pour que l’estimation suivante soit statistiquement plus probable. L’algorithme s’écrit : A(n+1)= A(n) c^S/cA(n)

Il présente plusieurs avantages :

  • Si l’estimation de départ est positive, les valeurs estimées seront positives, car l’algorithme ne fait qu’additionner, diviser ou multiplier des termes positifs. Cette propriété est importante car elle assure des contours d’image reconstruite non bruités (par des valeurs négatives des régions où le nombre de photons détectés est peu élevé).
  • Une quantité nulle reste nulle au cours du processus itératif. Cette propriété permet d’annuler des activités estimées dans des régions extérieures au corps du patient.
  • L’intensité totale dans la projection simulée reste toujours égale à celle de la projection mesurée.

Mais il présente aussi plusieurs inconvénients :

  • La convergence est très lente et il est nécessaire d’effectuer plusieurs dizaines d’itérations pour s ‘approcher de la solution.
  • Après plusieurs dizaines d’itérations, les données reconstruites sont progressivement dégradées. En raison des propriétés du bruit de la loi de Poisson, la vraisemblance n’est pas bornée supérieurement et l’image simulée peut être complètement dégradé par le bruit qui croit plus vite que la convergence. Il est donc nécessaire d’arrêter le processus itératif avant d’atteindre la convergence (limiter le nombre d’itérations) ou bien d’imposer des contraintes sur la solution avec comme inconvénient un effet de lissage des données.
2.1.1.4.2.4 OSEM : Ordered Subset Expectation Maximization.

C’est aussi un algorithme multiplicatif. Chaque itération se décompose en sous-itérations dans lesquelles le processus d’estimation-ajustement ne porte que sur une partie des projections choisies judicieusement. Toutes les projections sont utilisées dans l’itération complète. OSEM se différencie des méthodes EMML qui estiment toutes les projections dans l’ordre, avant de les comparer aux projections mesurées et passer à l’itération suivante. OSEM aboutit à des résultats comparables à EMML mais avec des temps de calcul significativement réduits. Pour être efficace, les projections à analyser doivent être les moins redondantes possibles dans chaque sous-itération et les projections analysées doivent être séparées par un angle important (90°). Plus on réduit le nombre de projections utilisées pour chaque sous-itération, plus la convergence de la répartition de l’activité est théoriquement rapide. L’accélération de cet algorithme a pour conséquence la survenue plus précoce des problèmes de divergence qui peuvent imposer le recours à une régularisation.

Les méthodes itératives nécessitent de grandes ressources informatiques et des temps de calcul importants pour effectuer les nombreuses opérations concernant les multiples itérations. Les méthodes itératives ont l’avantage de pouvoir facilement intégrer, lors de la phase de simulation, des données de corrections d’atténuation, de correction géométriques, ou des caractéristiques du détecteur. Les reconstructions itératives permettent d’éliminer les artéfacts en étoile produits autour des zones hyperfixantes par les méthodes de rétroprojection filtrée.

2.3.5.5 Acquisition 3D

Ce mode d’acquisition, réalisé sans septa, permet de mesurer des coïncidences entre des détecteurs sur des couronnes non adjacentes pour des angles θ, non nuls (Figure 2-11).

Figure 2-11 : Acquisition 3D

L’acquisition 3D entraîne une augmentation importante de la sensibilité du système en permettant la mesure d’un plus grand nombre de lignes de réponse. Par contre, il faut tenir compte du fait que la sensibilité de détection est variable suivant l’axe longitudinal (axe z) : en effet une source radioactive au centre du détecteur peut être détectée par plus de lignes de réponse qu’une source excentrée. Lorsque le système d’acquisition fonctionne sans limitation de l’angle d’acceptance θ, le profil de sensibilité longitudinal est triangulaire.

Figure 2-12 : Profil de sensibilité en 3D.

De nombreux systèmes limitent l’angle d’acceptance θ pour avoir un profil de sensibilité en plateau. Avec ces profils de sensibilité variables, sur l’axe longitudinal z, il est nécessaire de faire des acquisitions chevauchées en mode corps-entier. Les recouvrements du champ de vue permettent de garder un profil de sensibilité plus uniforme pendant le balayage longitudinal. L’importance du recouvrement est directement lié à la valeur de l’angle d’acceptance θ (le recouvrement peut intéresser la moitié du champ de vue, pour des valeurs maximales correspondant à la largeur totales des couronnes de détection).

Pour des valeurs de l’angle d’acceptance θ plus faible, la sensibilité du système diminue mais, le recouvrement étant mois important, il faut moins de pas successifs pour couvrir la même longueur de balayage. Il faut donc trouver un compromis entre la valeur de l’angle d’acceptance θ (qui conditionne la sensibilité du système en 3D) et l’importance du chevauchement des champs de vue qui conditionne le nombre de pas nécessaires pour balayer la longueur voulue (Figure 2-12).

2.3.5.5.1 Sinogrammes en 3D

En mode 2D, l’ensemble des données de projection d’un plan de coupe est rangé dans le sinogramme dont la matrice est composée de colonnes (dont le nombre correspond au nombres de mesures S enregistrées dans le diamètre de l’anneau) et de lignes (dont le nombre correspond aux différents angles φ des projections). En 3D, comme en 2D, il faut tenir compte des sinogrammes du plan du détecteur (angle θ = 0°) et correspondant à la même couronne de détection. Il faut tenir compte, aussi, des lignes de mesures enregistrées sur des couronnes distinctes et non nécessairement jointives, correspondant à des sinogrammes supplémentaires (angle θ ≠ 0°). Pour tenir compte de toutes les lignes de réponse dans un système équipé de n anneaux, il faudra enregistrer (n x n) sinogrammes par champ de vue. Il est plus facile en pratique de limiter le nombre d’angle θ et les lignes de réponses sont rangées dans les sinogrammes ayant l’incidence la plus proche. En général le nombre d’angle θ est de l’ordre de 7 (ce qui correspond à la valeur θ = 0 et à 3 valeurs de θ positives et 3 valeurs de θ négatives). Pour des valeurs de θ trop grandes, le nombre de projections incomplètes s’accroît de façon très importante. (Figure 2-13).

Figure 2-13 : Sinogrammes et projections incomplètes.

A : sinogrammes dans le plan des détecteurs sans décalage avec θ = 0° (idem 2D)

B : sinogrammes avec θ > 0° correspondant à une différence de 3 détecteurs donnant 6 projections incomplètes en lignes fines et 6 projections complètes en lignes épaisses.

C : sinogrammes avec θ >> 0° correspondant à une différence de 6 détecteurs donnant 12 projections incomplètes en lignes fines et 3 projections complètes en lignes épaisses.

2.3.5.5.2 Reconstruction 3D

En 3D et en l’absence de septa, les lignes de réponse intéressent plusieurs couronnes de détecteurs. Les algorithmes de reconstruction doivent être capable de reconstruire les plans de coupe à partir des informations contenues dans les différents sinogrammes. Le volume tomographique est reconstruit globalement, contrairement aux reconstructions 2D qui reconstruisent des coupes adjacentes qui sont assemblées de façon conjointe pour obtenir un volume.

Il y a deux façon de procéder en 3D :

  • soit par reconstruction directe 3D
  • soit par réarrangement des données 3D en données 2D (c’est à dire par l’obtention des sinogrammes 2D à partir des sinogrammes 3D).
2.3.5.5.3 Rétroprojection 3D filtrée (3D RPF)

Intuitivement, il s’agit d’étendre à la 3D, les méthodes bidimensionnelles de reconstruction volumique.

La méthode de rétroprojection se déroule en plusieurs étapes :

  • Il faut au préalable récupérer les données manquantes qui sont des projections 2D correspondant aux lignes de réponse avec un angle θ non nul. Ces données manquantes sont calculées à partir des sinogrammes 2D pour θ = 0.
  • Filtrage des projections 2D par un filtre 2D
  • Rétroprojection dans le volume des projections filtrées selon les différents angles de mesure.

Le nombre de sinogrammes et la succession des différentes étapes nécessitent des temps de reconstruction très longs (peu compatibles avec une activité clinique). Mais avec les progrès constant des ressources informatiques, ces méthodes sont en train de se généraliser et il est possible d’envisager des reconstructions 3D par méthodes itératives selon les principes dérivés des algorithmes 2D.

Pour bénéficier des données acquises en 3D et sans passer par des algorithmes de reconstruction 3D, il faut réarranger les données des sinogrammes 3D sous forme de sinogrammes 2D. Les données 3D réarrangées en 2D sont reconstruites dans un deuxième temps, par des algorithmes de reconstruction 2D itératifs rapides. Plusieurs algorithmes de réarrangement des données sont utilisés :

  • Le SSRM (Single Slice Rebinning) détermine la nouvelle position Z’ du plan oblique, à partir de la différence entre les deux détecteurs. Le résultat est mis dans le sinogramme droit de la coupe intermédiaire entre les deux détecteurs. Cette méthode simple et rapide entraîne des défauts de réarrangements importants pour des angles θ importants et pour des sources non centrées.
  • Le MSRB (MultiSlice Rebinning) repartit la ligne de réponse du nouveau plan Z’ sur tous les sinogrammes droits compris entre les deux détecteurs .
  • Le FORE (Fourier rebinning) calcule le nouveau plan Z’ en passant dans le domaine fréquentiel par transformation Fourier 2D du sinogramme oblique Z. Dans le domaine de Fourier, on applique la relation distance/fréquence pour calculer le nouveau plan Z’ (sinogramme droit correspondant au sinogramme oblique Z). Malgré le temps de calcul plus long, cet algorithme est le plus utilisé car il permet des arrangements de meilleure qualité que ceux obtenus par les algorithme précédents.
  • La méthode combinant le réarrangement des données selon l’espace de Fourier associée à des reconstructions itératives 2D par OSEM (FORE-OSEM) est la solution la plus rapide utilisée par la plupart des industriels pour reconstruire les données corps-entier acquises en 3D. Cette méthode permet de réduire les artéfacts en étoiles fréquemment rencontrés avec les méthodes de rétro-projection filtrée.
2.3.5.5.5 Comparaison 2D/3D

L’acquisition 3D permet une augmentation importante de la sensibilité du système par rapport au 2D. Cette augmentation de sensibilité permet de diminuer les quantités de radiotraceur injectées au patient et/ou une diminution de la durée des examens. Par contre, l’absence de septa augmente le taux d’événements aléatoires et le taux d’événements diffusés en 3D par rapport au 2D. Pour diminuer ces événements parasites, responsables de bruit de fond, et pour obtenir des images de qualité en 3D, il faudra utiliser des méthodes de correction des événements aléatoires et diffusés.

2.3.6 Corrections des phénomènes physiques

Les images TEP sont obtenues par comptage de coïncidences détectées. Ces coïncidences détectées ne représentent qu’une fraction faible des coïncidences émises par le patient. Les phénomènes physiques (diffusion Compton, atténuation) et les caractéristiques limitées des appareillages (événements aléatoires, résolution spatiale, fenêtre électronique de coïncidence, temps mort…) dégradent l’information. Ces pertes de détection d’événements émis dans une ligne de réponse sont variables en fonction de la position de la source dans le champ d’exploration ainsi que dans le patient. La compréhension des phénomènes physiques et leurs corrections éventuelles permettent d’approcher une représentation significative de la distribution du traceur radioactif dans l’organisme du patient étudié.

2.3.6.1 Coïncidences aléatoires
2.3.6.1.1 Définition du problème

La détection de coïncidences aléatoires ou fortuites correspond à l’enregistrement de deux photons issus de deux annihilations différentes mais arrivant dans la même fenêtre temporelle de coïncidence. Il en résulte une information spatiale incorrecte.

Le taux de coïncidences aléatoires augmente:

  • proportionnellement à la largeur de la fenêtre temporelle de l’acquisition qui est fonction de la rapidité du scintillateur.
  • avec le carré de la radioactivité présente dans le champ de vue.

Le taux de coïncidences aléatoires est une source importante de bruit qui doit être pris en compte et corrigé. Compte tenu des éléments intervenant dans la genèse des coïncidences aléatoires, on peut comprendre que la distribution des coïncidences aléatoires s’effectue de façon uniforme dans le champ de vue.

Ce taux de coïncidences aléatoires est aussi très variable en fonction des conditions d’acquisition et de la conception des machines :

  • plus la fenêtre de coïncidence est large, plus le nombre d’aléatoires augmente
  • le mode d’acquisition 3D amplifie le comptage de fortuits par rapport au 2D

Pour caractériser les différentes machines TEP, il faut effectuer des mesures de taux de comptage de coïncidences totales et aléatoires pour différentes géométries et des gammes radioactives étendues. A titre d‘exemple, en acquisition 3D corps-entier et en situation clinique, la fraction de coïncidences peut atteindre et même dépasser 50% quand des organes très actifs (cerveau, vessie) sont dans le champ de vue.

2.3.6.1.2 Correction du problème

La solution réside dans la soustraction des coïncidences fortuites. L’estimation des coïncidences fortuites est soustraite à chaque ligne de réponse des coïncidences totales.

Comment estimer la contamination des aléatoires dans les détections de coïncidences ?

1-Par mesure directe dans une fenêtre temporelle décalée (delay window).

Puisque la distribution s’effectue de façon uniforme dans le champ de vue, la probabilité de détecter de telles coïncidences est uniforme dans le temps. Cette probabilité est corrélée à l’annihilation de deux positons dans la même fenêtre temporelle et cette probabilité est la même dans la fenêtre de coïncidence et dans la fenêtre décalée (Figure 2-11).

Il faut utiliser une autre fenêtre de coïncidence décalée dans le temps par une ligne à retard. Ce décalage doit être largement supérieur à la constante de temps de décroissance du cristal pour ne pas enregistrer la même coïncidence (en général le décalage est de l’ordre de 100 ns).

Par projection de ligne de réponse (c’est à dire par pixel du sinogramme), le nombre total de coïncidences (CT) est la somme des coïncidences vraies (CV) et des coïncidences fortuites (CF) estimées par la fenêtre décalée :

CT = CV-CF

Cette technique est la plus utilisée par les différents constructeurs car elle est simple à mettre en place et elle permet de mesurer la distribution spatiale des aléatoires.

Figure 2-14 : Estimation des coïncidences fortuites par la fenêtre décalée.Sur la ligne de réponse (d3,d4): il est enregistré une coïncidence vraie suivie d’une fortuite . Un photon détecté dans la fenêtre de coïncidence et dans la fenêtre décalée sur la même ligne de réponse (d3,d4) ne peut pas être une coïncidence vraie.

Sur la ligne de réponse (d1,d2): il est enregistré une vraie et une aléatoire (photon unique sur d1 dans la fenêtre décalée).

Sur la ligne de réponse (d2,d3: il est enregistré une vraie et pas d’événement dans la fenêtre décalée.

2-Par estimation indirecte à partir du nombre de photons détectés par chaque détecteur.

Cette estimation est donnée par la formule suivante :

Fd1,d2 = Sd1 Sd2

avec :

  • FD1,D2 : le taux de coïncidences fortuites de la ligne de réponse entre les détecteurs d1 et d2
  • Sd1 : le taux de photons détectés par le détecteur d1
  • Sd2 : le taux de photons détectés par le détecteur d2
  • 2τ : la largeur de la fenêtre de coïncidence

3-Par estimation de la distribution des aléatoires dans les projections en dehors du patient.

Il faudra soustraire un niveau constant de fortuits. C’est la méthode la plus simple mais la moins performante car elle ne tient pas compte des variations locales des taux d’événements aléatoires que l’on trouve dans des situations géométriques complexes comme dans l’exploration de patients. Cette méthode est par contre utilisable pour des études sur fantôme.

Une fois estimé le taux de fortuits et leurs distributions spatiales, il suffit de soustraire par ligne de réponse les événements aléatoires. Cette soustraction majore le bruit dans les projections en diminuant les taux de comptage, mais il est possible de filtrer les sinogrammes correspondant aux fortuits pour diminuer les fluctuations statistiques.

2.3.6.2 Coïncidences diffusées
2.3.6.2.1 Définition du problème

Les photons peuvent diffuser par effet Compton avec une perte d’une partie de leur énergie et un changement de direction. Le changement de trajectoire du photon va entraîner une détection sur une ligne de réponse non corrélée à son émission. L’image va donc être faussée par des informations non correctes. La perte d’énergie du photon diffusé par effet Compton est théoriquement prise en compte par les détecteurs, puisque ne sont acceptés que des photons dont l‘énergie est de 511 keV. En fait, la résolution en énergie des cristaux scintillateurs est limitée de 15 % (pour les plus résolutifs) à 20 % (pour les moins performants). Cette résolution énergétique limitée fait que le système ne pourra pas discriminer les photons diffusés des photons non diffusés.

En mode d’acquisition 2D et grâce à la présence de septa, le taux de photons diffusés dans les coïncidences acceptées est estimé à 10 %. En mode 3D le taux de diffusé est plus important et peut dépasser 50 %. Par exemple pour les cristaux de GSO (qui possèdent une bonne résolution énergétique de 16 %) et en plaçant le seuil bas de la fenêtre de détection le plus haut possible (à 436 keV), la fraction de photons diffusés détectée est de l’ordre de 30%.

L’acceptation de photons diffusés comme coïncidence est responsable d’une dégradation de la qualité de l’image par:

  • la diminution du contraste,
  • la diminution du rapport signal/bruit,
  • la diminution de la résolution spatiale,
  • et la modification du nombre d’événements comptés par pixel ce qui faussera la quantification de la fixation du radiotraceur.

Compte tenu de la résolution énergétique non optimale des cristaux scintillants, l’effet des diffusés est le plus difficile à corriger particulièrement en mode 3D qui est très sensible à la radioactivité présente hors du champ de vue.

2.3.6.2.2 Correction du problème

On peut faire appel à trois techniques différentes :

1-L’utilisation de plusieurs fenêtres énergétiques.

Cette méthode utilise l’information en énergie en combinant des données acquises dans plusieurs fenêtres énergétiques (au minimum 2) 

  • La première méthode utilise 2 fenêtres: une est centrée sur le pic photoélectrique et l’autre sur le front du Compton. Les deux fenêtres sont supposées contenir une proportion de coïncidences vraies et diffusées. Les projections des coïncidences vraies non diffusées sont calculées à partir des facteurs de combinaison obtenus par des acquisitions réalisées sur les deux fenêtres dans des conditions de source à géométrie simple (cylindre radioactif homogène).
  • L’autre méthode combine une fenêtre d’acquisition large allant du front du Compton au pic photoélectrique et une fenêtre étroite placée au delà du pic photoélectrique (> 511 keV). La fenêtre large inclut la fenêtre étroite dans sa limite supérieure. L’hypothèse de la méthode repose sur la notion que seuls les photons non diffusés arrivent dans le détecteur avec une énergie égale à 511 keV. Cette énergie est déposée en totalité ou non dans le détecteur uniquement en fonction de l’angle d’incidence sur le détecteur et donc la distribution spatiale des coïncidences vraies non diffusées est la même dans les deux fenêtres énergétiques. Connaissant l’efficacité intrinsèque des détecteurs dans chacune des deux fenêtres en énergie, il existe un facteur de calibration reliant le taux de coïncidences vraies non diffusées dans les deux fenêtres. L’estimation de ce facteur est faite de façon itérative en cherchant le moins de dissemblance entre la distribution des coïncidences vraies non diffusées dans la fenêtre haute et la distribution estimée des diffusées par calcul. La distribution des coïncidences diffusées correspond à la soustraction des coïncidences vraies non diffusées (enregistrée dans la fenêtre haute) aux coïncidences totales enregistrées dans la fenêtre large. Cette méthode présente l’avantage de tenir compte de la distribution de coïncidences diffusées provenant de sources extérieures au champ de vue des détecteurs. En effet, ces coïncidences seront prises en compte par l’acquisition standard alors que les sources extérieures ne pourront pas être responsables de détection de coïncidences vraies non diffusées. L’inconvénient majeur provient du faible taux de comptage des événements détectés dans la fenêtre de haute énergie et il faudra faire intervenir des techniques sophistiquées de normalisation des détecteurs.

2-L’utilisation de l’information spatiale

Ce sont des méthodes de convolution qui supposent que la distribution des coïncidences totales enregistrées est le produit de convolution de la distribution des coïncidences vraies non diffusées par une fonction de réponse incluant les effets de la résolution spatiale et la distribution des coïncidences diffusées. Cette fonction de réponse du diffusé est obtenue expérimentalement pour une géométrie donnée. Il faut tenir compte de la variation de la fonction de réponse du diffusé suivant l’axe du tomographe. Cette méthode permet d’obtenir par un calcul simple la distribution du diffusé dans les cas ou l’activité est répartie dans tout l’objet à analyser.

3- les méthodes de calcul (section efficace de Klein-Nishina et simulation de Monte Carlo)

Pour obtenir une carte des coïncidences diffusées , il faut:

  • Connaître le milieu diffusantµ(x,y,z) du patient, c’est à dire la répartition dans l’espace (x,y,z) des structures diffusantes (µ).
  • Connaître la distribution des sources radioactives dans le patient f(x,y,z) estimée par les données reconstruites sans correction de diffusé.
  • Un modèle de la fonction de réponse du détecteur modélisée par une fonction gaussienne de largeur à mi-hauteur correspondant à la résolution en énergie des détecteurs.
  • Et retenir les hypothèses de calcul suivantes :
    • La diffusion Compton est le mode principal d’interaction des photons de 511 keV dans les tissus.
    • Les photons ne subissent qu’une diffusion Compton
    • Les coïncidences diffusées retenues ne concernent que la diffusion d’un seul des deux photons (80 % des cas de diffusion)
    • Les coïncidences multiples sont modélisées à partir des coïncidences simples (facteur d’échelle)
    • L’effet photoélectrique est négligeable.

C’est une méthode assez précise qui tient compte des sources hors du champ de vue des détecteurs, qui limite les données acquises par rapport aux méthodes multifenêtriques et qui s’exécute dans des temps compatibles avec une activité de routine clinique. C’est la méthode mise en œuvre dans les systèmes commercialisés.

2.3.6.3 Résolution spatiale limitée
2.3.6.3.1 Définition du problème de l’effet de volume partiel
2.3.6.3.2 « Spill-out effect » = sous-estimation

La résolution spatiale limitée se traduit par une sous-estimation systématique de la concentration radioactive dans les structures dont la taille est inférieure à deux à trois fois la résolution spatiale de l’image reconstruite. C’est l’effet de volume partiel qui est dû, au fait qu’une partie de l’activité se trouve en dehors de la structure examinée. L’effet de volume partiel est responsable d’un effet lissant sur l’image.

2.3.6.3.3 « Spill-over effect » = surestimation

Il existe aussi un effet de superposition de l’activité de structures tissulaires voisines situées à une distance de deux à trois fois la résolution spatiale du système. Cette contamination par les structures environnantes induit des surestimations des concentrations radioactives.

2.3.6.3.4 Méthodes de correction des comptages

Coefficients de recouvrement :

Les concentrations radioactives déterminées par des régions d’intérêt (ROI) sont multipliées par un facteur correcteur qui dépend de la taille des lésions. Ces coefficients de recouvrements sont déterminés à partir de mesures expérimentales sur des géométries simples (fantômes de sphères remplissables de différents diamètres). Le rapport entre la concentration obtenue par la machine et la concentration réelle connue donne le facteur de recouvrement qui sera appliqué sur les régions de taille comparable.
En pratique on utilise une carte anatomique (recalée) pour définir les limites des régions cibles dont l’activité doit être quantifiée et corrigée à partir de cette information anatomique :

  • on mesure par tomographie la concentration radioactive au sein d’une ROI intéressant une structure 
  • on estime la taille de la lésion par méthode d’imagerie anatomique (TDM,IRM) afin de connaître le facteur à appliquer
  • on applique le facteur de correction à la concentration mesurée

Cette technique simple largement employée pour obtenir des comptages corrigés de l’effet de volume partiel ne permet pas d’améliorer la qualité de l’image ni d’améliorer la détectabilité des petites lésions.

2.3.6.3.5 Méthodes de correction des images

Dans le domaine fréquentiel (Fourier) : La déconvolution par la fonction de réponse du tomographe est une méthode dont l’inconvénient principal est d’amplifier le bruit. Pour limiter l’amplification du bruit, l’opération de déconvolution se limite au fréquences intermédiaires et ne permet qu’une restauration incomplète de l’information.

Dans le domaine spatial. Il est possible de restituer l’image corrigée du volume partiel en admettant les hypothèses suivantes :

  • on suppose que l’image d ‘une distribution radioactive peut être traitée comme un système linéaire
  • on connaît la fonction de réponse spatiale du TEP
  • et on connaît les contours des objets fixants (image anatomique recalée)

La précision de cette méthode de correction repose sur l’exactitude du recalage des données TEP et des données morphologiques, et de la qualité de la segmentation des contours à partir des données anatomiques. La diffusion des machines hybrides TEP/TDM devrait faciliter le développement de ce type de correction.

2.3.6.4 Atténuation

L’atténuation des photons dans le corps du patient est un effet important. On estime que seulement 1 % des paires de photons émises au centre du thorax sortira sans avoir subi d’interaction dans l’organisme alors que dans le cerveau cette proportion intéresse 17 % des paires. L’atténuation est un phénomène non isotrope dans l’organisme qui est fonction de la composition et de l’épaisseur des tissus traversés. L’atténuation des coïncidences est indépendante du point où a eu lieu l’annihilation le long de la ligne de réponse. Sans correction d’atténuation, les images en TEP sous évaluent les fixations profondes.

Pour réaliser une correction il faut obtenir une carte de distribution des coefficients d’atténuation du patient par mesure de transmission, soit par source externe, soit par rayons X. Pour des raisons pratiques et d’efficacité, cette mesure de transmission doit être réalisée au moment de l’acquisitions de l’émission.

2.3.6.4.1 Transmission par un émetteur de positon (68Ge)

L’utilisation de source de 68Ge est la méthode la pus ancienne. Il faut une activité des sources suffisamment importante pour donner des statistiques de comptage satisfaisante dans un temps d’acquisition assez court mais sans saturer les détecteurs. L’acquisition se fait en mode 2D avec des septa intercoupes pour limiter le temps mort des détecteurs et diminuer le taux de coïncidences diffusées provenant des sources radioactives situées en dehors du plan de coupe. On utilise de plus une collimation électronique pour limiter l’enregistrement des événements de transmissions ayant subi une diffusion Compton. Ce type d’acquisition avec une source à haute activité n’est pas réalisable en mode 3D. L’avantage majeur de cette méthode réside dans le fait que les mesures de transmissions sont réalisées à 511 keV. Les mesures de transmissions se faisant sur un patient injecté (et donc radioactif par émission de positons), il faudra corriger la mesure de transmission, par une soustraction des événements d’émission.

2.3.6.4.2 Transmission par un émetteur de simple photon (137Cs)

La période du 137Cs est de 30 ans ce qui est un avantage, d’un point de vue économique, par rapport à la période 68Ge qui est de 9 mois en permettant de conserver la source pendant toute la durée de vie du TEP. Le 137Cs est un émetteur simple photon de 662 keV . Le taux de détection des simples photons est environ 100 fois plus important que le taux de détection des coïncidences. On peut utiliser des sources de faible activité pour une acquisition rapide avec une électronique rapide et adaptée à la détection des photons de 662 keV. La mesure de transmission est contaminée par les photons de 511 keV de l’émission du patient qui sont enregistrés dans la fenêtre de 662 keV. L’importance de la contamination dépend de la résolution en énergie du cristal scintillant. Ce mode de transmission est surtout utilisé avec les cristaux résolutifs en énergie comme le NaI ou GSO. Les données acquises permettent d’obtenir une cartographie de segmentation, avant d’être utilisée dans les sinogrammes de reconstruction.

2.3.6.4.3 Transmission par une source de rayons X

La carte des coefficients d’atténuation peut être obtenue par un examen TDM par rayons x. Le couplage d’un tomographe d’émission de positon et d’un TDM est proposé par tous les constructeurs pour effectuer des examens standards de routine clinique. Le TDM permet d’obtenir dans un temps d’acquisition très court des images de transmission avec une très bonne résolution spatiale. Ce gain de résolution spatiale se traduit par une meilleure correction des phénomènes d’atténuation en particulier pour les structures de petite taille non vues par les mesures de transmission par sources radioactives. En fonction de leurs coefficients d’atténuation, il faudra segmenter les différents tissus de l’organisme puis utiliser un facteur d’échelle pour calculer l’atténuation à 511keV à partir du carte d’atténuation mesurée avec des sources de rayons x polyénergétique (de 40 à 120 keV).

D’autre part, la double acquisition permet d’obtenir des renseignements dépassant la seule problématique de la correction d’atténuation. En effet, l’imagerie fonctionnelle du TEP et l’imagerie morphologique du TDM se complètent en permettant de localiser avec précisions des anomalies fonctionnelles. L’association des deux modalités sur la même machine hybride simplifie et améliore les problèmes de recalage intercoupes intermodalités.

2.3.6.4.4 Impact de la correction d’atténuation.

En TEP, la correction d’atténuation associée aux autres corrections des phénomènes physiques déjà abordés va permettre de comparer des intensités de fixation de différentes lésions. La correction d’atténuation va permettre de mieux visualiser les lésions profondes et faciliter leur localisation (en particulier à l’interface foie/poumon). La correction d’atténuation est une étape fondamentale pour quantifier les fixations radioactives. Cette quantification de la fixation des lésions devrait avoir plus d’importance dans l’avenir pour le suivi thérapeutique des patients et l’évaluation thérapeutique que pour la caractérisation tumorale lors du bilan initial.

2.3.7 La quantification en TEP

2.3.7.1 Position du problème

Quantifier en TEP, c’est connaître la quantité de radiotraceur (concentration radioactive) fixée par différentes lésions ou organes.

Le problème de quantification en TEP concerne:

  • L’exactitude de la mesure de la concentration radioactive qui présuppose la correction de tous les phénomènes physiques qui interviennent dans le processus de la mesure.
  • La corrélation entre l’importance de la fixation et la quantification d’une fonction biologique physiologique ou physiopathologique.
2.3.7.2 Mesure de la concentration radioactive

Pour obtenir une mesure exacte de la quantité de radioactivité présente dans une structure à partir d’une image, il faut contrôler toutes les étapes de la fabrication en tenant compte de tous les phénomènes physiques qui interviennent depuis l’émission du signal (annihilation d’un positon) jusqu’à la détection des coïncidences, et la reconstruction des images avec les corrections nécessaires pour ne pas perdre ou déformer les informations :

1-acquisition des données d’émission du patient (coïncidences enregistrées dans les sinogrammes)

2-soustraction des coïncidences aléatoires

3-correction des phénomènes d’atténuation par les mesures de transmission

4-estimation et correction des coïncidences diffusées

5-obtention d’une quantification relative de la fixation qui permet de comparer des fixations différentes au sein d’un même volume exploré.

Ces quantifications relatives ne permettent pas de comparer des données quantitatives pour un même patient dans le temps ou pour des individus différents. Pour cela, il faut obtenir une quantification absolue. Une calibration du TEP est obligatoire. Elle s’effectue à l’aide de mesure d’un fantôme cylindrique de concentration radioactive connue. Les données acquises par la caméra sont corrigées de tous les phénomènes physiques déjà énumérés. Une ROI placée au centre du cylindre permet d’obtenir une concentration radioactive (en nombre de coups/pixel) que l’on compare à la concentration connue du cylindre (en kBq/mL). Ce facteur d’étalonnage permet de convertir des coups/pixel en kBq/mL. Cette quantification absolue signifie que les concentrations mesurées par la machine TEP sont reliées par un étalonnage à une mesure de référence. Elle ne garantit pas la justesse de la mesure ni la correction parfaite de tous les problèmes physiques intervenant dans la mesure.

2.3.7.3 SUV : « Standardized Uptake Value »

Il est plus intéressant en pratique clinique d’exprimer la quantification de la fixation tissulaire d’un radiotraceur sur chaque pixel de l’image par une valeur normalisée qui intègre l’activité injectée et la morphologie du patient que de représenter une concentration radioactive en unité absolue comme le kBq/mL. L’expression du standardized uptake value (SUV) correspond à une normalisation du rapport de la fixation du traceur par l’activité injectée diluée dans le volume du patient.

SUV = Fixation tissulaire(Bq/mL) / (Activité injectée(Bq) / Volume (mL))

avec :

  • la fixation qui est la quantification de l’image de manière absolue en Bq/mL
  • l’activité injectée au moment de l’acquisition de l’image
  • le volume du patient qui est en fait son poids converti en mL d’eau pour plus de facilité

En bref : une valeur de SUV égale à 1 signifie que la concentration radioactive mesurée est équivalente à la radioactivité injectée diluée dans le volume du patient au moment de la mesure. Une valeur de SUV de 5 dans une lésion est l’expression d’une fixation radioactive 5 fois plus concentrée que la dilution uniforme du radiotraceur.

2.3.7.4 Avantages et limites du SUV

Pour les tumeurs fixant le FDG, la captation cellulaire du FDG est le reflet de la prolifération des cellules tumorales et du nombre de cellules viables. Dans le suivi des patients, une thérapeutique efficace va altérer le métabolisme cellulaire et détruire les cellules tumorales. La possibilité de mesurer la valeur de SUV d’une lésion tumorale peut être intêressante dans plusieurs situations cliniques :

Comparer la fixation par rapport à une population de référence (pour préciser la nature tumorale ou non d’une lésion, pour disposer de facteur pronostique tumoral indépendant des facteurs pronostiques classiques …)

Evaluer la réponse thérapeutique dont l’efficacité devrait être corrélé à la diminution de la fixation. La quantification en SUV permettant de disposer de données quantifiées utiles dans des situations intermédiaires entre la réponse nulle et la réponse complète.

Pour que ces évaluations soient valides et reproductibles, il faut respecter des conditions standardisées de réalisation de l’examen. La préparation du patient et le protocole d’examen conditionnent la distribution du radiotraceur dans l’organisme et peuvent donc modifier les valeurs de SUV.

Il faut être en situation physiologique analogue pour garantir la reproductibilité de la méthode :

  • Le glucose étant le métabolite principal de la contraction musculaire, il faudra respecter un repos musculaire avant l’injection du patient et proscrire des efforts physiques importants la veille.
  • Il faut respecter le délai d’attente de 60 à 90 minutes entre l’injection et l’acquisition. Une fois ce délai fixé dans un service, il doit être scrupuleusement respecté pour tous les examens de tous les patients. Ce délai d’attente est un compromis entre le temps nécessaire pour atteindre soit le plateau de fixation tumorale soit un niveau d’augmentation suffisante de la captation tumorale par rapport aux tissus normaux et la décroissance de l’activité du radiotraceur en fonction de sa demi-vie. Une activité minimum est nécessaire pour réaliser un examen de qualité avec une bonne statistique de comptage.
  • Même en respectant scrupuleusement le délai d’attente, pour comparer la fixation tumorale avant et après le traitement (quantification de la réponse thérapeutique), il faut accepter l’hypothèse que le temps pour atteindre le plateau et que la cinétique de captation tumorale ne sont pas modifiés par la thérapie. Ce qui n’est pas tout à fait le cas en pratique (Hamberg 1994) et ce point sera développé plus tard.

On sait que la glycémie est un facteur important qui influence directement la captation cellulaire du FDG. Quand la glycémie s’élève, la captation tissulaire du FDG diminue. Il ne s’agit pas que d’un effet compétitif entre le glucose froid et le FDG mais l’insuline joue un probablement rôle majeur dans la captation cellulaire du FDG. C’est pour ces raisons physiologiques que les examens se font après un jeune de 6 heures pour les patients non diabétiques et pour les patients insulino-dépendants, on diminue la dose d’insuline par un facteur 2.

Le métabolisme glucidique est différent dans les tissus adipeux et les autres tissus mous. Une variation de poids pourra se traduire par une variation de la captation de FDG amplifiée par le mode de calcul du SUV qui tient compte du poids du patient.

Il existe donc d’autres modes de normalisation des fixations tissulaires du FDG tenant compte:

De la surface du patient

SUVsurf= Fixation tissulaire(Bq/mL) / ((Activité injectée(Bq) / surface (m2))

La surface du patient est calculée empiriquement par des formules reliant le sexe, le poids et la taille des patients.

De la masse maigre du patient

 SUVmaigre= Fixation tissulaire(Bq/mL) /((Activité injectée(Bq)/masse maigre (kg))

La masse maigre d’une femme (kg) = 1,07 Poids (kg) – 148 (Poids(kg)/Taille(cm))2

La masse maigre d’un homme (kg) = 1,10 Poids (kg) – 120 (Poids(kg/Taille(cm))2

Ces normalisations de la fixation donnent des SUV indépendants des variations de poids.

2.3.7.5 Modèles compartimentaux

Le SUV correspond à un paramètre de dilution du FDG dans le volume de l’organisme. Il est possible de calculer un indice correspondant à une densité de récepteurs cellulaires de glucose par une approche compartimentale avec une détermination des taux d’échange entre les différents compartiments. Les compartiments correspondent, soit à une étape du métabolisme du traceur, soit à une étape de la fixation du traceur. La cinétique d’échange du traceur entre les différents compartiments est d écrite par des équations différentielles du premier ordre avec des taux d’échange constants qu’il faut préciser. Pour résoudre les équations différentielles par la méthode des pentes (Patlak 1983 et 1985) il faut connaître les taux d’échange et obtenir des données concrètes de variations, dans le temps, des concentrations du radiotraceur dans le plasma artériel. Il faut donc obtenir des prélèvements artériels et réaliser des acquisitions dynamiques qui représentent des contraintes incompatibles avec des examens cliniques en routine.

2.3.8 Mesure des performances

Les TEP sont très différents dans leur conception, le choix des cristaux scintillateurs, la configuration des détecteurs et de l’électronique, les techniques de correction et même dans les algorithmes utilisés pour la reconstruction des images. Il faut donc disposer de procédures standardisées de tests et de contrôle de qualité. Les procédures NEMA 1994 réactualisées en 2000 sont maintenant généralisées et leur utilisation admise pour comparer les performances de différents systèmes. Pour plus de concision, seules les procédures NEMA 2000 seront abordées dans ce travail.

Il faut distinguer les tests d’évaluation des performances avant la reconstruction qui sont caractéristiques du détecteur et les mesures sur l’image reconstruite qui permettent d’évaluer l’exactitude des procédures de reconstruction et de quantification. Compte tenu de la diversité des méthodes et des algorithmes utilisés par les constructeurs, il est souvent délicat de comparer les différents systèmes disponibles.

2.3.8.1 Performance des détecteurs

Les performances principales des détecteurs concernent la résolution spatiale et les taux de comptage.

2.3.8.1.1 Résolution spatiale

La résolution spatiale correspond à la capacité de détecter deux sources voisines. Plusieurs facteurs influencent ce paramètre :

  • De phénomènes physiques comme la distance parcourue par le positon entre son émission et son annihilation ainsi que le défaut de colinéarité dans l’émission des coïncidences. Ces facteurs dépendent donc de l’isotope émetteur de positon considéré. En général, il s’agit du 18F mais pour des isotopes plus énergétiques comme l’ 18O et le 11C les résolutions spatiales des systèmes seront forcément dégradées.
  • La conception du TEP avec en particulier la conception du détecteur élémentaire (cristal, taille des cristaux élémentaires …) et le diamètre de l’anneau.
  • L’échantillonnage des sinogrammes et des coupes reconstruites dont le nombre de pixels dépend du nombre de détecteurs élémentaires dans une coupe.
  • Les méthodes de reconstruction et des filtres de reconstruction utilisés qui sont le choix d’un compromis entre résolution spatiale et bruit.

Pour les machines TEP humaines les deux premières composantes sont peu importantes par rapport aux autres paramètres. Pour les machines animales, il faut diminuer le diamètre de l’anneau et surtout réduire de façon très important la taille des détecteurs élémentaires pour s’approcher au plus prés des résolutions intrinsèques du mode de désintégration du positon. Des résolutions spatiales de l’ordre de 2 mm sont maintenant obtenues dans des machines dédiées au petit animal.

D’un point de vue pratique la résolution spatiale est obtenue au moyen d’une source linéaire ou ponctuelle dans l’air (NEMA 1994,1999) ou dans un milieu diffusant (Figure 2-15).

Figure 2-15 : La résolution spatiale

Elle est définie comme la largeur à mi-hauteur du profil d’activité (FWHM) et la largeur au dixième de la hauteur (FWTM) renseigne sur la queue des distributions. Il faut réaliser ces tests dans les conditions les plus fines du système et en plaçant la source dans différentes positions dans le champ de vue. Quand ce paramètre est estimé après reconstruction il faut préciser le mode de reconstruction et le filtre utilisés.

Les valeurs des résolutions dépendent de la taille des cristaux, de leur épaisseur, de la génération et de la conception du tomographe ainsi que de l’émetteur de positon testé. Pour le 18F, la résolution spatiale peut varier de 5 à 8 mm sans filtre et de 7 à 10 mm sur les données filtrées en situation clinique de routine.

2.3.8.1.2 Taux de comptage & courbes NEC

Le taux de comptage est l’élément essentiel de la performance des TEP. Les images sont obtenues par reconstruction des projections mesurées qui sont rangées dans le sinogramme. Une faible fraction des coïncidences produites est enregistrée et une fraction des événements enregistrés correspond à des coïncidences vraies. Chaque valeur du sinogramme correspond au nombre de coïncidences mesurées pendant le temps d’acquisition. Le bruit propre à chaque mesure élémentaire est déterminé par la loi de Poisson. Les fluctuations statistiques sont inversement proportionnelles à la densité des événements mesurés.

Le taux de comptage qui caractérise une machine TEP est représenté par le rapport entre le nombre de coïncidences vraies détectées (signal) et le nombre de coïncidences aléatoires et diffusées (bruit). Le NEC (noise equivalent count) est le rapport entre le signal utile et le bruit. Il donne une idée du taux de comptage du système après élimination des coïncidences diffusées et aléatoires, mais ne tient pas compte des amplifications du bruit lors de l’étape de la reconstruction des projections. Le NEC correspond à une courbe qui est fonction de l’activité de la source. Le maximun de la courbe NEC correspond à la situation où le rapport signal/bruit est le plus favorable et devrait se situer dans la plage des activités utilisées en pratique clinique.

Les performances en taux de comptages sont le résultat de la conception de l’appareil et de son mode de mesure. La machine idéale est constituée d’un cristal scintillateur dense, rapide avec une bonne résolution en énergie pour permettre d’optimiser la sensibilité de détection tout en limitant les phénomènes physiques qui interviennent dans la mesure d’événements aléatoires ou diffusés parasites. Le mode d’acquisition 2D ou 3D joue sur la sensibilité du système. Le mode 3D augmente la sensibilité de détection mais avec un accroissement du nombre des coïncidences parasites. La situation des sources radioactives influence les performances des détecteurs : en 3D, les sources extérieures au champ de vue des détecteurs sont responsables de coïncidences diffusées et aléatoires.

En bref, les performances en taux de comptage d’un système est un critère global qui prend en compte la conception générale du détecteur, de son électronique et des mesures mises en place pour éliminer les coïncidences aléatoires et diffusés parasites.

2.3.8.1.3 Mesure des performances des taux de comptage

Les mesures sont réalisées à l’aide de 2 fantômes permettant d’étudier le compartiment des machines pour le cerveau et pour le corps-entier.

  • Cylindre de 20 cm de diamètre sur 20 cm de long pour l’exploration du cerveau qui est peu sensible à l’activité provenant de l’extérieur du champ de vue.
  • Cylindre de 20 cm de diamètre sur 70 cm de ce de long pour l’exploration corps-entier. Ce fantôme permet de tenir compte de l’incidence de sources radioactives en dehors du champ de vue comme c’est le cas, en pratique clinique, avec la présence d’organes très radioactifs (cerveau, vessie et cœur) en dehors du champ de vue.

Il faut calculer :

  • la fraction de diffusé
  • les différents taux de comptage des événements vrais, aléatoires et diffusés
  • le rapports signal/bruit ou NEC
2.3.8.1.4 Mesure du taux de comptage :

Le fantôme est rempli avec une concentration radioactive permettant initialement de saturer les détecteurs. Des acquisitions sont réalisées de façon régulière dans le temps pendant 4 à 5 périodes radioactives pour mesurer les performances de la machine avec des gammes étendues de radioactivité. La durée de chaque acquisition est inférieure au 1/4 de la période de l’isotope et les acquisitions sont réalisées jusqu’à ce que le nombre d’aléatoires représente moins de 1% des coïncidences vraies et que les pertes des taux de comptage par temps mort soient inférieures 1%. A chaque acquisition, on mesure le taux de coïncidences vraies, aléatoires et diffusées et le rapport entre le signal et le bruit parasite est estimé par le calcul du NEC.

2.3.7.1.5 Mesure de la fraction de diffusés:

En pratique, le test est réalisé avec du 18F dont l’activité est telle que le taux de comptage des aléatoires et les pertes de comptage dûs au temps mort est inférieure à 5%. Une ligne source de 3,2 ± 0,2 mm de diamètre interne est remplie d’une quantité connue de 18F est placée à 45 mm dans la verticale inférieure du centre du fantôme.

Traitement des données :

Figure 2-16 : Calcul des diffusés

Tous les sinogrammes sont générés sans correction pour chaque acquisition j de la coupe i. Les sinogrammes contiennent toutes les informations concernant les coïncidences vraies, aléatoires et diffusées. Pour chaque sinogramme la ligne source correspond au pixel ayant la plus grande valeur. La projection est arrangée par déplacement pour que le pixel le plus chaud soit situé au centre de la ligne du sinogramme. Après l’alignement, on somme les projections c’est à dire qu’un pixel dans la projection somme représente la somme des pixels de chaque projection angulaire.

Les dernières acquisitions j’ possèdent un taux d’événements aléatoire et de perte < 1% et sont donc utilisées pour le calcul de la fraction de diffusés.

On considère que, au niveau des pixels Cij’ dt et Cij’ gche , il n’existe que des événements diffusés et que CTot, i,j’ représente toutes les coïncidences vraies et diffusées (Figure 2-16).

La fraction de diffusé SFi pour chaque coupe est calculée en sommant toutes les acquisitions de faible activité :

SFi = Σj’ Cij’ dt + gche /Σj’ Cij’ Tot

La fraction des diffusés est donc la moyenne des valeurs de SFi.

2.3.8.1.6 Mesure du taux de comptage global:

Pour chaque acquisition j le taux de comptage global RTot,i,j des événements vrais est donné dans chaque coupe i par : RTot,i,j = CTot,i,j / Tacq,j

Puis on somme toutes les coupes i de l’acquisition j

2.3.7.1.7 Mesure du taux de comptage des événements vrais:

Pour chaque acquisition j le taux de comptage des événements vrais Rv,i,jest donné dans chaque coupe i par :

Rv,i,j = (CTot,i,j -C dt+gche,i,j ) / Tacq,j

Puis on somme toutes les coupes i de l’acquisition j

2.3.8.1.8 Mesure du taux de comptage des événements aléatoires:

Pour chaque coupe i le taux de comptage des événements aléatoires Ra,i,jest donné par :

Ra,i,j = RTot,i,j (Rv,i,j / (1-SFi))

Puis on somme toutes les coupes i de l’acquisition j

2.3.8.1.9 Mesure du taux de comptage des événements diffusés:

Pour chaque coupe i le taux de comptage Rd,i,j des événements diffusés est donné par :

Rd,i,j = Rv,i,j (SFi / (1-SFi))

Puis on somme toutes les coupes i de l’acquisition j

2.3.8.1.10 Mesure du NEC:

Pour les systèmes qui ne réalisent pas de mesure directe de soustraction des aléatoires : pour chaque acquisition j, le taux de comptage RNEC,i,jpour chaque coupe i est donné par :

RNEC,i,j = (Rv,i,j )2 / RTot,i,j

Pour les systèmes qui réalisent une mesure directe de soustraction des aléatoires : pour chaque acquisition j, le taux de comptage RNEC,i,jpour chaque coupe i est donné par :

RNEC,i,j = (Rv,i,j )2 / (RTot,i,j+ Ra,i,j )

2.3.8.1.11 Analyse des courbes:

L’évolution de nombre total de coïncidences mesurées met en évidence l’écart entre les événements mesurés et la relation linéaire extrapolée à partir des concentrations faibles. L’écart, de plus en plus important lorsque la concentration radioactive s’accroît, s’explique par la saturation des détecteurs. En effet, la détection de deux coïncidences pendant la fenêtre temporelle d’intégration entraîne un phénomène d’empilement des deux photons de 511 keV donnant une intégration de 1022 keV (511 keV + 511 keV) qui sera rejetée par le système d’analyse de l’énergie. Pour des activités importantes et pour des champs de vue importants, le phénomène d’empilement devient majoritaire (typique sur les cristaux de NaI de grande surface) et la chute des taux de comptage entraîne une diminution globale des performances du système. La saturation du système dépend de plusieurs facteurs :

  • La durée de l’intégration, d’où l’importance du scintillateur rapide et de son temps d’émission de la lumière de fluorescence.
  • De la surface de la zone de détection élémentaire ou du bloc de détection dans laquelle, on peur rencontrer ces phénomènes d’empilement (d’où l’intérêt de diminuer la taille des détecteurs élémentaires pour compter des activités élevées).
  • Il faut analyser la proportion respective des coïncidences vraies (signal) et des coïncidences diffusées et aléatoires parasites (bruit).
    • Le taux d’événements aléatoires est fonction de la durée de la fenêtre de coïncidence et du carré de l’activité du champ de vue. Il peut être négligé pour des concentrations radioactives faibles.
    • Le taux d’aléatoires peut être du même ordre de grandeur que les coïncidences vraies pour des activités importantes. La meilleure technique pour réduire le taux des aléatoires est la réduction de la durée de la fenêtre temporelle possible pour les cristaux scintillateurs rapides associés à des électroniques performantes.
    • La fraction de diffusés par rapport aux coïncidences vraies est constant pour des variations de concentrations radioactives. L’importance des diffusés dans la détection du nombre de coïncidences est fonction de la résolution en énergie du système et de la largeur de la fenêtre temporelle d’acquisition.

La courbe NEC est obtenue en combinant les taux de comptages des différentes coïncidences. La courbe NEC passe par un maximum pour lequel le rapport signal/bruit est optimum et qui devrait correspondre aux conditions d’acquisitions pratiques en clinique (Figure 2-17). La concentration radioactive du NEC devrait permettre de déterminer l’activité à injecter aux patients pour utiliser au mieux, les performances de tomographe, en tenant comte du délai d’attente entre l’injection et le passage sous la caméra.

Figure 2-17 : Courbes des taux de comptage.

En pratique, pour préciser les performances d’un système et pour toutes les concentrations radioactives moyennes, il faut tracer la courbe des :

RTot,i,j , Rv,i,j, Ra,i,j , Rd,i,j et RNEC,i,j

On déduit des courbes tracées, les valeurs maximales des :

  • Rv,peak: taux de comptage du pic des événements vrais
  • RNEC,peak: taux de comptage du pic du NEC
  • av,peak: concentration d’activité permet-tant d’atteindre le Rv,peak 
  • aNEC,peak: concentration d’activité permettant d’atteindre le RNEC,peak
2.3.8.1.12 Comparaison des systèmes:

L’analyse des différentes courbes de taux de comptage et des courbes NEC permet de comparer différents tomographes. La courbe NEC, qui intègre la combinaison des différents comptages des coïncidences vraies et parasites, est probablement l’index le plus performant pour juger les performances techniques intrinsèques des machines (Figure 2-18).

Figure 2-18 : Comparaisons des courbes NEC (NEMA 1994 avec un fantôme de 20 cm) de 3 tomographes équipés de cristaux de NaI.

La Vertex® et la Varicam® sont des gamma caméras grands champs double têtes équipées de détection de coïncidences (TEDC) et la CPET est un TEP dédié composé de 6 cristaux « grand-champ » répartis en anneau (de Dreuille 1999). Les maximums des courbes NEC des TEDC sont comparables mais il existe une augmentation d’un facteur 10 du maximum de la courbe NEC entre les TEDC et le TEP dédié CPET. Les performances limitées des caméras TEDC s’expliquent par l’utilisation de cristaux de NaI de 19 mm d’épaisseur et d’un angle solide de détection assez réduit en comparaison de la CPET. En raison de leurs grandes surfaces de détection, les phénomènes de saturation se produisent pour des concentrations faibles pour les détecteurs-plans de NaI par rapport aux autres types de conception de caméras.

Les TEP conçus à partir de détecteurs blocs sont moins sensibles aux phénomènes d’empilements que les TEP avec des détecteurs plans. Les cristaux modernes plus rapides autorisent une durée d’intégration plus courte et donc des fenêtres de coïncidences plus courtes permettant d’augmenter les taux de comptages et donc de fonctionner avec des gammes de concentrations radioactives plus élevées.

2.3.8.1.13 Sensibilité

La sensibilité exprime la capacité de l’appareil à détecter les photons. Sa détermination en kcps/MBq/mL peut être réalisée avec ou sans correction des coïncidences diffusées mais toujours dans des conditions de faibles taux de comptage pour éviter les phénomènes de saturation des détecteurs et les coïncidences aléatoires. La procédure effectue une mesure de sensibilité absolue. Les positons émis s’annihilent en rencontrant des électrons de la matière. Il faut donc entourer la source de matière pour avoir des annihilations et cette matière est responsable de phénomènes d’atténuations des photons de coïncidences dont il faudra tenir compte.

La mesure : Elle s ‘effectue avec une ligne source de 700 + 5 mm en plastique remplie de 18F dont l’activité est telle, que le taux de coïncidences aléatoires n’excède pas 5 % et que les pertes de comptages soient inférieures à 1 %. Cette activité parfaitement connue est notée Acal et l’heure de la mesure Tcal. Il faut utiliser une série de 5 manchons en métal d’épaisseurs connues (de 3,9 mm à 16,6 mm en diamètre interne et de 6,4 à 19,1 mm de diamètre externe). Plusieurs séries d’acquisition sont réalisées avec la ligne source au centre du fantôme (non rempli d’eau) ou avec un décalage de 10 cm. A chaque acquisition, on interpose un tube de métal supplémentaire. La durée de chaque acquisition est déterminée pour obtenir une statistique de comptage supérieure à 100 000 coïncidences vraies /coupe.

Traitement des données : il faut disposer

  • d’un réarrangement des sinogrammes sans correction
  • d’un enregistrement de la durée de l’acquisition Tacq
  • du temps de mesure Tl
  • du taux Rl,i =coups dans la coupe / Tacq s’exprime en en coups/s
  • pour chaque mesure des 5 épaisseurs, on corrige le comptage par la décroissance :

Rcor,j,l = Rj,i 2(Tj - Tcal)/T1/2

  • toutes les coupes sont sommées et les données obtenues sont corrigées de l’atténuation en utilisant une formule de régression :

Rcor,j = Rcorr,O exp(- µM 2Xj)

Avec les inconnues : Rcorr,O et µM

Xj = épaisseur cumulée

Rcorr,O = taux de comptage sans atténuation

µM = la valeur de l’atténuation dans le métal métal

La sensibilité du système est donnée par la formule:

STot = Rcorr,O / Acal

Le profil axial de sensibilité est obtenu avec le plus petit tube de métal et la ligne source au centre du fantôme pour chaque coupe i :

Si = (Rcorr,l,i / Rcorr,l) STot

2.3.8.2 Exactitude des corrections

Objectif : vérifier l’exactitude des corrections en particulier pour les forts taux de comptages rencontrés en clinique.

Mesure : les données acquises pour les différents taux de comptage sont utilisées pour la mesure des erreurs après application des méthodes de correction. La comparaison se fait entre le taux des événements vrais corrigés et celui attendu et extrapolé à partir des acquisitions à faible taux de comptage (considérant comme négligeables, les pertes de temps mort et les coïncidences < 1%). On travaille sur une ROI circulaire de 180 mm centrée sur la ligne source et tracée sur chaque coupe de l’image.

Traitement des données :

On connaît le nombre d’événements vrais plus diffusés : Rv+d,i,j

Rv+d,i,j = Cv+d,i,j / Tacq,j

Pour chaque coupe i , de chaque acquisition j, on calcule le rapport Rext,i,j que l’on devrait mesurer si, il n’y avait pas de saturation du détecteur pour les 3 acquisitions k1, K2 et K3 réalisées avec les plus faibles activités:

Rext,i,j = (Aave,j /3) 3Σk=1(Rv+d,i,j/Aave,k)

Pour chaque coupe i , de chaque acquisition j, le pourcentage de perte PDTi,j due à la saturation du détecteur est:

PDTi,j = 100- 100 (Rv+d,i,j/Rext,i,j)

Pour chaque coupe i , on fait une interpolation linéaire pour déterminer la concentration d’activité qui donne une perte de 50%

Pour le système, toutes les coupes i , de chaque acquisition j, sont sommées :

PDTsys,j = 100- 100 (Rv+d,sys,j/Rext,sysj)

L’erreur relative du taux de comptage (Δri,j) est la différence entre le taux de comptage attendu et celui mesuré. On l’exprime en pourcentage

Δri,j = 100 (RROI,i,j/RExt,i,j)

2.3.8.3 Qualité image

Objectif : Pouvoir comparer la qualité d’image de différents systèmes dans des situations standardisées simulant les conditions cliniques avec un fantôme contenant des sphères froides et chaudes. Le contraste de l’image, le rapport signal/bruit des sphères chaudes et froides sont utilisés pour mesurer la qualité de l’image. On peut même déterminer l’exactitude des corrections d’atténuation et de diffusion.

Acquisition: la concentration du bruit de fond du fantôme doit être de 5,3 kBq/mL ± 5% calibrée pour le début de l’acquisition. Cette concentration de 370 MBq/ 70 000 mL (soit 10 mCi pour 70 Kg) correspond à une activité standard injectée en clinique.

Le fantôme (Figure 2-19) est constitué de 4 parties :

  • Le fantôme ellipsoïde
  • 6 sphères remplissables, dont l’épaisseur est inférieure à 1 mm et le diamètre interne variable de:
    • 10 mm
    • 13 mm
    • 17 mm
    • 22 mm
    • 28 mm
    • 37 mm
  • Pour simuler l’atténuation du poumon, un insert cylindrique est constitué d’un matériau de faible numéro atomique et d’une masse volumique moyenne de 0,3 ± 0,1 g/mL mesurant 50 ± 2 mm de diamètre externe. Cet insert est placé au centre du fantôme sur toute sa longueur axiale
  • Un fantôme test (ligne source dans un cylindre en polyéthylène) pour calculer la fraction de diffusés et faire les mesures de taux de comptage.

Mesure :

  • Les deux plus grosses sphères sont remplies d’eau pour simuler des lésions froides et les quatre plus petites de 18F pour simuler des lésions hyperfixantes. Le centre des sphères est placé à 68 mm du bord du fantôme, dans la même coupe transverse. Le centre des sphères dans la coupe transverse est situé à 57,2 mm du centre.
  • La ligne source remplie de 18F est placée dans le fantôme-test, lui-même situé en haut du fantôme à boules en s’appuyant sur lui pour simuler une activité hors du champ de vue des détecteurs.
  • Le temps d’acquisition doit être du même ordre de grandeur que celui utilisé en clinique pour réaliser un examen corps-entier (2m/h). Ce temps doit tenir compte de l’acquisition de transmission et d’émission.

Traitement des données :

les coupes sont reconstruites en utilisant toutes les corrections accessibles en clinique et les paramètres de traitement des données standardisés et correspondant à ceux de la routine clinique (même taille de matrice, même taille de pixel, même épaisseur de coupe, même filtrage, même reconstruction…)

On utilise une coupe transverse centrée sur les sphères chaudes et froides.

Figure 2-19 : Fantôme de boules

Plusieurs ROI sont tracées :

6 ROI circulaires dont les diamètres sont les plus proches possibles, des diamètres des sphères à étudier, sont placées sur les 6 sphères.

  • Des ROI de même diamètre que celui des sphères sont placées dans le bruit de fond :
  • 12 ROI de 37 mm de diamètre sont placées à 15 mm des bords du fantôme.
  • Dans le 12 ROI périphériques, on place 6 ROI concentriques dont le diamètre correspond à celui des sphères chaudes et froides.
  • Les ROI de bruit de fond sont tracées sur la coupe centrale et sur 4 autres coupes situées 1 et 2 cm de part et d’autre de la coupe centrale.
  • On dispose de 60 ROI de bruit de fond pour chaque diamètre de sphère.
  • On mesure le nombre de coups moyen dans chaque ROI.

Le contraste QH,j des sphères chaudes j est calculé de la façon suivante:

QH,j= 100 (CH,j /CB,j –1) / ((aH /aB ) –1)

Avec

CH,j : nombre de coups moyens dans la ROI pour la sphère j

CB,j : nombre de coups moyens dans la ROI de bruit de fond pour la sphère j

aH j : concentration d’activité dans les sphères chaudes

aB j : concentration d’activité dans le bruit de fond

Le contraste QC,j des sphères froides j est calculé de la façon suivante:

QC,j= 100 (1- (CC,j /CB,j))

Avec

CC,j: nombre de coups moyens dans la ROI pour la sphère j

CB,j : nombre de coups moyens dans la ROI de bruit de fond pour la sphère j

La variabilité du bruit de fond pour une sphère j est calculé de la façon suivante:

Nj= 100 (SDj /CB,j)

Avec

SD,j: déviation standard du nombre de coups dans la ROI du bruit de fond pour la sphère j calculé par la formule : SD,j= ( KΣk=1(CB,K,j- CB,j)2 / (K-1))1/2

et k = 60

2.4 Le FDG

2.4.1 Métabolisme glucidique des cellules tumorales

La notion de l’hyperconsommation de glucose par les cellules tumorales en particulier par l’accélération de la glycolyse avec production accrue de lactates au détriment de la voie des pentoses est une notion ancienne (Warburg 1956) mais fondamentale pour expliquer l’impact de l’imagerie TEP au FDG. Le FDG est un analogue du 2-désoxy-glucose qui pénètre dans les cellules par diffusion facilitée comme le glucose. Dans la cellule, il est phosphorylé en fluoro-2-DG-6-phosphate par l’hexokinase. Sous cette forme, il n’est pas métabolisé, ni déphosphorylé et il s’accumule dans la cellule. C’est ce mécanisme amplifié dans les cellules tumorales.

Les altérations du métabolisme glucidique ne sont pas liées à l’hypoxie mais à la modification tumorale du métabolisme glucidique et de ses intrications multiples avec les autres métabolismes. Il s’agit d’une dysrégulation correspondant à l’exagération d’adaptations transitoires et contrôlées de la prolifération cellulaire normale. Il faut un échappement aux mécanismes de régulation par rétrocontrôle pour aboutir à la permanence de réactions métaboliques normalement transitoires et déclenchées par des facteurs de croissances cellulaires. Pour résumer, il y a dans les cellules tumorales une inhibition de la voie oxydative:

  • Une perte de l’inhibition de l’hexokinase liée aux mitochondries avec activation permanente glucose en glucose-6-phosphate et production permanente de fructose-6-phosphate
  • Une perte de l’activité pyruvate kinase réorientant la glycolyse vers la voie des pentoses
  • Le fructose-6-phosphate formé n’est que très lentement transformé en pyruvate

Le transport facilité du glucose dans la cellule tumorale est assuré par le transporteur GLUT1. Il existe parallèlement une augmentation du transport du glucose dans la cellule tumorale par plusieurs mécanismes :

  • Une augmentation du nombre de transporteurs GLUT1 par augmentation de sa synthèse. Les facteurs de croissances et certains oncogènes induisent la trancription du gène de Glut1 par action directe. Et c’est ce mécanisme qui est prédominant dans les cellules tumorales.
  • Une augmentation du nombre de transporteurs fonctionnels à la surface de la cellule.
  • Une augmentation de l’activité des transporteurs préexistants

2.4.2 Signification biologique de l’hypermétabolisme glucidique tumoral

L’augmentation du métabolisme glucidique par les tumeurs peut provenir de différents phénomènes (Vuillez 1998):

L’augmentation du transport du glucose est sous la dépendance de l’expression du gène de GLUT1 qui s’intègre dans la cascade des événements conduisant à la division cellulaire.

L’augmentation de la glycolyse résultant de la dysrégulation de la phosphorylation d’enzymes, elle est donc plus liée au contrôle de la glycolyse qu’à sa capacité métabolique en relation étroite et dépendante des autres métabolismes.

Pour résumer : Les modifications du transport du glucose reflètent plus le niveau de prolifération cellulaire que les modifications enzymatiques et métaboliques.

2.4.3 Signification de la captation in vivo du FDG

La fixation du FDG n’est pas spécifique des cellules tumorales. La variabilité relative des modifications du transport et du métabolisme glucidique va dépendre des modèles ou des tumeurs étudiées. L’augmentation du métabolisme glucidique et/ou du nombre de transporteurs peut être évalué par scintigraphie au FDG . La fixation de FDG par les tumeur pourrait refléter plus ou moins le niveau de :

  • La prolifération cellulaire
  • La viabilité tumorale
  • La différenciation cellulaire
  • Le degré de malignité et le grade histologique
  • L’importance de l’hypoxie (Clavo 1995 et 1996)
  • L’effet de la chimiothérapie (Haberkorn1992 et 1994). L’augmentation précoce de la fixation du FDG s’accompagnant d’une baisse significative du nombre de cellules tumorales peut s’expliquer par l’adaptation métabolique des cellules survivant à la chimiothérapie.
  • Ou même dans l’utilisation de modèles animaux, où il a été decrits des fixations de FDG en rapport avec le granulome inflammatoire intra ou péritumoral (Kubota 1992)

Il faudra se souvenir que la scintigraphie au FDG dont l’intérêt en oncologie n’est plus à démontrer, n’explore que certains aspects du métabolisme cellulaire et l‘importance de l ‘accumulation intracellulaire de FDG étant plurifactorielle, elle ne pourra pas être toujours expliquée de façon simple et univoque.

2.4.3.1 Indications

Les indications générales en cancérologie ont été récemment bien documentées (Gambhir 2001) et peuvent être résumées en plusieurs catégories :

  • Caractérisation d’une lésion tumorale maligne
  • Bilan d’extension de la maladie
  • Recherche de signe d’évolution ou de récidive devant l’élévation d’un marqueur tumoral
  • Différenciation entre récidive ou maladie résiduelle et remaniements post thérapeutiques
  • Etude de patients métastatiques de primitif inconnu
  • Diriger la biopsie vers la zone tumorale la plus agressive.
  • Evaluation de la réponse thérapeutique après radiothérapie ou chimiothérapie
  • Préciser les zones métaboliques pour les centrages de radiothérapie

Le FDG possède en France depuis 1998 une AMM réactualisée en 2001, 2002 et 2004. Les indications s’appuient sur « les données bibliographiques et le contexte clinique amenant à la décision pluridisciplinaire d’utilisation ». Les indications plus particulièrement documentées concernent le poumon, les voies aéro-digestives supérieure (VADS), les récidives des cancers colo-rectaux, le lymphome et le mélanome malin cutané, et plus précisément :

  • Le diagnostic de nodule pulmonaire isolé (caractérisation bénin/malin).
  • La stadification initiale et la détection des récidives suspectées des cancers du poumon, des VADS, des lymphomes et des mélanomes.
  • La stadification et détection des récidives suspectées des cancers colo-rectaux.
  • Le suivi de la réponse thérapeutique des cancers des VADS et des lymphomes.

Les indications de l’AMM ont été reprises et l’analyse des résultats a été précisé dans les Standards Options et Recommandation (SOR) publié en février 2002 avec une mise à jour en novembre 2003 (Bourguet 2003).

En dehors de ces indications, l’utilisation du FDG est possible dans des projets de recherche validés par les délégations de recherche clinique dans le cadre de la loi Huriet ou en fonction de données publiées dans la littérature.

2.5 Autres traceurs émetteurs de positons

Tableau 2-3 : Traceurs émetteurs de positons utilisés en recherche en oncologie
TRACEUR TEP Cible du marquage Application
[11C] méthionine Transport cellulaire des acides aminés Imagerie tumorale(cérébrale)
[18F] FET Transport cellulaire des acides aminés Imagerie tumorale (cérébrale)
Différenciation inflammation et tumeur
[11C] choline
[18F] choline
Synthèse des lipides (membranaires) Imagerie tumorale (prostate et vessie)
[11C] acétate Métabolisme lipidique Imagerie tumorale (prostate)
[18F] FLT Prolifération - Apoptose Imagerie tumorale, stadification, suivi thérapeutique
[11C] Thymidine Catabolisme de la thymidine Demi-vie du 11C rend inutilisable en pratique courante
[24I] annexine V Apoptose Suivi thérapeutique
[18F]FDOPA Stockage des amines
Transport des acides aminés
Imagerie des tumeurs neuroendocrines.
Tumeur cérébrale
[18F]FP-GlucTOCA Récepteur de la somatostatine Imagerie des tumeurs neuroendocrines
[86Y] DOTATOC Récepteur de la somatostatine Traitement des tumeurs neuroendocrines
[18F] FMISO Oxydoréduction cellulaire Imagerie de l’hypoxie tumorale
[18F] FAZA Oxydoréduction cellulaire Imagerie de l’hypoxie tumorale
[60Cu] ATSM Oxydoréduction cellulaire Imagerie de l’hypoxie tumorale
[18F] FETNIM Oxydoréduction cellulaire Imagerie de l’hypoxie tumorale
[18F] RGD Adhésion cellulaire Imagerie de la néoangiogenèse

2.5.1 Traceurs métaboliques

L’augmentation du métabolisme tumoral concerne (a) le métabolisme glucidique (étudié par le [1 8F] FDG) mais aussi (b) le métabolisme des acides aminés. La [11C] méthionine et la [18F] FET (fluoro-ethyl-tyrosine) sont capables de se fixer sur les tumeurs. La captation cellulaire de la [11C] méthionine et de la [18F] FET est le reflet du transport des acides aminés par l’intermédiaire des systèmes de transport spécifiques (A ou L). Après leur pénétration cellulaire, la [11C] méthionine et la [18F] FETne peuvent plus être métabolisés ni incorporés dans la synthèse protéique. Ces traceurs peuvent permettre de localiser des tumeurs en complément du FDG, dans des régions de forte consommation physiologique de glucose (comme dans le cerveau). Par contre, leur utilisation est inutile dans le tube digestif en raison de leur forte concentration physiologique. La [11C] MET pourrait permettre de mieux différencier l’infiltration tumorale de l’inflammation sur des modèles expérimentaux (Rau 2002). La réponse thérapeutique est mal estimée par les méthodes conventionnelles morphologiques qui ne permettent pas de prédire la chimiosensibilité comme l’imagerie fonctionnelle au FDG. La TEP au FDG a été étudiée pour prédire précocement la chimiosensibilité de différents cancers (colo-rectaux, pulmonaires, de l’œsophage et les lymphomes). La diminution de la fixation tumorale précoce après chimiothérapie permet de discriminer les bons et les mauvais répondeurs. Les donnés plus parcellaires pour juger de l’intérêt potentiel des traceurs du métabolisme des acides aminés dans la réponse thérapeutique. L’imagerie à la [11C] MET permettrait de différencier dans les cancers de la tête et du cou les bon répondeurs à la radiothérapie (Nuutinen 1999).

La [11C] choline devrait être intéressante pour certaines tumeurs de l’arbre urinaire comme les cancers de la prostate et de la vessie. L’imagerie TEP à la [11C]choline permet de localiser la tumeur primitive et l’envahissement ganglionnaire dans le bilan initial comme dans le suspicions de récidives avec élévation des PSA (de Jong 2003).

2.5.2 Traceurs de prolifération

La [11C] Thymidine ne peut pas être utilisée en pratique courante compte tenue de son catabolisme important et de sa demi-vie trop courte. La [18F] Fluoro-3’- déoxythymidine (FLT) pénètre dans les cellules, puis la [18F] FLT est phosphorylée par la thymidine kinase (TK-1) et s’accumule dans dans la cellule sous cette forme. La [18F] FLT serait un traceur indirect de la prolifération cellulaire dans les cancers du poumon (Buck 2003) et les lymphomes (Wagner 2003). Mais ces traceurs seraient moins performants que le [18F] FDG pour la stadification tumorale.

La prolifération tumorale est étroitement liée aux phénomènes d’apoptose. De nombreuses stratégies thérapeutiques (chimiothérapie ou radiothérapie) exercent une partie de leurs effets en induisant des phénomènes d’apoptose. L’apoptose peut se caractériser par l’extériorisation de phosphatidylsérine du feuillet interne vers le feuillet externe de la membrane cellulaire dans les 90-120 min qui suivent l’initialisation du processus d’apoptose. L’annexine V est une protéine d’origine humaine qui présente une affinité très importante pour les membrannes cellulaires qui exprime le motif phosphatidylsérine. L’annexine V recombinante marquée au [99mTc] a été utilisée pour détecter l’apoptose induite par la chimiothérapie dans des modèles animaux (Blankenberg 2001). Il est possible de marquer l’annexine V par 124I ou 18F pour bénéficier des avantages de l’imagerie TEP en terme de résolution et de quantification. La prédictibilité de la chimiosensibilité après la première cure de chimiothérapie a été testée dans une série de 15 patient porteurs de tumeurs variées avec des résultats intéressants à l’aide de l’imagerie par [99mTc] annexine V (Belhocine 2002).

2.5.3 Traceurs de molécules de surface cellulaire

L’identification de molécules spécifique sur la surface de cellules tumorales permet leur détection par utilisation de ligands spécifiques. L’antigène CD20 est une phosphoprotéine exprimée à la surface des lymphocytes B matures et des lymphomes B à grandes cellules. Des anticorps anti CD20 (Rituximab) sont utilisés depuis 1997 avec succès dans lee traitement des lymphomes malins non hodgkiniens qui expriment le CD20. L’effet de l’anti-CD20 peut être majoré en couplant un émetteur β comme l’ 131I ou 90Y (Zévalin) et a été utilisé avec un certain succès dans les lymphomes réfractaires au rituximab.

Certaines tumeurs d’origine neuro-endocrine expriment des récepteurs membranaires à la somatostatine. Des analogues à la somatostatine (octréotide) peuvent être marqués par des émetteurs monophotoniques comme l’ 111In pour l’imagerie tumorale (Octreoscan) ou pour des éssais de thérapie avec des émetteurs β. En TEP, il est possible de marquer avec du 18F un analogue de la somatostatine qui se lie avec les sous-types SST2 des récepteurs à la somatostatine. Le [18F] FP-Gluc-TOCA ([18F] fluoropropionyl-Lys-Tyr-octréotate) permet la détection spécifiques de tumeurs exprimant le récepteur SST2 avec l’amélioration de la sensibilité et de la résolution par rapport à l’imagerie monophotonique.

2.5.4 Traceurs de l’environnement tumoral

La croissance et la viabilité tumorale sont sous la dépendances de facteurs environnementaux qui induisent et favorisent la formation de vaisseaux. La formation de néoangiogenèse entraîne l’apparition de marqueurs cellulaires spécifique sur la surface membranaire des cellules endothéliales néoformées. L’intégrine αvβ3 joue un rôle important dans la néoangiogenèse en favorisant l’adhérence des néocellules endothéliales sur la matrice extracellulaire. Des anticorps ou des peptides dirigés contre l’intégrine αvβ3 en permettant son inhibition, provoquent une diminution majeure de la néoangiogenèse péritumorale entraînant une régression de la tumeur.

Le [18F] RGD est un peptide contenant une séquence arginine-glycine-aspartate qui permet de visualiser l’intégrine α vβ3 exprimée par les néovaisseaux (Haubner 2001). L’imagerie morphologique conventionnelle est limitée pour juger de l’effet de thérapeutiques antiangiogéniques. En effet, ce type de thérapie provoque des effets de type cytostatique plutôt que cytotoxique. Les effets de type cytostatiques sont mal évalués par les techniques morphologiques qui détectent des diminutions du volume de la tumeur et non des variations fonctionnelles. L’imagerie fonctionnelle a un rôle important à jouer à côté de l’imagerie morphologique en permettant de visualiser l’effet cytostatique d’une nouvelle thérapeutique sur une tumeur de volume stable.

Enfin parmi les facteurs environnementaux influençant la réponse thérapeutique, il faut souligner l’importance de l’hypoxie. Dans des conditions d’hypoxie, les cellules tumorales sont plus résistantes aux radiations ionisantes. Il peut être intéressant de définir l’hétérogénéité de l’hypoxie du tissu tumoral, avant la détermination du volume cible à irradier. Plusieurs marqueurs sont utilisables in vivo pour étudier l’hypoxie tumorale :

  • le [18F] FMISO (fluoromisonidazole),
  • le [18F] FAZA (fluoroazomycinarabinofuranoside),
  • le [60Cu] ATSM (diacetyl-bis (N4-nethylthiosemicarbazone)),
  • et le [8F] FETNIM (fluoroerythronitromidazole).

Ces traceurs s’accumulent dans les cellules par mécanisme de réduction intracellulaire dans des conditions d’hypoxie. La détermination de régions hypoxiques au sein des tumeurs peut avoir une utilité dans la détermination des volumes cibles et comme facteur pronostique. La survie et la réponse au traitement de radiothérapie est inversement corrélée à la fixation des traceurs d’hypoxie (Sorger 2003). La mise en évidence de région hypoxiques pourrait justifier (a) des mesures pour augmenter l’oxygénation tumorale (oxygénothérapie hyperbarre, erythropïétine, transfusion sanguine) avant la radiothérapie ou (b) modifier la détermination des volumes cibles en augmentant les doses à délivrer sur les régions tumorales hypoxiques, détermineés en TEP/TDM

2.6 Autres radiotraceurs monophotoniques

2.6.1 Traceurs non spécifiques

2.6.1.1 Le gallium 67

La fixation du gallium par les tumeurs est connue depuis la fin des années 60, mais son mécanisme de fixation est encore en partie incompris. La fixation du gallium pourrait faire intervenir la transferrine plasmatique qui se lierait à la surface cellulaire par le récepteur de la transferine et dans la cellule la fixation du gallium se ferait en liaison avec la ferritine. Les tumeurs primitives comme les métastases fixent en général le gallium mais avec de taux de faux négatif supérieurs à 20%. Le gallium ne joue pas de rôle décisif dans le bilan d’extension initial ni dans la recherche de métastase. Il n’y a pas de relation entre l’intensité de la fixation et la nature histologique. La fixation diminuant après chimiothérapie, le gallium a été utilisé dans le suivi thérapeutique des lymphomes.

2.6.1.2 Le thallium 201

Le thallium est un analogue du potassium. La captation tumorale du thallium dépend de l’activité Na-K-ATPase cellulaire et reflète donc la viabilité et de l’activité métabolique de la cellule. Le thallium est capté de façon importante, par de nombreuses tumeurs, et il se fixe peu dans les lésions inflammatoires et nécrosées. C’est dons un marqueur de viabilité dont la fixation n’est pas modifiée par la chimiothérapie, les stéroïdes et la radiothérapie. Dans les tumeurs cérébrales il permettrait de différencier les gliomes de bas grades des gliomes de haut grades qui captent plus le thallium (Kim 1990). Les cellules gliales normales et les zones œdémateuses ou nécrotiques ne fixent pas le thallium, et il est utilisé pour différencier radionécrose de reprise évolutive après radiothérapie dans les tumeurs cérébrales. Les lymphomes de bas grades fixent plus le thallium que le gallium alors que c’est l’inverse pour les lymphomes de haut grade.

2.6.1.3 Le sestamibi marqué au 99mTc (MIBI)

La captation cellulaire du MIBI est fonction des potentiels de la membrane cellulaire et mitochondriale et le MIBI est stocké dans les mitochondries. La captation tumorale impliquerait de forts potentiels membranaires induits par l’accélération métabolique cellulaire.A la différence du Thallium, le MIBI intracellulaire ne migre plus sauf si il existe un transporteur membranaire : la P-glycoprotéine et le MIBI pourrait être un marqueur indirect de la chimiorésistance.

2.6.2 Traceurs spécifiques

2.6.2.1 Les analogues hormonaux

La métaiodobenzylguanidine = MIBG

C’est un analogue chimique de la Norepinephrine. Elle est captée par les cellules du tissu sympathique medullaire et stockée par les granules intra-cytoplasmiques concentrant les catécholamines. La MIBG est utilisée pour tumeurs de la médullosurrénale (phéochromocytomes) mais aussi pour les neuroblastomes et les tumeurs neuroendocrines (apudomes).

2.6.2.2 Les anticorps monoclonaux

L’utilisation d’anticorps monoclonaux permet de réaliser des immuno-scintigraphies. L’anticorps monoclonal doit être dirigé vers un antigène tumoral spécifique et présent de façon abondante (plusieurs milliers) sur la surface membranaire. La fixation tumorale de l’anticorps dépend de sa biodisponibilité, de sa rémanence vasculaire et de l’absence de fixation parasite (hépatique) de la perfusion tumorale et de l’affinité tumorale. La rapide disparition de l’activité sanguine est nécessaire pour pouvoir détecter les lésions tumorales et des techniques d’injection en plusieurs temps ont été développées ou bien en utilisant des anticorps bifonctionnels. Ils ont été utilisés dans les mélanomes (225-28S), le cancer colo-rectal (Oncoscint B72.3 et anti ACE), les cancers ovariens (HMFG, SM3, MOV18, OC125, Oncoscint), le cancer de la prostate (CYT356) et le lymphome (CD20, CD33).

2.6.2.3 Les traceurs de récepteurs peptidiques

Les récepteurs membranaires de la somatostatine sont présents dans de nombreuses cellules d’origine tumorale neuroendorinienne mais aussi sur les lymphocytes, certaines tumeurs mammaires, tumeurs pulmonaires et des cancers colo-rectaux.

2.7 Procédures d’imagerie corps entier au 18FDG

Le premières images corps entier d’un radiotraceur émetteur de positon sont des images planaires obtenues à la fin des années 70, pour analyser la biodistribution et la dosimétrie de nouveaux radopharmaceutiques chez l’homme (Phelps 1978). Les premières tomographies n’apparaissent qu’au début des années 90 avec l’utilisation d’une fraction des projections puis l’ensemble des projections sur 180° (Dalhlbom 1992).

L’obtention des données en imagerie TEP est la conséquence de multiples étapes successives et la qualité du résultat final dépend de nombreux paramètres à optimiser pour améliorer les performances diagnostiques de l’examen. Le protocole d’examen en tomographie d’émission de positon est fonction du traceur utilisé, des qualités intrinsèques et des possibilités offertes par la machine. Tous les paramètres doivent être optimisés en fonction de l’examen demandé pour un patient donné, en vue de répondre à la question posée par le clinicien. Ces données vont être résumées dans la partie qui va suivre et ont été publiées récemment (Monteil 2004)

2.7.1 Préparation du patient pour des explorations oncologiques

Des recommandations ont été publiées afin de standardiser et assurer une qualité d’examen qui commence par une bonne préparation du patient. Le patient doit être à jeun depuis plusieurs heures pour ne pas être en situation d’hyperglycémie et surtout d’hyperinsulinisme réactionnelle. La glycémie, contrôlée systématiquement par prélèvement capillaire, doit être comprise entre 4 et 7 mmol/L au moment de l’injection du FDG. Le patient doit être au repos avant et après l’injection du FDG pour diminuer les fixations musculaires. Pour diminuer les fixations physiologiques musculaires, il faut respecter un délai entre l’injection du radiotraceur et l’acquisition du FDG qui est au minimum de 45 minutes et qui en fonction des habitudes des équipes peut s ’allonger jusqu’à 90 minutes. Lorsque l’on désire faire de la quantification par SUV, il est fondamental de réaliser des examens selon les mêmes protocoles standardisés au sein de la même équipe.

2.7.1.1 Prémédication

Certaines équipes réalisent une prémédication avec des benzodiazépines à visée myorelaxante (Valium) ainsi qu’une relaxation des muscles digestifs à l’aide d’un antispasmolytique intestinal (Spasfon). Pour augmenter la diurèse et provoquer une chasse uretérale, il est possible d’injecter un diurétique (Furosemide) avant le passage sous la caméra. Le gain attendu par l’injection de diurétique pour éliminer les fixations artéfactuelles d’origine urinaire peut parfois être contrebalancé par l’impériosité mictionnelle, qui rend l’immobilité du patient incertaine pendant l’acquisition.

2.7.1.2 Contre indications

La grossesse reste une contre-indication de principe et l’allaitement une contre-indication temporaire pendant 24h (à la fois pour l ‘élimination du FDG et diminuer le temps de contact proche entre la mère et son enfant).

2.7.1.3 Précautions

Le diabète équilibré ne contre-indique pas l’examen, mais il vaut mieux réaliser l’injection de FDG à distance de l’injection d’insuline, pour les diabètiques insulino-dépendants. Cela permet d’éviter les phénomènes de captation cellulaires physiologiques du glucose secondaires à l’élévation de l’insulinémie.

2.7.2 Acquisition des images au 18FDG

La principale indication de la TEP en clinique concerne l’oncologie, avec en particulier le bilan d’extension de la maladie au niveau local et général ce qui impose l’examen de l’ensemble du patient.

2.7.2.1 Méthodes d’acquisition

L’exploration axiale en TEP dédié est limitée par le nombre d’anneaux de détection qui autorisent une acquisition de l’ordre de 16 cm. Pour acquérir la totalité du corps, il est nécessaire de déplacer le patient dans le champ de vue par incréments successifs du lit du patient appelés « pas » (Figure 2-20) .

Le nombre « pas » est défini en fonctions de plusieurs paramètres :

  • La taille du patient
  • La longueur axiale du TEP
  • L’angle d’ouverture θmax qui conditionne le profil de sensibilité axiale (Figure 2-12).

Figure 2-20 : Déplacement du lit sur 2 positions adjacentes.

La correction de normalisation rétablit l’uniformité du profil de sensibilité en multipliant les projections par un facteur proportionnel à l’inverse de la sensibilité relative. Ce facteur de normalisation ne permet pas de contrôler la variance du bruit dans les lignes de réponse des bords de champ. Ce phénomène est en partie compensé par le chevauchement des champs de vue obtenu par un déplacement du pas inférieur au champ de vue axial. L’intervalle de recouvrement du lit permet de réduire les troncatures et donc d’améliorer l’uniformité du rapport signal/bruit dans le plan axial (Figure 2-21).

Figure 2-21: Protocole d‘acquisition avec recouvrement du lit et réduction des troncatures.

Un recouvrement de plus de 50% de position de lit permet de diminuer de façon importante le nombre de projections incomplètes en acquisition en mode 3D.

2.7.2.2 Problèmes spécifiques des acquisitions « corps-entier »

En TEP, le taux de comptage et donc la durée de l’acquisition influencent la qualité statistique des données. Les erreurs relatives des mesures sont inversement proportionnelles à la racine carrée du temps d’acquisition. Il faut déterminer des durées d’examen qui sont un compromis entre la durée acceptable pour le patient et la qualité d’image nécessaire pour répondre aux impératifs cliniques.

  • Pour des acquisitions en neurologie et en cardiologie qui nécessitent un à deux pas d’examen : 20 minutes est la durée suffisante pour obtenir des statistiques de comptage satisfaisantes pour un temps d’examen raisonnable.
  • Pour les acquisitions corps entier en oncologie, on considère qu’une heure d’examen (pour la transmission et l’émission) est la limite à ne pas dépasser.
  • Avec les dernières générations d’appareils conçus avec des cristaux performants (pour l’émission) et équipées d’un module de TDM multi-détecteur (pour la transmission de rayons X), il est possible de réaliser des acquisitions complètes en 30 à 45 minutes en fonction des activités injectées. L’acquisition en mode 3D permet d’améliorer nettement la sensibilité d’un facteur 5 à 7 pour les études cérébrales (Townsend 1991). En mode 3D corps entier, il apparaît des problèmes spécifiques, principalement liés à la présence de sources radioactives hors du champ du détecteur dont l’importance est majorée par le retrait des septa axiaux. Les sources radioactives hors du champ augmentent le nombre de photons qui entrent dans les détecteurs ce qui favorise l’augmentation du temps mort des détecteurs et augmente le taux de coïncidences aléatoires et diffusées.

Pour le cerveau la contamination est peu importante car il est à distance des autres zones d’hyperfixation (cœur, reins et vessie). Pour le poumon, la situation est plus critique puisqu’il subit l’influence du cerveau et du foie et l’abdomen subit l’influence de la vessie des reins et du cœur. Les coïncidences fortuites générées par les sources hors du champ de vue sont assez bien corrigées par les mesures traditionnelles (ligne à retard…), sans oublier que le taux de coïncidences aléatoires peut atteindre 50% des événement des détectés.

Les diffusés sont corrigés de façon plus délicate par les méthodes analytiques et simulées du type de Monte-Carlo ou bien par les méthodes d’analyse spectrale par multi-fenêtrage.

2.7.2.3 Traitement des données : reconstruction et réarrangement

En oncologie, les méthodes de reconstruction itératives sont maintenant devenues un standard en particulier les méthodes OSEM qui ont l’avantage de diminuer les artéfacts en étoiles des reconstructions par rétro-projection filtrée. Pour des acquisitions 3D, les reconstructions itératives 3D n’ont pas encore la diffusion que l’on attend des résultats théoriques obtenus sur fantôme. Il s’agit probablement d’un problème temporaire de développement et de disponibilité des algorithmes sur les différentes machines commercialisées. Pour l’instant, le standard correspond aux réarrangements des sinogrammes 3D par méthode de Fourier (FORE) auxquels on applique des reconstructions itératives 2D de type OSEM. En routine et pour des temps de reconstruction rapide, les algorithmes FORE-OSEM sont les plus répandus.

2.7.2.4 Correction d’atténuation

La correction d’atténuation est une nécessité en TEP, compte tenu du taux d’atténuation des photons qui peut dépasser 90 % sur les lignes de réponses les plus atténuées. Pour corriger de l’atténuation, il faut disposer de données de transmission pour établir une cartographie des coefficients d’atténuation propre au patient étudié. Les méthodes les plus anciennes utilisent des sources de positons (68Ge) ou des sources monophotoniques de forte énergie (137Cs). Ces méthodes robustes qui ont fait leur preuve sont maintenant remplacées par des sources de rayons x sur les appareils de dernière génération. En effet non seulement les sources de rayons x permettent d’obtenir les données d’atténuation propres au patient, en des temps d’acquisition de l’ordre de la minute, mais en plus, et ce n’est pas le moindre des avantages, les données de tomodensitométrie permettent de localiser avec une précision anatomique les anomalies de fixation détectées par le TEP.

2.7.2.5 Optimisation des protocoles

Les protocoles d’acquisition en TEP doivent être adaptés aux indications cliniques qui demandent principalement des renseignements de deux types :

  • La détection d’anomalies hypermétaboliques
  • La quantification de paramètres fonctionnels

Ce deux types d’application imposent des stratégies d’optimisations différentes car il n’est pas évident qu’un protocole optimisé sur le plan de la détection soit le plus performant sur le plan de la quantification.

Il est intéressant de lister les problèmes qui influençent les performances de détection, avant de parler d’optimisation:

L’activité à injecter au patient

Il existe une grande variation des activités injectées qui dépendent des performances et de générations des machines mais aussi de la disponibilité du FDG, des habitudes et de l’expérience des équipes.

La cinétique du radiotraceur dans les tissus sains et anormaux

Pour déterminer le délai optimal entre l’injection et l’acquisition de manière à faire les acquisitions au moment du plateau de captation tumorale avec une bonne élimination des tissus sains.

Le choix du mode d’acquisition 2D et 3D

Le choix dépend des caractéristiques du TEP, de son cristal et de l’expérience acquise empiriquement par l’équipe. Pour certaines équipes et avec des machines de dernière génération, le choix ne se pose pas car, seul le mode d’acquisition 3D est disponible. Pour les machines qui peuvent fonctionner en mode 2D ou en 3D il n’y a pas de réponse toute faite.

Par exemple pour une personne de poids important et pour une machine équipée de cristaux de BGO qu’elle est la stratégie la plus judicieuse :

  • faire une acquisition 2D avec septa pour diminuer les événements diffusés qui seront fortement augmentés dans ces conditions ?
  • pour favoriser la sensibilité de détection faut-il faire une acquisition 3D en augmentant l’activité injectée (qui augmente le taux d’aléatoires) ou faut-il injecter une activité normale ?

La durée de l’acquisition

Elle dépend du choix du mode d’acquisition, des caractéristiques physiques du système de détection en particulier des performances des taux de comptage.

La correction d’atténuation

La stratégie d’optimisation doit tenir compte des méthodes de correction disponibles sur les machines. Un seul industriel commercialise des machines avec une source de rayons x et une source radioactive pour l’acquisition les données de transmission. Les deux autres constructeurs ont choisi la correction d’atténuation unique par source de rayons x. Pour ne pas se faire piéger par les artéfacts de correction d’atténuation, et en particulier par l’apparition de foyers hyperfixants, artéfactuels créés artificiellement par sur-correction, il paraît raisonnable de regarder les images non corrigées de l’atténuation.

L’algorithme de reconstruction

Les algorithmes itératifs permettent de mieux contrôler la propagation du bruit et la diminution des artéfacts en étoile près des zones hyperfixantes. Mais il faut s’assurer que la texture du bruit généré ne gène pas la tâche de détection et d’interprétation.

2.7.3 Affichage des images

Les images sont présentées sous formes de coupes dans les 3 axes : transverse, sagittal et frontal. L’épaisseur des coupes est adaptée aux performances du système en terme de résolution spatiale et donc à la taille des pixels d’acquisition. Les différentes coupes sont examinées avec et sans correction d’atténuation et présentées sous forme d’échelle linéaire de gris.

Pour les images normalisées et quantifiées en valeur de SUV : les valeurs de SUV de chaque pixel de chaque coupe sont exprimés en échelle de gris linéaire jusqu’à une valeur de SUV de 2,5 et pour des valeurs de SUV > 2,5, on utilise une échelle de couleur discrète avec une couleur différente correspondant à chaque unité de SUV supplémentaire (Figure 2-22).

Il est souvent utile de disposer les acquisitions sous forme de projection transparente par les méthodes de lancer de rayon ou MIP (maximum intensity projection) qui permet de représenter les pixels les plus chauds rencontrées sur chaque ligne de réponse reconstruite.

Habituellement, pour des acquisitions optimisées et pour des activités injectées satisfaisantes, il n’est pas utile de filtrer les données reconstruites par les méthodes itératives.

Figure 2-22: Représentation d’une échelle d’affichage linéaire de 1024 valeurs.

A : correspondance linéaire des coups exprimés dans chaque pixel par une valeur de gris ou de couleur.

B : Pour profiter de toute la largeur de l’échelle et lorsque l’amplitude des activités exprimées dans l’image est importante, il est utile de seuiller les valeurs à afficher :

En dessous d’une activité, tous les pixels sont représentés par un niveau de noir

Au-dessus d’une autre activité, tous les pixels sont représentés par le niveau de blanc.

C : Pour les images normalisées et quantifiées en valeur de SUV : les valeurs de SUV de chaque pixel sont exprimées en échelle de gris linéaire jusqu’à une valeur de SUV de 2,5 et pour des valeurs de SUV > 2,5, on utilise une échelle de couleur discrète avec une couleur différente pour chaque unité de SUV.

2.7.4 Imagerie bimodale (morphologique et fonctionnelle)

La localisation anatomique des anomalies détectées en TEP est d’une importance cruciale, dans la prise en charge des patients en oncologie et en particulier, lorsqu’il est envisagé une intervention chirurgicale ou une radiothérapie centrée. Sur les images TEP corrigées de l’atténuation par des sources externes radioactives, la localisation anatomique était insuffisante pour programmer les gestes thérapeutiques interventionnels nécessitant des repérages minutieux, habituellement obtenus sur des modalités résolutives (TDM ou IRM). La complémentarité des images anatomiques et fonctionnelles explique le développement des techniques de superposition d’images et la généralisation des machines hybrides TEP/TDM qui permettent d’obtenir des images fusionnées des deux modalités.

Pour obtenir des images exploitables, il faut être capable de mettre en correspondance des images recalées obtenues dans les deux modalités. De nombreux travaux s’intéressent à cette partie de l’imagerie médicale en plein essor actuellement.

2.7.4.1 Recalage d’images provenant de machines indépendantes

La première approche est basée sur des techniques de recalage d’image obtenues des machines indépendantes. Il faut transférer sur une station de travail commune, les données mesurées sur les deux machines. Le transfert nécessite l’utilisation d’images codées dans un même format qui est en général DICOM. Pour réaliser le transfert, il existe deux possibilités :

  • Si les deux machines sont reliées par un réseau cablé, l’échange est facilité par l’utilisation d’un protocole d’échange DICOM
  • Si les deux machines ne sont pas reliées par un réseau cablé, l’échange peut se faire à partir de données stockées sur support. La généralisation des stockages sur CD ou DVD des modalités IRM et TDM facilite l’importation des données. Mais il faut que le stockage soit réalisé sous un format DICOM autorisant une importation DICOM vers la plate-forme de traitement d’image qui doit nécessairement posséder un lecteur CD ou DVD.
2.7.4.2 Transformation des images

Les images transférées doivent être mises au même format de matrice et d’épaisseur de coupe. En pratique, l’imagerie anatomique (TDM ou IRM) la plus résolutive est acquise avec les matrices les plus grandes (5122 ou 10242). L’imagerie la moins résolutive (TEP) qui est acquise avec des matrices plus petites (1282 ou 2562) est transformée en matrice équivalente par simple transformation des pixels.

2.7.4.3 Algorithmes de recalage
2.7.4.3.1 Les algorithmes de maximisation de l’information mutuelle.

Ce sont les algorithmes de recalage les plus utilisés. Pour le recalage de structures rigides et non déformantes comme le cerveau, ces algorithmes donnent de bon résultat en terme de recalage. Par contre pour le thorax et l’abdomen, les résultats sont plus limités. Les mouvements respiratoires et les mouvements du patient, le remplissage d’organe (comme la vessie) font que les images de structures identiques dans les deux modalités sont difficilement mises en correspondance. Il faut utiliser des algorithmes de déformation non rigide dite élastique qui sont plus complexes à mettre en place. On peut limiter les défauts de mise en correspondance en prenant des précautions lors des acquisitions des deux modalités (en limitant les différences de positionnement du patient par l’utilisation de cales identiques, en demandant une respiration moyennée au lieu d’une inspiration forcée…)

Les algorithmes de triangulation

En mettant en concordance un minimum de 3 points dans les deux jeux de coupes des deux modalités, il est facile de déformer et réorienter les coupes dans les trois plans de l’espace. C’est le principe du positionnement par triangulation.

2.7.4.3.2 Avec repères externes

Il faut disposer sur la peau du patient des repères externes visibles dans les deux modalités. On peut utiliser des repères de petite taille comme des billes de métal contenant un émetteur de positon (comme le 24Na) qui sont visibles en TDM comme en TEP. L’inconvénient de ce type de marqueurs réside dans le prix et des difficultés prévisibles, entrainées par la perte éventuelle d’un de ces repères qui sont soumis aux mêmes obligations que toutes les sources radioactives dans le domaine de la radioprotection. Une autre solution (utilisée en pratique courante dans notre service) est de disposer de petites sources remplissables. Des pastilles de plastique de 2 cm de diamètres et 1 cm d’épaisseur sont percées sur la moitié de leur hauteur. Une bille de plomb est enchassée dans le trou qui est rempli d’une goutte de 18FDG ou (≈ 0, 3 MBq ou 10 µCi). Les repères sont fermés par une bande adhésive, avant d’être positionnés sur la peau du patient. Il est nécessaire d’installer sur le patient, un minimum de 3 repères (4 au mieux ), avant la réalisation des deux examens. Les repères sont récupérés après le deuxième examen. Pour optimiser la méthode et limiter les erreurs, les deux examens doivent être programmés la même demi-journée ce qui alourdit la procédure. Les repères visibles sur les deux modalités permettent de mettre en correspondance les coupes des deux modalité par triangulation.

2.7.4.3.3 Avec repères anatomiques internes

On peut mettre en concordances les coupes des deux modalité par triangulation à l’aide de repères anatomiques internes visibles sur les deux modalités. Cette méthode moins lourde à mettre en place permet de recaler des examens non réalisés le même jour. Elle a les mêmes inconvénients que toutes les méthodes de recalages rigides, c’est à dire les limitations dues aux mouvements du patient et des organes entre les deux examens.

2.7.5 Caméra TEP/TDM ou « morpho-TEP »

Pour s’affranchir des méthodes de recalage, tous les industriels proposent des appareils TEP/TDM qui réalisent des acquisitions TEP et TDM non pas simultanément, mais de façon enchaînée, pendant le même examen. Les avantages de ces machine hybrides sont nombreux :

  • La correction d’atténuation est réalisée par l’examen TDM de façon très rapide (beaucoup plus rapidement qu’avec les méthodes par transmission avec une source radioactive).
  • La fusion des images permet une excellente localisation anatomique des anomalies hyperfixantes.
  • La qualité de la fusion est optimisée par la réalisation des deux examens dans un temps court avec un même positionnement du patient sur le même lit d’examen.
  • Le recalage est optimisé et rapide puisque le décalage des coupes entre les deux modalités correspond au décalage physique entre les deux appareils. Il n’est pas nécessaire d’utiliser des algorithmes de recalage.
  • Les limites de cette technique sont quand même les mouvements du patient et la respiration. Pour minimiser les effets de la respiration, il est fait appel à deux types de solutions soit de traitement d’image avec des algorithmes de recalage élastique soit de techniques d’acquisition synchronisée à la respiration.

La double information morphologique et fonctionnelle est particulièrement intéressante pour l’optimisation des balistiques de radiothérapie, mais elle améliore la performance du TEP en précisant mieux, la stadification tumorale et en améliorant l’identification de structures non pathologiques hyperfixantes (fixation musculaire, digestive, urinaire …)

2.8 Conclusion :

La TEP est un moyen diagnostique très sensible et performant de détection d’anomalies métaboliques concernant des lésions tumorales de petite taille. Ces dernières années, de nombreuses innovations ont permis de généraliser un certain nombre de techniques innovantes (nouveaux cristaux scintillateurs, acquisition en mode 3D, couplage TEP/TDM pour la correction d’atténuation et la localisation anatomique). La France est en train de combler son retard d’installation de machine TEP en s’équipant de machines de dernière génération bénéficiant de toutes ces innovations technologiques. C’est le cas de notre service qui va être équipé, fin 2004, d’un TEP/TDM en remplacement d’une caméra TEDC deux têtes. Cette machine a permis de réaliser depuis 1999 (l’année de son installation) plus de 4 500 explorations au 18FDG. C’est tout le processus d’optimisation de cette machine, et de son impact aussi bien en oncologie clinique qu’expérimentale avec des modèles animaux, que nous allons présenter par la suite.