Scanner corporel à ondes millimétriques
Un scanner corporel à ondes millimétriques est un type de scanner corporel destiné à assurer la sûreté dans les aéroports en permettant d'inspecter les passagers et de détecter les objets interdits dissimulés sous les vêtements sans avoir recours à la fouille corporelle. Il utilise la technologie des ondes radio millimétriques qui sont des rayonnements térahertz dénommés « rayons T ». Ils ont la propriété de pouvoir s'arrêter à la surface de la peau et de permettre de voir à travers les vêtements, faisant apparaitre le corps en trois dimensions. Grâce à cette technologie, tout est visible et on distingue parfaitement la silhouette, les volumes et les formes.
Leur apparition dans les aéroports a provoqué l'inquiétude de certaines associations, jugeant que l'image très détaillée fournie par ce type de scanner est trop intrusive.
Ce type de scanner est aussi utilisé dans certains ports (ex parking du Terminal Eurotunnel de Coquelles, en France) pour détecter des présences humaines (migrants) dans les camions en partance pour le Royaume-Uni.
Cependant, les ondes millimétriques s'arrêtant au niveau de la peau, un scanner corporel serait incapable de détecter un explosif caché à l'intérieur du corps, dans le rectum ou dans des implants mammaires par exemple1.
Apparition dans les aéroports
Début 2010, les scanners corporels étaient déjà utilisés aux États-Unis dans 19 aéroports ainsi que dans de rares palais de justice et prisons. En Europe, le projet d'utiliser ce type de scanner avait été abandonné fin 2008, après que l'Union européenne ait émis certaines réserves, certains eurodéputés jugeant « disproportionné de soumettre tous les passagers à ce type de contrôle au nom de la lutte contre le terrorisme »2.
La situation a changé après la tentative d'attentat manqué du , quand Umar Farouk Abdulmutallab, un jeune étudiant nigérian de 23 ans, avait tenté de faire exploser en plein vol un Airbus A330 entre Amsterdam et Détroit. Quelques aéroports internationaux européens ont alors décidé d'expérimenter les scanners corporels, afin de pouvoir contrer de nouvelles technologies indétectables avec les moyens habituellement utilisés3,4,2.
Le terroriste a réussi à déjouer les systèmes de sécurité de l'aéroport d'Amsterdam-Schiphol pourtant jugés très sérieux, en utilisant une nouvelle technique. Il a avoué avoir collé le long de sa cuisse de la poudre de penthrite, un explosif très puissant, afin de passer les contrôles. Puis a tenté de la faire exploser en y mélangeant un liquide inflammable contenu dans une seringue, en se cachant dans les toilettes de l'avion. Sa tentative n'a provoqué qu'une explosion minime et un début d'incendie vite maîtrisé par les passagers. Selon un expert, l'explosif était en quantité largement suffisante pour faire sauter l'avion et l'attentat a été évité grâce à un problème de détonateur5.
Les deux composants utilisés lors de cette tentative d'attentat ne peuvent être détectés par les portiques de sécurité classiques. Des experts ont alors suggéré que l'utilisation de scanners corporels aurait pu éviter ce genre d'attentat2.
Impact sur la santé
Contrairement aux rayons X qui ionisent la matière et sont dangereux à hautes doses, les rayonnements térahertz, dénommés « rayons T », sont peu énergétiques et non ionisants, ce qui les rend à priori peu nocifs6,7.
En France, le ministère de l'écologie, de l'énergie, du développement durable et de la mer a demandé une enquête sur les risques sanitaires liés à l'utilisation de scanners corporels à ondes millimétriques dans les aéroports. L'Agence française de sécurité sanitaire de l'environnement et du travail (AFSSET) a estimé qu'il n'y avait « pas de risque avéré pour la santé des personnes » sur la base des prescriptions réglementaires du décret n°2002-775 (relatif aux valeurs limites d’exposition du public aux champs électromagnétiques émis par les équipements utilisés dans les réseaux de télécommunication ou par les installations radioélectriques). Elle recommandait d'instaurer un « contrôle régulier des appareils mis sur le marché » et de « compléter ces contrôles par des mesures régulières in situ pour les appareils en opération, attestant de leur bon fonctionnement »8. Dans ses recommandations, l'ANSES précise toutefois le manque d'études et la méconnaissance actuelle des effets de ces ondes électro-magnétiques sur le corps humain, et fait une déclaration qui modère fortement son propos sur l'innocuité de ces appareils9.
Notes et références
- Bérénice Dubuc, « Contre les explosifs dans le rectum, la fouille au corps et les détecteurs de métaux ne servent à rien » [archive], 20 minutes, 5 octobre 2009.
- « Attentat raté: les scanners corporels pourraient envahir les aéroports » [archive], 24 heures, Agence France-Presse, 29 décembre 2009.
- « Tentative d'attentat contre un avion américain » [archive], le Figaro (avec agences), 26 décembre 2009.
- Jean-Marc Leclerc, « L'attentat manqué met en alerte les aéroports » [archive], le Figaro, 28 décembre 2009.
- « Attentat raté du vol 253: «aucune indication» d'un complot plus large » [archive], Libération, le 27 décembre 2009.
- Olivier Dessibourg, « Voir à travers la matière grâce aux rayons T » [archive], le Temps, 16 janvier 2010.
- « Scanner corporel à ondes millimétriques : pas de rayons X » [archive], le Nouvel Observateur, 22 février 2010.
- « Expérimentation d'un scanner corporel à l'aéroport de Roissy » [archive], le Nouvel Observateur, Associated Press, 22 février 2010.
- « Scanners corporels » [archive], sur Anses - Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail, (consulté le )
Articles connexes
Imagerie par résonance magnétique
Pour les articles homonymes, voir IRM et MRI.
L'imagerie par résonance magnétique (IRM) est une technique d'imagerie médicale permettant d'obtenir des vues en deux ou en trois dimensions de l'intérieur du corps de façon non invasive avec une résolution en contraste1 relativement élevéea.
L'IRM repose sur le principe de la résonance magnétique nucléaire (RMN)2 qui utilise les propriétés quantiques des noyaux atomiques pour la spectroscopie en analyse chimiqueb. L'IRM nécessite un champ magnétique puissant et stable produit par un aimant supraconducteur qui crée une magnétisation des tissus par alignement des moments magnétiques de spin. Des champs magnétiques oscillants plus faibles, dits « radiofréquence », sont alors appliqués de façon à légèrement modifier cet alignement et produire un phénomène de précession qui donne lieu à un signal électromagnétique mesurable. La spécificité de l'IRM consiste à localiser précisément dans l'espace l'origine de ce signal RMN en appliquant des champs magnétiques non uniformes, des « gradients », qui vont induire des fréquences de précession légèrement différentes en fonction de la position des atomes dans ces gradients. Sur ce principe qui a valu à ses inventeurs, Paul Lauterbur et Peter Mansfield le prix Nobel de physiologie ou médecine en 2003, il est alors possible de reconstruire une image en deux dimensions puis en trois dimensions de la composition chimique et donc de la nature des tissus biologiques explorés.
En imagerie médicale, l'IRM est principalement dédiée à l'imagerie du système nerveux central (cerveau et moelle épinière), des muscles, du cœur et des tumeurs. Grâce aux différentes séquences, on peut observer les tissus mous avec des contrastes plus élevés qu'avec la tomodensitométrie ; en revanche, l'IRM ne permet pas l'étude des corticales osseuses (tissus « durs ») trop pauvres en hydrogène, ni donc la recherche fine de fractures où seul l'œdème péri-lésionnel pourra être observé.
L'appareil IRM est parfois désigné sous le nom de « scanner », ce qui en français prête à confusion avec le tomodensitomètre. Contrairement à ce dernier (et à d'autres techniques d'imagerie comme la TEP), l'examen IRM n'est pas invasif et n'irradie pas le sujet. Cela en fait donc un outil de prédilection pour la recherche impliquant la personne humaine, et notamment en neurosciences cognitives. À partir des années 1990, la technique d'IRM fonctionnelle, qui permet de mesurer l'activité des différentes zones du cerveau, a en effet permis des progrès importants dans l'étude des fondements neurobiologiques de la pensée.
Image IRM d'une
tête humaine en pondération T1, en coupe
sagittale. La tête est vue de profil, regardant vers la gauche. On y voit le
cerveau en gris clair entouré de
liquide cérébrospinal (en noir), la
boîte crânienne et le
cuir chevelu ; sur d'autres coupes, on peut voir les
globes oculaires et, au niveau du
plan médian, différentes structures du
névraxe (face interne d'un
hémisphère cérébral,
corps calleux,
cervelet) ainsi que d'autres parties de l'anatomie (
langue,
fosses nasales,
etc.)
Histoire
Le principe de l'IRM repose sur le phénomène de résonance magnétique nucléaire (RMN), c'est-à-dire portant sur le couplage entre le moment magnétique du noyau des atomes et le champ magnétique externe, décrit par Félix Bloch et Edward Mills Purcell en 1946. Au début des années 1970, les nombreux développements qu'a connus la RMN, notamment en spectroscopie, laissent entrevoir de nouvelles applications de cette technique. Ainsi, Raymond Vahan Damadian propose dès 1969 d'utiliser la RMN dans un but médical et appuie sa proposition avec la démonstration que la spectroscopie RMN permet la détection de tumeurs3.
En 1973, un progrès important est accompli : s'inspirant des méthodes de reconstruction d'images utilisées en tomodensitométrie, Paul Lauterbur réalise pour la première fois une « imagerie » (qu'il baptise Zeugmatographie) basée sur la RMN en utilisant le principe des gradients qui permettent de capturer l'image d'une « coupe virtuelle » d'un objet en deux dimensions4. Simultanément mais de façon indépendante, Peter Mansfield propose une méthode similaire et introduit en 1977 la technique d'imagerie échoplanaire permettant la capture de nombreuses images en un temps relativement court. Le premier objet connu du grand public à avoir été étudié par IRM est un poivron, après un essai sur deux tubes capillaires.
Installation d'une unité d'IRM
Dans les années qui suivent, la technique évolue rapidement notamment grâce aux progrès réalisés en informatique et en électronique qui permettent de mettre en œuvre des méthodes numériques coûteuses en temps de calcul. Ainsi en 1975, Richard R. Ernst propose d'utiliser la transformée de Fourier pour analyser le codage en fréquence et en phase du signal IRM.
Les premières images de tissus humains seront produites en 1975 par Mansfield ; en 1977 sera réalisée la première image d'un corps humain vivant par Damadian qui dirigera ensuite la fabrication des premiers appareils commerciaux.
La principale innovation dans le domaine de l'IRM viendra avec la reprise par Seiji Ogawa des travaux de Linus Pauling et Charles Coryell sur le magnétisme de l'hémoglobine. En effet, le signal IRM émis par le sang oxygéné diffère du signal du sang désoxygéné. Cette propriété permit donc à Ogawa, John Belliveau et Pierre Bandettini de réaliser en 1992 les premières images du cerveau en fonctionnement : en réponse à des stimulations visuelles, ils purent mesurer une augmentation du débit sanguin cérébral dans les aires visuelles du lobe occipital. La mesure de cette réponse hémodynamique est à la base du fonctionnement de l'imagerie par résonance magnétique fonctionnelle, un outil central des neurosciences cognitives contemporaines.
Après plusieurs années d'évolution, l'IRM est donc devenue une technique puissante du domaine de l'imagerie médicale, lequel est sans cesse en développement. En reconnaissance de « leurs découvertes concernant l'imagerie par résonance magnétique », Peter Mansfield et Paul Lauterbur furent récompensés par le Prix Nobel de physiologie ou médecine en 2003.
En France, il y avait 592 appareils au ; le délai d'attente moyen était alors de 32 jours5. En 2016, il y avait 839 appareils pour un délai d'attente moyen de 30 jours. En 2017, malgré un accroissement à 906 appareils, le délai d'attente était remonté à 34 jours6,7.
Le centre européen NeuroSpin est en passe de devenir le plus grand centre au monde d'imagerie par résonance magnétique. L'un de ses objectifs est d'élucider le « code neural8 », autrement dit, comprendre comment l’information est codée dans le cerveau.
Technologie
Tunnel de l'aimant
Machine IRM en
géométrie fermée 3 teslas fabriquée par
Philips, une
antenne de tête est installée en bout de table. On remarque également une sorte de conduit semblable à celui d'une cheminée au-dessus de l'anneau : il s'agit du panneau de pénétration de la salle par lequel passent les différents câbles électriques, le système de refroidissement ainsi que le conduit d'évacuation de l'hélium gazeux en cas de
quench.
Il ne concerne que les imageurs fermés, c'est le tunnel dans lequel est introduit le patient. Il a des fonctions de confort (comme l'éclairage et la ventilation) et des moyens de communication entre le personnel soignant et le patient (microphone et haut-parleurs). Son diamètre varie très légèrement en fonction des constructeurs et des modèles mais est approximativement de 60 cm.
Aimant
L'aimant est au cœur du fonctionnement de l'appareil IRM. Son rôle est de produire le champ magnétique principal appelé B0 qui est constant et permanent. L'unité de mesure de l'intensité du champ magnétique est le tesla, dont le symbole est T. Cette valeur fait référence à l'intensité de ce champ principal.
En 2007, dans le domaine de l'imagerie médicale de routine, les intensités du champ magnétique utilisé sont comprises entre 0,1 et 7 teslas, avec des intensités supérieures à 17 teslas9 pour l'étude de spécimens murins ou autres petits animaux, et jusqu’à 11,7 teslas pour les études précliniques et cliniques sur l'humain.
Remarque : 1,6 T équivaut à 30 000 fois le champ magnétique terrestre.
On distingue selon l'intensité :
- bas champ : < à 0,5 T ;
- moyen champ : entre 0,5 T et 1 T ;
- haut champ : > à 1 T.
Le champ magnétique statique doit être uniforme dans la section du tunnel. La valeur du champ magnétique statique est mesurée et uniformisée par calibration (transducteur à effet Hall) à l'isocentre de l'aimant et doit couvrir toute la longueur de l'antenne de réception. Les tolérances sont extrêmement critiques particulièrement à haut champ et en spectrométrie. Le champ magnétique diminue à mesure que l'on s'éloigne de cet isocentre : on parle alors de champ magnétique résiduel. La répartition des lignes de champ dépend de la puissance du champ magnétique mais également de la présence d'un blindage autour de l'aimant (voir chapitre sur le blindage de champ magnétique).
Les principales qualités pour un aimant sont :
- un champ magnétique d'intensité élevée afin d'améliorer le rapport signal sur bruit ;
- une bonne stabilité temporelle (le champ magnétique doit être le plus permanent possible) ;
- une bonne homogénéité du champ (par exemple : 0,2 partie par million ppm dans une sphère de 36 cm de diamètre ce qui correspond au diamètre moyen d'une antenne émission/réception crânienne : c'est la fenêtre minimale d'homogénéité de champ que doit obtenir le constructeur pour pouvoir vendre son appareil dans la plupart des pays).
Ces qualités sont recherchées parmi les trois types d'aimants disponibles sur le marché : l'aimant permanent, l'aimant résistif et l'aimant supraconducteur. Aujourd'hui c'est l'aimant supraconducteur qui est le plus répandu.
L'augmentation des champs magnétiques permet une amélioration importante de la qualité des images obtenues par IRM mais certaines personnes s'interrogent sur l'influence de champ magnétique de grande intensité sur le corps humain. Toutefois rien, en 2007, ne met en évidence un quelconque effet néfaste sur l'organisme si ce n'est quelques « vertiges » dus à l'induction de faibles courants électriques dans certaines structures nerveuses par les impulsions de radiofréquence. Dans tous les cas, même à champ faible, la présence d'objets ferromagnétiques constituent une contre-indication à l'IRM.
Aimant permanent
Il est constitué d'une structure ferromagnétique qui produit un champ magnétique permanent sans consommation d'énergie. Ces aimants, autrefois très lourds (jusqu'à 90 tonnes avec les ferrites), se sont allégés avec l'arrivée des alliages à base de terre rares (Bore-néodyme-fer). Un aimant aux terres rares de 0,3 T corps entier ne pèse que 10 tonnes. Un 0,4 T pèse 13 tonnes. Bien que l'on puisse faire des aimants permanents de 1 T, il est économiquement difficile d'aller beaucoup plus haut que 0,4 tesla. Leurs avantages principaux sont l'absence de courant de Foucault, une fiabilité exceptionnelle, une architecture ouverte et un champ vertical perpendiculaire au grand axe du patient, ce qui améliore les performances des antennes. Les systèmes IRM réalisés autour d'aimants permanents ont longtemps fait l'objet de développements limités. Ce n'est plus le cas. Depuis quelques années, ces systèmes se sont hissés à de très bons niveaux de performances. Plus de 8 000 systèmes ont été installés dans le monde entier en majorité aux États-Unis et au Japon, de plus en plus en Europe et plus lentement en France. Ils sont devenus moins coûteux, très fiables et efficaces, et la Haute Autorité de santé en France en a reconnu l'intérêt dans un rapport de 10 et en préconise l'utilisation en France. Ils constituent également le meilleur choix pour les pays ne possédant pas l'infrastructure technique et logistique permettant de faire fonctionner un système supraconducteur dans de bonnes conditions.
L’utilisation d'un aimant permanent n'est pas sans danger ou problème car ce qui en fait la qualité (la grande stabilité et uniformité de son très puissant champ magnétique) en fait aussi le défaut puisqu'il sera impossible de suspendre le champ magnétique en cas d'urgence (on ne pourra pas appliquer la procédure de quench évoquée ci-dessous dans la section sur les aimants supraconducteurs). L'utilisation de l'appareil se fait donc avec des précautions préalable strictes (y compris par un examen radiographique classique préalable pour détecter des corps métalliques implantés dans des corps mous tels que les vaisseaux sanguins, ou résiduels de certains accidents). Cela nécessite également une surveillance du local d'examen contre la présence ou l'introduction de matériels ferromagnétiques susceptibles d'être projetés contre l'appareil, ou de causer des blessures graves. De plus, avec le temps, des poussières ferromagnétiques peuvent s'accumuler sur l'aimant et y persister, ce qui va progressivement en altérer l'uniformité du champ créé. L'environnement de l'appareil doit donc être tenu très propre, y compris l'air ambiant qui doit être filtré contre la présence de fumées polluantes, puisque le nettoyage de l'aimant sera très difficile ou nécessitera la reconformation du champ magnétique par adjonction d'écrans ou d'aimants complémentaires de correction. L’autre difficulté réside dans le transport et la livraison de l'aimant jusqu'au lieu où il sera déployé, les aimants de cette puissance faisant l'objet de mesures de sécurité spécifiques qui leur interdit par exemple le transport par avion si leur champ ne peut être totalement confiné dans l’emballage ou sa structure de protection et de pose dans l’appareil.
Aimant résistif
Cet aimant est constitué d'un bobinage de cuivre traversé par un courant électrique produisant un champ magnétique en son centre. Ce type d'aimant est assez peu utilisé depuis l'apparition des aimants supraconducteurs.
Il est assez peu coûteux à la fabrication et ne nécessite pas de liquide cryogénique de refroidissement (contrairement aux aimants supraconducteurs). De plus, le champ magnétique peut être annulé en quelques secondes en stoppant le courant (mais il faut attendre la stabilisation du champ lors de la remise sous tension).
Malheureusement, le champ magnétique maximum atteint à peine 0,5 T et reste très sensible aux variations de température. De plus, on constate des problèmes d'homogénéité du champ et une consommation électrique très importante pour alimenter la bobine en courant et pour alimenter les compresseurs du circuit de refroidissement afin de compenser l'effet Joule provoqué par la résistivité de la bobine.
Aimant supraconducteur
En 2008[réf. souhaitée], c'est le type d'aimant le plus répandu. L'aimant supraconducteur utilise le principe de supraconductivité : lorsque certains métaux ou alliages sont soumis à des températures proches du zéro absolu, ils perdent leur résistivité si bien que le passage d'un courant électrique se fait sans perte, donc sans production de chaleur.
L'aimant supraconducteur utilisé en IRM est constitué d'un bobinage de niobium-titane (Nb-Ti) baigné constamment dans de l'hélium liquide (près de −269 °C) qui en assure l'état supraconducteur. La résistance électrique nulle ainsi atteinte permet de créer des intensités de champ magnétique très élevées. La bobine est encastrée dans une matrice en cuivre qui sert de puits de chaleur afin de la protéger en cas de perte accidentelle de la supraconductivité (le quench).
Enfin, le système est entouré d'un écran refroidisseur (circuit d'air ou d'eau glacée) qui aide à maintenir l'hélium liquide à très basse température. Le tout est finalement enveloppé d'un espace de vide limitant les échanges thermiques avec l'extérieur. L'appareil est donc peu sensible aux variations de température ambiante.
Tout cet appareillage rend les appareils à aimant supraconducteur très coûteux à l'achat mais aussi à l'utilisation, du fait de leur consommation importante en hélium cryogénique. La supraconductivité permet néanmoins une consommation électrique moyenne ou faible : si elle n'est pas négligeable lors de la mise en courant des bobinages, elle devient ensuite quasi nulle une fois le régime permanent stable établi.
Les bobinages supraconducteurs étant parcourus par des courants beaucoup plus élevés, ils emmagasinent sous forme magnétique une énergie beaucoup plus élevée. Elle devient même considérable pour les bobines de grandes dimensions à 3 T ou plus. Ces équipements sont alors dotés d'équipements sophistiqués et fiables pour pouvoir la dissiper en toute sécurité en cas de quench.
Géométrie de l'aimant
Il existe deux types d'IRM (en pratique, on appelle IRM la technique comme l'appareil ou imageur) : l'IRM à champ fermé et l'IRM à champ ouvert.
Champ fermé
L'IRM « fermée » est la configuration la plus répandue et la plus connue à l'heure actuelle. Il s'agit d'un tunnel de 60 cm de diamètre pour 2 mètres de long pour les plus anciens et 1,60 mètre de long pour les plus récents.
De nouveaux systèmes sont apparus récemment, utilisant des tunnels plus larges jusqu'à 75 cm de diamètre. Ces systèmes parfois très abusivement qualifiés de « systèmes ouverts » restent des systèmes fermés, bien que leur capacité à accueillir des personnes obèses soit améliorée.
Champ ouvert
Un imageur IRM de type ouvert à aimant permanent.
L'IRM « ouverte » est apparue après l'IRM fermée. Très peu répandue à ses débuts, la technologie des IRM ouvertes s'améliorant, on leur trouve des avantages dans la médecine humaine notamment pour les personnes qui ne pouvaient pas bénéficier de ce type d'imagerie en espace clos pour des raisons pratiques ou pour éviter une anesthésie générale. On compte parmi ces personnes :
- les individus obèses dont le diamètre de l'abdomen ou l'envergure des épaules dépasse le diamètre interne du tunnel ;
- les individus claustrophobes ;
- les enfants ne pouvant pas rester seuls plusieurs minutes dans l'IRM sans bouger ;
- les femmes enceintes.
Une application récente des modèles ouverts est l'IRM interventionnelle.
Toutefois, les capacités d'intensité de champ magnétique offertes par ce type d'IRM restent habituellement inférieures (0,3 à 0,4 T pour les aimants permanents[réf. souhaitée]) aux conformations fermées. Cependant, il existe actuellement plusieurs systèmes ouverts utilisant une technologie à supraconducteur, ayant des champs à 1 T et 1,2 T11,12,13. Ces systèmes haut champ ouverts sont plus difficiles à fabriquer et donc plus chers.
Bobines de gradient de champ magnétique
Il s'agit de trois bobines métalliques enfermées dans un cylindre en fibres de verre et placées autour du tunnel de l'aimant. On les nomme respectivement : bobine X, bobine Y et bobine Z.
Le passage d'un courant électrique dans ces bobines crée des variations d'intensité du champ magnétique dans le tunnel, de façon linéaire dans le temps et dans l'espace. En fonction de sa géométrie, chaque bobine fait varier le champ magnétique selon un axe spécifique :
- la bobine X selon l'axe droite-gauche ;
- la bobine Y selon l'axe avant-arrière ;
- la bobine Z selon l'axe haut-bas.
Elles permettent notamment de sélectionner une épaisseur et un plan de « tranche » ou coupe (transversal, frontal, sagittal ou oblique) et de déterminer la localisation spatiale des signaux dans ce plan.
En sélectionnant une de ces bobines, on peut faire varier ces paramètres :
- la pente ou intensité : elle est de l'ordre de quelques dizaines de milliteslas par mètre (mT/m) et varie selon les imageurs ; son rôle est de contrôler l'épaisseur de chaque coupe ;
- le rapport de montée en puissance : elle correspond à la pente maximale atteinte par mètre et par milliseconde ; son rôle est la gestion de la rapidité d'acquisition ;
- Remarque : les commutations rapides de champ magnétique par les bobines de gradients produisent des courants de Foucault, eux-mêmes à l'origine de petits champs magnétiques.
Correcteurs de champ magnétique
Les correcteurs de champ magnétique ou shim sont des dispositifs qui servent à compenser les défauts d'inhomogénéité du champ magnétique principal B0 qui peuvent résulter de facteurs liés à l'environnement ou tout simplement de la présence du patient dans le tunnel.
Les correcteurs de champ sont disposés le long de l'aimant. Il en existe deux types pouvant être présents tous les deux dans une même machine.
Shim passif
Ce sont des plaques ferromagnétiques. Elles permettent un réglage grossier du champ magnétique, dans le cas d'un environnement perturbateur stable.
Shim actif
Ce sont des bobines résistives ou supraconductrices, dans lesquelles passe un courant électrique. Les shims actifs permettent un réglage fin et dynamique, lors de la présence de structures mobiles proches de l'imageur ou du patient dans le tunnel. Ils effectuent une compensation automatique à chaque fois que le champ magnétique devient hétérogène.
- Remarque : L'homogénéité du champ magnétique est vérifiée à chaque maintenance du système. Les bobines de shim sont alors calibrées finement (on parle de shimming) par un technicien ou ingénieur spécialisé.
Antennes
Ce sont des bobinages de cuivre, de formes variables, qui entourent le patient ou la partie du corps à explorer. Le principe de mesure est le même que pour les capteurs inductifs, à savoir la mesure d'une tension induite par la variation du flux.
Elles sont capables de produire et/ou capter le signal de radiofréquence (R.F.). Elles sont accordées pour correspondre à la fréquence de résonance de précession des protons qui se trouvent dans le champ magnétique :
- F p = ( γ 2 π ) ⋅ B o
- F p = Fréquence de précession
- γ = Rapport gyromagnétique
- B o = Intensité du champ magnétique principal
Ce qui donne dans le cas du noyau de l'hydrogène (proton) :
- pour un champ de 0,5 T : onde R.F. de 21,3 MHz ;
- pour un champ de 1 T : onde R.F. de 42,6 MHz ;
- pour un champ de 1,5 T : onde R.F. de 63,9 MHz.
Les antennes sont très variables et peuvent être catégorisées de trois manières différentes :
- selon leur géométrie : volumique et surfacique ;
- selon leur mode de fonctionnement : émettrice-réceptrice ou réceptrice seule (on parle aussi de réceptrice pure) ;
- selon l'association ou non de différents éléments d'antennes : linéaire, en quadrature de phase ou en réseau phasé.
Le terme « antenne » est cependant critiqué par certains scientifiques, considérant que le signal détecté en IRM ne résulte pas d'une émission cohérente spontanée d'ondes électromagnétiques par les tissus, mais d'un phénomène d'induction en champ proche14,15.
Antennes volumiques
Une antenne volumique est une antenne au centre de laquelle est positionné le segment à examiner. Elle est :
- soit émettrice-réceptrice : c'est un cylindre de bobinage métallique qui émet un signal R.F. approprié (sous la forme d'impulsions régulières) vers des protons de la région à explorer ; ceux-ci entrent alors en résonance ; puis l'antenne reçoit la réponse de ces protons, au moment de la restitution de l'énergie ;
- soit réceptrice simple : elle est constituée de plusieurs antennes réceptrices plates montées en réseau phasé autour d'une structure cylindrique ; c'est, dans ce cas, une autre antenne (l'antenne dite Corps ou Body intégrée à l'appareil lui-même) qui s'occupe de l'émission du signal R.F.
- Remarque : L'émission et la réception du signal se font de façon homogène dans tout le volume entouré par l'antenne.
Exemples d'antennes volumiques :
- L'antenne corps : il s'agit d'une antenne émettrice-réceptrice, elle est située autour du tunnel de l'aimant (non visible sur une installation en utilisation mais il est possible de la visualiser au cours des maintenances). Son diamètre est à peu près de 65 cm. Elle permet l'étude de régions anatomiques étendues (allant jusqu’à 50 cm de long).
- L'antenne tête : il s'agit d'une antenne émettrice-réceptrice ou réceptrice simple. Il s'agit d'une antenne modulaire de diamètre de 25 à 30 cm qui est adaptée à l'exploration de l'encéphale mais peut également être utilisée pour l'exploration comparative des extrémités chez l'adulte (main, poignet, pied et cheville) ou de l'abdomen des jeunes enfants.
- L'antenne genou : il s'agit d'une antenne émettrice-réceptrice ou réceptrice simple. Il s'agit d'une antenne modulaire de 22 cm de diamètre (peut varier). Elle est adaptée à l'exploration du genou, mais aussi du pied et de la cheville.
On peut aussi citer : l'antenne poignet, l'antenne épaule, l'antenne jambes…
Antennes surfaciques
Une antenne surfacique est une antenne plane positionnée au contact de la région à explorer. Elle est réceptrice simple et ne peut donc que recevoir le signal restitué par les protons, c'est l'antenne corps qui émet l'impulsion R.F. initiale.
En tant qu'antenne linéaire (utilisée seule), elle ne permet l'examen que de petits champs d'exploration. C'est pour cette raison qu'elle est souvent couplée à d'autres antennes surfaciques (en quadrature de phase ou en réseau phasé).
Elle procure un très bon rapport signal sur bruit dans la région d'intérêt à condition de son bon positionnement (le plus proche possible de la zone d'exploration).
Associations d'antennes
Comme nous l'avons vu précédemment, les antennes peuvent être utilisées seules ou en association afin d'avoir un rendu optimum et permettre le diagnostic :
- L'antenne linéaire : c'est une antenne surfacique utilisée seule et placée parallèlement au champ magnétique B0. Il y a donc réception du signal émis par le patient, uniquement lorsque ce signal passe devant l'antenne.
- L'antenne en quadrature de phase : c'est un ensemble de deux antennes surfaciques disposées autour d'une même région mais dans des plans différents. Chaque antenne reçoit un signal de la même région mais à des moments différents. Les deux signaux se regroupent alors sur un même canal de traitement pour former l'image finale. Ce principe augmente le rapport signal sur bruit et par conséquent la qualité de l'image. On peut aussi utiliser ce gain de signal pour diminuer le temps d'acquisition pour une qualité d'image, cette fois-ci, inchangée. Il est évident que les coûts d'achat de ce type d'antenne est bien plus élevé que pour une antenne linéaire.
- Les antennes en réseau phasé : c'est un ensemble de plusieurs antennes de surface de petit diamètre, disposées côte à côte. Chaque antenne possède son propre canal de réception du signal et produit l'image de la région anatomique en regard de laquelle elle se trouve. Les différentes images sont ensuite combinées par des algorithmes informatiques pour former l'image terminale. Ce principe procure un très haut rapport signal sur bruit et permet un large champs d'exploration (jusqu’à 48 cm), mais est bien plus onéreux que les deux autres types d'antennes précédemment décrites16.
- Remarque: il existe des antennes dites « HDE » (haute densité d'éléments) ce sont des antennes qui contiennent plus de deux bobines appelées « éléments d'antenne » qui peuvent être comme des petites antennes élémentaires. Cependant les antennes HDE sont très onéreuses (pour l'exemple une « antenne-genou » 8 éléments coûte près de 25 000 €).
Blindages
En IRM, on parle de blindages pour certains dispositifs destinés au confinement des champs magnétiques produits par la machine et à l'isolement de celui-ci des champs magnétiques extérieurs qui viendraient perturber l'acquisition.
Il existe deux blindages dans une installation IRM :
Blindage des ondes de radiofréquence
Il est assuré par la cage de Faraday constituée d'un maillage de cuivre qui recouvre presque* toutes les parois de la salle de l'aimant et étanche aux ondes R.F. Cependant cette « cage » n'est visible qu'au niveau de la vitre de contrôle (aspect sombre du verre) et le cadre de la porte (de petites lamelles de cuivre), les plaques de cuivre étant cachées dans les murs, le plafond et le sol :
- elle empêche les ondes R.F. produites par le système de sortir de la salle de l'aimant ;
- elle empêche les ondes R.F. extérieures (produites par tout appareil électronique et objet métallique en mouvement) d'entrer dans la salle d'examen.
- (*) Dans toutes les salles IRM il existe ce que l'on appelle un panneau de pénétration, c'est un lieu de passages du circuit de refroidissement et des câbles transportant les informations entre la salle de l'aimant et le local technique, celui-ci fait un trou dans la cage de Faraday. Cependant ce passage est spécialement conçu pour ne laisser passer aucune onde R.F.
En outre, il existe un autre type de cage de Faraday. Miniaturisée, elle n'est utilisée que rarement pour certaines acquisitions notamment l'exploration des membres inférieurs, et ce, afin d'éviter l'artéfact de repliement (Aliasing) du membre controlatéral. Ce dernier est entouré par une petite cage de Faraday et ne peut donc répondre aux impulsions de radiofréquences. De nouvelles parades technologiques et des solutions d'anti-repliements rendent son utilisation très sporadique.
Blindage de champ magnétique
Il a pour rôle de rapprocher les lignes de champ au plus près de l'aimant et notamment de faire rentrer la ligne de 0,5 mT dans la salle d'examen.
- Remarque: on parle de la « ligne des 0,5 mT » ou « des 5 gauss ». C'est la limite au-delà de laquelle il y a dysfonctionnement ou dérèglement d'un pacemaker
Il existe deux types de blindages de champ magnétique selon les appareils :
- un blindage passif : c'est un ensemble de poutrelles d'acier ou de fer doux, entourant l'aimant. Ce dispositif est très lourd ;
- un blindage actif : c'est un bobinage métallique inversé placé aux deux extrémités du bobinage de champ principal B0. Au passage du courant électrique dans les spires inversées, il se produit un contre-champ magnétique dont les lignes de champ viennent s'opposer à celles de B0.
Le périmètre du champ magnétique est appelé champ magnétique résiduel. La taille du champ magnétique résiduel dépend de la puissance du champ magnétique et du fait que le système soit blindé ou non. Pour un IRM de 1,5 T non blindé, un champ supérieur à 0,5 mT s'étend jusqu’à près de 12 mètres de l'isocentre et de 9,5 mètres de part et d'autre de l'aimant (Il est à noter que la cage de Faraday n'a aucune action de blindage contre le champ magnétique) ; avec blindage ce champ est réduit à 4 mètres de l'isocentre et 2,5 mètres de part et d'autre de l'aimant.
- Remarque : En raison du contre-champ du blindage actif, le champ magnétique est plus intense à l'entrée du tunnel et sous les capots qu'au centre de l'appareil (les intensités peuvent être presque doublées). Cette propriété peut être cause de vertiges et de sensations de fourmillement à l'entrée du tunnel lors de l'émission des ondes de radiofréquence, dues à de petits courants de Foucault induits dans certaines structures nerveuses. Il est important de respecter les consignes de sécurité et ne pas former de « boucle » avec les membres ce qui augmenterait l'intensité de ces courants et pourrait provoquer des brûlures ou/et de plus grands étourdissements.
Quench
Le Quench se définit par un passage brutal de l'hélium liquide à l'état gazeux volatil qui s'échappe alors de la cuve.
La raison accidentelle principale de ce phénomène est un défaut dans le système d'isolation thermique dû à la présence de micropores dans les joints, voire un non contrôle du niveau d'hélium et du bouclier thermique d'azote liquide (c'est la cause accidentelle la plus fréquente du « quench »).
Il y a un réchauffement de l'hélium liquide qui passe alors à l'état gazeux, avec un risque de voir l'évaporation s'accélérer avec la diminution du pourcentage d'hélium liquide présent en cuve.
- Remarque : Ce dysfonctionnement peut avoir des origines très diverses : panne dans le circuit d'eau glacée due à un dépôt important de calcaire, défaillance dans les compresseurs provoquant l'arrêt de la tête froide, ou une augmentation de pression dans l'aimant…
Le quench peut être aussi provoqué volontairement par le personnel de santé : en effet la propriété supraconductrice des IRM modernes fait que le champ magnétique principal reste même s'il n'y a plus d'apport de courant dans la bobine. Tout changement de la valeur du champ statique doit être opéré avec une procédure très stricte et toute variation rapide du champ statique engendre des courants de Foucault importants. Ceux-ci réchauffent les cuves de l'aimant et augmentent considérablement la consommation d'hélium, ceci peut conduire à un phénomène d'emballement qui évapore la masse d'hélium existant et conduit au « quench » et surtout au réchauffement du filament supraconducteur qui peut être détruit et brûlé.
Ainsi pour stopper le champ magnétique, il faut attendre plusieurs heures (voire journées) pour que la très faible résistance de la bobine diminue l'intensité du champ magnétique. En cas de danger immédiat pour une personne se trouvant dans la salle d'examen — par exemple, un individu coincé entre l'aimant et un gros objet ferromagnétique (brancard, bonbonne d'oxygène, cireuse…), il y a un risque de fracture voire d'asphyxie pour celui-ci et la puissante force d'attraction empêche de dégager la personne sans porter atteinte à son intégrité physique — on déclenche alors le quench :
L'hélium liquide passe à l'état gazeux, la bobine principale se réchauffe avec perte de la supraconductivité et reprise de la résistivité de la bobine. À terme, il y a remise en place de l'effet Joule (dissipation de l'énergie sous forme de chaleur) et l'intensité du champ magnétique chute progressivement.
L'hélium gazeux produit doit normalement s'échapper vers l'extérieur des locaux grâce à un conduit situé au-dessus de l'aimant. Si cette évacuation ne se fait pas correctement, l'hélium gazeux s'échappe dans la salle d'examen. Il y a alors un risque important d'asphyxie et de brûlure par le froid pour le patient présent dans le tunnel, ainsi qu'un risque de confinement de la salle : impossibilité d'ouvrir la porte de la salle selon son sens d'ouverture.
- Remarque : L'hélium gazeux n'est pas un gaz toxique pour l'organisme. Son inconvénient, dans ce cas, est sa détente du passage liquide à l'état gazeux pour finalement remplacer le dioxygène de l'air. En effet pour 1 litre d'hélium liquide on obtient près de 700 litres d'hélium gazeux ; un véritable problème lorsqu'on sait que la cuve d'un IRM contient (lorsqu'elle est pleine) de 1 650 à 1 800 litres d'hélium liquide.
Lorsqu'un quench se produit, il arrive que la totalité de l'hélium présent en cuve s'échappe. Dans ce cas l'appareil IRM ne peut plus être utilisé dans l'immédiat : il faut refroidir la cuve avant de la remplir à nouveau, puis relancer le champ magnétique jusqu’à atteindre sa complète stabilité. Il faut ensuite recalibrer le shim actif et procéder à des tests sur fantômes. Ces opérations sont très coûteuses en temps et en argent : dans un ordre d'idée, on peut estimer son coût à plus de 40 000 euros sans compter les pertes potentielles dues à l'impossibilité de pratiquer des examens pendant le temps de remise en service qui dure, environ, deux semaines.
Rappels de RMN
Représentation visuelle du spin d'un proton dans à un champ magnétique constant B0 puis soumis à une onde radiofréquentielle B1. Visualisation des temps de relaxation T1 et T2.
La résonance magnétique nucléaire exploite le fait que les noyaux de certains atomes (ou plutôt isotopes atomiques) possèdent un moment magnétique de spin. C'est en particulier le cas de l'atome d'hydrogène 1 que l'on retrouve en grande quantité dans les molécules qui composent les tissus biologiques comme l'eau (H2O) et les molécules organiques. En RMN (tout comme en IRM), on place les atomes que l'on veut étudier dans un champ magnétique constant. On peut alors imaginer les spins des noyaux atomiques comme des toupies tournant sur elles-mêmes autour de leur axe et effectuant un mouvement rapide de précession autour de l’axe du champ magnétique (mouvement appelé précession de Larmor). Cette fréquence de précession est exactement proportionnelle à l’intensité du champ magnétique (qui est de quelques teslas pour les appareils d'IRM actuels). On applique alors à ces atomes une onde électromagnétique à une fréquence bien particulière dite fréquence de résonance ou fréquence de Larmor. En effet, pour que le champ oscillant de l’onde électromagnétique puisse avoir un effet notable sur les spins, il faut que sa fréquence soit ajustée au mouvement de précession de ces spins (phénomène de résonance). La fréquence de Larmor étant différente pour des isotopes atomiques différents (à cause d’un rapport gyromagnétique différent), un choix judicieux de cette fréquence permet de cibler quels atomes on va détecter. En IRM, on utilise principalement les atomes d'hydrogène dont la fréquence de résonance est autour de 42 MHz/T, ce qui correspond à la gamme des ondes radio. En effet, l'atome d'hydrogène qui est constitué d'un seul proton, est très abondant dans les tissus biologiques et en outre, son moment magnétique nucléaire est relativement fort, ce qui fait que la résonance magnétique de l'hydrogène donne lieu à un phénomène de résonance très net et facile à détecter.
Même s'il s'agit en réalité de phénomènes quantiques, on peut se représenter, de façon imagée, que sous l'effet du champ magnétique statique, les moments magnétiques de spin vont progressivement s'aligner dans une direction initialement parallèle à celui-ci et donner lieu à une aimantation globale dans la direction du champ B 0 , dite direction longitudinale. Par habitude, on note cette direction de la lettre z . et on note l'aimantation longitudinale résultant de l'addition de tous ces moments magnétiques, M . En fait, seule une très faible proportion (environ 0,001 %) des moments magnétiques nucléaires s'aligne dans la direction z , la très grande majorité ne possède pas une orientation stable en raison de l'agitation thermique, néanmoins cette petite proportion de spins qui « s'alignent » est suffisante pour être détectée, c'est pourquoi on néglige le reste des moments magnétiques des 99,999 % restant qui statistiquement se compensent les uns les autres.
Lorsque l'on applique l'onde magnétique radiofréquence oscillante à la fréquence de Larmor, on va entraîner les moments magnétiques qui vont alors s'écarter progressivement de l'axe z pour aller se placer perpendiculairement à leur axe de départ un peu comme un parapluie qui s'ouvrirait mais en plus les spins continuent leur rotation autour de l'axe z . C'est ce qu'on appelle un mouvement de précession.
L'onde magnétique oscillante, notée B 1 va donc avoir comme rôle de faire « basculer » les moments magnétiques de spin pour les placer dans un plan perpendiculaire à la direction du champ statique B 0 . C'est ce qu'on appelle l'excitation : plus celle-ci dure longtemps et plus la proportion de moments magnétiques qui auront basculé sera importante et donc plus l'aimantation longitudinale (dans la direction z ) diminuera.
Lorsqu'on interrompt le champ oscillant, les moments magnétiques qui se sont écartés de leur axe initial vont revenir vers la direction z sans cesser de tourner. On peut alors mesurer ce mouvement de rotation des spins sous la forme d'un signal oscillant qui a la même fréquence que l'onde excitatrice. C'est ce signal, dit de précession, qu'on mesure en RMN et en IRM au moyen d'une antenne réceptrice.
Relaxation longitudinale (T1)
Au fur et à mesure que les moments magnétiques retrouvent la direction du champ statique z , le signal oscillant qu'ils émettent va en diminuant, jusqu'à disparaître quand tous les moments magnétiques sont de nouveau alignés longitudinalement, c'est-à-dire dans la direction z . Le temps que mettent les moments magnétiques nucléaires à retrouver leur alignement longitudinal (c'est-à-dire sur la direction z ) est baptisé temps de relaxation longitudinal et est noté T1.
En notant M z ( ∞ ) la valeur à l'équilibre de l'aimantation longitudinale (lorsque tous les spins sont alignés), on peut donner la loi d'évolution de la « repousse » de l'aimantation longitudinale après avoir appliqué une excitation qui aurait fait basculer tous les moments magnétiques au temps t = 0 : M z ( t ) = M Z ( ∞ ) . ( 1 − e − t T 1 )
Ce phénomène de relaxation (c'est-à-dire de retour à l'équilibre) suit donc une dynamique exponentielle, il faudrait alors un temps infini pour que tous les spins se retrouvent alignés, c'est pourquoi on définit comme temps T1 le temps mis pour retrouver 63 % de l'aimantation longitudinale à l'équilibre.
Ce temps de relaxation T1 dépend de l'agitation moléculaire dans le tissu que l'on observe. Il suit une courbe en U inversé : si l'agitation moléculaire est très faible, les atomes d'hydrogène mettront du temps à revenir à l'équilibre (c'est le cas des tissus durs comme les os). Si l'agitation des molécules d'eau est très forte, comme c'est le cas dans les liquides comme le liquide céphalorachidien, la repousse est aussi lente. En revanche, si l'agitation est modérée (c'est-à-dire avec une constante de temps autour de la fréquence de Larmor) comme dans la graisse ou dans la substance blanche, alors le temps T1 est relativement court. Ces différents T1 tournent autour de 1 seconde pour un champ B 0 de 3 teslas.
Relaxation transversale (T2)
Par ailleurs, l'agitation moléculaire contribue aussi à un autre phénomène : alors qu'en théorie les moments magnétiques devraient tous tourner de façon cohérente autour de l'axe z , c'est-à-dire avec une différence de phase constante, l'agitation moléculaire va faire que les atomes ne vont pas être dans un environnement physico-chimique constant et donc leur fréquence de Larmor ne va pas être non plus parfaitement égale à la fréquence de Larmor théorique. Par conséquent, les différents moments magnétiques vont avoir tendance à se déphaser. Cela se traduit par une diminution du signal lié à leur rotation synchrone au cours du temps, dit temps de relaxation transversale noté T2.
Ce temps T2 mesure la disparition de l'aimantation transversale, c'est-à-dire de l'aimantation résultant du fait que les moments magnétiques sont synchrones dans leur rotation dans le plan transversal, perpendiculaire à B 0 , où ils ont été amenés par l'onde excitatrice oscillante B 1 . Là encore, il s'agit d'un phénomène qui suit une loi exponentielle (décroissante cette fois) : M ( t ) = M 0 . e − t T 2
Inhomogénéités de champ (T2*)
Dans un système idéalisé, tous les noyaux précessent à la même fréquence. Cependant, dans les systèmes réels, les inhomogénéités du champ magnétique principal conduisent à une dispersion des fréquences de résonance autour de la valeur théorique (effet d' off-resonance). Au cours du temps, ces irrégularités accentuent le déphasage de l'aimantation transversale et la perte de signal.
La relaxation transversale observée est donc décrite par un temps T2*, généralement beaucoup plus petit que le T2 « vrai » :
1 T 2 ∗ = 1 T 2 + 1 T 2 ′
où T2' décrit la perte de signal résultant exclusivement des inhomogénéités du champ magnétique principal. Pour les molécules statiques, cette décohérence est réversible et le signal peut être récupéré en effectuant une expérience d'écho de spin.
Codage spatial grâce aux gradients
La localisation spatiale des atomes est obtenue en ajoutant un gradient directionnel sur le champ magnétique de base ( B 0 ) grâce aux bobines de gradient de champ magnétique. La relaxation des protons sera alors modifiée par la variation du champ magnétique. Des techniques de traitement du signal utilisant les algorithmes de transformées de Fourier rapides permettent alors de localiser l'origine du signal.
La résolution spatiale est liée à l'intensité du champ magnétique (de nos jours, en 2006, les appareils utilisent un champ de 1 à 3 teslas) et de la durée de l'acquisition (en général une dizaine de minutes). On atteint actuellement une résolution de l'ordre du millimètre.
Pondérations
En modifiant les paramètres d'acquisition IRM, notamment le temps de répétition entre deux excitations et le temps d'écho, temps entre le signal d'excitation et la réception de l'écho, l'utilisateur peut modifier la pondération de l'image, c’est-à-dire faire apparaître les différences de temps T1 et de temps T2 des différents tissus d'un organisme. Les tissus ayant des temps T1 et T2 différents en fonction de leur richesse en atome d'hydrogène et en fonction du milieu dans lequel ces derniers évoluent, peuvent renvoyer des signaux différents si l'on arrive à mettre en évidence ces différences de temps. Pour cela, on teste la réponse des atomes après des excitations particulières.
Des tissus différents ont des T1 différents. Après stimulation de radiofréquence avec un temps de répétition court, on ne laisse pas le temps aux atomes d'hydrogène de certains tissus de revenir en position d'équilibre alors que, pour d'autres atomes d'hydrogène d'autres tissus, le temps est suffisamment long pour qu'il y ait un retour à l'équilibre. Lorsque l'on mesure l'état d'énergie des atomes des tissus, on note des écarts d'état entre ces différents atomes. Si on laissait un temps trop long, tous les atomes auraient le temps de revenir en position d'équilibre et l'on ne noterait plus de différences entre différents tissus.
Des tissus différents ont des T2 différents. Après stimulation par un temps d'écho long, on retrouve des décroissances d'énergie d'amplitude plus importante entre les tissus. Les différences de T2 étant plus discriminants si le temps d'écho est long.
Pondération T1
Les paramètres de la pondération :
- temps d'écho : TE = 10 à 20 ms (ms = millisecondes)
- temps de répétition : TR = 400 à 600 ms
En utilisant un temps de répétition court et un temps d'écho court (neutralise les différences de temps T2), on obtient un contraste d'image pondérée en T1, pondération dite « anatomique » : en pondération T1 sur le cerveau, la substance blanche apparaît plus claire que la substance grise. Le liquide céphalorachidien, situé entre la substance grise et l'os apparaît lui nettement plus foncé.
Ces séquences sont également utilisées après injection de produit de contraste, pour caractériser une anomalie17,18.
Pondération T2
Les paramètres de la pondération :
- temps d'écho : TE > 80 ms
- temps de répétition : TR > 2 000 ms
En utilisant un temps de répétition long (neutralise les différences de temps T1) et un temps d'écho long, on obtient un contraste d'image dite pondérée en T2, dite aussi pondération « tissulaire » : L'eau et l'œdème apparaissent en hyper signal.
Densité protonique
Les paramètres de la pondération :
- temps d'écho : TE = 10 à 20 ms
- temps de répétition : TR > 2 000 ms
En utilisant un temps de répétition long (2 000 ms à 3 000 ms) et un temps d'écho court (inférieur à 30 ms), on obtient un contraste d'image de pseudo densité protonique (Tissus > liquide > graisse). Seul les éléments tissulaires à faible densité protonique, comme les ménisques, seront en hyposignal par rapport aux liquides libres témoins d'une pathologie articulaire sous-jacente. En utilisant un temps de répétition plus long (5 000 ms) et un temps d'écho court (inférieur à 30 ms), on obtient un contraste d'image de vraie densité protonique (Liquide>Tissus>graisse).
Séquences
Écho de spin
Séquence SE classique
La séquence IRM la plus classique est sans doute la séquence écho de spin. Cette dernière se décompose en :
- une impulsion 90° dite d'excitation.
- une période de déphasage dans le plan transverse des protons pendant TE/2.
- une impulsion 180°, dite d'inversion.
- un rephasage pendant TE/2.
- la lecture du signal (lecture de l'écho de spin).
Cette séquence permet les pondérations T1, T2 et de densité protonique. Elle n'est plus utilisée car le temps d'acquisition est beaucoup trop long car il faut compter environ 50 minutes pour l'acquisition d'une coupe sur une matrice de 256².
Séquence TSE/FSE rapide
TSE pour Turbo Spin Echo et FSE pour Fast Spin Echo (le nom de la séquence dépend des constructeurs mais le principe est identique).
La technique associe la méthode écho de gradient et écho de spin pour une acquisition plus rapide mais plus sensible aux artefacts.
Le principe de ces techniques reste basé sur un angle d'impulsion radiofréquence (généralement 40°) appelé angle de Ernst intermédiaire entre la séquence SE et IR avec des temps de répétitions plus courts (300 ms) , cette technique appliquée à haut champ permet d'éviter certains artefacts dus aux spins mobiles.
Inversion-Récupération
Séquence IRT1 ou FLAIRT1 ou TRUET1
On envoie une impulsion à 180°, puis on attend un délai T pendant lequel ML (proportionnel à l'intensité longitudinale) a augmenté. Après T, on envoie une impulsion à 90°, qui provoque un basculement de ML, on obtient ainsi un courant mesurable et donc un signal lié à T1.
Séquence STIR
(= Short Tau Inversion Recovery)
Les séquences STIR ont pour but d'annuler le signal de la graisse.
Séquence FLAIR ou FLAIR T2
Il s'agit d'une séquence en inversion-récupération pondérée T2 sur laquelle on a « supprimé » le signal de l'eau libre (et donc du liquide céphalorachidien), qui apparaît alors en hyposignal, en adaptant le temps d'inversion. Cette séquence est très utilisée dans l'exploration cérébrale (notamment du cortex et des parois ventriculaires), l'œdème, la nécrose ou encore la gliose.
Écho de gradient
Gradient de diffusion
Les techniques de gradient de diffusion consistent à mesurer le mouvement brownien des molécules d'eau dans les tissus. Cela permet d'en déduire des informations sur les inhomogénéités des tissus et notamment de la substance blanche du tissu nerveux. Pour ce faire, les mesures de la diffusion sont effectuées sur un plus ou moins grand nombre de directions (de 6 à plus d'une centaine) qui permettent de calculer des tenseurs de diffusion dans chaque voxel. À partir de là, il est possible de définir la direction moyenne des fibres qui passent dans chacun des voxels et de reconstruire la trajectoire des principaux faisceaux de fibres grâce à des algorithmes de tractographie déterministes ou probabilistes. Cette direction moyenne est donnée par la direction propre associée à la plus grande valeur propre du tenseur de diffusion. Le plus souvent, les algorithmes déterministes interpolent les directions de chaque voxel contigu en fonction du degré d'anisotropie (mesuré par la fraction d'anisotropie) et de l'angle formé par deux directions moyennes de voxels jouxtants.
Saturation des graisses (ou fatsat)
La Fat Sat est une technique permettant de supprimer le signal de la graisse en IRM.
C'est une méthode qui utilise la légère différence de fréquence de résonance des protons des atomes d'hydrogène présents dans la graisse par rapport à ceux de la molécule d'eau. Cette différence est d'environ 220 Hz(à 1,5 Tesla). On envoie donc une radiofréquence dirigée spécifiquement sur la fréquence de la graisse afin de la saturer avant de recueillir le signal de la coupe.
Avantages :
- méthode utilisable en pondération tant T1 que T2 ;
- permet de mieux mettre en évidence les prises de produit de contraste en pondération T1.
Inconvénients :
- Très sensible aux inhomogénéités de champ, la différence de fréquence de résonance étant très ténue, si le champ magnétique a une valeur trop variable, la Fat Sat ne fonctionnera pas bien. Ce problème se pose souvent en cas de corps étrangers métalliques trop proches ou même en cas d'homogénéité limitée de l'aimant.
Artefacts
L'IRM, comme toutes les autres techniques d'imagerie médicale, n'échappe pas à la constitution de fausses images : les artéfacts.
Les artéfacts sont des images observables qui n'ont, pour la plupart, pas à proprement parler de réalité anatomique. Ils peuvent être évités ou minimisés en modifiant certains paramètres d'acquisitions ou de reconstructions. Cependant certains d'entre eux sont utiles pour le diagnostic.
Artefacts de mouvement
L’artefact de mouvement est un des artefacts les plus fréquemment rencontrés. Comme son nom l'indique, il se constitue lorsqu'il y a translation dans l'espace du segment étudié au cours de l'acquisition. Il y a deux types de mouvements rencontrés :
- les mouvements périodiques : Ce sont les mouvements de la respiration, les battements cardiaques et les flux sanguins ;
- les mouvements apériodiques : Ce sont les mouvements du patient, les mouvements oculaires, la déglutition, le péristaltisme digestif et le flux du liquide cérébrospinal.
Ils ont pour conséquence la dispersion du signal : image floue de la structure en mouvement.
Mais aussi (en particulier pour les mouvements périodiques) des erreurs de localisation du signal : des images « fantômes » ou ghosting ; en effet lorsqu'il y a mouvement au cours de différents codages de phase, plusieurs valeurs de codage et donc plusieurs localisations seront attribuées à un même proton.
Ces erreurs de localisations ne sont visibles que dans le sens de la phase car entre deux échantillonnages de codage de phase il peut se passer quelques secondes au cours desquelles un mouvement a lieu. En revanche entre deux échantillonnages de codage de fréquence seules quelques millisecondes se passent, un mouvement d'amplitude significative durant ce laps de temps très court est donc peu probable.
Cette propriété est importante car elle permet de modifier les paramètres en fonction de la zone d'intérêt diagnostic de l'examen. Par exemple : Lorsque le rachis est étudié en coupes axiales, le codage de phase peut être paramétré en droite-gauche afin d'éviter que le ghosting du flux sanguin de l'aorte ne vienne se projeter dessus. Les techniques de présaturations permettent de saturer les spins mobiles et d'éviter leurs artefacts sur l'acquisition d'image statique (cf respiration abdominale ou passage de gros troncs vasculaires ou du LCR dans la région spinale surtout à partir de 1.5 Tesla)) dans la zone d'examen.
Artefacts de champ magnétique
Artefact de susceptibilité magnétique métallique
Artefact de susceptibilité magnétique
Artefact d'hétérogénéité globale du champ magnétique principal
Artefact de non linéarité d'un gradient de champ magnétique
Artefacts d'impulsions de radiofréquence
Les antennes émettrices, qui excitent les protons du tissu à imager, possèdent un profil d'excitation limité dans l'espace. Le signal reçu est donc inhomogène, et les zones les plus proches de l'antenne apparaîtront en hyper-signal.
Artefact d'impulsions de radiofréquence croisées
Artefact de croisement de coupe
Artefact d'interférences aux radiofréquences extérieures
Cet artefact est du aux interférences des radiofréquences émises par des appareils extérieurs : GSM, 3G, radio, etc.
Artefact d'hétérogénéité des impulsions de radiofréquence
Artefacts de reconstruction d'image
Ce sont les artefacts liés au problème de numérisation du signal (échantillonnage). Ainsi, si un pixel intersecte plusieurs objets, son niveau de gris sera une combinaison des niveaux de gris issus de chacun des objets traversés.
Artefact de déplacement chimique
Artefact de repliement
Afin de générer une image 2D, l'IRM impose une phase et une fréquence de résonance aux spins (voir plus haut) qui dépend de leur position. Nous savons que la phase est 2pi périodique, ainsi les zones de l'espace codées avec une phase de 2pi+phi et phi se chevaucheront.
Artefact de troncature (phénomène de Gibbs)
Il est lié à des interactions entre les protons et leur environnement, source d’apparition de faux contours.
Applications
Angio-IRM
L'angio-IRM ou ARM est utilisée pour visualiser les artères afin de mettre en évidence des anomalies telles que les sténoses, dissections, fistules, les anévrismes et artérite. Les artères cérébrales, cervicales, rénales, iliaques, pulmonaires et l'aorte sont les artères les mieux étudiées par cette technique.
L'angio-IRM fait appel aux séquences en échos de gradient ultrarapides avec injection de chélates de gadolinium en intra-veineuse19. D'autres séquences, comme l'angiographie par temps de vol (TOF-MRA)20 ou par contraste de phase (PC), permettent aussi de visualiser les fluides en mouvement sans injection de marqueur particulier.
IRM cardiaque
Cholangio-IRM
L'étude des voies biliaires et pancréatiques par l'IRM de manière non invasive est une nouvelle approche des bilans d'imagerie des pathologies hépato-pancréatico-biliaires.
IRM fonctionnelle (IRMf)
Une coupe d'une IRM fonctionnelle du cerveau.
Cliquer ici pour une animation allant du haut de la tête vers le bas.
La méthode la plus utilisée actuellement est celle basée sur l’aimantation de l’hémoglobine contenue dans les globules rouges du sang. L’hémoglobine se trouve sous deux formes :
- les globules rouges oxygénés par les poumons contiennent de l’oxyhémoglobine (molécule non active en RMN) ;
- les globules rouges désoxygénés par le métabolisme des tissus contiennent de la désoxyhémoglobine (active en RMN car fortement paramagnétique).
En suivant la perturbation du signal de RMN émis par cette molécule, il est donc possible d’observer l’afflux de sang oxygéné, qui chasse le sang désoxygéné. Lorsqu'une zone du cerveau augmente son activité, un afflux de sang oxygéné lui parvient grâce à un mécanisme combinant la dilatation des vaisseaux sanguins à divers autres mécanismes mal élucidés, ce qui répond ainsi à la demande de consommation locale en dioxygène des cellules actives : c'est le signal BOLD. En faisant l’acquisition d’images pondérées T2* à une cadence rapide (environ une image toutes les secondes, voire moins), il est possible de suivre en direct, sous forme de film, les modulations de débit sanguin liées à l’activité cérébrale, par exemple lors d'une tâche cognitive.
IRM paramétrique
Cette méthode consiste à mesurer par IRM des paramètres hémodynamiques ou de perméabilité des vaisseaux capillaires, dont les calculs dérivent d'un modèle mathématique appliqué aux données d'imagerie obtenues dans des conditions particulières. En général il s'agit de séquences dites dynamiques car avec une résolution temporelle élevée, permettant de suivre l'évolution de l'intensité de signal après injection d'un produit de contraste paramagnétique. Cette méthode permet de calculer le flux et le volume sanguin d'un tissu, et la perméabilité des capillaires (microvaisseaux) de ce tissu. Cette méthode semble très prometteuse en cancérologie pour déterminer quand une tumeur est cancéreuse, mais reste utilisée de façon très marginale compte tenu du haut niveau technique nécessaire. Actuellement[Quand ?], seules les universités américaines disposent de tels équipements.
Imagerie du tenseur de diffusion
L’imagerie du tenseur de diffusion (DTI) est une technique basée sur l'IRM qui permet de visualiser la position, l’orientation et l’anisotropie des faisceaux de matière blanche du cerveau.
Spectroscopie RMN
Il permet l'étude de la présence et concentration de certains métabolites. Son application est encore rare, il demande des IRM de haut-champ (1,5 Tesla minimum et 3 Tesla pour obtenir des pics bien différenciés) et des formations spécifiques pour les radiologues.
Cependant la technique semble très prometteuse notamment en oncologie, par exemple, il permet de faire la différence entre récidive locale et nécrose post-radiothérapique dans un stade précoce avec une précision que, seule, une biopsie (invasive et parfois risquée) peut égaler.
Un examen IRM anatomique dure en général de 15 à 30 minutes. Un ensemble complet d'examens prend souvent entre une demi-heure et une heure pleine. L'examen est absolument sans douleur. Le patient est allongé sur une table d'examen motorisée. Au cours de l'acquisition, il ne doit pas bouger : la table se déplace automatiquement pour le faire passer dans l'antenne. Les seules gênes à en attendre sont le bruit notable et la sensation d'enfermement (le corps étant dans un tube ouvert) pouvant poser quelques problèmes chez certains claustrophobes. En général, le ou les manipulateurs en électroradiologie médicale restent en contact constant avec le patient.
L'examen IRM se réalise sur un patient en pyjama ; il doit retirer montres, bijoux, ceinture, clés, cartes bancaires, à puce ou magnétique, pièces de monnaie, etc. c'est-à-dire tout élément métallique qui pourrait être attiré par l'aimant. Les accompagnants (parents s'il s'agit d'enfants) doivent également se séparer de ces accessoires pour pénétrer dans la salle de l'appareil d'imagerie.
Indications
IRM du genou, coupe sagittale en écho de gradient pondération T2; mise en perspective du ligament croisé postérieur.
L'imagerie par résonance magnétique a l'avantage d'apporter une bonne visualisation de la graisse, de l'eau, donc de l'œdème et de l'inflammation avec une bonne résolution et un bon contraste.
En particulier, l'IRM permet d'imager la fosse sous-tentorielle de l'encéphale, dont l'exploration est difficile en CT-scan à cause d’artefact de durcissement de faisceaux.
Cette imagerie n'est pas adaptée à l'étude des tissus pauvres en protons comme les tendons et le tissu osseux.
Les éléments anatomiques étudiés par l'IRM :
- le cerveau et la moelle épinière :
-
- diagnostic des maladies neurologiques inflammatoires (sclérose en plaques),
- la fosse postérieure du cerveau est particulièrement bien visible par l'IRM (ce qui n'est pas le cas par le scanner cérébral),
- le rachis : hernie discale et toutes les pathologies disco-somatiques, lésions traumatiques du rachis et de la moelle, la spondylodiscite infectieuse ;
- les viscères digestifs et pelviens ainsi que les muscles ;
- les articulations et les structures adjacentes (hanches, genoux, ménisques, ligaments croisés), notamment chez les sportifs ;
- les processus tumoraux, même osseux ;
- les gros vaisseaux comme l'aorte et ses branches (artères rénales, iliaques), les vaisseaux cérébraux et cervicaux sont étudiés pour le bilan de maladie athéromateuse, des dissections, sténoses (artérite oblitérante des membres inférieurs). L'artère pulmonaire peut être analysée par l'ARM dans le cadre de l'embolie pulmonaire ;
- les malformations artério-veineuses mais aussi les malformations cardiaques congénitales (tétralogie de Fallot, atrésie pulmonaire, transposition des gros vaisseaux) ;
- les arbres hépatobiliaire et pancréaticobiliaire sont étudiés dans certaines pathologies hépatiques (CBP) et pancréatiques (tumeur du pancréas, insuffisance pancréatique exocrine) (cholangio-IRM) ainsi que le système porte (en ARM).
Contre-indications
Les contre-indications21 au passage d'examen IRM sont :
- la présence de métaux susceptibles de se mobiliser dans le corps22 :
-
- clips vasculaires cérébraux surtout chez les patients opérés d'un anévrisme cérébral,
- corps étranger métallique ferromagnétique intra-oculaire ou dont la mobilisation exposerait le patient à des blessures (séquelle d'accident de chasse, accident de meulage…),
- valves cardiaques non compatibles, ce qui est le cas de la valve Starr-Edwards pré 6000. La plupart des valves cardiaques sont compatibles avec l'examen IRM,
- Les clips caves inférieurs, clips de trompe de Fallope ou stents coronaires nécessitent une précaution d'emploi. Les différentes prothèses (hanche, genou) ne sont pas des contre-indications,
- on respectera, malgré une compatibilité avérée, un délai après chirurgie. Celui-ci se situant généralement entre 3 et 6 semaines après la pose du matériel. Ce délai correspond au temps nécessaire pour que les différents tissus de l'organisme adhèrent au matériel et le « stabilisent »,
- en revanche, il n'y a pas de délai postchirurgical après ablation de matériel, mais attention aux agrafes chirurgicales ;
- les dispositifs biomédicaux :
-
- stimulateur cardiaque et défibrillateur cardiaque non compatibles dont le fonctionnement peut être altéré par le champ magnétique et conduire à des troubles du rythme cardiaque potentiellement mortels. Les modèles les plus récents sont compatibles avec l'IRM mais il faut s'assurer que l'ensemble « stimulateur cardiaque + sondes » le soit. Même dans ce cas, la présence de ce matériel génère de nombreux artéfacts gênant l'imagerie proche du dispositif ;
- pompe à insuline ;
- neurostimulateur ;
- dispositifs transdermiques (patchs)23. Certains de ces dispositifs possèdent un mince halo métallique de protection dans leurs couches superficielles qui peut être cause de brûlures. C'est le cas par exemple de Nitriderm TTS, Scopoderm TTS et Neupro qui contiennent de l'aluminium24 ;
- l'état du patient :
-
- impossibilité de rester allongé (insuffisance cardiaque ou respiratoire avec orthopnée) ;
- impossibilité de rester immobile (patient pusillanime, enfants, troubles psychiatriques). Les examens d'imagerie peuvent le cas échéant être réalisés sous prémédication, voire sous anesthésie générale. Il convient alors d'utiliser le seul matériel d'anesthésie homologué pour entrer dans la salle d'IRM ;
- la claustrophobie, qui peut faire l'objet des mesures citées précédemment ;
- l'allergie au gadolinium ou à son chélateur/ligandc ou encore à l'excipientd est rare. Cependant, le produit est très toxique en cas d'extravasation (nécrose des tissus). Il n'existe pas d'interaction connue avec d'autres médicaments ;
- insuffisance rénale (uniquement en cas d'injection de produit de contraste) ;
- la grossesse, en dehors d'indication formelle. Il n'a jamais été démontré d'effet délétère des champs magnétiques sur le fœtus. Mais, par précaution, seules les indications mettant en jeu le pronostic vital ou fonctionnel de la mère sont validées. En cas d'injection de gadolinium : il y a un passage lent de la barrière placentaire (constaté uniquement sur spécimen murin) ;
- allaitement : en cas d'injection de gadolinium uniquement : excrétion faible dans le lait maternel (constaté uniquement sur spécimen murin), recommandation de traite et élimination du lait pendant 24 à 48 heures suivant l'injection.
Effets indésirables
Avec les précautions ci-dessus, l'imagerie par résonance magnétique est non invasive (excepté, s'il y a indication, l'injection de produit de contraste) et sans irradiation.
L'effet du haut champ magnétique et du champ oscillant reste discuté25. Chez les personnes travaillant en IRM (et donc exposés durablement), il est décrit un goût métallique dans la bouche, des vertiges26.
L'examen n'est pas contre-indiqué chez la femme enceinte mais des lésions de l'ADN de certaines cellules de patients soumis à une IRM cardiaque ont été décrits27 sans que les conséquences en soient claires.
Notes et références
Notes
- L'IRM a une meilleure résolution en contraste que le scanner et le scanner a une meilleure résolution spatiale que l'IRM, il faut donc considérer ces deux examens comme complémentaires.
- Le terme « nucléaire »(du latin : nucleus « noyau ») renvoie donc simplement au fait que cette technique repose sur les propriétés des noyaux atomiques mais n'a pas de lien avec les processus de fission nucléaire qui produisent les rayonnements ionisants dont les effets peuvent être dangereux sur la santé. Le nom complet de l'IRM devrait donc en réalité être « IRMN », « imagerie par résonance magnétique nucléaire » mais pour ne pas effrayer les patients qui associent souvent, et à tort, le mot « nucléaire » avec la radioactivité[réf. nécessaire], on omet souvent le terme « nucléaire » pour parler simplement d'IRM.
- Une réaction allergique au produit de contraste en IRM est dans la grande majorité des cas due à une intolérance du chélateur (molécule cage) et non au gadolinium. De plus, les différents fabricants de PdC utilisent des chélateurs différents, DTPA-Gd (Magnevist) ou DOTA-Gd (Dotarem) sont deux exemples. Ceci permet de renouveler un examen avec injection en utilisant une autre marque s'il y a eu réaction avec la première
- Le plus souvent, il s'agit de méglumine, la réaction d'allergie à cet excipient est extrêmement rare
Références
- « Scanner ou IRM, est-ce la même chose ? » [archive].
- « Les origines de l'IRM : la résonance magnétique nucléaire » [archive], un article CultureSciences-Chimie de l’École normale supérieure-DGESCO.
- (en) Timeline of MRI [archive].
- (en) MRI — a new way of seeing [archive], réédition de l'article original de Paul Lauterbur initialement paru dans le journal Nature en 1973.
- « IRM : les délais d'attente stagnent à 32 jours en France » [archive], .
- « Cartes. Quel délai d'attente pour passer une IRM près de chez vous ? » [archive], sur ouest-france.fr, Ouest-France, (consulté le )
- « Etude Cemka Eval 2017 » [archive], sur calameo.com (consulté le ).
- [PDF] Neurospin 24-nov-2006 [archive].
- « NeuroSpin - Un centre de RMN en champ intense » [archive du ], .
- [PDF]« Évaluation des IRM dédiées et à champs modéré < 1 T » [archive], Haute Autorité de santé, juin 2008.
- (en) Exemple de modèle d'IRM ouvert à 1.2t [archive].
- (en) PRWeb, CorTechs Labs and Hitachi Announce Support of Hitachi 1.2T, 1.5T and 3.0T MRI Scanners for NeuroQuant [archive], 25 juillet 2017.
- (en) Lisa Campi, What patients want to know about MRI machines. 1.2T, 1.5T, 3T - whats the difference? [archive], Shields Health Care Group Blog.
- (en) « Nature of MR signal » [archive], sur Questions and Answers in MRI (consulté le ).
- (en) D.I. Hoult, « The origins and present status of the radio wave controversy in NMR », Concepts in Magnetic Resonance Part A, vol. 34A, no 4, , p. 193–216 (ISSN 1546-6086 et 1552-5023, DOI 10.1002/cmr.a.20142, lire en ligne [archive], consulté le ).
- Denis Hoa Antennes en réseau phasé et imagerie parallèle [archive].
- Exemple d'image [archive]
- Exemple d'image [archive].
- « IRM hépatique » [archive], par Mauro Oddone, de l'hôpital Gaslini à Gênes en Italie.
- (en) Gao X, Uchiyama Y, Zhou X, Hara T, Asano T, Fujita H, « A fast and fully automatic method for cerebrovascular segmentation on time-of-flight (TOF) MRA image », J Digit Imaging, vol. 24, no 4, , p. 609-25. (PMID 20824304, PMCID PMC3138936, DOI 10.1007/s10278-010-9326-1) modifier
- Mousseaux E Les contre-indications à l'IRM STV 1999 ; 11(9) :694-698
- « http://www.med.univ-rennes1.fr/cerf/edicerf/BASES/BA004_idx.html »(Archive.org • Wikiwix • Archive.is • http://www.med.univ-rennes1.fr/cerf/edicerf/BASES/BA004_idx.html" rel="nofollow" class="external text">Google • Que faire ?) Cours sur l'IRM de l'université de Rennes 1 Section Effets des champs magnétiques sur les patients et les personnels.
- Rapport à l'AFSSAPS par la direction de l'évaluation des dispositifs médicauxPDD [archive] erreur modèle {{Lien archive}} : renseignez un paramètre «
|titre=
».
- revue prescrire no 281 mars 2007 Dispositifs transdermiques contenant de l'aluminium : risques de brûlures.
- (en) Effets sur la santé de champs statiques et de scanners IRM [archive] - résumé par GreenFacts d'un rapport de l'OMS de 2006.
- (en) Franco G, Perduri R, Murolo A, Health effects of occupational exposure to static magnetic fields used in magnetic resonance imaging: a review [archive], Med Lav, 2008;99:16-28.
Voir aussi
Sur les autres projets Wikimedia :
Bibliographie
- B. Kastler, D. Vetter, Z. Patay et P. Germain, Comprendre l'IRM Manuel d'auto-apprentissage, 6e édition, 2006. (ISBN 2-294-05110-6) (édition antérieure : 5eédition, 2003 (ISBN 2-294-01411-1))
- (en) Haacke, E Mark, Brown, Robert F, Thompson, Michael et Venkatesan, Ramesh, Magnetic resonance imaging : Physical principles and sequence design, New York, J. Wiley & Sons, (ISBN 0-471-35128-8)
- (en) Lee SC, Kim K, Kim J, Lee S, Han Yi J, Kim SW, Ha KS et Cheong C, « One micrometer resolution NMR microscopy », J. Magn. Reson., vol. 150, no 2, , p. 207–13 (PMID 11384182, DOI 10.1006/jmre.2001.2319, Bibcode 2001JMagR.150..207L)
- (en) P Mansfield, NMR Imaging in Biomedicine : Supplement 2 Advances in Magnetic Resonance, Elsevier, , 364 p. (ISBN 978-0-323-15406-2, lire en ligne [archive])
- (en) Eiichi Fukushima, NMR in Biomedicine : The Physical Basis, Springer Science & Business Media, , 180 p. (ISBN 978-0-88318-609-1, lire en ligne [archive])
- (en) Bernhard Blümich et Winfried Kuhn, Magnetic Resonance Microscopy : Methods and Applications in Materials Science, Agriculture and Biomedicine, Wiley, , 604 p. (ISBN 978-3-527-28403-0)
- (en) Peter Blümer, Spatially Resolved Magnetic Resonance: Methods, Materials, Medicine, Biology, Rheology, Geology, Ecology, Hardware, Wiley-VCH, (ISBN 9783527296378)
- (en) Zhi-Pei Liang et Paul C. Lauterbur, Principles of Magnetic Resonance Imaging : A Signal Processing Perspective, Wiley, , 416 p. (ISBN 978-0-7803-4723-6)
- (en) Franz Schmitt, Michael K. Stehling et Robert Turner, Echo-Planar Imaging : Theory, Technique and Application, Springer Berlin Heidelberg, , 662 p. (ISBN 978-3-540-63194-1)
- (en) Vadim Kuperman, Magnetic Resonance Imaging : Physical Principles and Applications, Academic Press, , 182 p. (ISBN 978-0-08-053570-8, lire en ligne [archive])
- (en) Bernhard Blümich, NMR Imaging of Materials, Clarendon Press, , 541 p. (ISBN 978-0-19-850683-6)
- (en) Jianming Jin, Electromagnetic Analysis and Design in Magnetic Resonance Imaging, CRC Press, , 282 p. (ISBN 978-0-8493-9693-9, lire en ligne [archive])
- (en) Imad Akil Farhat, P. S. Belton, Graham Alan Webb et Royal Society of Chemistry (Great Britain), Magnetic Resonance in Food Science : From Molecules to Man, Cambridge, Royal Society of Chemistry, , 227 p. (ISBN 978-0-85404-340-8, lire en ligne [archive])
Articles connexes
Radiographie
Pour les articles homonymes, voir Radio.
Radiographie pulmonaire numérisée.
La radiographie est une technique d'imagerie de transmission, par rayons X dans le cadre de la radiographie X, ou par rayons gamma en gammagraphie.
Les rayons X sont des ondes électromagnétiques de hautes fréquences de l'ordre de 1016 Hz à 1020 Hz et qui pénètrent la matière condensée (solides et liquides). Elle permet d'obtenir un cliché dont le contraste dépend à la fois de l'épaisseur et du coefficient d'atténuation des structures traversées.
Par extension, l'image obtenue et son support portent aussi le nom de « radiographie ». L'abréviation du terme radiographie est fréquemment employée, on parle alors de « radio » par apocope.
La radiographie est utilisée en radiologie médicale, en radiologie industrielle et en radiothérapie. La radiographie standard correspond à la radiographie d'une région d'intérêt dont la réalisation obéit à un protocole reconnu de manière internationale1,2.
La radiographie s'oppose à l'autoradiographie qui est une technique d'imagerie d'émission.
Les radiographies argentiques se lisent idéalement sur un négatoscope.
Histoire
-
-
Photographie de la première radiographie de l'histoire prise le sur la main d'Anna Bertha Röntgen, la femme du découvreur des rayons X.
-
Dispositif pour la radiographie (vers 1900)
-
Cabinet de radiographie vétérinaire du Laboratoire central vétérinaire de Dijon (ici le , avec un chien allongé sur le plateau).
-
Équipement de radiographie de terrain, dit « Bedside technique » [Seconde Guerre mondiale]
Les progrès scientifiques du XIXe siècle amenèrent tout d'abord à la découverte de sources lumineuses très intenses, comme la lumière oxhydrique ou celle émise par la combustion du magnésium3. Il devint alors possible pour la première fois de voir à travers le corps, grâce à la transmission de telles lumières. Le docteur Richarson s'en servit pour étudier les mouvements du cœur4, ce qui était désormais réalisable sans dissection, simplement en observant son ombre. Mais du fait des propriétés trop peu pénétrantes des rayonnements de la lumière visible, cette technique ne pouvait être effectuée que sur des sujets très jeunes4, avec une poitrine de faible épaisseur.
C'est surtout la découverte des rayons X, réalisée en 1895 par Wilhelm Röntgen5, qui marqua réellement le commencement de l'imagerie de transmission. Ce scientifique allemand, éminent professeur de physique, étudiait à l'époque les rayons cathodiques à l'aide d'un tube de Crookes. En même temps qu'il utilisait cet instrument, il s'aperçut que cela provoquait la fluorescence d'un écran de platino-cyanure de baryum, placé pourtant à deux mètres du tube. Il en conclut qu'un autre type de rayonnement, encore inconnu, provoquait ce phénomène. Il le baptisa de la lettre symbolisant l'inconnue en mathématique, le rayon X.
Afin d'étudier les propriétés de ce nouveau rayonnement, Röntgen plaça divers objets entre le tube et l'écran : du papier, du verre, du plomb, du platine. Il constata que les rayons X étaient extrêmement pénétrants, mais avaient la propriété d'interagir avec la matière, d'autant plus s'il s'agissait d'une matière très dense comme le plomb. Il remarqua également que les rayons X étaient capables d'impressionner des plaques photographiques, tout comme la lumière visible. Ainsi, il eut l'idée de réaliser la toute première radiographie de l'histoire, celle de la main de son épouse, Anna Bertha Röntgen.
À la publication de sa découverte, ce fut une révolution presque instantanée puisque les premiers services de radiologie ouvrirent au début de l'année 1896 ; en 1897 en France grâce à Antoine Béclère. Pour sa découverte, Röntgen reçut le tout premier prix Nobel de physique en 1901. Dans l'intérêt de la médecine, il ne déposa pas de brevet sur sa découverte. Au début du XXe siècle et jusque dans les années 1920, la radiographie se développa considérablement et pas uniquement en médecine. Elle devint une attraction que l'on proposait dans les foires, ou une façon de connaître sa pointure dans les magasins de chaussures. Quand on s'aperçut de la dangerosité des rayonnements ionisants à forte dose, elles furent fortement diminuées et l'exposition à ces radiations fut réservée aux patients pouvant en tirer un avantage diagnostique ou thérapeutique.
Depuis cette prise de conscience, les techniques et les appareils de radiographie n'ont cessé de se perfectionner, que ce soit au niveau du générateur de rayons X, des systèmes de détection, ou des instruments additionnels utilisés. Cette optimisation a pour but de diminuer au maximum la dose délivrée tout en gardant une qualité d'image radiographique permettant un diagnostic efficace.
Production des rayonnements
Pour la production des rayons X, un transformateur haute tension est nécessaire pour transformer la tension du fournisseur d'électricité de l'ordre de 100 V, en une tension électrique de l'ordre de 100 kV. De plus, la haute tension alternative est transformée en une haute tension continue à l'aide d'un pont de diodes.
Illustration de l'effet talon lors de la production des rayons X.
Les rayons X sont produits par un tube à rayons X. C'est un tube sous vide composé d'un filament chauffé alimenté par le courant continu de haute tension. L'intensité de ce courant (en mA) multipliée par le temps de pose (durée d'application du courant en s), sera directement lié au nombre de photons produits. En radiologie, ce paramètre correspond à la charge du tube en mAs. La haute tension est appliquée entre ce filament (cathode) et une cible (anode). Les électrons sont accélérés par cette tension et viennent bombarder l'anode. Celle-ci est composée d'un élément de fort numéro atomique afin de privilégier les interactions par rayonnement de freinage. Ces interactions électroniques produisent un spectre continu de rayons X dont l'énergie maximum correspond à l'énergie cinétique des électrons, donc à la tension appliquée. En médecine, on parle ainsi de kilovoltage (kV) pour qualifier le spectre en énergie des rayons X utilisés. Mais la plus grande part de l'énergie cinétique des électrons est convertie en chaleur au niveau du foyer thermique ce qui peut contribuer à le détériorer malgré le système de refroidissement. Pour cela, l'anode est souvent constituée d'un grand et d'un petit foyer. Le grand foyer a l'avantage de mieux dissiper la chaleur lors de clichés nécessitant beaucoup de mAs mais est à l'origine d'un plus grand flou géométrique au niveau de l'image. Tous ces paramètres sont réglables au niveau du pupitre de commande : kilovoltage, milliampères, temps de pose, taille du foyer. Un posemètre peut être placé en amont du détecteur de façon à asservir le temps de pose voire les milliampères. Il est réglé de façon que le détecteur reçoive la quantité optimale de photons, en prenant en compte les contraintes de radioprotection du patient.
Les rayons X sont produits au niveau du foyer de l'anode dans toutes les directions. Mais du fait de l'angle de l'anode, davantage de photons sont transmis selon une direction perpendiculaire au foyer thermique que selon les autres directions. Cela est du au fait que les photons produits dans la cible ont une plus grande distance à traverser pour en sortir s'ils sont émis dans des directions quasi parallèles au foyer thermique, ils sont alors plus atténués. Ce phénomène, appelé effet talon, conduit à une légère hétérogénéité du faisceau de rayons X. Le tube est blindé de façon à ne laisser sortir les rayons X qu'au niveau de la fenêtre de sortie, seule partie non blindée du tube. Néanmoins, les rayons X doivent traverser les parois du tube sous vide et le circuit de refroidissement de l'anode. Cette filtration inhérente modifie le spectre de rayons X car les photons de basse énergie sont davantage atténués. Un filtre additionnel, souvent en aluminium, est utilisé en radiologie pour davantage encore filtrer les rayons X de basse énergie qui exposeront inutilement le patient sans contribuer à l'image. Un diaphragme est utilisé pour donner une forme rectangulaire de taille réglable au faisceau de rayons X. Il est également possible de se servir d'un cône localisateur pour lui donner une forme circulaire. Un cas particulier est celui de l'Imagerie volumétrique par faisceau conique (ou Cône beam) qui grâce à une projection conique du rayonnement produit une image précise des tissus minéralisés (dents, cartilages, os) de la tête ou de petites parties du corps poignets, chevilles) ou de la dispersion d'un produit de contraste avec possibilité de constituer un modèle 3D de la partie du corps observée.
En radiothérapie, des radiographies appelées images portales sont effectuées à l'aide des accélérateurs linéaires d'électrons produisant des rayons X jusqu'à 25 MV.
Certaines radiographies industrielles de pièces métalliques d'épaisseur importante ne peuvent être réalisées qu'avec des photons de haute énergie, parfois de l'ordre du MeV. Les installations nécessaires à la production de rayons X de telles énergies sont encombrantes, les rayons gamma sont alors préférés. Les intervenants peuvent ainsi se déplacer en entreprise apportant avec eux un projecteur de source gamma pour réaliser des gammagraphies.
Formation de l'image radiographique
L'atténuation des photons lors d'une radiographie dépend des structures traversées. Les photons diffusés sont atténués par la grille antidiffusante avant d'atteindre le détecteur.
Les informations provenant des différentes structures traversées par le faisceau de rayonnements sont projetées sur un même plan pour former l'image. Par conséquent, il est souvent nécessaire de réaliser deux projections, à différentes incidences, pour pouvoir localiser une structure dans les trois dimensions de l'espace. Par exemple, en médecine, il s'agit fréquemment d'incidences de face et de profil. La loi d'atténuation des photons explique l'atténuation différentielle du faisceau à travers différentes structures, ce qui est à l'origine du contraste radiographique.
- I = I 0 ⋅ e − ∫ x 0 x m a x μ ( Z ( x ) , E ) d x
L'objet à radiographier, placé entre les positions x 0 et x m a x , à distance de la source pour que l'on puisse considérer qu'il est soumis à faisceau homogène I 0 de photons X ou gamma. Au fur et à mesure que le faisceau de photons traverse l'objet, il est atténué en fonction de l'épaisseur d x traversée et du coefficient d'atténuation μ . Ce coefficient d'atténuation dépend de l'énergie E du photon et du numéro atomique Z de la structure rencontrée à la profondeur x . L'organisme humain possède des tissus comme les os, très opaques aux photons, possédant donc un coefficient d'atténuation très élevé. Cela vient du fait que le tissu osseux est composé d'éléments de numéro atomique élevé comme le calcium. Le corps est aussi composé de tissus mous, peu opaques aux rayons X. Parmi eux, on différencie les organes de densité hydrique car composés essentiellement d'eau (muscles, foie) des densités graisseuses dont le coefficient d'atténuation est légèrement plus faible. Enfin, le poumon étant essentiellement composé d'air, il est qualifié d'organe de densité aérique. En effet le tissu pulmonaire, comme l'air, laisse passer la quasi-totalité des rayonnements. À la sortie du patient, le faisceau de photons n'est plus homogène mais est caractéristique des tissus traversés, on parle d'image radiante I . Ces photons interagissent avec le détecteur, y déposant une énergie représentative des tissus traversés. Selon le mode de fonctionnement du détecteur, cette énergie sera utilisée pour produire l'image. La forte différence de coefficient d'atténuation entre les os et les autres tissus, crée un fort contraste de l'image, ce qui fait des rayons X un excellent outil d'imagerie osseuse. Pour obtenir une image d'organes n'ayant pas une densité spécifique, il est possible d'apporter in situ un produit de contraste de forte densité. C'est le cas pour l'imagerie des vaisseaux (injection intraveineuse d'iode), pour l'imagerie du système digestif (ingestion ou injection de baryte, à base de baryum), pour l'imagerie des articulations, ou arthroscopie (injection intra-articulaire d'iode) ou encore par exemple pour l'imagerie du système de reproduction de la femme, ou hystéroscopie (injection d'iode).
L'atténuation des photons en radiologie médicale provient essentiellement de deux types d'interactions : l'effet photoélectrique et la diffusion Compton. Lors d'une radiographie, en l'absence de diffusion Compton, les photons sont soit transmis à travers le patient soit absorbés par effet photoélectrique, en fonction des tissus traversés. Sur un grand nombre de photons incidents, le contraste de l'image est alors idéal. En pratique, certains photons sont diffusés par effet Compton, ils changent donc de trajectoire et peuvent ainsi interagir sur une zone du détecteur pour laquelle ils ne sont pas représentatifs des tissus traversés. Les photons diffusés diminuent donc la qualité de l'image. Pour pallier cette détérioration de l'image radiante, on utilise dans certaines conditions une grille antidiffusante ou la technique air-gap (voir plus bas : Qualité de l'image).
Amplificateur de luminance principalement utilisé pour l'imagerie vasculaire dynamique.
Radiographie avec « soustraction » des tissus (combinaison linéaire de deux images à différents niveaux d'énergie, combinée selon un coefficient qui rend les tissus mous invisibles).
Idem, avec « soustraction » des os (combinaison linéaire de deux images à différents niveaux d'énergie, combinée selon un coefficient qui rend l'os invisible).
Systèmes de détection
Dans certains systèmes dits indirects, l'information relative à l'exposition du détecteur aux photons est contenue sous forme d'une image latente (virtuelle). Celui-ci doit subir une opération spécifique afin de transformer cette image latente en une image réelle. Des systèmes directs, plus modernes, permettent de transformer instantanément l'information reçue par le détecteur en image. Chaque détecteur est caractérisé par sa courbe sensitométrique, qui définit l'exposition du détecteur nécessaire à l'obtention d'un certain niveau de gris sur l'image.
Couple écran-film
La radiographie analogique utilise comme détecteur le couple écran-film. Le film photographique fut le premier détecteur à être utilisé en radiographie, dès la découverte des rayons X. Il est sensible à la lumière et aux rayons X dans une moindre mesure. Il contient une émulsion contenant des cristaux d'halogénure d'argent (souvent de bromure d'argent). Ces cristaux, soumis aux photons, se dissocient en ions par effet photolytique créant ainsi une image latente. C'est donc un système d'imagerie indirect.
- A g B r + p h o t o n → A g + + B r −
L'image latente est transformée en image réelle après plusieurs étapes se déroulant dans l'obscurité ou sous une lumière inactinique. La révélation est réalisée en plongeant le film dans une solution basique qui réduit les ions argent positifs en argent métallique. La fixation de l'image est obtenue en plongeant le film dans une solution acide permettant de stopper ces réactions de réduction. Après lavage et rinçage du film pour éliminer les différents réactifs, les zones du film les plus irradiées contiennent l'argent métallique et sont les plus opaques à la lumière. Les zones non-irradiées du film sont transparentes et apparaissent blanches si on le place sur un négatoscope. Avec l'arrivée des nouveaux détecteurs, cette habitude a été conservée. Ainsi, en radiographie, les images sont présentées de façon que les zones les plus exposées soient noires et les zones les moins exposées soient blanches.
Pour améliorer la sensibilité du film aux rayonnements très pénétrants que sont les rayons X ou gamma, il est couplé à des écrans renforçateurs, disposés de part et d'autre du film. Ils sont constitués de sels fluorescents qui convertissent les rayons X en photons lumineux. Le couple écran film est disposé à l'abri de la lumière, dans une cassette qui est placée derrière l'objet à radiographier. Le couple écran-film possède une courbe sensitométrique d'allure sigmoïde ce qui oblige à exposer ce détecteur à une quantité précise de photons (latitude d'exposition) pour obtenir un contraste satisfaisant.
Le couple-écran film, seul détecteur analogique, est resté longtemps une référence en radiographie du fait de son excellente résolution spatiale et de sa bonne sensibilité. Néanmoins, il est de moins en moins utilisé, au profit des systèmes de détection numériques qui permettent de délivrer des doses moins importantes au patient tout en conservant une qualité d'image suffisante à un diagnostic.
Écran radioluminescent à mémoire
La radiographie informatisée ou Computed Radiography (CR) utilise comme système de détection l'écran radioluminescent à mémoire (ERLM). Le film est alors remplacé dans la cassette par un ERLM, c'est-à-dire un écran au phosphore. L'image latente obtenue est alors activée par un balayage laser et numérisée à l'aide d'un scanner spécial.
Capteur plan
La radiographie numérique directe ou Direct Radiography (DR) utilise comme détecteur le capteur plan (diodes assurant la conversion directe lisible par circuit électronique), dernier cri de l'imagerie médicale directe. Dans ce dernier cas, l'image générée par les rayons X au niveau de la couche d'iodure de césium est transformée en signaux électriques par une matrice de photo-transistors (2 048 × 1 536 pixels pour une surface de détection de 40 × 30 cm) qui a l'avantage de ne présenter aucune distorsion géométrique (effet coussin) contrairement aux amplificateurs de luminance qui utilisent des lentilles / miroirs pour focaliser l'image sur le capteur. De plus, le faible poids et l'encombrement réduit de ces équipements de dernière génération permettent leur intégration dans le matériel de radiothérapie, autorisant entre autres le positionnement précis du patient sur la table de traitement grâce à un logiciel spécifique comparant les images obtenues en temps réel (pas de développement de film) avec des images de références prises lors de la planification du traitement.
Amplificateur de brillance
L'amplificateur de brillance est, en radiologie, utilisé dans divers domaines, tant en radiographie dite conventionnelle qu'en radiologie interventionnelle.
Souvent abrégé « ampli de brillance » et parfois nommé « tube intensificateur d'image », cet appareil permet en plus de réaliser des radiographies, de suivre en temps réel l'image radiologique et donc de visualiser un mouvement ; ce que ne peuvent pas faire les systèmes à couple écran-film ou à écran radioluminescent à mémoire.
Dans une salle de radiologie, l'ampli de brillance est généralement placé sous la table d'examen et en face du tube à rayons X.
Système EOS
Fondé sur des détecteurs à haute sensibilité, les chambres à fils, le système de radiographie biplane basse dose EOS utilise une faible dose de rayons X pour obtenir simultanément deux images orthogonales. Ces images peuvent ensuite servir à la reconstruction surfacique 3D de groupes osseux (colonne vertébrale, bassin et/ou membres inférieurs) à l'aide de logiciels spécialisés6.
Imagerie en champ sombre
Elle bénéficie de progrès récents fondés sur les interférences de rayons X observée grâce à des filtres en silicium et analysés par des modèles d'interférences pour déduire des données sur le contraste de phase qui révèle la qualité interne des matériaux (os, organes, tissus mous…) traversés par les rayons X, en fournissant des détails et nuances auparavant inaccessibles. Cette imagerie pourrait notamment améliorer la détection de l'ostéoporose et de certains cancers ou problèmes de calcification, et la mesure de leur gravité. La même méthode améliorera la détection des explosifs ou armes dans des bagages à main, comme des défauts ou corrosions de structures fonctionnelles (métallurgie, plasturgie…). Les chercheurs espèrent pouvoir rapidement adapter les équipements de radiographie existants dans les aéroports7.
Radiographie du
thorax de profil en inspiration sur film.
Qualité de l'image
Les principaux critères de qualité d'une image radiographique sont le contraste, le grain et la netteté8.
Le contraste de l'image radiante dépend du coefficient d'atténuation, l'épaisseur des structures rencontrées et de l'énergie des photons incidents. Les photons sont d'autant plus pénétrants qu'ils sont de forte énergie. Une augmentation du kilovoltage rend donc les photons plus pénétrants vis-à-vis de toutes les structures traversées, ce qui a pour effet de réduire le contraste9. Une augmentation du kilovoltage à mAs fixes augmente la dose reçue au patient et la quantité de photons reçue par le détecteur. Mais accompagnée d'une diminution des mAs, une augmentation du kilovoltage permet de réduire la dose au patient tout en conservant la même quantité de signal au niveau du détecteur. Seul le contraste est affecté par cette optimisation de radioprotection. Le contraste est aussi détérioré par la présence de rayonnement diffusé. Minimiser la proportion de rayonnement diffusé est possible en réduisant le volume diffusant (en limitant le champ irradié avec les diaphragmes ou en limitant l'épaisseur traversée par compression), en utilisant une grille antidiffusante ou avec la technique air-gap10. Le contraste final de l'image dépend également de la courbe sensitométrique du détecteur.
Le grain ou moutonnement ou bruit de l'image correspond à la non-uniformité de l'image lorsque le détecteur est directement irradié par un faisceau homogène de photons, il est alors possible d'observer des grains. Cela est lié à la fois au bruit quantique des photons arrivant au détecteur, à la distribution des éléments sensibles au sein du détecteur (cristaux de bromure d'argent pour les films) et à toute autre source de bruit de la chaîne de détection. Le bruit est souvent comparé à l'intensité du signal mesuré. Le rapport signal sur bruit est ainsi un indicateur de la qualité d'une image.
La netteté de l'image s'oppose au flou. On distingue plusieurs origines de flou : le flou du foyer (géométrique), le flou du détecteur et le flou cinétique11. Le fait que le foyer optique ne soit pas ponctuel crée dans l'image un flou géométrique, dépendant des distances entre le foyer, l'objet visualisé et le détecteur. Le flou du détecteur est lié à la résolution spatiale du détecteur. Enfin, le flou cinétique est dépendant des mouvements entre la source, l'objet et le détecteur pendant la réalisation de la radiographie. En médecine, ce flou est lié aux mouvements fortuits ou physiologiques du patient. Afin de réduire au minimum ce flou, il est possible de diminuer le temps de pose. Un certain flou dû au rayonnement diffusé peut aussi être observé sur l'image sur les zones de transition entre différentes structures10.
L'image radiographique, pour être interprétée, doit contenir des informations sur l'objet visualisé et les conditions dans lesquelles elle a été réalisé. Cela permet par exemple de pouvoir différencier la droite de la gauche sur l'image radiographique d'un objet symétrique. Avec l'arrivée de la radiologie numérique, l'image est devenue un fichier informatique, dans lequel toutes ces informations sont stockables. En médecine, la présence d'informations comme le nom du patient est une obligation médico-légale. Des normes ont donc été établies pour les systèmes d'information de radiologie (SIR) et les systèmes d'information hospitaliers (SIH). La plus utilisée est la norme DICOM qui est un modèle orienté objet pour le stockage et l'échange de données d'imagerie médicale.
Applications
En imagerie médicale ou vétérinaire, la radiographie est utilisée pour le diagnostic de diverses pathologies. Ce type d'examen peut également permettre de contrôler la bonne délivrance d'un traitement lors d'interventions invasives ou dans le cadre des traitements par radiothérapie. L'industrie fait également appel à cette technique pour contrôler la qualité des pièces produites, lors de contrôles non destructifs, en particulier des pièces de fonderie12. La radiographie possède un grand nombre d'autres applications, notamment l'imagerie radioscopique de sûreté dans le domaine de la sûreté aéroportuaire, dans les contrôles douaniers ou encore la radioscopie de sûreté dans l'analyse du contrôle de la correspondance. L'archéologie ou l'histoire de l'art utilise la radioscopie pour contrôler des œuvres d'art (différentes couches de peintures sur les toiles), ou l'intérieur d'un contenant sans avoir à l'ouvrir.
Exposition médicale
Résultats d’une étude sur les doses délivrées aux patients adultes lors des actes radiographiques. Cette enquête a été menée par l’IRSN et l’InVS, en France, entre 2008 et 2009, auprès de 50 services de radiologie d’établissements du secteur public13.
Nom de l'acte radiographique |
Nombre moyen de clichés par acte |
Produit dose surface moyen par acte (mGy.cm2) |
Dose efficace14 moyenne par acte (mSv) |
Radiographie du thorax |
1,2 |
280 |
0,05 |
Radiographie de l'abdomen sans préparation |
1,4 |
4 517 |
1,115 |
Radiographies du rachis lombaire |
2,7 |
11 221 |
2,0 |
Radiographie du bassin |
1,2 |
4 048 |
0,75 |
Radiographie de la hanche |
1,8 |
2 341 |
0,20 |
Ces résultats sont à comparer avec l'exposition moyenne de la population française qui est de 3,7 mSv par an, dont 2,4 mSv proviennent de l'exposition naturelle, 1,3 mSv provient des examens médicaux et environ 0,03 mSv est lié aux rejets des centrales et aux essais nucléaires16.
Recyclage des radiographies
Les radiographies devenues inutiles ou de personnes décédées faites par des procédés argentiques contiennent des sels d'argent toxiques (environ 10 kg d'argent par tonne d'images). Les radiographies numériques n'en contiennent pas ou en contiennent peu, mais peuvent également être recyclées. En France, les centres de radiologie, les pharmacies et les déchetteries doivent accepter de les récupérer pour les envoyer vers une filière spécialisée de retraitement (Rhône-Alpes argent, Recycl-M et certaines ONG, tel l'ordre souverain de Malte, en extraient l'argent). Une fois l'argent extrait, la matière plastique en est recyclée ou fait éventuellement l'objet d'une valorisation thermique17.
À partir des années 1950 en URSS, la censure contre les vinyles occidentaux conduit les stiliaguis (« zazous » soviétiques) à utiliser des radiographies pour enregistrer la musique occidentale (jazz, rock) à l'aide de phonographes18,19. Ces supports sont nommés « ribs » (côtes) ou « bones » (os)20.
Notes et références
- E. Montagne, F. Heitz, Imagerie médicale : Tome 1, Radiologie conventionnelle standard, Heures de France, 3e édition, 2009, (ISBN 978-2-853-85310-1).
- (en)Kenneth L. Bontrager, John P. Lampignano, Bontrager's Handbook of Radiographic Positioning and Techniques, Mosby/Elsevier, 2009, (ISBN 978-0-323-05630-4).
- Cosmos, revue encyclopédique hebdomadaire des progrès des sciences, volume 25, 1864 (livre numérique Google [archive]).
- (en)British Association for the Advancement of Science. Science anglaise, son bilan au mois d'août 1868 : réunion à Norwich de l'Association britannique pour l'avancement des sciences (Livre numérique Google [archive]).
- Nucleus : un voyage au cœur de la matière, Ray Mackintosh (Livre numérique Google [archive]).
- EOS : Tout le corps en 3D, journal du CNRS [archive].
- Bulletin ADIT [archive] (Ambassade de France au Danemark).
- Henri Nahum, Traité d'imagerie médicale, Tome 1, Flammarion, 2004 (ISBN 2-257-15580-7).
- Une augmentation du kilovoltage réduit le contraste dans la mesure où les photons sont suffisamment pénétrants pour qu'une part d'entre eux soit transmise à travers l'objet. Initialement, si les photons ne sont pas assez énergétiques, ils ne sont pas transmis à travers l'objet, le contraste est donc nul dans l'objet, l'image ne donne aucune information sur les structures traversées. Dans ces conditions, une augmentation du kilovoltage permet une transmission des photons, une création de l'image et donc une augmentation du contraste.
- J.-P. Dillenseger, E. Moerschel, Guide des technologies de l'imagerie médicale et de la radiothérapie, Éditions Masson, 2009 (ISBN 978-2-294-70431-4).
- Jean Dutreix, Biophysique des radiations et imagerie médicale, Éditions Masson, 1997 (ISBN 2-225-85490-4).
- « Nouvelles images de référence en radiographie numérique » [archive], sur MetalBlog,
- IRSN, Rapport DRPH/SER no 2010-12, Doses délivrées aux patients en scanographie et en radiologie conventionnelle, 52 p. (lire en ligne [archive]), p. 26
- Les facteurs de pondération tissulaire utilisés pour le calcul de la dose efficace sont issus de la publication 103 de la CIPR.
- Valeur calculée avec les testicules considérés en dehors du champ d'irradiation.
- Bilan de l'état radiologique de l'environnement français en 2009[PDF] [archive], IRSN, 2011.
- Futura-sciences, Questions-réponses ; Le recyclage des radiographies [archive], 12 octobre 2010.
- « Soviet Groove – la « décadanse » soviétique » [archive], sur http://www.lecourrierderussie.com/ [archive], Le Courrier de Russie, (consulté le ).
- Sophie Marchand, « Contre la censure : des vinyles sur radio » [archive], sur http://www.novaplanet.com/ [archive], Radio Nova, (consulté le ).
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
Radiologie médicale
Radiographie montrant une fracture distale de l'avant bras.
Dr Macintyre's X-Ray Film (1896)
La radiologie dans le domaine médical, désigne l'ensemble des modalités diagnostiques et thérapeutiques utilisant les rayons X, ou plus généralement utilisant des rayonnements. Mais la radiologie, dans son sens plus commun, désigne la spécialité médicale exercée par un médecin radiologue en France, ou radiologiste au Canada. Un établissement de santé peut donc abriter un service de radiologie. En médecine, on parle de radiologie conventionnelle pour désigner les examens diagnostiques utilisant un tube à rayons X classique servant à réaliser des images bidimensionnelles, radiographiques ou fluoroscopiques. La radiologie conventionnelle comprend la radiologie standard qui concerne les examens radiographiques standards, dont la réalisation obéit à des protocoles reconnus de manière internationale1.
Les chirurgiens-dentistes et les vétérinaires peuvent également pratiquer la radiologie dans le cadre de leur exercice professionnel.
Spécialité médicale
La radiologie, en tant que spécialité médicale, concerne les domaines suivants : la radiologie conventionnelle, la mammographie, la tomodensitométrie (scanner X), la radiologie interventionnelle, l'imagerie par résonance magnétique et l'échographie2,3.
Radiologie conventionnelle
Il s'agit des examens radiologiques utilisant la technologie radio la plus « basique ». Un tube à rayon X et une plaque radiologique. Le résultat de cet examen est une radiographie (d'un membre, pulmonaire...).
Mammographie
La mammographie est une technique radiographique adaptée à l'imagerie des seins. Du fait de la particularité de cet examen, un équipement spécifique est utilisé. En effet, le sein possède un faible contraste aux rayons X et les structures recherchées sont parfois de très petite taille. Un système de compression du sein est utilisé afin d'améliorer le contraste de l'image. De plus, le générateur de rayons X utilisé est spécifique, il fonctionne à faible tension, avec une charge (mAs) relativement importante et un petit foyer optique. Cet examen diagnostique est particulièrement utilisé dans le cadre du dépistage du cancer du sein.
Tomodensitométrie
Radiologie interventionnelle
La radiologie interventionnelle désigne l'ensemble des actes médicaux réalisés par des radiologues et sous contrôle radiologique, permettant le traitement ou le diagnostic invasif de nombreuses pathologies. Le principe de la radiologie interventionnelle est donc d’accéder à une lésion située à l’intérieur de l’organisme pour effectuer un acte diagnostique (prélèvement par exemple) ou thérapeutique (visant à soigner, réparer, refermer...).
Imagerie par résonance magnétique
L'utilisation des champs magnétiques statiques et dynamiques (radiofréquences) permet aussi dans des conditions particulières d'exciter les atomes d'hydrogène et en retour de coder une image de leur répartition dans les tissus, permettant une étude des organes internes sans irradiation de l'organisme.
Échographie
Échographie Doppler d'une femme attendant des jumeaux par le
Dr Renaldo Faber à la clinique des femmes de l'université Karl Marx à Leipzig.
L'échographie consiste en l'utilisation des ultrasons pour étudier les organes internes sans risque d'irradiation contrairement à la radiologie. Ces ultrasons produits par un cristal piézo-électrique au niveau de la sonde, pénètrent à travers les organes « mous » et donnent lieu en retour à des échos, enregistrés par la même sonde et analysés par l'appareil pour former une image, en tenant compte des variations de vitesse sur leur parcours en fonction de la densité des tissus traversés, mais ils sont arrêtés par l'os et diffractés par l'air ce, qui limite les possibilités d'étude aux organes « pleins ». L'échographie est donc particulièrement intéressante chez la femme enceinte et chez l'enfant ou l'adulte jeune pour éviter le recours aux rayonnements ionisants. Mais le perfectionnement du traitement du signal (Doppler, couleur, perfusion, élastométrie...) en étend tous les jours, les indications, d'autant que l'appareil est léger et mobile.
Médecin spécialiste en radiologie
Rôle du radiologue
En France, l'échographie est le seul type d'examen réalisé (acquisition de l'image) uniquement par le médecin (radiologue ou autre spécialiste après une formation adaptée). Les autres examens d'imagerie sont effectués pour ce qui concerne l'acquisition de l'image, par le manipulateur en radiologie, placé sous la responsabilité du médecin radiologue, ou bien par le chirurgien-dentiste, habilité à réaliser et à analyser des radiographies dentaires, rhumatologue ou cardiologue..., ayant bénéficié d'une formation spécifique pour la technique (radiologie interventionnelle) et comme le radiologue d'une formation pour la « radioprotection du patient » renouvelable tous les dix ans. Les fonctions principales du radiologue sont d'adapter les modalités d'examens à l'indication en fonction des renseignements donnés par le médecin prescripteur, de réaliser ou faire réaliser l'acquisition des images avec l'aide du manipulateur, de réaliser l'interprétation des images, de dicter un compte-rendu qui répond à la question posée par le clinicien et de recevoir le patient pour lui donner le résultat de sa réflexion sur le problème soulevé. Dans certains cas, s'il estime que l'examen n'est pas justifié ou qu'un autre examen avec un rapport bénéfice / risque est mieux adapté, le radiologue peut refuser sa réalisation. Cela est d'autant plus vrai pour les examens exposant aux rayons X, en vertu des principes de radioprotection. Le rôle du manipulateur, en dehors de l'acquisition de l'image comporte l'accueil, l'information, l'installation et la surveillance du patient au cours de l'examen et ensuite la gestion des images à l'aide de consoles de reconstruction et d'archivage. Mais c'est le médecin qui reste responsable de la réalisation de l'examen et de son exploitation.
D'après les données de santé disponibles, en France les médecins radiologues sont ceux qui « effectuent presque exclusivement des actes de radiologie (91 %), suivis des ophtalmologues (4 %). Parmi les autres professions de santé, les chirurgiens-dentistes pratiquent également beaucoup d’actes de radiologie (24 503 millers d’actes). Cette activité atteint 37 % de l’activité des radiologues »4.
Formation du radiologue
En France
Le radiologue est un docteur en médecine titulaire du diplôme d'études spécialisées en radiodiagnostic et imagerie médicale (DESRIM). Ce DES est accessible par les épreuves classantes nationales en fin de sixième année des études de médecine et dure cinq ans, soit un total de onze années d'études pour devenir médecin spécialiste en radiologie. Il peut être secondé dans sa tâche par des manipulateurs en électroradiologie médicale.
D'autres médecins peuvent exercer la radiologie dans la limite de leur spécialité, notamment les oto-rhino-laryngologistes, les rhumatologues, les chirurgiens-maxillo-faciaux, les chirurgiens oraux, etc.
Le chirurgien-dentiste pratique également la radiologie en cabinet dentaire, limitée à la sphère orofaciale. Six à neuf années d'études en odontologie sont nécessaires, suivant la spécialité, pour décrocher le doctorat en chirurgie dentaire et pouvoir exercer la profession de chirurgien-dentiste.
Le vétérinaire utilise la radiologie en cabinet sur les différentes espèces qu'il peut soigner. Sept à dix années d'études vétérinaires sont nécessaires, suivant la spécialité, pour décrocher le doctorat vétérinaire.
Au Québec
Le radiologue (ou radiologiste, terme également accepté), est un docteur en médecine titulaire d’un diplôme d’études spécialisées post-doctorales en radiologie diagnostique. Il s’agit d’une formation de cinq ans, faisant suite donc aux cinq années de médecine requises préalablement. À noter qu’au Québec, avant l’entrée à l’université, l’étudiant doit avoir acquis un diplôme d’études collégiales en sciences de la nature, d’une durée de deux ans5.
Autres domaines de la radiologie médicale
Radiologie dentaire
Appareil de radiographie dentaire dans un hôpital au Bénin
Orthopantogramme, aussi nommé panoramique dentaire
La radiologie est quotidiennement pratiquée en cabinet dentaire par le chirurgien-dentiste à des fins d'analyse diagnostique ou d'examens complémentaires en odontologie6.
Les appareils de radiographie dentaire admis en cabinet dentaire sous la responsabilité du chirurgien-dentiste sont les suivants :
- les appareils de radiographie endobuccale, appareils de radiographie panoramique avec ou sans dispositif de tomographie volumique à faisceau conique ;
-
-
La radiographie périapicale
les appareils de téléradiographie crânienne ;
- les appareils de tomographie volumique à faisceau conique (Cone beam computed tomography CBCT) (à l’exclusion des scanners) ;
- les appareils mobiles/transportables et portatifs de radiologie dentaire6.
Le type de cliché radiographique dentaire dépend de l'indication. On distingue :
Le cliché radiographique est réalisé par le chirurgien-dentiste à l'aide d'un film argentique ou d'un capteur numérique intra-buccal ou extra-buccal suivant la nature de l'examen7.
Utilisation médico-légale
Radiographie et première mondiale d'une échographie d'un orque au Marineland d'Antibes.
La médecine médico-légale peut aussi recourir aux techniques radiologiques. La radiographie et la tomodensitométrie sont par exemple utilisées pour vérifier la mort cérébrale de patients8 ou encore pour identifier des cadavres9.
Radiologie vétérinaire
Les examens de radiologie sont utilisés par les vétérinaires qui possèdent leur propre matériel de radiographie dans les petits cabinets. Les zoos possèdent même des scanners X et de appareils d'imagerie par résonance magnétique adaptés aux animaux de grande taille. Les appareils hospitaliers de tomodensitométrie et d'IRM étant généralement adaptés à des patients de moins de 150 kilogrammes, les personnes souffrant d'obésité sont parfois invitées à aller passer leur examen dans des zoos10.
Figures célèbres de la radiologie
- Wilhelm Röntgen, physicien allemand, découvre en 1895 les rayons X. Pour étudier leur transmission à travers l'organisme, Röntgen réalise le premier cliché radiographique de l'histoire le 11.
- Otto Walkhoff, dentiste allemand, réalise la première application médicale de la radiologie en accomplissant une radiographie dentaire, en 11.
- Antoine Béclère, jeune médecin lors de la découverte des rayons X, comprend rapidement l'intérêt que peut en tirer la médecine. Dès 1897, il installe à ses propres frais un appareil de radioscopie à l'hôpital de Tenon alors que ce dernier n'est pas encore relié à l'électricité. Il est le premier président de la Société française de radiologie. Il participe à l'intégration de la radiologie dans le service de santé des armées à partir de 191412.
- Georges Haret, médecin radiologue, pionnier dans l'utilisation médicale de la radiographie en France. Il a reçu la Légion d'honneur pour ses travaux.
- Marie Curie, physicienne française, lauréate avec son mari d'un prix Nobel de physique en 1903 pour leur étude des radiations et lauréate du prix Nobel de chimie en 1911. Lors de la Première Guerre mondiale, elle participe à la conception d'appareils de radiographie mobiles destinés à être utilisés le plus près possible des zones de combat13. Elle part elle-même sur le front pour réaliser des radiographies des soldats blessés, indispensables aux chirurgiens pour localiser les balles et éclats d'obus.
- Joseph Brau, médecin radiologue de l'armée française, résistant durant l'occupation, déporté en camp de concentration.
- Guy Tavernier, physicien belge qui découvrit en 1948 l'évolution réelle de la courbe de la dose d'irradiation dans un organisme caractérisée par la Crête de Tavernier.
- Godfrey Hounsfield et Allan MacLeod Cormack, inventeurs dans les années 1970 du premier scanner. Ils ont reçu le prix Nobel de médecine en 1979 pour leurs travaux.
- Georges Charpak, physicien français, inventeur de la chambre à fils qui lui a valu le prix Nobel de physique en 1992. Ses travaux sur les détecteurs ont donné lieu notamment à un système d'imagerie 3D à basse dose appelé EOS.
- Charles Vaillant
- Georges Chicotot
Notes et références
- E. Montagne, F. Heitz, "Imagerie médicale : Tome 1, Radiologie conventionnelle standard", Heures de France, 3e édition, 2009, (ISBN 978-2-853-85310-1)
- Les examens en pratique [archive] - Site de la Société française de radiologie.
- Les examens effectués en radiologie médicale [archive] - Site de l'Association des radiologistes du Québec.
- (tableau statistique de la base Ecosanté [archive] et présentation IRDES [archive])
- « Facultés de médecine » [archive], sur Collège des médecins du Québec (consulté le )
- http://www.ordre-chirurgiens-dentistes.fr/chirurgiens-dentistes/securisez-votre-exercice/materiel-et-materiaux/radiologie-dentaire-et-radioprotection/2-declaration-et-utilisation-des-installations-de-radiologie-dentaire.html [archive]
- http://amdg.ch/examens-diagnostiques-2/examens-radiographiques/ [archive]
- Décret no 96-1041 du 2 décembre 1996 relatif au constat de la mort préalable au prélèvement d'organes, de tissus et de cellules à des fins thérapeutiques ou scientifiques et modifiant le code de la santé publique (deuxième partie : Décrets en Conseil d'État) pour identifier des cadavres.
- Identification médico-légale : détermination du sexe et de l'âge par étude tomodensitométrique de la paroi thoracique antérieure [archive] - Présentation aux Journées Françaises de Radiologie 2007
- Jasper Copping Obèses, faites-vous scanner au zoo [archive], Courrier international / The Sunday Times, .
- http://www.biusante.parisdescartes.fr/sfhad/iahd_08f.htm [archive]
- J.- J. Ferrandis et A. Ségal, « L’essor de la radiologie osseuse pendant la guerre de 1914-1918 », Rhumatologie Pratique, octobre 2009 (journées d’histoire des maladies des os et des articulations) (lire en ligne [archive]).
Voir aussi
Article connexe
Échographie
Échographie d'un fœtus de neuf semaines.
L'échographie est une technique d'imagerie employant des ultrasons. Elle est utilisée de manière courante en médecine humaine et vétérinaire, mais peut aussi être employée en recherche et dans l'industrie.
Terminologie
Le mot « échographie » provient de la nymphe Écho dans la mythologie grecque qui personnifiait ce phénomène et d'une racine grecque Graphô (écrire). Il se définit donc comme étant « un écrit par l'écho ». Le terme « échographie » désigne aussi bien l'acte médical que l'image qui en découle, abrégé au féminin en « une écho ».
L'appareil permettant l'échographie est un « échographe ». Les appareils modernes comportent tous une fonction Doppler. C'est pourquoi on parle d'« échographie Doppler » (abrégée en « écho-doppler »).
Le médecin, le manipulateur en électroradiologie médicale, ou la sage femme qui pratique une échographie est un « échographiste ».
Histoire
L'échographie moderne est le fruit de plus de 200 ans de recherche scientifique multidisciplinaire, associant physiciens, mathématiciens, biologistes, médecins, électroniciens et informaticiens. En effet, en 1828, Jean-Daniel Colladon, un physicien suisse, parvient à déterminer la vitesse de propagation du son dans l’eau. Cette découverte est essentielle dans le développement de plusieurs outils reposant sur l’émission et la réception d’ondes sonores. En 1838, un chercheur de l’université de Virginie aux États-Unis, tente de cartographier les fonds marins grâce à un outil basé sur cette méthode. Sa tentative est un échec, mais son idée inspire les inventeurs du sonar pendant l’entre-deux-guerres, qui disposent alors de moyens technologiques plus avancés1.
Le sonar (acronyme issu de l’anglais « sound navigation and ranging ») est une technique développée pour détecter et localiser les objets sous l’eau. Un sonar émet une impulsion sonore et reçoit l’écho qui est produit lorsque cette impulsion rencontre un objet. Le temps écoulé entre l'émission de l’impulsion sonore et la réception de l'écho est mesurée, et, connaissant la vitesse de propagation du son dans l’eau, il est possible de déterminer la distance entre l’émetteur et l’objet. L’échographie moderne repose sur les mêmes principes physiques que le sonar.
Les recherches sur un tel système sont catalysés, notamment par le naufrage du Titanic, la nécessité de cartographier les fonds marins pour le déploiement des lignes télégraphiques et par la volonté de détecter les sous-marins ennemis lors de la Première et la Seconde Guerre mondiale. Les industriels jouent également un rôle important dans l’amélioration de la précision des dispositifs. En effet, les industriels s’intéressent à cette technologie pour détecter les défauts de fabrication dans les carrosseries de voitures et les coques de bateaux. Leurs recherches permettent d’augmenter la fréquence d’émission des impulsions sonores et de mesurer le temps plus précisément entre l’émission de l’onde et la réception de l’écho1.
Les premières expérimentations dans le domaine médical datent de la fin des années 1930, lorsque Karl Dussik, neurologue, et son frère Friedrich Dussik, physicien, essayent d’utiliser les ultrasons pour diagnostiquer des tumeurs cérébrales, mais sans succès. Concernant l’utilisation de l’échographie dans le domaine médical, les avancées majeures ont lieu dans les années 1950. Le britannique John Wild s’intéresse à l’utilisation des ultrasons pour détecter des tumeurs et des calculs, et publie la première image échographique en deux dimensions en 1952. À Denver, Douglas Howry développe un système, le Pan scanner, qui nécessite une immersion de la zone étudiée. Pendant ce temps, à l’université de Glasgow en Écosse, l’obstétricien Ian Donald modifie un échographe industriel conçu pour détecter les défauts dans les coques de bateaux. En 1958, il publie un article fondateur dans le domaine de l’échographie médicale en gynécologie, contenant les premières images échographiques d’un foetus en deux dimensions. Depuis les avancées majeures des années 1950, l’utilisation de l’échographie dans le domaine médical s’est développée considérablement, notamment grâce aux avancées technologiques qui ont permis de réduire la taille et le coût des échographes tout en améliorant leur précision1.
Le matériel
Photographie d'un échographe. Légende : 1. Les sondes, 2. Système de visualisation, 3. Gel pour échographie, 4. Console de commande, 5. Console d'acquisition, 6. Imprimante
L'échographe est constitué des éléments suivants :
- une sonde, permettant l'émission et la réception d'ultrasons ;
- un système informatique, transformant le délai entre l'émission et la réception de l'ultrason en image ;
- une console de commande, permettant la saisie des données du patient et les différents réglages ;
- un système de visualisation : le moniteur ;
- un système d'enregistrement des données, soit de manière analogique (cassette vidéo, impression papier), soit de manière numérique (format DICOM).
Le tout est disposé sur un chariot mobile, permettant d'effectuer l'examen au chevet même du patient.
Les besoins sont différents suivant l'organe étudié. Le plus exigeant est le cœur, mobile par essence, qui exige une bonne définition de l'image spatiale mais aussi temporelle. On retrouve donc une nouvelle génération d’échographes spécialisés sur l’analyse multidimensionnelle et dynamique du cœur et de son fonctionnement (échocardiographe).
La sonde
Les premières études sur les ultrasons n'étaient pas appliquées à la médecine, mais visaient à permettre la détection des sous-marins à l'occasion de la Première Guerre mondiale. En 1951, deux britanniques, J.J. Wild (médecin) et J. Reid (électronicien), présentèrent à la communauté médicale un nouvel appareil : l'échographe. Il était destiné à la recherche des tumeurs cérébrales mais fera carrière dans l'obstétrique. L'usage en obstétrique date du début des années 1970 avec les appareils permettant de mesurer le périmètre cranien et de capter les bruits du cœur fœtal (voir Effet Doppler).
L'élément de base de l'échographie est généralement une céramique piézoélectrique (PZT), située dans la sonde, qui, soumise à des impulsions électriques, vibre générant des ultrasons. Les échos sont captés par cette même céramique, qui joue alors le rôle de récepteur : on parle alors de transducteur ultrasonore. Un échographe est muni d'une sonde échographique, nommée barrette échographique, pourvue à l'origine de 64, 96 voire 128 transducteurs ultrasonores en ligne. Les sondes des échographes modernes possèdent aujourd'hui jusqu'à 960 éléments. En échographie cardiaque le nombre d'éléments est amené à 3 000 éléments. L'émission se fait de manière successive sur chaque transducteur.
Les ultrasons sont envoyés dans un périmètre délimité (souvent trapézoïdal), et les échos enregistrés sont des signatures des obstacles qu'ils ont rencontrés. L'échogénicité est la plus ou moins grande aptitude d'un tissu à rétrodiffuser les ultrasons.
La fréquence des ultrasons peut être modulée : augmenter la fréquence permet d'avoir un signal plus précis (et donc une image plus fine) mais l'ultrason est alors rapidement amorti dans l'organisme examiné et ne permet plus d'examiner les structures profondes. En pratique l'échographiste a, à sa disposition, plusieurs sondes avec des fréquences différentes :
- 1,5 à 4,5 MHz en usage courant pour le secteur profond (abdomen et pelvis), avec une définition de l'ordre de quelques millimètres ;
- 5 MHz pour les structures intermédiaires (cœur d'enfant par exemple), avec une résolution inférieure au millimètre ;
- 7 MHz pour l'exploration des petites structures assez proches de la peau (artères ou veines) avec une résolution proche du dixième de millimètre ;
- de 10 à 18 MHz plus par exemple pour l'étude, en recherche, de petits animaux, mais aussi, dans le domaine médical, pour l'imagerie superficielle (visant les structures proches de la peau) ;
- jusqu'à 50 MHz pour les appareils de biomicroscopie de l’œil[réf. souhaitée].
Cette résolution dépend aussi de la forme de la structure examinée : elle est bien meilleure si elle est perpendiculaire au faisceau d'ultrasons que si elle est parallèle à ce dernier.
La fréquence de réception des signaux joue également sur la qualité de l'image : en mode fondamental le transducteur détecte les signaux de la même fréquence que celle de l'émission. En mode harmonique, il détecte les signaux d'une fréquence double (seconde harmonique) de celle de l'émission. L'avantage de ce dernier système est qu'il ne détecte essentiellement que les échos revenant dans le même sens que l'émission, écartant de fait les échos diffusés et rendant le signal beaucoup moins bruité. La détection non linéaire a une réponse particulière, elle ne réagit pas aux premiers centimètres après la sonde, ce qui permet de faciliter l'imagerie chez un patient en surpoids (dont la couche de graisse sous la peau complique le passage des ultrasons).
Le gel
Pour des raisons mécaniques, on considère que le contact entre la sonde et le ventre ne peut pas être parfait et qu'il existe donc une fine couche d'air entre ceux-ci.
Les impédances acoustiques de l'air et de la peau (tissu biologique), mesurées en Pa⋅s/m, valent respectivement :
- (à 20 °C) Z a = ρ a ⋅ c a = 1 , 204 × 343 , 4 = 413 , 5
- (à 37 °C) Z p = ρ p ⋅ c p = 1047 × 1570 = 164 , 4 ⋅ 10 4
Elles permettent de calculer la valeur du coefficient de transmission T de l'interface air-peau :
- T = 4 ⋅ Z a ⋅ Z p ( Z a + Z p ) 2 ≃ 10 − 3
Cette valeur est très faible et engendre donc une atténuation du signal importante entre l'émission et la réception des ultrasons par la sonde. C'est pour remédier à ce problème que l'échographiste applique un gel, dont l'impédance acoustique est proche de celle de la peau, pour obtenir une atténuation plus faible.
Le traitement du signal
Photographie d'un simulateur d'échographie fœtale.
L'électronique de l'échographe se charge d'amplifier et de traiter ces signaux afin de les convertir en signal vidéo. L'image se fait en niveaux de gris selon l'intensité de l'écho en retour.
Les différents tissus de l'organisme peuvent apparaître de diverses façons :
- les liquides simples, dans lesquels il n'y a pas de particules en suspension laissent les sons les traverser. Sans écho (structures anéchogènes), ils apparaissent noirs sur l'écran ;
- les liquides avec particules tels que le sang, le mucus, renvoient de petits échos. Ils apparaîtront donc dans les tons de gris, plus ou moins homogènes ;
- les structures solides, l'os par exemple, renvoient mieux les échos. On verra donc une forme blanche (hyperéchogène) avec une ombre derrière (cône d'ombre). Une exception cependant : sur la voûte crânienne du nouveau né la fontanelle très fine et perpendiculaire aux échos, en laisse passer et constitue même une véritable "fenêtre" d'observation du cerveau sous-jacent (jusqu’à ce que les os fusionnent vers l'âge de 2 ans). En 2017 une équipe francosuisse a montré qu’une petite sonde ultrasonique de 40 grammes et de la taille d’un domino, positionnée sur les fontanelles de six bébés en bonne santé via une monture en silicone souple et capable d’enregistrement vidéo EEG et d’imagerie ultrasonore en continu a été environ 50 fois plus sensibles à la mesure du débit sanguin que les ultrasons classiques, permettant un suivi non invasif d'une partie du système microvasculaire cérébral du nouveau-né2.
Ce nouvel outil d’échographie fonctionnelle, à la manière d’une machine EEG distingue les deux phases du sommeil du bébé. Combiné à l'EEG, cette sonde a détecté des convulsions chez deux nourrissons dont le cortex s'était anormalement développé, montrant même l’emplacement du cerveau d’où les crises sont parties (en suivant les vagues d'augmentation du flux sanguin qui se produisent alors)2. Cette sonde ne peut actuellement que surveiller que la zone située sous la fontanelle, mais elle bénéficie d’une haute résolution spatiotemporelle (200 µm pour l’échographie et 1 ms pour EEG). Et si les progrès de la technique continuent à progresser de la sorte, elle pourrait être bientôt capable de détecter une activité cérébrale anormale ; par exemple en cas de septicémie précoce, d’infection de la circulation sanguine (cause de lésion cérébrale)2. Cette technique intéresse aussi la surveillance d’essais cliniques chez le bébé ou les neuroscientifiques (par exemple pour l’étude de l'autisme3 du saturnisme infantile... Parce que l’Imagerie par résonance magnétique n’était pas adaptée aux bébés et notamment en cas d'urgence médicale, cette technique pourrait permettre de mieux comprendre le développement du cerveau aux premiers âges de la vie 3.
- les tissus mous sont plus ou moins échogènes : le placenta est plus blanc que l'utérus, qui est plus blanc que les ovaires ;
- le gaz et l'air, sont comme l'os, très blancs.
Les différents réglages
- La puissance d'émission est réglable mais ne joue que peu dans la qualité de l'image. Il faut théoriquement utiliser la puissance minimale acceptable afin d'éviter un échauffement des tissus examinés. En pratique courante ce risque est négligeable.
- La fréquence d'émission peut être modifiée dans les limites des spécifications de la sonde.
- Le gain à la réception peut être augmenté ou diminué globalement ou de manière variable, suivant la profondeur de la zone explorée (TGC pour time gain compensation).
- Différents filtres peuvent être réglés : compression…
- L'imagerie peut être basculée de mode fondamental en mode de seconde harmonique (abrégé en mode harmonique) permettant d'avoir une meilleure définition.
- Le faisceau d'ultrasons peut être focalisé (lentille acoustique par retard d'émission réglé électroniquement) à une plus ou moins grande profondeur (ne joue que peu sur la qualité de l'image).
- La zone d'intérêt de l'organe explorée peut être élargie, ou au contraire, rétrécie. Dans ce dernier cas, l'image a une meilleure définition.
- La cadence d'acquisition (en anglais : frame rate) peut être réglée. Ce paramètre est peu important en cas d'organes fixes mais doit être sensiblement augmentée pour étudier la mobilité d'une structure (cœur).
La console de commande est munie d'un clavier permettant d'entrer les identifiants du patient et les commentaires. Elle permet d'accéder aux différents modes d'échographie et de doppler, ainsi qu'au traitement et au stockage des images. Elle permet également d'effectuer des mesures (distance, surface…) et différents calculs.
Visualisation des images
Négatoscope pour visualiser les clichés dans hôpital au Bénin
Elle se fait par l'intermédiaire d'un écran.
Différents modes sont disponibles :
- le plus courant est le mode BD (pour « bidimensionnel ») : il s'agit d'une représentation en coupe de l'organe étudié, le plan de celui-ci étant déterminé par la position que donne l'examinateur à la sonde ;
- le mode TM (pour time motion en anglais, en français « temps-mouvement ») représente l'évolution d'une ligne de tir (ordonnée) suivant le temps (abscisse). Ce mode permet d'évaluer précisément les structures mobiles (ventricule gauche pour le cœur, par exemple) et d'en évaluer la taille. Cette dernière dépend cependant étroitement du choix de la ligne de tir et reste donc très examinateur-dépendant.
À ces images en niveau de gris, peuvent être associées des données du doppler en couleur. Parfois les échelles de couleurs peuvent être modifiées (apparence bleutée, ou autre) des nuances de gris pour une meilleure visualisation par l’opérateur.
Stockage et distribution des images
Théoriquement, les données à stocker correspondent au film de la durée de l'examen (de quelques minutes à plus d'une demi-heure) ce qui pose encore problèmes quant à l'importance de la mémoire nécessaire. En pratique ne sont conservées que des images fixes ou de courtes boucles d'images. Le format est souvent propriétaire (avec un outil de conversion DICOM) ou fait de manière native en DICOM. Ce format, largement utilisé dans le domaine de l'imagerie médicale, permet de conserver dans un même document l'identifiant du patient, l'image et les caractéristiques de l'acquisition de cette dernière. Sur certains échographes, il est possible de sauvegarder les images au format JPEG une perte de qualité imperceptible.
De manière simple, l'image sélectionnée est imprimée et jointe au compte rendu. Elle n'a dans ce cas qu'un rôle d'illustration, la qualité de la reproduction ne permettant en aucun cas de réévaluer, par exemple, un diagnostic.
L'image peut être également stockée de manière analogique sur une cassette vidéo, entraînant une dégradation sensible de la définition, mais permettant de conserver suffisamment d'informations pour pouvoir en tirer des renseignements a posteriori.
La manière récente, l'existence d'enregistreur de DVD en temps réel (en même temps) que la réalisation de l'examen permet de numériser plusieurs heures d'examens.
Les images (ou boucles d'images) peuvent être transmises de manière numérique, soit par CDrom, soit par réseau informatique.
Le traitement informatisé de l'image
- Par interpolation d'une boucle d'images, prise avec une cadence d'acquisition rapide, on peut simuler une ligne Tm courbe.
- La reconnaissance automatisée des contours reste la pierre d'achoppement de l'échographie en 2005.
- L'imagerie paramétrique consiste à coder chaque pixel suivant des paramètres calculés sur l'image (évolution dans le temps, déphasage…). C'est un sujet encore en phase de recherche.
- L'imagerie tridimensionnelle, jusqu'au début de ce millénaire, était faite par superposition et interpolation de plusieurs images successives, faites suivant différents plans de coupe (soit de manière libre, soit à l'aide d'une sonde rotative). Le procédé est relativement aisé pour les organes fixes mais beaucoup plus complexes pour les organes mobiles (superposition de boucles d'images et non plus d'images simples). Actuellement, certains échographes sont munis de sondes dotées de capteurs-émetteurs, non plus disposées en ligne mais sous forme de matrice rectangulaire, permettant une acquisition tridimensionnelle directe. Les contraintes techniques et informatiques font cependant que l'image standard est alors sensiblement de moins bonne définition, tant spatiale que temporelle, et que le volume de l'organe directement visualisable reste réduit en taille.
Les différents types d'appareils
- Les appareils standards, bien que disposés sur des chariots à roulettes, sont destinés plutôt à être utilisés en poste fixe. Ils peuvent être connectés à un réseau, à une imprimante externe. Leur coût s'échelonne entre 50 000 et plus de 150 000 €.
- Des appareils plus petits sont conçus pour être utilisé au lit du patient. L'écran plat est de moindre qualité et ils ne disposent pas toujours de toutes les fonctionnalités. Ils fonctionnent sur secteur. Leur prix est inférieur à 100 000 €.
- Des échographes de la taille et du poids d'un PC portable ont été développés. Ils ont le grand avantage d'être autonomes pour leur alimentation.
- Depuis 2004, les échographes ultra-portables ont fait leur apparition, de la taille d'un smartphone, permettant d’être très aisément transportés, à la main ou dans la poche, avec une autonomie très modérée (trois ou quatre examens) mais avec un stockage sur carte SD rendant possible une récupération aisée des données. Ils sont dotés de l’imagerie bidimensionnelle et du Doppler couleur.
Avantages et inconvénients de l'échographie
Avantages
- Réalisée par un professionnel4, l'échographie dans un but médical est quasiment sans danger : c'est la seule technique permettant d'avoir une image du fœtus avec une bonne innocuité. Il n' y a pas d'allergie ni de contre-indication à cet examen ;
- elle est indolore pour le patient. Elle ne nécessite, sauf exceptions, ni hospitalisation, ni anesthésie. Elle peut être répétée sans problème ;
- l'échographie est une technique d'imagerie médicale relativement peu coûteuse : elle ne nécessite qu'un appareil et le prix des consommables peut être négligeable. L'examen est réalisé avec une seule personne (médecin, sage-femme, voire manipulateur MERMEA dans certains pays, comme en France ou aux États-Unis) ;
- l'échographe peut être, dans ce genre de configuration, fixe ou mobile, permettant de réaliser l'examen au lit même d'un patient, dans une unité de réanimation par exemple ;
- s'il est effectué par un médecin ou une sage femme, le résultat est immédiat ;
- elle n’utilise pas de procédé d’imagerie basé sur les rayons X, et, par conséquent, est non irradiante.
- c'est une des seules techniques d'imagerie en temps réel, avec laquelle on peut toujours compléter l'interrogatoire et l'examen clinique du patient en cours d'examen. Elle permet une grande précision diagnostique en des mains expertes et permet d'utiliser plusieurs modalités pour préciser une anomalie : 2D, 3D, 4D, reconstructions planaires, échographie de contraste, doppler pulsé ou couleur, élastographie, manœuvres dynamiques, voire sur les toutes nouvelles machines des mesures avancées et une visualisation améliorée du cœur.
- lorsque l'échogénicité et la distance à l'organe le permettent, l'échographie possède dans certains cas une résolution spatiale supérieure au scanner et à l'IRM.
- l'échographie permet de révéler le sexe du fœtus avant sa naissance. Toutefois, certains hôpitaux anglais ne le révèlent pas aux parents, cela n'étant pas considéré comme ayant un intérêt médical5. En Inde ou en Chine, pour éviter les avortements sélectifs basés sur le sexe, il est interdit de révéler le sexe du fœtus aux parents.
Inconvénients
- Selon l'Agence française de sécurité sanitaire des produits de santé, l'échographie non médicale, qui expose le fœtus aux ultrasons en continu dans un but esthétique, présente un risque pour celui-ci6 ;
- l'image manque parfois de netteté, jusqu'à être parfois inexploitable : c'est le problème de l'échogénicité, faible en particulier en cas d'obésité ;
- l'examen, et donc ses résultats, sont fonction de l'examinateur : les mesures et la qualité des images dépendent beaucoup de la position de la sonde (plan de coupe), et donc, de l'habileté et de la compétence de l'examinateur. Ce positionnement manuel de la sonde varie d'un examen à l'autre et n'est pas connu a priori, ce qui rend complexe toute réinterprétation de l'examen et tout recalage avec une autre modalité d'imagerie médicale. Autrement dit, en cas de doute ou de discussion, l'examen doit être refait en totalité, idéalement par un autre examinateur ;
- le principal bruit qui vient perturber les images ultrasonores est le speckle (« tavelure » en français) ou « granularité » (car l'image donne l'impression d'être formée de grains). Ce bruit est dû au fait que l'imagerie ultrasonore est une technique d'imagerie cohérente, ce qui autorise les interférences entre les ondes et donc cet aspect granuleux de l'image. Les réflexions sur les nombreuses petites « impuretés » dans le milieu de propagation interfèrent entre elles. À noter que l'importance du speckle est lié à la densité de ces impuretés (rugosité du matériau), il peut donc être vecteur d'informations.
Effets secondaires de l'échographie
Les ultrasons, dans le cadre de leur utilisation en échographie, n'ont jamais révélé de conséquences néfastes chez l'humain7. Dans l'immense majorité des études, seuls des effets biologiques négligeables[évasif] ont été observés, aucun effet pathologique n'en découlant. Une étude américaine a montré que l'échographie, dans certaines conditions, perturberait le développement cérébral du fœtus de souris8. Des études sont en cours pour évaluer ce risque chez l'humain.
Réalisation d'un examen échographique standard
Suivant l'organe examiné, le patient doit être à jeun ou non. Il est allongé sur une table d'examen et la sonde, recouverte d'un gel, est posée directement sur la peau en regard de la structure à visualiser.
Techniques particulières de l'échographie
Échographie gynécologique et obstétricale
L'échographie diagnostique apparaît dans les années 1950 pour le cœur et le sein. En 1957, deux Britanniques, l'ingénieur Tom Brown et le gynécologue Ian Donald (en), inventent la première sonde échographique9.
Dans le cadre de la surveillance médicale de la grossesse, une échographie permet d'obtenir une image monochrome d'un fœtus à l'intérieur du ventre de sa mère. Bien que ce soit l'utilisation la plus connue de l'échographie, on utilise également cette technologie pour la détection des troubles d'organes internes (calculs, kystes, cancers).
Au Québec, depuis 2004, certaines cliniques de procréation et de suivi de grossesse offrent un service d'échographie en 3 dimensions qui permet une vision plus globale du fœtus.
Échographie souvenir non médicale
L'échographie dite « de convenance », de plaisir ou affective est un service fourni par certaines entreprises permettant de visualiser le fœtus, éventuellement en image tridimensionnelle, permettant aux parents de se constituer un enregistrement vidéo souvenir. L'examen est fait alors hors cadre médical.
En , Jacques Lansac, en tant que président du Collège national des gynécologues et obstétriciens français (CNGOF) et de la Commission nationale d'échographie obstétricale et fœtale, a vivement protesté contre les offres commerciales de ce type qui peuvent conduire le fœtus à une exposition aux ultrasons durant une trentaine de minutes parfois, avec un faisceau qui « se focalise sur la face et les organes génitaux », conduisant à une exposition « très différente » de l'échographie médicale qui déplace le faisceau pour une exposition plus brève de chaque zone. Selon lui, « Les effets thermiques et mécaniques des ultrasons ne sont pas forcément anodins », notamment pour le cerveau et l'œil10. La même mise en garde est formulée en Belgique en par l'ONE11.
Échographie en vue de la sélection des garçons
Dans certains pays comme l'Inde, des échographes portables sont utilisés pour déterminer le sexe des enfants à naître, ce qui a comme conséquence un nombre important d'avortements et un déséquilibre du ratio garçons/filles à la naissance12.
Échographie vasculaire
L'examen est toujours couplé au doppler permettant d'analyser les flux sanguins.
Il existe des sondes fines pouvant être introduites directement dans le vaisseau à examiner — artère coronaire par exemple — et permettant l'analyse précise des parois de celui-ci. On parle alors d’échographie endovasculaire.
Échographie cardiaque (ou échocardiographie)
L'examen du cœur comporte des difficultés car il est :
- mobile ;
- inséré dans la cage thoracique, au contact des poumons, ces deux structures (air et os) empêchant la transmission des ultrasons.
Échographie avec produit de contraste
L’échographie de contraste est celle qui utilise un produit de contraste13. Le produit de contraste composé de microbulles est injecté dans la circulation sanguine par voie intraveineuse au moment de l’examen échographique du patient. Tel que découvert par le docteur Raymond Gramiak en 196814, les microbulles du produit de contraste sont très réfléchissantes aux ultrasons pendant l'examen échographique; permettant ainsi d’imager la vascularisation sanguine des organes à des fins diagnostiques. Un usage clinique répandu de l'échographie de contraste est la détection de la tumeur métastatique dont la prise de contraste (évolution temporelle de la concentration du produit de contraste dans le sang) est plus rapide que celle du tissu biologique sain entourant la tumeur15. Il existe aussi des applications en échocardiographie de contraste16 pour obtenir une meilleure délinéation de la paroi ventriculaire dans l’image échographique, constituant une aide supplémentaire dans l’évaluation du déficit contractile du cœur à la suite d'un infarctus du myocarde. Enfin, des applications en perfusion quantitative17 (mesure relative du flux sanguin18) émergent pour le suivi thérapeutique pharmacologique du cancer, méthodologie élaborée par le docteur Nathalie Lassau en 201119 permettant d'identifier au plus tôt la réponse du patient au traitement anti-cancéreux afin d'orienter au mieux la conduite thérapeutique20.
Schéma de principe de l'imagerie par amétrique des signatures vasculaires.
Parmi les techniques de l'échographie de contraste utilisées par les radiologues en pratique clinique, se distingue la méthode d’imagerie paramétrique des signatures vasculaires21 inventée par le docteur Nicolas Rognin en 201022. Cette méthode a été conçue comme un outil d’aide au diagnostic du cancer, facilitant la caractérisation d’une tumeur suspecte (définir si elle est bénigne ou maligne) dans un organe. D’un point de vue fonctionnel, la méthode analyse informatiquement23,24 une série temporelle d’images (enregistrement numérique vidéo en temps réel des images échographiques de contraste pendant l'examen). Deux étapes successives de traitement du signal sont appliquées à chaque pixel dans la tumeur, comme suit :
- calcul de la signature vasculaire (c'est-à-dire de la différence de prise de contraste avec le tissu sain entourant la tumeur) ;
- classification automatique de la signature vasculaire calculée en un paramètre, ce dernier prenant l'une des quatre couleurs suivantes :
- verte pour l'hypervascularisation continue (prise de contraste supérieure à celle du tissu sain),
- bleue pour l'hypovascularisation continue (prise de contraste inférieure à celle du tissu sain),
- rouge pour l'hypervascularisation rapide (prise de contraste avant celle du tissu sain) ou
- jaune pour l'hypovascularisation rapide (prise de contraste après celle du tissu sain).
Une fois le traitement du signal de chaque pixel de la tumeur terminé, la carte spatiale en couleur du paramètre est affichée sur l’écran d’un ordinateur ; synthétisant ainsi l’ensemble de l’information vasculaire en une seule et même image appelée « image paramétrique » (voir la dernière figure de l’article de presse25 comme illustration d’images paramétriques en clinique). Cette image paramétrique est ensuite interprétée par le radiologue sur la base de la couleur prédominante dans la tumeur : le rouge indiquant une suspicion de malignité (risque de cancer), le vert ou le jaune une forte probabilité de bénignité. Dans le premier cas (suspicion de tumeur maligne), le radiologue prescrit une biopsie pour confirmer son diagnostic ou un scanner à rayons X pour une seconde opinion. Dans le deuxième cas (quasi-certitude de tumeur bénigne), seulement une surveillance dans les mois qui suivent est nécessaire avec un nouvel examen d’échographie de contraste. L’avantage clinique de la méthode d'imagerie paramétrique des signatures vasculaires consiste en ce qu'elle permet d'éviter la biopsie — procédure invasive risquée — systématique des tumeurs bénignes ou l'examen de scanner à rayons X exposant le patient à une dose d'irradiation. L’efficacité de la méthode a été évaluée positivement chez l’homme pour la caractérisation des tumeurs dans le foie26. Dans l'avenir la méthode pourrait être appliquée dans le cadre du dépistage du cancer de tout type d’organes, par exemple celui du sein27 ou de la prostate).
Échographie moléculaire
L’avenir de l’échographie de contraste est dans l’imagerie moléculaire. L’application clinique envisagée de l'échographie moléculaire est la détection précoce du cancer à l’aide d’un produit de contraste échographique dit ciblant. Originellement conçu par le docteur Alexander Klibanov en 199728,29, un tel produit est composé de microbulles ciblantes en mesure de s’attacher aux microvaisseaux sanguins des tumeurs malignes. Ce mécanisme d’attachement à la paroi intérieure des microvaisseaux repose sur un ciblage spécifique de l’expression biomoléculaire du cancer (par exemple les biomolécules participant à la néoangiogénèse30,31 ou l’inflammation32 se trouvent surexprimées en cas de cancer). Il en résulte une accumulation conséquente des microbulles ciblantes dans la tumeur maligne, facilitant alors sa localisation précise dans l’image échographique de contraste. En 2013, un tout premier essai clinique exploratoire à Amsterdam aux Pays-Bas a été complété chez l'homme pour le cas du cancer de la prostate par le docteur Hessel Wijkstra33.
En échographie moléculaire, la technique de la pression de radiation acoustique est applicable avec une sonde d’échographe pour littéralement pousser les microbulles ciblantes sur la paroi intérieure des microvaisseaux, première fois démontrée par le docteur Paul Dayton en 199934. Cette technique se traduit par une maximisation de l’accumulation des microbulles dans la tumeur par une plus grande interaction de ces dernières avec les biomolécules cancéreuses à cibler. Au stade de la recherche scientifique pré-clinique, cette technique est implémentée et validée en échographie bidimensionnelle35 et tridimensionnelle36,37.
Échographie de l'appareil locomoteur
L'échographie permet une analyse détaillée des muscles, des tendons, des ligaments et des nerfs périphériques (en complément du bilan radiographique standard).
Échographie per-opératoire
La sonde peut être posée sur la peau ou directement en contact de l'organe. Dans ce dernier cas, la sonde est recouverte d'une gaine de protection adaptée et marquée CE et stérile.
Échographie endoscopique
Appelée aussi ultrason endoscopique ou échoendoscopie, elle emploie une source d’ultrasons au bout d’un endoscope relié à un échographe pour obtenir des images des organes internes de la poitrine et de l'abdomen. Elle peut être utilisée pour visualiser la paroi de ces organes ou pour examiner les structures adjacentes.
Elle s'applique le plus souvent sur le tractus digestif supérieur et sur le système respiratoire. La sonde est introduite dans le vagin, l'anus ou par la bouche la procédure ressemble à celle de l'endoscopie, et peut être complété par une biopsie guidée par l'imagerie échographique.
Élastographie
Il existe aujourd'hui deux modes principaux pour évaluer l'élasticité des tissus avec l'élastographie.
Élastographie par compression manuelle
Technique permettant l'étude de l'élasticité des tissus pour détecter des cancers notamment utilisée en sénologie. Technique commercialisée par Hitachi Medical Systems depuis 200238 et par Siemens depuis 200539.
Elle consiste avec la sonde d'échographie à appliquer de légères pressions afin de soumettre les tissus sous-jacents à une légère contrainte. Ces tissus vont se déformer sous l'effet de la contrainte, plus le tissu est élastique plus il se déforme, plus le tissu est rigide moins il se déforme. Cette mesure réalisée en temps réel permet d'évaluer simplement la rigidité relative des lésions et dans une certaine mesure leur malignité.
Élastographie par impulsion ultrasonore
Dans ce cas la sonde échographique émet une onde focalisée (impulsion ultrasonore) permettant de déplacer très légèrement les tissus. L'image est alors fabriquée de façon identique à l'imagerie d'élasticité par compression manuelle. Cependant comme l'impulsion ultrasonore est parfaitement calibrée, l'image obtenue est plus reproductible. De même il est également possible d'évaluer quantitativement la rigidité tissulaire en mesurant la vitesse de l'onde de cisaillement générée par l'impulsion ultrasonore. Avec cette mesure il est possible d'évaluer le degré de fibrose hépatique, évitant le plus souvent de prescrire au patient une biopsie du foie (procédure invasive avec risque de complications).
Solutions élastographiques
L'industrie active dans l'échographie (General Electric, Philips, Siemens, Toshiba, etc.) offre des solutions utilisant l'imagerie d'élasticité par compression manuelle et impulsion ultrasonore. À noter que la société Supersonic Imagine (française) est historiquement précurseur en termes d’innovation avec son système d'élastographie quantitative.
Échographie d'urgence pour les victimes de traumatismes
L'échographie peut être utilisée en médecine d'urgence. L'échographie de certains organes — cœur et abdomen — permet de détecter la présence de fluides « libres », ce qui, dans le contexte d'un traumatisme, indique en général une hémorragie. Cette méthode, appelée FAST en anglais (Focused assessment with sonography for trauma (en)), est moins invasive que le lavage péritonéal ; elle revient moins cher que la tomographie X et n'expose pas le patient aux radiations40. Cette méthode a été testée en 1999 par l'armée britannique durant la guerre du Kosovo41.
On peut également inclure l'examen des poumons, avec la méthode dite eFAST (extended FAST), pour détecter la présence d'un pneumothorax.
Échographie haute fréquence
L'échographie haute fréquence est une application de l'échographie qui utilise des ultrasons dont la fréquence est supérieure à 20 MHz. Basée sur le même principe de fonctionnement que l'échographie conventionnelle, elle permet néanmoins d'obtenir une meilleure résolution d'image mais avec une faible profondeur de pénétration.
Des applications existent dans le domaine médical mais, à l'heure actuelle, cette technique est surtout utilisée dans l'exploration vétérinaire du petit animal (souris notamment).
Notes et références
- (en) Paul G. Newman et Grace S. Rozycki, « The history of ultrasound », Surgical Clinics of North America, vol. 78, no 2, , p. 179-195 (DOI 10.1016/S0039-6109(05)70308-X, lire en ligne [archive], consulté le ).
- Charlie Demene, Jérome Baranger, Miguel Bernal, Catherine Delanoe, Stéphane Auvin, Valérie Biran, Marianne Alison, Jérome Mairesse, Elisabeth Harribaud, Mathieu Pernot, Mickael Tanter & Olivier Baud (2017), Functional ultrasound imaging of brain activity in human newborns | Science Translational Medicine |11 Oct 2017| Vol. 9, Issue 411 | DOI: 10.1126/scitranslmed.aah6756 | résumé [archive]
- Underwood E (2017), Utrasonic probe could detect stroke, brain damage in young babies [archive], Science news ; publiée le 11 octobre 2017 |doi: 10.1126 / science.aaq1830
- Communiqué du CNGOF du 5 décembre 2011, Les échographies fœtales commerciales : un scandale sanitaire ? [archive] [PDF]
- NHS about ultrasound during pregnancy [archive]
- « Danger de l'échographie à usage non médical » [archive],
- Société Française de Radiologie [archive]
- (en) Eugenius Ang, Jr. et al. « Prenatal exposure to ultrasound waves impacts neuronal migration in mice [archive] » Proceegings of The National Academy of Sciences of the USA (PNAS) 2006 [PDF]
- https://sites.google.com/site/limageriemedicale/echographie/historique [archive]
- Journal Le Parisien, et AFP « Les gynécologues s'opposent aux échographies “souvenir” [archive] », 5 décembre 2011.
- Antoine Clevers, « Interdire les échographies de plaisir ? » [archive], sur Lalibre.be, La Dernière heure (consulté le ).
- (en) « GE machines used to break law » [archive], sur Washington Post,
- Jean-Michel Correas et al., « Produits de contraste injectables en ultrasonologie [archive] » Journal d’échographie et de médecine par ultrasons 1997.
- Raymond Gramiak et al., « Echocardiography of the Aortic Root [archive] » Investigative Radiology 1968
- (en) Michel Claudon et al. « Guidelines and Good Clinical Practice Recommendations for Contrast Enhanced Ultrasound (CEUS) in the Liver – Update 1012 [archive] » Ultraschall in der Medizin 2013.
- (en) Ariel Cohen et Pascal Guéret, Manuel d'échocardiographie clinique [archive], Librairie Lavoisier, 2012.
- (en) Fabio Piscaglia et al. « The EFSUMB Guidelines and Recommendations on the Clinical Practice of Contrast Enhanced Ultrasound (CEUS): Update 2011 on non-hepatic applications [archive] » Ultraschall in der Medizin 2012.
- (en) Meng-Xing Tang et al. « Quantitative contrast-enhanced ultrasound imaging: a review of sources of variability [archive] » Interface Focus 2001.
- (en) Nathalie Lassau et al. « Advanced Hepatocellular Carcinoma: Early Evaluation of Response to Bevacizumab Therapy at Dynamic Contrast-enhanced US with Quantification—Preliminary Results [archive] » Radiology 2010.
- (en) Katsutoshi Sugimoto et al. « Hepatocellular carcinoma treated with sorafenib: early detection of treatment response and major adverse events by contrast-enhanced US [archive] » Liver International 2013.
- (en) Nicolas Rognin et al. « Parametric imaging for characterizing focal liver lesions in contrast-enhanced ultrasound [archive] » IEEE Transactions on Ultrasonics, Ferroelectrics and Frequency Control 2010.
- Nicolas Rognin et al. « Images paramétriques basées sur comportement dynamique au cours du temps [archive] » Brevet d'invention, Organisation Mondiale de la Propriété Intellectuelle (OMPI) 2010.
- (en) François Tranquart et al. « Perfusion Quantification in Contrast-Enhanced Ultrasound (CEUS) - Ready for Research Projects and Routine Clinical Use [archive] » Ultraschall in der Medizin 2012.
- (en) Paolo Angelelli et al. « Interactive visual analysis of contrast-enhanced ultrasound data based on small neighborhood statistics [archive] » Computers & Graphics 2011.
- (en) Eric Barnes. « Contrast US processing tool shows malignant liver lesions [archive] » AuntMinnie.com, San-Francisco, États-Unis, 2010.
- (en) Anass Annaye et al. « Differentiation of Focal Liver Lesions: Usefulness of Parametric Imaging with Contrast-enhanced US [archive] » Radiology 2011.
- (en) Zhang Yuan et al. « Diagnostic Value of Contrast-Enhanced Ultrasound Parametric Imaging in Breast Tumors [archive] » Journal of Breast Cancer 2013.
- (en) Alexander Klibanov et al. « Targeting of ultrasound contrast material. An in vitro feasibility study [archive] » Acta Radiologica Supplementum 1997.
- (en) Alexander Klibanov « Targeted delivery of gas-filled microspheres, contrast agents for ultrasound imaging [archive] » Advanced Drug Delivery Reviews 1999.
- (en) Sybille Pochon et al. « BR55: a lipopeptide-based VEGFR2-targeted ultrasound contrast agent for molecular imaging of angiogenesis [archive] » Investigative Radiology 2010.
- (en) Joergen Willmann et al. « Targeted Contrast-Enhanced Ultrasound Imaging of Tumor Angiogenesis with Contrast Microbubbles Conjugated to Integrin-Binding Knottin Peptides [archive] » Journal of Nuclear Medicine 2010.
- (en) Jonathan Lindner et al. « Molecular imaging with contrast ultrasound and targeted microbubbles » Journal of Nuclear Radiology 2004. PMID 15052252 [archive]
- (en) BR55 in Prostate Cancer: an Exploratory Clinical Trial [archive] - Base de données d'études cliniques des Instituts américains de la santé, 23 avril 2013.
- (en) Paul Dayton et al. « Acoustic radiation force in vivo: a mechanism to assist targeting of microbubbles [archive] » Ultrasound in Medicine and Biology 1999.
- (en) Peter Frinking et al. « Effects of acoustic radiation force on the binding efficiency of BR55, a VEGFR2-specific ultrasound contrast agent [archive] » Ultrasound in Medicine and Biology 2011.
- (en) Ryan Gessner et al. « An in vivo validation of the application of acoustic radiation force to enhance the diagnostic utility of molecular imaging using 3-d ultrasound [archive] » Ultrasound in Medicine and Biology 2012.
- (en) Nicolas Rognin et al. « Molecular Ultrasound Imaging Enhancement by Volumic Acoustic Radiation Force (VARF): Pre-clinical in vivo Validation in a Murine Tumor Model [archive] erreur modèle {{Lien archive}} : renseignez un paramètre «
|titre=
» » World Molecular Imaging Congress, Savannah, États-Unis 2013.
- (en) Hitachi Real-time Tissue Elastography (HI-RTE) [archive] erreur modèle {{Lien archive}} : renseignez un paramètre «
|titre=
»
- (en) eSieTouch Elasticity Imaging 2 [archive]
- (en) G. Rozycki et S. Shackford, « Ultrasound, what every trauma surgeon should know », J Trauma, vol. 40, no 1, (DOI 10.1097/00005373-199601000-00001)
Voir aussi
Articles connexes
Alcool – en général l'éthanol ou l'isopropanol. Appliqué sur les plaies et la peau, il s'évapore rapidement. Le pouvoir désinfectant de l'alcool est supérieur quand il est mélangé à de l'eau (en solution alcoolique à environ 70 %). Pur ou trop concentré, il est bien moins efficace car le manque d'eau libre fait sporuler les micro-organismes qu'il est censé détruire. Or l'alcool est inefficace contre les formes sporulées qui ne seront alors pas détruites.
Bétanine
Bétanine |
|
|
Identification |
Nom UICPA |
2,6-Pyridinedicarboxylic acid, 4-(2-(2-carboxy-5-(beta- D-glucopyranosyloxy)- 2,3-dihydro-6- hydroxy-1H-indol -1-yl)ethenyl)- 2,3-dihydro-, (S-(R*,R*))- |
No CAS |
7659-95-2 |
No ECHA |
100.028.753 |
No CE |
231-628-5 |
PubChem |
11953901 |
No E |
E162 |
SMILES |
|
InChI |
|
Propriétés chimiques |
Formule |
C24H26N2O13 |
Masse molaire1 |
550,468 8 ± 0,025 3 g/mol C 52,37 %, H 4,76 %, N 5,09 %, O 37,78 %, |
|
Unités du SI et CNTP, sauf indication contraire. |
modifier |
La bétanine (parfois bétacyanine) est un pigment de couleur rouge du groupe des bétacyanines, une sous-classe des bétalaïnes. C'est un hétéroside de glucose (bétanidine 5-O-glucose), son aglycone est la bétanidine.
Source
La bétanine est le colorant majoritaire du jus de betterave (de 75 à 95 %), on en trouve aussi dans le figuier de barbarie2,3,4.
+ Tableau 1 : Composition en % (massique) de colorants dans le jus de fruit du figuier de barbarie4. |
Colorants | Jus de fruit orangé | Jus de fruit violacé |
Indicaxanthine |
0,245% |
0,022% |
Bétanine |
0,027% |
0,307% |
Les autres pigments présents dans la betterave sont l'indicaxanthine et la vulgaxanthine.
Utilisation alimentaire
La bétanine est utilisée comme additif alimentaire et est autorisée au niveau européen sous le code E162. On la trouve plus souvent sous l'appellation "rouge de betterave"5,6.
La bétanine se dégrade au contact de l'oxygène, la lumière et la chaleur, ainsi elle est plutôt utilisée dans les produits congelés, en poudre ou à durée de conservation courte7.
La couleur de la bétanine est dépendante du pH, à pH acide (pH 4-5) elle est rouge et tourne progressivement violet-rouge à mesure que le pH monte. À pH alcalin (pH 11-12) la bétanine s'hydrolyse et devient jaune-marron.
Activité
La bétanine est considérée comme un antioxydant4 alimentaire et est très bien assimilée par le corps humain8. Cependant, 10 à 14 % des humains sont incapables de la décomposer, ce qui colore en rouge leur urine après qu’ils ont mangé de la betterave rouge [réf. nécessaire].
Notes et références
- Masse molaire calculée d’après « Atomic weights of the elements 2007 » [archive], sur www.chem.qmul.ac.uk.
- (en) Forni E, Polesello A, Montefiori D, Maestrelli A. High-performance liquid chromatographic analysis of the pigments of blood-red prickly pear (Opuntia ficus indica). J Chromatogr 1992;593:177-83.
- (en) Stintzing FC, Schieber A, Carle R. Identification of betalains from yellow beet (Beta vulgaris L.) and cactus pear [Opuntia ficus-indica (L.) Mill. ] by high-performance liquid chromatography-electrospray ionization mass spectrometry. J Agric Food Chem 2002;50:2302-7. PMID 11929288 [archive]
- [PDF] BS Maataoui, A Hmyene et S Hilali (2006) Activités anti-radicalaires d’extraits de jus de fruit du figuier de barbarie (Opunta ficus indica). [archive] Lebanese Science Journal, Vol. 7, No. 1
- [PDF] European Parliament and Council Directive 94/36/CE du Parlement européen et du Conseil, du 30 juin 1994, concernant les colorants destinés à être employés dans les denrées alimentaires [archive]
- [PDF] Directive 95/45/CE de la Commission établissant des critères de pureté spécifiques pour les colorants pouvant être utilisés dans les denrées alimentaires [archive]
- (en) Anonymous, « Beetroot » [archive], NATCOL (consulté le )
- (en) L Tesoriere, Mario Allegra, Daniela Butera et Maria A. Livrea, « Absorption, excretion, and distribution of dietary antioxidant betalains in LDLs: potential health effects of betalains in humans », American Journal of Clinical Nutrition, vol. 80, no 4, , p. 941-945 (lire en ligne [archive])
Articles connexes
Acide acétylsalicylique
Pour les articles homonymes, voir AAS.
Acide acétylsalicylique |
|
Molécule d'acide acétylsalicylique. |
Identification |
Nom UICPA |
acide 2-acétyloxybenzoïque |
Synonymes |
Aspirine
|
No CAS |
50-78-2 |
No ECHA |
100.000.059 |
No CE |
200-064-1 |
No RTECS |
VO0700000 |
Code ATC |
A01AD05, B01AC06, N02BA01 |
DrugBank |
DB00945 |
PubChem |
2244 |
ChEBI |
15365 |
SMILES |
|
InChI |
|
Apparence |
cristaux incolores à blancs ou poudre cristalline blanche, d'odeur caractéristique1 |
Propriétés chimiques |
Formule |
C9H8O4 [Isomères] |
Masse molaire2 |
180,157 4 ± 0,009 g/mol C 60 %, H 4,48 %, O 35,52 %, |
pKa |
3,5 |
Propriétés physiques |
T° fusion |
135 °C1 |
T° ébullition |
Se décompose au-dessous du point d'ébullition à 140 °C1 |
Solubilité |
2,5 g·l-1 (eau, 15 °C)1,
4,6 g·l-1 (eau, 25 °C), 10 g·l-1 (eau, 37 °C), 1 g/10-15 ml d'éther, moins sol. dans l'éther anhydre3, 200 g·l-1 (éthanol, 25 °C), 1 g/3,5 ml (acétone, 20 °C), 1 g/17 ml (chloroforme, 25 °C)4
|
Masse volumique |
1,4 g·cm-31 |
Point d’éclair |
131,2 °C |
Pression de vapeur saturante |
0,016 5 Pa à 25 °C |
Cristallographie |
Classe cristalline ou groupe d’espace |
P21/c5 |
Paramètres de maille |
a = 11,430 Å
b = 6,591 Å c = 11,395 Å α = 90,00° β = 95,68° γ = 90,00° Z = 45
|
Volume |
854,23 Å35 |
Propriétés optiques |
Indice de réfraction |
1,55 |
Précautions |
SGH6,7 |
Attention
H302, H315, H319, H335, P261 et P305+P351+P338
|
SIMDUT8 |
D2A,
|
Écotoxicologie |
LogP |
1,191 |
Données pharmacocinétiques |
Biodisponibilité |
60 - 90 % selon la dose9 |
Liaison protéique |
99,6 % |
Métabolisme |
Hépatique |
Demi-vie d’élim. |
3,1 h (dose < 650 mg) 5 h (dose = 1 g) 9 h (dose = 2 g) |
Excrétion |
Urinaire
|
Considérations thérapeutiques |
Classe thérapeutique |
Antalgique • Antipyrétique • Anti-inflammatoire • Antiagrégant plaquettaire |
Voie d’administration |
Orale, IV |
Grossesse |
Contre-indiqué au 3e trimestre |
Enfants |
Déconseillé aux enfants de 3 à 12 ans (risque de syndrome de Reye) |
Précautions |
Toxicité gastrique |
Composés apparentés |
Isomère(s) |
Acide caféique |
Autres composés |
Salicylate de méthyle
|
|
Unités du SI et CNTP, sauf indication contraire. |
modifier |
L’acide acétylsalicylique (AAS), plus connu sous le nom commercial d’aspirine, est la substance active de nombreux médicaments aux propriétés antalgiques, antipyrétiques et anti-inflammatoires. Il est surtout utilisé comme antiagrégant plaquettaire. Il s’agit d’un anti-inflammatoire non stéroïdien. C’est un acide faible, dont la base conjuguée est l’anion acétylsalicylate.
C’est un des médicaments les plus consommés au monde.
Étymologie
L’acide acétylsalicylique est obtenu par acétylation de l’acide salicylique. Son nom vient du latin salix, « saule », cet acide ayant été isolé pour la première fois dans l’écorce de cette essence d’arbre.
L’appellation aspirine vient d'Aspirin enregistrée comme nom de marque le par la société Bayer à Berlin10,11. Le nom de marque a été formé à partir des éléments suivants12 :
- Le préfixe A pour Acétyl, l'acétylation rendant ce métabolite secondaire de plantes toxique (son activité allélopathique leur sert de défense chimique contre les herbivores) moins irritant dans le tube digestif ;
- Le radical spir- (issu de l'allemand Spirsäure, « acide spirique », molécule issue de la spirée ulmaire et identique à l'acide salicylique13) ;
- Le suffixe -in(e) (suffixe classique employé en chimie industrielle pour la désignation des alcaloïdes).
Le brevet américain demandé le est accordé le (US Patent no 644 077) pour une durée de validité de 17 ans avec une date d'expiration le 14.
Histoire
L’écorce de saule est connue au moins depuis l’Antiquité pour ses vertus curatives. On a trouvé la mention de décoctions de feuilles de saule dans un papyrus égyptien dès 1550 av. J.-C. (papyrus Ebers)15. Le médecin grec Hippocrate (460-377 av. J.-C.) conseillait déjà une préparation à partir d’écorce de saule blanc pour soulager les douleurs et les fièvres16,17. De même, le médecin et pharmacologue grec Dioscoride (25 - 90 ap. J.-C.) en conseillait l'usage pour les douleurs auriculaires, dans sa Matière médicale (De materia medica) au premier siècle18.
En , le pasteur Edward Stone présente un mémoire devant la Royal Society of Medicine sur l'utilisation thérapeutique de décoctions de l'écorce du saule blanc contre la fièvre malarienne19.
En 1824 Bartolomeo Rigatelli utilise un extrait d’écorce de saule comme agent thérapeutique, le dénommant salino amarissimo antifebbrile (sel antipyrétique très amer). En 1825 le pharmacien-chimiste Francesco Fontana (1794-1867) isole l'acide salicylique des feuilles de saules lui donnant le nom de salicina (salicine)20.
En 1828, le pharmacologue allemand Johann Andreas Buchner l'extrait de l'écorce du saule (Salix alba) . En , Pierre-Joseph Leroux, un pharmacien français, tente, après avoir fait bouillir de la poudre d’écorce de saule blanc dans de l’eau, de concentrer sa préparation ; il en résulte des cristaux solubles qu’il nomme salicyline (de salix)21.
Puis, des scientifiques allemands purifient cette substance active, un des dérivés est identifié comme la substance active. Ce dérivé prend le nom d’acide salicylique. Parmi les dérivés de la salicyline, d'autres médicaments de la famille des salicylacés voient le jour à cette époque.
En , Carl Löwig montre que l’acide spirique, extrait de la reine-des-prés, est chimiquement identique à l’acide salicylique. À partir des extraits naturels, on isole le salicylate de sodium, qui devient alors le médicament couramment employé contre la douleur et l’inflammation. Cette préparation permet de faire tomber la fièvre et de soulager les douleurs et les rhumatismes articulaires, mais provoque de graves brûlures d’estomac. En , à partir de la salicyline, l'Italien Raffaele Piria prépare l'acide salicylique, dont il préconise l'emploi comme désinfectant de la lumière intestinale, notamment dans la fièvre typhoïde.
En , le chimiste strasbourgeois Charles Frédéric Gerhardt effectue la synthèse de l’acide acétylsalicylique (en traitant le salicylate de sodium avec le chlorure d'acétyle), qu’il nomme acide acétosalicylique22, et dépose un brevet. Cependant, son composé est impur et thermolabile. Le savant meurt trois ans plus tard et ses travaux tombent dans l’oubli.
En , Adolph Wilhelm Hermann Kolbe réussit la synthèse totale de l'acide salicylique. Les propriétés antipyrétiques de l'acide salicylique sont mises en évidence par le Suisse Carl Buss en . Utilisé largement mais surtout comme antirhumatismal dans les années 1890, il a très mauvais goût. En , Germain Sée propose le salicylate de soude comme antipyrétique. Marceli Nencki prépare à partir de un dérivé de l’acide salicylique et du phénol appelé Salol, qui, sans présenter de propriétés pharmacologiques supérieures aux médicaments alors existants, a toutefois un goût plus agréable. Ce produit fait l’objet d’un grand engouement populaire23.
C'est Felix Hoffmann, chimiste allemand qui après l'obtention à Munich de son doctorat en pharmacie en 1890, obtient son doctorat en chimie le . Il entre en tant qu'assistant de laboratoire au service des laboratoires Bayer à Elberfeld (Allemagne) en .
Le à Leverkusen, reprenant les travaux antérieurs de Gerhardt, il trouve le moyen de synthétiser l'acide acétylsalicylique sous une forme stable utilisable pour des applications médicales. Il transmet ses résultats à son patron Heinrich Dreser, le responsable du département pharmaceutique et chimique chez Bayer depuis 189624. Ce dernier teste le produit sur le cœur de grenouille, son animal de laboratoire favori, et n'obtient aucun résultat probant. Hoffmann est persuadé de l'intérêt de la molécule (il y a une légende qui indique qu'Hoffmann s'en soit servi pour soigner son père, qui souffrait de rhumatisme chronique et prenait jusque-là du salicylate de sodium, médicament antirhumatismal selon le corps médical de la Belle Époque)25. Hoffmann donne le médicament à des amis médecins et dentistes, qui le testent avec succès sur leurs patients pendant deux ans : les tests révèlent un effet antalgique et moins toxique pour l'estomac que le salicylate de sodium, lorsque Hoffmann a acétylé l'acide salicylique pour produire de l'acide acétylsalicylique.
-
Protocole de laboratoire de Felix Hoffmann du 10 août 1897
En 1898, le Dr Dreser fait tester la substance sur un groupe de 50 patients dans un hôpital de Halle (Saxe-Anhalt).
Commence alors la production industrielle du médicament de l'acide acétylsalicylique par Bayer qui met au point une nouvelle voie de synthèse de la molécule, et observe que l'acétylation de la molécule rend celle-ci moins irritante dans le tube digestif26. Le brevet et la marque de l'aspirine sont déposés le par la société Bayer sous la dénomination d'Aspirin27.
C'est le Dr Kurt Witthauer (de), médecin-chef interniste au Diakoniewerk Halle (de), qui publie les résultats du premier essai clinique de l'aspirine en .
Initialement, l'Aspirin est disponible sous forme de poudre dans les pharmacies : de petits sacs en papier sont remplis de 500 mg de poudre chacun et remis au patient. Dès l'année suivante, le comprimé Aspirin contenant 500 mg d'acide acétylsalicylique est lancé, ce qui en fait l'une des premières préparations sous forme de comprimé au monde11. La préparation arrive en France en 1908 et est commercialisée par la Société chimique des usines du Rhône.
-
-
Couverture du premier rapport clinique du Dr Kurt Witthauer sur l'Aspirine (1899)
-
Présentation pharmacologique de l'Aspirine, par le Dr Heinrich Dreser (1899)
-
En , le supérieur hiérarchique direct d'Hoffmann, Arthur Eichengrün (en), publie un article revendiquant la paternité de la découverte28. Cette revendication est ignorée par les historiens des sciences jusqu'en , date à laquelle les recherches de Walter Sneader de l'université de Strathclyde, à Glasgow, concluent que c'est bien Eichengrün qui a eu l'idée de synthétiser l'acide acétylsalicylique29. Bayer, dans un communiqué de presse, réfute cette théorie, mais la controverse reste ouverte.
Le mécanisme d'action de la molécule n'est élucidé que bien plus tard. En , John Vane et Priscilla Piper découvrent l'action inhibitrice de l'aspirine sur les prostaglandines30. Vane et les biochimistes suédois Bengt Samuelsson et Sune Karl Bergström sont récompensés par le prix Nobel de médecine en pour cette découverte. La cible précise de la molécule, la cyclooxygénase, a été isolée en 31.
Ce n'est qu'en que les propriétés antiagrégantes plaquettaires de l'acide acétylsalicylique ont été mises en évidence32. La première étude clinique démontrant une efficacité dans les maladies cardiovasculaires date de 33.
Le brevet Bayer
Après la Première Guerre mondiale, le traité de Versailles stipule que la marque et le procédé de fabrication entrent dans le domaine public dans un certain nombre de pays (France, États-Unis, etc.) mais pas dans d'autres (comme le Canada).
Après l’entrée en guerre des États-Unis contre l’Allemagne en , le Bureau d'administration des biens étrangers (en) a saisi les biens américains de Bayer. Deux ans plus tard, le nom de la société Bayer et les marques commerciales aux États-Unis et au Canada ont été vendus aux enchères et achetés par le laboratoire pharmaceutique Sterling Products Company (en), devenu plus tard Sterling Winthrop, pour un montant de 5,3 millions de dollars.
Aux États-Unis la marque a été partiellement annulée par une décision de justice de 1921 car Bayer n'avait pas utilisé correctement le nom de son propre produit et avait autorisé pendant des années l'utilisation de la mention « aspirine » par d'autres fabricants sans défendre ses droits de propriété intellectuelle34. Une mention en rouge « Authentique » (Genuine), figurait sur les boîtes et apparaissait dans la publicité des comprimés d'aspirine de Bayer peu de temps après la décision de 192135.
La société Bayer n'a récupéré ses droits aux États-Unis qu'en en rachetant l'activité de vente libre de Sterling Winthrop36. Bayer a repris à compter de cette date les droits sur le nom et le logo de Bayer et a permis à l’entreprise de profiter à nouveau des ventes américaines de son produit le plus célèbre10.
Aujourd'hui, l'aspirine est une marque générique dans de nombreux pays. L'aspirine, avec un A majuscule, reste une marque déposée de Bayer en Allemagne, au Canada, au Mexique et dans plus de 80 pays, pour l'acide acétylsalicylique sur tous les marchés, mais en utilisant des emballages et des aspects physiques différents pour chaque37.
Propriétés pharmacologiques
L'aspirine possède les propriétés pharmacologiques suivantes :
Mécanisme d'action
L'aspirine inhibe la production de prostaglandines et de thromboxanes. L'aspirine par une réaction chimique d'acétylation inhibe de façon irréversible les enzymes cyclooxygénase (COX1 et COX2), des enzymes participant à la production de prostaglandines et de thromboxanes. L'aspirine est différente des autres anti-inflammatoires non stéroïdiens (AINS) qui inhibent de façon réversible cette enzyme.
L'aspirine fait baisser la fièvre (antipyrétique), en réduisant la production de prostaglandines dans l'hypothalamus, thermostat de la température corporelle.
Elle réduit la douleur (analgésique) en bloquant la production des hormones responsables des messages transmis aux récepteurs de la douleur dans le cerveau, d'où son efficacité sur les migraines et les douleurs d'origines diverses. Par le même mode d'action, elle réduit les inflammations (AINS) résultant d'une dilatation vasculaire, comme les coups de chaleur, qui ne s'accompagnent pas forcément de coups de soleil.
L'aspirine agit sur les plaquettes sanguines, en inhibant la cyclooxygénase, une enzyme ayant un rôle important dans l'agrégation des plaquettes, et ce, de manière permanente, c'est-à-dire durant toute la durée de vie de la plaquette jusqu'à ce qu'elle soit détruite par la rate (entre sept et dix jours). Elle favorise par ce biais la circulation et peut servir pour prévenir les infarctus (du myocarde ou d'autres organes), en évitant la formation de caillots (thrombose)38.
L'acide acétylsalicylique pourrait avoir une action sur le système immunitaire39 en stimulant légèrement (à faible dose) ou au contraire en inhibant (à forte dose) la production des cytokines40.
Pharmacocinétique
L'aspirine est absorbée au niveau de l'estomac et du duodénum. Le facteur de biodisponibilité dépend de la dose : de 60 % pour moins de 500 mg à 90 % pour 1 g ou plus par saturation de l’hydrolyse hépatique9. La prise de certains aliments épicés semble réduire le taux d'absorption41.
Pour les formes pharmaceutiques immédiates, le pic de concentration est atteint de 25 à 60 minutes après la prise9. Il peut être atteint plusieurs heures après pour une forme gastro-résistante ou à libération modifiée. L’absorption peut être fortement perturbée dans ces dernières formes, en particulier chez le patient diabétique42.
Sa demi-vie dans le sang n'est que de 15 à 20 minutes et de 2 à 4 heures pour l'acide salicylique qui est un métabolite actif obtenu par hydrolyse9.
Indications thérapeutiques et prophylactiques
Douleur, fièvre et inflammation
L'aspirine est utilisée depuis plus de cent ans pour soulager la douleur, faire baisser la fièvre et traiter l'inflammation.
Elle n'est plus indiquée pour traiter ces symptômes, on préfèrera utiliser d'autre AINS comme l'ibuprofène ou des antalgiques/antipyrétique comme le paracétamol.
Maladies cardiovasculaires
Comprimés d'aspirine, 325
mg
À petite dose (entre 75 et 300 mg/jour suivant les études), les propriétés antiagrégantes de l'aspirine préviennent efficacement la formation de caillots de sang dans les vaisseaux sans causer de dommages significatifs à l'organisme. Le bénéfice de cette prise a été prouvé en prévention secondaire43, c'est-à-dire après un premier accident vasculaire (syndrome coronarien aigu, AVC, AOMI...) et elle est indiquée à vie. Le bénéfice excède significativement le risque majoré d'hémorragie dans ce cas.
Les recommandations médicales de la HAS44 préconisent l'emploi de l'aspirine en prévention primaire (c'est-à-dire avant même l'apparition d'une maladie vasculaire) chez les patients à haut risque cardio-vasculaire (SCORE>5). L'efficacité semble être partielle (diminution des infarctus du myocarde mais tendance à l'augmentation des accidents vasculaires cérébraux de type hémorragique) et n'a été testée que sur des populations bien ciblées (médecins)45 ou femmes de plus de 45 ans avec une diminution modérée des accidents vasculaires cérébraux mais un effet sur la mortalité et la morbidité cardiovasculaire non significatif46. Une plus grande efficacité chez la femme que chez l'homme a aussi été constatée47. Les résultats sont plus mitigés pour d'autres études, bien qu'elles soient faites chez des personnes dites « à hauts risques »48,49. En particulier, il n' y a pas de diminution de la mortalité cardiovasculaire, avec une augmentation du risque d'hémorragies50.
Une « résistance à l'aspirine » est décrite chez certains patients, conduisant à une antiagrégation plaquettaire insuffisante51 et concernerait environ 5 % des patients52, avec un risque théorique supérieur d'accidents cardiaques. Cette résistance serait plus liée avec la forme gastro résistante de la présentation de l'aspirine, conduisant à une absorption différée ou réduite qu'avec la molécule elle-même53.
Réduction du risque de cancer
Un grand nombre de données expérimentales, ainsi que plusieurs études épidémiologiques rétrospectives, ont conclu que de petites doses d'aspirine en chimioprévention pouvaient diminuer le risque de contracter certains types de cancers, dont ceux du foie54. Les études expérimentales le montrent pour divers cancers, comme celui du côlon, du sein, de la prostate, de la bouche, de la gorge, de l'œsophage, de l'estomac et du poumon (non à petites cellules). Les études épidémiologiques montrent que c'est la mortalité par cancers digestifs qui diminuerait le plus55.
Une vingtaine d'études de cancérogenèse chez rats et souris étayent cet effet protecteur56. Plusieurs essais cliniques montrent que de petites doses d'aspirine diminuent, modestement, la récurrence des polypes intestinaux et la survenue des cancers du côlon57, essentiellement si ces derniers expriment l'enzyme cyclooxygénase de type 2 (ce qui représente environ deux tiers desdits cancers)58. Les doses indiquées étant cependant susceptibles de provoquer des saignements gastriques ou intestinaux, l'utilisation de l'aspirine n'est pas actuellement recommandée pour la prévention des cancers59.
Grossesse
A petites doses, chez la femme enceinte, la prise d'aspirine diminue le risque de prématurité, du moins, dans les pays avec accès limités aux soins