Microscope optique
Un microscope optique de base.
Le microscope optique ou microscope photonique est un instrument d'optique muni d'un objectif et d'un oculaire qui permet de grossir l'image d'un objet de petites dimensions (ce qui caractérise sa puissance optique) et de séparer les détails de cette image (et son pouvoir de résolution) afin qu'il soit observable par l'œil humain. Il est utilisé en biologie, pour observer les cellules, les tissus, en pétrographie pour reconnaître les roches, en métallurgie et en métallographie pour examiner la structure d'un métal ou d'un alliage.
Il ne faut pas le confondre avec la loupe binoculaire qui n'exige pas des échantillons plats de faible épaisseur, ou réfléchissants, et permet d'observer des pièces naturelles sans préparation en grossissant l'image d'un facteur peu élevé, mais en gardant une vision stéréoscopique propice à l'examen macroscopique révélateur de grains, de criques, de fissures, etc.
Actuellement, les microscopes optiques les plus puissants possèdent un grossissement de ×2500.
Du fait des limites du spectre de la lumière visible, les microscopes optiques, sous réserve de grossissement suffisant, permettent d'observer des cellules (mais pas toutes les unités et sous-unités cellulaires), des champignons, des protozoaires, des bactéries mais ne permettent pas d'observer de virus.
Histoire
Il est difficile de dire qui a inventé le microscope composé. On dit souvent que l'opticien hollandais Hans Janssen et son fils Zacharias Janssen fabriquèrent le premier microscope en 1595, mais ceci provient d'une déclaration de Zacharias Janssen lui-même au milieu du XVIIe siècle. Zacharias Janssen est né vers 1570.
Un autre favori au titre d'inventeur du microscope est Galilée. Il a développé un occhiolino, un microscope composé d'une lentille convexe et d'une autre concave en 1609. Athanasius Kircher décrit son microscope en 16461 qu'il utilise pour l'observation du sang.
-
-
Microscope optique (1751).
-
Microscope de Cuff (1760).
-
Microscope de François-Laurent Villette (1765).
-
Microscope Zeiss, Jena (1879).
-
Modèle Voigt et Hochgesang (1890).
Un dessin par Francesco Stelluti de trois abeilles figure sur le sceau du pape Urbain VIII (1623-1644) et passe pour la première image de microscopie publiée3. Christian Huygens, un autre Hollandais, a développé à la fin du XVIIe siècle un oculaire simple à deux lentilles corrigé des aberrations chromatiques, ce qui fut un grand pas en avant dans le développement du microscope. L'oculaire de Huygens est toujours fabriqué aujourd'hui, mais souffre d'un champ assez réduit et d'autres problèmes mineurs. On attribue en général à Antoni van Leeuwenhoek (1632-1723) le fait d'avoir attiré l'attention des biologistes sur les utilisations du microscope, même si des loupes ordinaires étaient déjà fabriquées et utilisées au XVIe siècle. Les microscopes artisanaux de Van Leeuwenhoek étaient des instruments simples et de taille réduite comprenant une lentille unique mais forte. En comparaison, les systèmes à plusieurs lentilles restaient difficiles à mettre au point et il fallut pas moins de 150 ans de développement des optiques avant que le microscope composé puisse livrer une qualité d'image équivalente à celle des microscopes simples de Van Leeuwenhoek. Néanmoins, et malgré de nombreuses revendications, on ne peut pas considérer Antoni Van Leeuwenhoek comme l'inventeur du microscope composé. Robert Hooke est aussi l'un des premiers à en concevoir.
Première approche
Principe du microscope optique de base
Principe d'un microscope.
Animation du fonctionnement d'un microscope.
Le microscope optique est un système optique à lentilles dont le but est d'obtenir une image agrandie de l'objet observé.
L'objet à observer est placé devant le premier groupe optique appelé « objectif ». Si l'objet est au-delà de la distance focale, cela forme une image réelle renversée de taille différente ; l'image est plus grande que l'objet si celui-ci est situé à une distance inférieure au double de la distance focale de l'objectif.
Le deuxième groupe optique du côté de l'observateur est l'oculaire : il est positionné de sorte que l'image soit dans son plan focal. Ainsi, l'œil observe une image « à l'infini » (pour un observateur standard), donc en relâchant les muscles chargés de l'accommodation, offrant un meilleur confort visuel.
Principe d'un microscope simplifié.
Il s'agit d'un système centré dioptrique, composé en partie de doublets pour en corriger certaines des aberrations optiques.
A contrario d'autres systèmes optiques qui sont définis par leur grossissement optique (télescope) ou leur grandissement (appareil photographique), le terme approprié, pour le microscope, est sa puissance, rapport de l'angle, sous lequel est vu l'objet à travers l'instrument, à la longueur de cet objet.
La technique d'illumination la plus utilisée en microscopie à champ large classique est l'illumination de Köhler, qui garantit une qualité d'image optimale.
Constitution du microscope
Schéma d'un microscope optique.
De bas en haut :
- miroir : sert à réfléchir la lumière ambiante pour éclairer l'échantillon par en dessous, dans le cas d'un échantillon transparent (par exemple une lame mince en biologie ou en géologie, ou un liquide) ;
- source de lumière artificielle de meilleure température de couleur et de stabilité et par l'usage d'un condenseur qui permet à cette lumière de remplir d'une façon homogène et régulière le champ observé, et surtout de ne pas faire voir, par son réglage adéquat, les détails mécaniques de la source de lumière (spires du filament de l'ampoule). La source d'éclairage peut être plus élaborée et comporter un boîtier indépendant, éventuellement en lumière polarisée ou ultraviolet, pour faire ressortir certaines propriétés chimiques de la matière, ou éclairer l'échantillon par-dessus (notamment en métallurgie) ;
- diaphragme : ouverture de diamètre variable permettant de restreindre la quantité de lumière qui éclaire l'échantillon. Comme pour un appareil photo, le diaphragme permet principalement de faire varier la profondeur de champ (ouvert à fond pour des coupes histologiques et plus fermé pour des recherches d'œufs de parasites digestifs) ;
- platine porte-échantillon : où l'on pose l'échantillon ; les « valets » servent à tenir l'échantillon lorsque celui-ci est mince (par exemple une lame). La platine peut être mobile (gauche-droite et avant-arrière), ce qui permet de balayer l'échantillon et de sélectionner la partie observée ;
- objectifs : lentille ou ensemble de lentilles réalisant le grossissement. Il y a en général plusieurs objectifs, correspondant à plusieurs grossissements, montés sur un barillet. Certains objectifs sont dits à immersion car leur puissance ne peut être atteinte qu'en éliminant la lame d'air entre l'échantillon couvert par la lamelle et la frontale de l'objectif. On utilise pour cela de l'huile de cèdre ou des huiles de synthèse dont l'indice de réfraction est proche de celui du verre ;
- mise au point rapide et micrométrique ; pour que l'image soit nette, il faut que l'objet soit dans le plan focal de l'objectif ; ces molettes font monter et descendre l'ensemble objectif-oculaire avec un système de crémaillère, afin d'amener le plan focal sur la zone de l'échantillon à observer ;
- oculaire : lentille ou ensemble de lentilles formant l'image d'une manière reposante pour l'œil ; les rayons arrivent parallèles, comme s'ils venaient de très loin, ce qui permet un relâchement des muscles contrôlant le cristallin ; deux oculaires placés sur une tête dite binoculaire rend plus confortable l'observation (même si elle n'apporte pas de vision stéréoscopique).
L'oculaire peut être remplacé par un appareil photographique, ou — dans le cas de la vidéomicroscopie — par une caméra vidéo ou une caméra CCD pour faire une acquisition numérique. Ceci permet de faire l'observation sur un moniteur vidéo (écran de type télévision) et de faciliter l'utilisation et le traitement des images (impression, traitement informatique, télémédecine, etc.).
Limites du microscope optique
La résolution d'un microscope désigne sa capacité à séparer des détails très voisins. Indépendamment du capteur utilisé et des aberrations ou imperfections des lentilles, la résolution du microscope optique est fondamentalement limitée par la diffraction de la lumière. En effet, du fait de la diffraction, l'image d'un point n'est pas un point, mais une tache (la tache d'Airy ou plus généralement la fonction d'étalement du point - PSF). Ainsi, deux points distincts mais voisins auront pour images deux taches dont le recouvrement peut empêcher de distinguer les deux points images : les détails ne sont alors plus résolus.
Selon la théorie d'Abbe, la limite de résolution (transverse) d d'un microscope, c'est-à-dire la plus petite distance en dessous de laquelle deux points voisins ne seront plus distingués, peut être exprimée simplement à l'aide de la longueur d'onde d'illumination λ , de l'indice de réfraction n en sortie d'objectif, et du demi angle du cône de lumière maximum accessible α .
- d = λ 2 n sin α = λ 2 NA
où NA désigne le produit n sin α ou ouverture numérique de l'objectif. On peut donc augmenter la résolution de deux manières :
- en augmentant l'indice de réfraction. Ceci peut être réalisé en utilisant un objectif à immersion : on immerge la frontale de l'objectif dans un liquide dont l'indice de réfraction est proche du maximum de 1,5 - celui du verre ;
- en diminuant la longueur d'onde. Toutefois, si on reste dans la lumière visible, il n'est pas possible de descendre en dessous de 400 nm.
La limite de résolution d'un microscope photonique classique est d'environ 0,2 μm. Le microscope électronique en transmission atteindra, lui, une limite 100 fois plus petite.
Amélioration de la résolution en microscopie optique
De nombreuses techniques de microscopie photonique permettent d'augmenter la résolution. Lorsqu'elles dépassent la limite d'Abbe, elles sont dites « super résolution » ou nanoscopies. Citons entre autres :
- les techniques d'illumination structurée linéaires (par exemple, le microscope SIM) et les techniques tomographiques qui cherchent à récupérer les hautes fréquences spatiales coupées dans un microscope classique. Ces techniques permettent d'augmenter la résolution, sans toutefois dépasser la limite d'Abbe.
- les techniques utilisant les ondes évanescentes (SNOM) ;
- les techniques utilisant une mise en forme de la réponse impulsionnelle optique (PSF) : microscopie confocale, la microscopie STED (super-résolue) ;
- les techniques utilisant la localisation successive de molécules individuellement photoactivées, la « microscopie de localisation par photoactivation » (PALM, Betzig et al., 2006) et la microscopie « par reconstruction stochastique optique » (STORM, Rust et al., 2006). Ces deux microscopies sont identiques dans le principe, mais n'utilisent pas le même type de fluorophore.
Utilisations et perfectionnement
Microscopie en réflexion
Quand on utilise un microscope classique, on l'utilise en transmission, c'est-à-dire que la lumière traverse l'échantillon observé. Il est également possible de travailler « en réflexion ». Dans ce cas, l'échantillon est illuminé du même côté que l'observateur, soit par le dessus pour un microscope droit et par le dessous dans le cas des microscopes inversés utilisés en métallographie ou en cristallographie. La lumière produite par la source passe une première fois par l'objectif, arrive sur l'échantillon, est réfléchie et repasse par l'objectif pour observation ce qui nécessite plusieurs jeux de miroirs ou prismes.
La microscopie en réflexion permet d'examiner des objets opaques, ou trop épais pour la transmission. En contrepartie bien entendu, elle ne peut donner que des informations sur la surface de l'échantillon dans le cas de l'observation en lumière blanche ; en lumière polarisée, elle permet de révéler les orientations de grains des constituants des minéraux ou métaux.
Un cas classique est la métallographie où l'on réalise des observations de pièces de métal appelées métallographies de cette manière. Comme dit plus haut le microscope est souvent inversé, la pièce à observer placée posée sur la plaque support (en général percée d'un trou circulaire).
Éclairage épiscopique
A contrario des éclairage diascopiques (dia - à travers), l'éclairage épiscopique (épi - sur) permet d'observer des objets opaques en couleur et en leur donnant un rendu plus « naturel ».
L'idée d'un tel éclairage est ancienne, puisqu'en 1740, Descartes a inspiré Lieberkühn qui a créé pour ses observations au microscope un miroir en argent entourant l'objectif, le foyer de ce miroir ciblant la préparation.
Microscopie en champ clair
La microscopie optique en champ clair (ou « à fond clair ») est la plus simple et la plus ancienne des techniques de microscopie. Les longueurs d'onde utilisées (spectre visible) limitent le pouvoir séparateur de ce microscope à 0,2 µm pour ceux d'entre eux qui ont les meilleures optiques.
L'illumination se fait par transmission de lumière blanche, c'est-à-dire que l'échantillon est illuminé par-dessous et observé par-dessus. Les limitations de cette technique sont principalement un faible contraste de la plupart des échantillons biologiques et une résolution faible due au flou créé par la matière hors du plan focal. En contrepartie, la technique est simple et l'échantillon ne nécessite qu'une préparation minime.
Si l'échantillon est éclairé par-dessus, le microscope est dit « microscope inversé ». L'objectif est alors situé en dessous de la préparation, et le tube porte oculaire redresse les faisceaux de lumière pour que les oculaires soient « normalement » positionnés pour l'utilisateur.
Microscopie en champ sombre
Le microscope à fond noir qui utilise le principe de la « microscopie en champ sombre » permet d'améliorer le contraste d'échantillons transparents mais non teintés4.
L'illumination de champ sombre utilise une source de lumière alignée avec soin afin de minimiser la quantité de lumière directement transmise et de ne collecter que la lumière diffusée par l'échantillon. Elle permet d'augmenter considérablement le contraste, particulièrement pour les échantillons transparents, tout en ne nécessitant que peu d'équipement et une préparation d'échantillon simple. Toutefois, cette technique souffre d'une faible intensité lumineuse collectée et est toujours affectée par la limite de résolution.
L'illumination de Rheinberg est une variante de l'illumination en champ sombre dans laquelle des filtres transparents de couleur sont insérés juste avant le condenseur, de sorte que les rayons lumineux plus ou moins obliques soient colorés différemment (le fond de l'image peut être bleu tandis que l'échantillon apparaît jaune brillant). La limite de résolution est la même que celle en champ sombre. D'autres combinaisons de couleurs sont possibles, mais leur efficacité est assez variable5.
La microscopie à fond noir est particulièrement adaptée aux échantillons frais et autorise la microcinématographie (par exemple de bactéries en déplacement). Elle n'a pas d'intérêt pour les objets colorés (frottis ou coupes colorés). Elle est notamment utile pour :
- observer des êtres ou objets plats à structure régulière et transparents tels que diatomées, radiolaires…
- observer des formations filiformes (ex : flagelles, fibres, bactéries, certains cristaux…).
- observer des objets punctiformes ou linéaires très fins, dont la taille serait limite pour la séparation du microscope à fond clair. Ces objets donneront une image de points ou traits très lumineux (exemple : Treponema pallidum, agent de la syphilis) et aux contours nets si l'objet est suffisamment épais, ou pour les bactéries les plus grandes (exemple : Borrelia, agent de la maladie de Lyme).
Illumination oblique
L'utilisation d'une illumination oblique (par le côté) donne une image d'apparence tridimensionnelle et peut mettre en valeur des aspects invisibles autrement. C'est le principal avantage. Les limitations sont les mêmes que celles de la microscopie en champ clair.
Microscopie en lumière polarisée
En microscopie en lumière polarisée, on place l'échantillon entre un polariseur et un analyseur afin de détecter les variations de polarisation de la lumière après la traversée de l'échantillon. Cette technique est très utile pour l'observation des milieux biréfringents, notamment en minéralogie.
Microscopie en fluorescence
Quand certains composés sont illuminés par une source de lumière de haute énergie, ils émettent alors de la lumière à une énergie plus basse. C'est le phénomène de fluorescence. La microscopie en fluorescence (ou en épifluorescence) est une technique utilisant un microscope optique équipé de l'émetteur laser d'un rayonnement photonique ayant une longueur d'onde précise. Ce rayonnement ira exciter une molécule cible dotée de propriétés fluorescentes. Elle permet de tirer profit du phénomène de fluorescence et de phosphorescence, au lieu de, ou en plus de l'observation classique par Réflexion (physique) ou absorption de la lumière visible naturelle ou artificielle6,7.
Cette méthode est aujourd'hui de première importance dans les sciences de la vie grâce, notamment, au marquage de structures cellulaires ou tissulaires par des molécules fluorescentes, telles que la rhodamine ou la fluorescéine. Elle peut être très sensible, autorisant même la détection de molécules isolées. Différentes structures ou composés chimiques peuvent aussi être détectés simultanément en utilisant des composés différents qui seront différenciés par leur couleur de fluorescence.
Le microscope de fluorescence par réflexion totale interne (TIRF, total internal reflection fluorescence microscopy), ou microscope à onde évanescente, est un type particulier de microscope optique à fluorescence permettant d'examiner une tranche très fine d'un échantillon (moins de 200 nm d'épaisseur), grâce à un mode d'illumination particulier : la réflexion totale interne.
Microscope à contraste de phase
Le contraste de phase est une technique largement utilisée qui permet de mettre en valeur les différences d'indices de réfraction comme différence de contraste. Elle a été développée par le physicien hollandais Frederik Zernike dans les années 1930 (il reçut pour cela le prix Nobel en 1953). Le noyau d'une cellule par exemple apparaîtra sombre dans le cytoplasme environnant. Le contraste est excellent, néanmoins cette technique ne peut être utilisée avec les objets épais. Bien souvent, un halo se forme autour des petits objets qui peut noyer des détails.
Le système consiste en un anneau circulaire dans le condenseur qui produit un cône de lumière. Ce cône est superposé à un anneau de taille similaire dans l'objectif. Chaque objectif a un anneau de taille différente, aussi il est nécessaire d'adapter le condenseur à chaque changement d'objectif. L'anneau dans l'objectif a des propriétés optiques spéciales : il réduit l'intensité de la lumière directe et, ce qui est plus important, il crée une différence de phase artificielle d'un quart de longueur d'onde qui crée des interférences avec la lumière diffusée, et qui crée le contraste de l'image.
Microscope à contraste interférentiel
Le contraste interférentiel (CI, IC pour les anglophones) est une technique qui permet de visualiser des objets transparents par une augmentation de leur contraste. C'est actuellement le CI selon Nomarski, inventé dans les années 1950 qui est le plus répandu. Cette technique apporte un plus important par rapport au contraste de phase en supprimant le phénomène de halo propre à ce dernier. Elle s'est imposée en microscopie dans de nombreux domaines actuellement.
Microscope confocal
Le microscope confocal génère une image d'une manière totalement différente de la microscopie normale en champ clair. La résolution est légèrement meilleure, mais le point le plus important est qu'il permet de former une image de coupes transversales sans être perturbé par la lumière hors du plan focal. Il donne donc une image très nette des objets en trois dimensions. Le microscope confocal est souvent utilisé en conjonction avec la microscopie à fluorescence.
Microscope à statif inversé
Microscope sans lentille
Le microscope sans lentille enregistre la figure de diffraction d'un laser par l'échantillon (principe de l'holographie), puis traite cette figure par ordinateur pour générer l'image.
Préparation des échantillons
L'échantillon observé doit remplir certaines conditions :
- de planéité, pour que l'objectif en donne une image entière nette, faute de quoi on ne peut en observer qu'une portion restreinte
- en transmission, il doit être de faible épaisseur pour que la lumière le traverse et ne rende visible que quelques éléments (cellules) dans le cas de la biologie ;
- en réflexion, la surface doit être en général polie afin que les rayures ne masquent pas ce que l'on veut observer ;
- les parties à observer doivent pouvoir se différencier :
- différenciation de couleurs par la coloration chimique de solutions standardisées, pour la biologie,
- attaque chimiques par des acides pour révéler des défauts en métallurgie,
- d'autres différenciations par l'éclairage en lumière polarisée, en ultra-violet (fluorescence), ou par principe interférentiel, révélant d'autres aspect, invisibles à l'œil nu.
En biologie, il est nécessaire, au préalable, de placer la coupe de tissu (ou le liquide contenant des organismes vivants) entre une lame et une lamelle (montage de la préparation microscopique entre lame et lamelle, avec ou sans coloration, avec ou sans dissection, montage in toto ou de coupes). L'objectif doit s'approcher de la lame pour la mise au point sans, par maladresse, détruire la préparation devenue très fragile.
Du fait de la préparation, la microscopie optique nécessite une importante quantité d'appareils complémentaires pour la seule destination de l'observation microscopique.
Prenons le cas de la biopsie en médecine et biologie (anatomopathologie) : le diagnostic par microscopie, de pièces biologiques prélévées par biopsie pendant une opération, impose des délais courts. Pour préparer la lame, on utilise un appareil appelé cryotome, une sorte de « trancheuse à jambon », placée dans un cryostat (congélateur), qui permet de découper des tranches très fines du corps qui sera à observer en le refroidissant rapidement, puis en le découpant à l'aide de la lame d'un rasoir spécial, affûté sur une autre machine à plaque de verre à l'aide de pâtes diamantées. Si l'on veut travailler à température ambiante, les délais sont plus longs et imposent des déshydratations et remplacement des eaux supprimées par de la paraffine (24 heures) pour que l'échantillon garde sa rigidité ; ensuite, il est coloré par plusieurs substances d'actions alternées de durée très longues, elles aussi.
Notes et références
- Athanasius Kircher, "Ars magna Lucis et Umbrae" [archive],1646
- Microscope simple de Leeuwenhoek [archive] sur le site du Musée des Confluences [archive].
- Stephen Jay Gould, The Lying stones of Marrakech, (les pierres truquées de Marrakech en français), 2000.
- Abramowitz M, Davidson MW, « Darkfield Illumination » [archive], (consulté le ).
- Abramowitz M, Davidson MW, « Rheinberg Illumination » [archive], (consulté le )
- Spring KR, Davidson MW ; Introduction to Fluorescence Microscopy [archive] ; Nikon Microscopy (consulté le 28/09/2008).
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
Liens externes
Microscopie électronique à balayage
Premier microscope électronique à balayage par M von Ardenne
Microscope électronique à balayage JEOL JSM-6340F
Principe de fonctionnement du Microscope Électronique à Balayage
La microscopie électronique à balayage (MEB) ou Scanning Electron Microscopy (SEM) en anglais est une technique de microscopie électronique capable de produire des images en haute résolution de la surface d’un échantillon en utilisant le principe des interactions électrons-matière.
S'appuyant sur les travaux de Max Knoll et Manfred von Ardenne dans les années 1930, la MEB consiste en un faisceau d’électrons balayant la surface de l’échantillon à analyser qui, en réponse, réémet certaines particules. Ces particules sont analysées par différents détecteurs qui permettent de reconstruire une image en trois dimensions de la surface.
Les travaux menés dans les années 1960 dans le laboratoire de Charles Oatley à l’université de Cambridge ont grandement contribué au développement de la MEB, et ont conduit en 1965 à la commercialisation par Cambridge Instrument Co. des premiers microscopes à balayage1. Aujourd’hui, la microscopie électronique à balayage est utilisée dans des domaines allant de la biologie à la science des matériaux, et un grand nombre de constructeurs proposent des appareils de série équipés de détecteurs d’électrons secondaires et dont la résolution se situe entre 0,4 nanomètre2 et 20 nanomètres.
Principe général
Le pouvoir de résolution (capacité à distinguer des détails fins) de l’œil humain avec un microscope optique est limité par la longueur d’onde de la lumière visible (photons) ainsi que par la qualité des lentilles grossissantes. Les plus puissants microscopes optiques peuvent distinguer des détails de 0,1 à 0,2 µm3. Si l’on veut observer des détails plus fins, il faut diminuer la longueur d’onde qui éclaire les cibles. Dans le cas des microscopes électroniques, on n’utilise pas des photons, mais des électrons, dont les longueurs d’onde associées sont beaucoup plus faibles.
Schéma de principe « historique » de la microscopie à balayage. À partir des
années 1980, le
tube cathodique synchronisé avec le MEB a progressivement disparu pour céder la place à une acquisition numérique d’image.
La figure ci-contre illustre le schéma de principe d’un MEB : une sonde électronique fine (faisceau d’électrons) est projetée sur l’échantillon à analyser. L’interaction entre la sonde électronique et l’échantillon génère des électrons secondaires, de basse énergie qui sont accélérés vers un détecteur d’électrons secondaires qui amplifie le signal. À chaque point d’impact correspond un signal électrique. L’intensité de ce signal électrique dépend à la fois de la nature de l’échantillon au point d’impact qui détermine le rendement en électrons secondaires et de la topographie de l’échantillon au point considéré. Il est ainsi possible, en balayant le faisceau sur l’échantillon, d’obtenir une cartographie de la zone balayée.
La sonde électronique fine est produite par un « canon à électrons » qui joue le rôle d’une source réduite par des « lentilles électroniques » qui jouent le même rôle vis-à-vis du faisceau d’électrons que des lentilles conventionnelles, photoniques dans un microscope optique. Des bobines disposées selon les deux axes perpendiculaires à l’axe du faisceau et parcourues par des courants synchronisés permettent de soumettre la sonde à un balayage du même type que celui d'un écran cathodique. Les lentilles électroniques, qui sont généralement des lentilles magnétiques et les bobines de balayage forment un ensemble que l’on appelle la colonne électronique.
Schéma d’un MEB équipé d’un détecteur de rayons X « EDS » (à dispersion d’énergie)
Dans les MEB modernes, la cartographie d’électrons secondaires est enregistrée sous forme numérique, mais le MEB a pu être développé dès le début des années 1960, bien avant la diffusion des moyens de stockage informatique, grâce à un procédé analogique qui consistait, comme sur le schéma de la figure, à synchroniser le balayage du faisceau d’un tube cathodique avec celui du MEB, en modulant l’intensité du tube par le signal secondaire. L’image de l’échantillon apparaissait alors sur l’écran phosphorescent du tube cathodique et pouvait être enregistrée sur une pellicule photographique.
Un microscope électronique à balayage est essentiellement composé d’un canon à électrons et d’une colonne électronique, dont la fonction est de produire une sonde électronique fine sur l’échantillon, d’une platine porte-objet permettant de déplacer l’échantillon dans les trois directions et de détecteurs permettant de capter et d’analyser les rayonnements émis par l’échantillon. En outre l’appareil doit nécessairement être équipé d’un système de pompes à vide4.
Histoire
Travaux préliminaires
L’histoire de la microscopie à balayage découle en partie des travaux théoriques du physicien allemand Hans Busch sur la trajectoire des particules chargées dans les champs électromagnétiques. En 1926, il a démontré que de tels champs pouvaient être utilisés comme des lentilles électromagnétiques5 établissant ainsi les principes fondateurs de l’optique électronique géométrique. À la suite de cette découverte, l’idée d’un microscope électronique prit forme et deux équipes, celle de Max Knoll et Ernst Ruska de l’Université technique de Berlin et celle d’Ernst Brüche des laboratoires EAG envisagèrent de tester cette possibilité. Cette course a mené à la construction en 1932, par Knoll et Ruska, du premier microscope électronique en transmission6.
Premier microscope à balayage
Après avoir rejoint Telefunken pour mener des recherches sur les tubes cathodiques des téléviseurs, Max Knoll a développé, afin d’étudier la cible de tubes électroniques analyseurs, un analyseur à faisceau d’électrons qui réunissait toutes les caractéristiques d’un microscope électronique à balayage : l’échantillon se trouvait à l’extrémité d’un tube de verre scellé et un canon à électrons se trouvait à l’autre extrémité. Les électrons, accélérés sous une tension de l’ordre de 500 à 4 000 volts, étaient focalisés sur la surface et un système de bobines les déviait. Le faisceau balayait la surface de l’échantillon au rythme de 50 images par seconde. Le courant transmis par l’échantillon récupéré, amplifié et modulé et permettait de reconstruire une image. Le premier appareil utilisant ce principe a été construit en 19357.
Par la suite, c’est le scientifique allemand Manfred von Ardenne qui, en 1938, a construit le premier microscope électronique à balayage8. Mais cet appareil ne ressemblait pas encore aux MEB modernes car il avait été créé pour étudier des échantillons très fins en transmission. Il s’apparente donc plus à un microscope électronique en transmission à balayage (METB ou (en) STEM pour scanning transmission electron microscope). De plus, bien que doté d’un écran à tube cathodique, les images étaient enregistrées sur des films photographiques disposés sur un tambour rotatif. Von Ardenne a ajouté des bobines de balayage à un microscope électronique en transmission. Le faisceau d’électrons, d’un diamètre de 0,01 µm, balayait la surface de l’échantillon et les électrons transmis étaient récupérés sur le film photographique qui était déplacé au même rythme que le faisceau. La première micrographie obtenue par un MEBT fut l’image d’un cristal de ZnO grossi 8 000 fois avec une résolution latérale de 50 à 100 nanomètres. L’image était composée de 400 par 400 lignes et il a fallu 20 minutes pour l’obtenir. Le microscope disposait de deux lentilles électrostatiques entourant les bobines de balayage.
En 1942, le physicien et ingénieur russe Vladimir Zworykin, qui travaillait dans les laboratoires de la Radio Corporation of America à Princeton aux États-Unis, a publié les détails du premier microscope électronique à balayage pouvant analyser une surface opaque et pas seulement analyser un échantillon fin en transmission. Un canon à électrons à filament de tungstène émettait des électrons qui étaient accélérés sous une tension de 10 000 volts. L’optique électronique de l’appareil était composée de trois bobines électrostatiques, les bobines de balayage étant placées entre la première et la seconde lentille. Ce système donnait une image très réduite de la source de l’ordre de 0,01 µm. Fait assez courant au début de l’histoire des MEB, le canon à électrons se situait en bas du microscope pour que la chambre d’analyse puisse se trouver à la bonne hauteur pour le manipulateur. Mais ceci avait une fâcheuse conséquence car l’échantillon risquait ainsi de tomber dans la colonne du microscope. Ce premier MEB atteignait une résolution de l’ordre de 50 nm. Mais à cette époque, le microscope électronique en transmission se développait assez rapidement et en comparaison des performances de ce dernier, le MEB suscitait beaucoup moins de passion et son développement fut donc ralenti9.
Développement du microscope électronique à balayage
Microscope électronique à balayage
À la fin des années 1940, Charles Oatley, alors maître de conférence du département d’ingénierie de l’université de Cambridge au Royaume-Uni s’intéressa au domaine de l’optique électronique et décida de lancer un programme de recherche sur le microscope électronique à balayage, en complément des travaux effectués sur le microscope électronique à transmission par Ellis Cosslett, également à Cambridge dans le département de physique. Un des étudiants de Charles Oatley, Ken Sander, commença à travailler sur une colonne pour MEB en utilisant des lentilles électrostatiques mais il dut s’interrompre un an après en raison de la maladie. C’est Dennis McMullan qui reprit ces travaux en 1948. Charles Oatley et lui-même construisirent leur premier MEB (appelé SEM1 pour Scanning Electron Microscope 1) et en 1952, cet instrument avait atteint une résolution de 50 nm mais ce qui était le plus important était qu’il rendait enfin ce stupéfiant effet de relief, caractéristique des MEB modernes10.
En 1960, l’invention d’un nouveau détecteur par Thomas Eugene Everhart et R.F.M. Thornley va accélérer le développement du microscope électronique à balayage : détecteur Everhart-Thornley. Extrêmement efficace pour collecter les électrons secondaires ainsi que les électrons rétrodiffusés, ce détecteur va devenir très populaire et se retrouver sur presque chaque MEB.
Interaction électron-matière
Interaction entre la matière et les électrons
En microscopie optique classique, la lumière visible réagit avec l’échantillon et les photons réfléchis sont analysés par des détecteurs ou par l’œil humain. En microscopie électronique, le faisceau lumineux est remplacé par un faisceau d’électrons primaires qui vient frapper la surface de l’échantillon et les photons réémis sont remplacés par tout un spectre de particules ou rayonnements : électrons secondaires, électrons rétrodiffusés, électrons Auger ou rayons X. Ces différentes particules ou rayonnements apportent différents types d’informations sur la matière dont est constitué l’échantillon11.
Électrons secondaires
Lors d’un choc entre les électrons primaires du faisceau et les atomes de l’échantillon, un électron primaire peut céder une partie de son énergie à un électron peu lié de la bande de conduction de l’atome, provoquant ainsi une ionisation par éjection de ce dernier. On appelle électron secondaire cet électron éjecté. Ces électrons possèdent généralement une faible énergie (environ 50 eV). Chaque électron primaire peut créer un ou plusieurs électrons secondaires.
De par cette faible énergie, les électrons secondaires sont émis dans les couches superficielles proches de la surface. Les électrons qui peuvent être recueillis par les détecteurs sont souvent émis à une profondeur inférieure à 10 nanomètres. Grâce à cette faible énergie cinétique, il est assez facile de les dévier avec une faible différence de potentiel. On peut ainsi facilement collecter un grand nombre de ces électrons et obtenir des images de bonne qualité avec un bon rapport signal/bruit et une résolution de l’ordre de 40 Å (ångström) pour un faisceau de 30 Å de diamètre.
Étant donné qu’ils proviennent des couches superficielles, les électrons secondaires sont très sensibles aux variations de la surface de l’échantillon. La moindre variation va modifier la quantité d’électrons collectés. Ces électrons permettent donc d’obtenir des renseignements sur la topographie de l’échantillon. En revanche, ils donnent peu d’information sur le contraste de phase (cf électrons rétrodiffusés)12.
Électrons rétrodiffusés
Les électrons rétrodiffusés ((en) back-scattered electrons) sont des électrons résultant de l’interaction des électrons du faisceau primaire avec des noyaux d’atomes de l’échantillon et qui ont réagi de façon quasi élastique avec les atomes de l’échantillon. Les électrons sont réémis dans une direction proche de leur direction d’origine avec une faible perte d’énergie.
Ces électrons récupérés ont donc une énergie relativement élevée, allant jusqu’à 30 keV, énergie beaucoup plus importante que celle des électrons secondaires. Ils peuvent être émis à une plus grande profondeur dans l’échantillon. La résolution atteinte avec les électrons rétrodiffusés sera donc relativement faible, de l’ordre du micromètre ou du dixième de micromètre.
De plus, ces électrons sont sensibles au numéro atomique des atomes constituant l’échantillon. Les atomes les plus lourds (ceux ayant un nombre important de protons) réémettront plus d’électrons que les atomes plus légers. Cette particularité sera utilisée pour l’analyse en électrons rétrodiffusés. Les zones formées d’atomes avec un nombre atomique élevé apparaîtront plus brillante que d’autres, c’est le contraste de phase. Cette méthode permettra de mesurer l’homogénéité chimique d’un échantillon et permettra une analyse qualitative13.
Électrons Auger
Lorsqu’un atome est bombardé par un électron primaire, un électron d’une couche profonde peut être éjecté et l’atome entre dans un état excité. La désexcitation peut se produire de deux façons différentes : en émettant un photon X (transition radiative ou fluorescence X) ou en émettant un électron Auger (effet Auger). Lors de la désexcitation, un électron d’une couche supérieure vient combler la lacune créée par l’électron initialement éjecté. Durant cette transition, l’électron périphérique perd une certaine quantité d’énergie qui peut être émise sous forme de photon X ou peut alors être transmise à un électron d’une orbite plus externe et donc moins énergétique. Cet électron périphérique se retrouve à son tour éjecté et peut être récupéré par un détecteur.
Les électrons Auger possèdent une très faible énergie et sont caractéristiques de l’atome qui les a émis. Ils permettent ainsi d’obtenir des informations sur la composition de l’échantillon et plus particulièrement de la surface de l’échantillon ainsi que sur le type de liaison chimique, dans la mesure évidemment où le MEB est équipé d’un détecteur d’électrons réalisant une discrimination en énergie. Ce sont des MEB spécialisés qui sont équipés d’analyseurs en énergie. On parle alors d’« analyse Auger » ou de « spectrométrie Auger ». Le niveau de vide des microscopes électroniques Auger doit être bien meilleur que pour les MEB ordinaires, de l’ordre de 10-10 Torr14.
Rayon X
L’impact d’un électron primaire à haute énergie peut ioniser un atome à une couche interne. La désexcitation, le remplissage de l’ordre énergétique de la structure électronique, se produit avec émission de rayons X. L’analyse de ces rayons permet d’obtenir des informations sur la nature chimique de l’atome15.
Instrumentation
Canon à électrons
Le canon à électrons est un des composants essentiels d’un microscope électronique à balayage. C’est en effet la source du faisceau d’électrons qui viendra balayer la surface de l’échantillon. La qualité des images et la précision analytique que l’on peut obtenir avec un MEB requièrent que la tache électronique sur l’échantillon soit à la fois fine, intense et stable. Une forte intensité dans une tache la plus petite possible nécessite une source « brillante ». L’intensité ne sera stable que si l’émission de la source l’est également.
Le principe du canon à électrons est d’extraire les électrons d’un matériau conducteur (qui en est une réserve quasiment inépuisable) vers le vide où ils sont accélérés par un champ électrique. Le faisceau d’électrons ainsi obtenu est traité par la colonne électronique qui en fait une sonde fine balayée sur l’échantillon.
Il existe deux familles de canon à électrons selon le principe utilisé pour extraire les électrons :
Il existe également un principe intermédiaire : la source Schottky à émission de champ, de plus en plus employée.
Suivant ces distinctions et le mode de fonctionnement, les canons à électrons ont des propriétés et des caractéristiques différents. Il existe des grandeurs physiques pour les caractériser. La principale est la brillance mais la durée de vie est également très importante, ainsi que la stabilité. Le courant maximum disponible peut également être pris en considération, ainsi que la dispersion énergétique16.
Brillance d’une source
On peut définir la brillance B d’une source par le rapport du courant émis par la source au produit de la surface de la source par l’angle solide. Dans le cas général, on ne sait mesurer que la surface d’une « source virtuelle » qui est la zone d’où semblent provenir les électrons. (Définition à revoir)
- B = c o u r a n t e ´ m i s ( s u r f a c e d e l a s o u r c e ) × ( a n g l e s o l i d e )
Pour une source d’électrons dont les caractéristiques sont :
- le diamètre de la source virtuelle d ;
- le courant émis Ie ;
- le demi-angle d’ouverture α.
l’expression de la brillance devient :
- B = I e ( π ( d 2 ) 2 ) ( π α 2 )
Dans les systèmes optiques, la brillance, qui se mesure en A.m-2.sr-1 (ampères par unité de surface et par angle solide), a la propriété de se conserver lorsque l’énergie d’accélération est constante. Si l’énergie varie, la brillance lui est proportionnelle. Pour obtenir un signal de détection abondant lorsque la tache électronique sur l’échantillon est très petite, il faut que la brillance de la source soit la plus élevée possible. Dans la littérature, on trouve très souvent la brillance exprimée en A⋅cm-2.sr-117.
Émission thermoïonique : Filament de tungstène et pointes LaB6
Des matériaux tels que le tungstène et l’hexaborure de lanthane (LaB6) sont utilisés en raison de leur faible travail de sortie, c’est-à-dire de l’énergie nécessaire pour extraire un électron de la cathode. En pratique, cette énergie est apportée sous forme d’énergie thermique en chauffant la cathode à une température suffisamment élevée pour qu’une certaine quantité d’électrons acquière l’énergie suffisante pour franchir la barrière de potentiel qui les maintient dans le solide. Les électrons qui ont franchi cette barrière de potentiel se retrouvent dans le vide où ils sont ensuite accélérés par un champ électrique.
Dans la pratique, on peut utiliser un filament de tungstène, formé comme une épingle à cheveux, que l’on chauffe par effet Joule, comme dans une ampoule électrique. Le filament est ainsi porté à une température supérieure à 2 200 °C, typiquement 2 700 °C.
Les cathodes au LaB6 doivent être chauffées à une température moins élevée mais la technologie de fabrication de la cathode est un peu plus compliquée car le LaB6 ne peut pas être formé en filament. En fait, on accroche une pointe de monocristal de LaB6 à un filament en carbone. Le cristal d’hexaborure de lanthane est porté aux alentours de 1 500 °C pour permettre l’émission d’électrons. Cette cathode nécessite un vide plus poussé que pour un filament de tungstène (de l’ordre de 10-6 à 10−7 torr contre 10-5). Les cathodes en hexaborure de cérium (CeB6) ont des propriétés très voisines.
Le filament de tungstène porté à une température de 2 700 °C a une brillance typique de 105 A (cm−2 sr−1) pour une tension d’accélération de 20 kilovolts18. Il a, à cette température, une durée de vie entre 40 et 100 heures. Le diamètre de la source virtuelle est de l’ordre de 40 µm.
La cathode LaB6 portée à une température de 1 500 °C a une brillance typique de 106 A cm−2 sr−1 pour une durée de vie entre 500 et 1 000 heures. Le diamètre de la source virtuelle est de l’ordre de 15 µm19.
Canons à émission de champ
Le principe d’un canon à émission de champ est d’utiliser une cathode métallique en forme de pointe très fine et d’appliquer une tension de l’ordre de 2 000 à 7 000 volts entre la pointe et l’anode. On produit ainsi, par « effet de pointe », un champ électrique très intense, de l’ordre de 107 V cm−1, à l’extrémité de la cathode. Les électrons sont alors extraits de la pointe par effet tunnel. Il existe deux types de canons à émission de champ (FEG en anglais pour Field Emission Gun) :
- l’émission de champ à froid (CFE en anglais). La pointe reste à température ambiante
- l’émission de champ assistée thermiquement (TFE en anglais). La pointe est alors portée à une température typique de 1 800 K
Le gros avantage des canons à émission de champ est une brillance théorique qui peut être cent fois plus importante que celle des cathodes LaB6. Le deuxième type de canon (assisté thermiquement) est de plus en plus utilisé, car il permet pour un sacrifice en brillance très modeste de mieux maîtriser la stabilité de l’émission. Le courant disponible est également plus élevé. Avec un canon à émission de champ froid, le courant disponible sur l’échantillon n’est en effet jamais supérieur à 1 nA, alors qu’avec l’assistance thermique, il peut approcher les 100 nA20.
Une autre grosse différence entre les canons à émission de champ et les canons thermoïoniques est que la source virtuelle est beaucoup plus petite. Cela provient du fait que toutes les trajectoires sont normales à la surface de la pointe, qui est une sphère d’environ 1 µm. Les trajectoires semblent ainsi provenir d’un point. C’est ainsi que l’on obtient des brillances très élevées : 108 A cm−2 sr−1 pour les cathodes froides et 107 A cm−2 sr−1 pour les cathodes à émission de champ chauffées. Sur l’échantillon, la brillance est toujours dégradée19.
Le très petit diamètre de la source virtuelle nécessite moins d’étages de réduction, mais un inconvénient est que la source, moins réduite est plus sensible aux vibrations.
Comparaison des différentes propriétés des canons à électrons, à 20 kV21
| Émission thermoïonique | Émission de champ |
Matériaux | Tungstène | LaB6 | S-FEG | C-FEG |
Brillance (A⋅cm-2⋅sr-1) |
105 |
106 |
107 |
108 |
Température (°C) |
1 700–2 400 |
1 500 |
1 500 |
ambiante |
Diamètre de la pointe (nm) |
50 000 |
10 000 |
100–200 |
20–30 |
Taille de la source (Nanomètre) |
30 000–100 000 |
5 000–50 000 |
15–30 |
< 5 |
Courant d’émission (µA) |
100–200 |
50 |
50 |
10 |
Durée de vie (heure) |
40–100 |
200–1 000 |
> 1 000 |
> 1 000 |
Vide minimal (Pa) |
10-2 |
10-4 |
10-6 |
10-8 |
Stabilité à court terme (%RMS) |
<1 |
<1 |
<1 |
4–6 |
Colonne électronique
Colonnes pour canon à émission thermoïoniques
La fonction de la colonne électronique est de produire à la surface de l’échantillon une image de la source virtuelle suffisamment réduite pour que la tache électronique (le spot) obtenue soit assez fine pour analyser l’échantillon avec la résolution requise, dans la gamme des 0,5 à 20 nm. La colonne doit également contenir des moyens pour balayer le faisceau.
Comme les sources des canons à émission thermoïonique ont un diamètre typique de 20 µm, la réduction de la colonne électronique doit être d’au moins 20 000, produite par trois étages comportant chacun une lentille magnétique (Voir figure ci-dessus).
La colonne électronique doit également comporter un diaphragme de limitation d’ouverture, car les lentilles magnétiques ne doivent être utilisées que dans leur partie centrale pour avoir des aberrations plus petites que la résolution recherchée. L’astigmatisme résultant, par exemple de défaut de sphéricité des lentilles peut être compensé par un « stigmateur », mais l’aberration sphérique et l’aberration chromatique ne peuvent être corrigées.
Le balayage de la tache électronique sur l’échantillon résulte de champs magnétiques selon les deux directions transverses, X et Y, produits par des bobines de déflexion qui sont parcourues par des courants électriques. Ces bobines de déflexion sont situées juste avant la dernière lentille19.
Colonnes pour canon à émission de champ
Colonne Gemini de Zeiss. Cette colonne, équipée d’une source à émission de champ, dédiée aux applications basse énergie, contient un détecteur d’électrons secondaire dans la colonne.
Les colonnes électroniques montées avec des canons à émission de champ peuvent avoir une réduction de la source bien inférieure à celle des colonnes conventionnelles19.
La colonne Gemini représentée sur la figure ci-contre comporte deux lentilles magnétiques, mais cette paire de lentille, montées en doublet, ne constitue en fait qu’un seul étage de réduction. La structure en doublet permet d’éviter de limiter le nombre de cross-over, c’est-à-dire, d’images intermédiaires de la source, comme sur les colonnes conventionnelles, car ces cross-over sont générateurs de dispersion en énergie et donc d’aberration chromatique.
La forte brillance des sources à émission de champ les rend particulièrement propices aux applications à basse énergie d’impact, c’est-à-dire inférieure à 6 keV. car la brillance étant proportionnelle à l’énergie d’accélération, l’obtention d’un courant électronique primaire confortable ne saurait tolérer le cumul de deux handicaps, celui d’une source médiocre et d’une faible énergie d’accélération.
Plusieurs raisons peuvent pousser à rechercher les faibles énergies d’impact :
- lorsque l’image résulte d’un mode de détection qui met en cause l’ensemble de la poire de pénétration des électrons dans la matière, comme c’est le cas, par exemple, pour l’utilisation en microanalyse par rayons X : plus l’énergie d’impact est élevée, et plus la poire est évasée ;
- pour l’analyse dans les isolants dans le cas où une métallisation superficielle de l’échantillon introduirait un artefact de mesure.
Il existe un niveau d’énergie, situé aux environs de 1 500 eV dans le cas de la silice, pour lequel il y a autant d’électrons secondaires émis que d’électrons primaires incidents.
Pour travailler à basse énergie, par exemple à 1 500 eV ou à quelques centaines d’eV, il est intéressant de véhiculer les électrons à énergie plus importante dans la colonne, et de les ralentir juste avant l’échantillon. L’espace de ralentissement forme alors une lentille électrostatique, c’est ce qui est représenté sur la figure de ce paragraphe. Lorsque les électrons restent à énergie constante, les lentilles magnétiques ont des aberrations plus faibles que les lentilles électrostatiques, mais il se trouve que les lentilles comprenant une zone de ralentissement, nécessairement électrostatique, ont toutes les aberrations relatives à l’ouverture du faisceau considérablement réduite22.
Lorsque l’énergie d’impact est faible, et qu’il y a un champ électrique de ralentissement proche de l’échantillon, la mise en place du détecteur d’électrons secondaires dans l’espace entre la dernière lentille et l’échantillon pose de plus en plus de problèmes. Une solution consiste alors à disposer le détecteur à l’intérieur de la colonne. En effet, le champ électrique qui ralentit les électrons primaires, accélère les électrons secondaires. En anglais, ce type d’arrangement est connu sous le nom d’in-lens detector ou Through-The-Lens detector (détecteur TTL). En français, on pourrait dire « détecteur dans la colonne ».
Détecteur d’électrons secondaires
Le détecteur d’électrons secondaires ou détecteur Everhart-Thornley a été développé dans le but d’améliorer le système de collection utilisé à l’origine par Vladimir Zworykin et qui était constitué d’un écran phosphorescent/photomultiplicateur. En 1960, deux étudiants de Charles Oatley, Thomas Eugene Everhart et R.F.M. Thornley, ont eu l’idée d’ajouter un guide de lumière entre cet écran phosphorescent et ce photomultiplicateur. Ce guide permettait un couplage entre le scintillateur et le photomultiplicateur, ce qui améliorait grandement les performances. Inventé il y a plus d’un demi-siècle, ce détecteur est aujourd’hui celui le plus fréquemment utilisé.
Un détecteur Everhart-Thornley est composé d’un scintillateur qui émet des photons sous l’impact d’électrons à haute énergie. Ces photons sont collectés par un guide de lumière et transportés vers un photomultiplicateur pour la détection. Le scintillateur est porté à une tension de plusieurs kilovolts afin de communiquer de l’énergie aux électrons secondaires détectés - il s’agit en fait d’un procédé d’amplification. Pour que ce potentiel ne perturbe pas les électrons incidents, il est nécessaire de disposer une grille, sorte de cage de Faraday, pour blinder le scintillateur. Dans le fonctionnement normal, la grille est polarisée à quelque + 200 volts par rapport à l’échantillon de façon à créer à la surface de l’échantillon un champ électrique suffisant pour drainer les électrons secondaires, mais assez faible pour ne pas créer d’aberrations sur le faisceau incident.
La polarisation du scintillateur à une tension élevée et le fort champ électrique qui en résulte est incompatible avec un MEB à faible vide : Il se produirait alors une ionisation de l’atmosphère de la chambre d’observation consécutive à l’effet Paschen.
Détecteur Everhart-Thornley avec une tension positive
Détecteur Everhart-Thornley avec une tension négative
Polarisée à 250 volts par rapport à l’échantillon (voir schéma de gauche), la grille attire une grande partie des électrons secondaires émis par l’échantillon sous l’impact du faisceau d’électrons primaire. C’est parce que le champ électrique généré par la cage de Faraday est fortement dissymétrique qu’on peut obtenir un effet de relief.
Lorsque la grille est polarisée négativement, typiquement à - 50 volts (voir schéma de droite), le détecteur repousse l’essentiel des électrons secondaires dont l’énergie initiale est souvent inférieure à 10 eV. Le détecteur Everhart-Thornley devient alors un détecteur d’électrons rétrodiffusés23.
Préparation de l’échantillon
La qualité des images obtenues en microscopie électronique à balayage dépend grandement de la qualité de l’échantillon analysé. Idéalement, celui-ci doit être absolument propre, si possible plat et doit conduire l’électricité afin de pouvoir évacuer les électrons. Il doit également être de dimensions relativement modestes, de l’ordre de 1 à 2 centimètres. Toutes ces conditions imposent donc un travail préalable de découpe et de polissage. Les échantillons isolants (échantillons biologiques, polymères, etc.) doivent en plus être métallisés, c’est-à-dire recouverts d’une fine couche de carbone ou d’or. Cependant cette couche métallique, du fait de son épaisseur, va empêcher la détection de détails très petits. On peut donc utiliser un faisceau d'électrons de plus basse énergie qui évitera de charger l'échantillon (et donc de perdre de la visibilité), la couche métallique ne sera alors plus nécessaire.
Des répliques synthétiques peuvent être réalisées pour éviter l'utilisation d'échantillons originaux lorsqu'ils ne sont pas adaptés ou disponibles pour l'examen au MEB en raison d'obstacles méthodologiques ou de problèmes juridiques. Cette technique est réalisée en deux étapes : (1) un moule de la surface d'origine est fabriqué en utilisant un élastomère dentaire à base de silicone, et (2) une réplique de la surface d'origine est obtenue en versant une résine synthétique dans le moule24.
Échantillons métalliques
Les échantillons métalliques nécessitent peu de préparation à l'exception du nettoyage et du montage[Information douteuse].
Échantillons biologiques
Par nature, les échantillons biologiques contiennent de l’eau et sont plus ou moins mous. Ils nécessitent donc une préparation plus attentive qui vise à les déshydrater sans en détruire la paroi des cellules. De plus, comme tous les échantillons destinés à être observés dans un MEB, ceux-ci doivent être conducteurs. Pour cela, ils doivent donc subir une préparation spécifique en plusieurs étapes.
La première étape est une étape de fixation qui vise à tuer les cellules tout en s’efforçant d’en conserver les structures pour que l’on puisse observer l’échantillon dans un état aussi proche que possible de l’état vivant. La seconde étape consiste à extraire de l’échantillon les éléments destinés à l’observation. Il n’est pas rare de ne s’intéresser qu’à un organe ou à un élément précis du spécimen, par exemple, la surface d’un œil, un élytre, une écaille ou un poil d’un insecte. Il faut donc souvent isoler cette partie avant de la préparer pour l’observation. Il existe plusieurs techniques pour extraire ces parties. La plus simple étant une dissection manuelle ou la dissolution des parties molles et des chairs.
Une condition nécessaire à tous les échantillons mais plus particulièrement les échantillons biologiques est la propreté. La surface de l’échantillon biologique à étudier doit contenir le moins d’impuretés possible, pour permettre une netteté parfaite même avec des agrandissements importants. Pour cela, il existe trois principales techniques : le nettoyage manuel, mécanique ou chimique.
Les échantillons doivent être absolument secs et ne comporter aucune trace d’eau. En effet, la pression dans la chambre d’observation est très faible et les molécules d’eau contenues dans l’échantillon risqueraient de détruire les cellules en s’évaporant ou de polluer la chambre d’observation. Il existe également différentes méthodes pour y parvenir suivant la nature de l’échantillon biologique : séchage à l’air, par contournement du point critique ou par déshydratation chimique.
Une fois nettoyé, séché, rendu conducteur, l’échantillon est prêt à être monté sur le porte-objet est placé dans la chambre d’observation.
Différents types d’imageries
Un microscope électronique à balayage peut avoir plusieurs modes de fonctionnement suivant les particules analysées.
Imagerie en électrons secondaires
Détecteur(GSE) d’électrons secondaires
Dans le mode le plus courant, un détecteur d’électrons transcrit le flux d’électrons en une luminosité sur un écran de type télévision. En balayant la surface, on relève les variations de contraste qui donnent une image de la surface avec un effet de relief. La couleur (noir et blanc) sur la micrographie obtenue est une reconstruction par un système électronique et n’a rien à voir avec la couleur de l’objet.
La détection des électrons secondaires est le mode classique d’observation de la morphologie de la surface. Les électrons secondaires captés proviennent d’un volume étroit (environ 10 nm). De fait, la zone de réémission fait à peu près le même diamètre que le faisceau. La résolution du microscope est donc le diamètre du faisceau, soit environ 10 nm. Une grille placée devant le détecteur d’électrons, polarisée positivement (200-400 V), attire les électrons. De cette manière, la majorité des électrons secondaires sont détectés alors que les électrons rétrodiffusés, qui ont une énergie plus élevée, ne sont quasiment pas déviés par le champ électrique produit par la grille du collecteur. La quantité d’électrons secondaires produite ne dépend pas de la nature chimique de l’échantillon, mais de l’angle d’incidence du faisceau primaire avec la surface : plus l’incidence est rasante, plus le volume excité est grand, donc plus la production d’électrons secondaires est importante, d’où un effet de contraste topographique (une pente apparaît plus « lumineuse » qu’un plat). Cet effet est renforcé par le fait que le détecteur est situé sur le côté ; les électrons provenant des faces situées « dos » au détecteur sont réfléchis par la surface et arrivent donc en plus petite quantité au détecteur, créant un effet d’ombre25.
Imagerie en électrons rétrodiffusés
Détecteur(BSE) d’électrons rétrodiffusés
Les électrons rétrodiffusés proviennent d’un volume plus important ; le volume d’émission fait donc plusieurs fois la taille du faisceau. La résolution spatiale du microscope en électrons rétrodiffusés est d’environ 100 nm. Les électrons rétrodiffusés traversent une épaisseur importante de matière avant de ressortir (de l’ordre de 450 nm). La quantité d’électrons capturés par les atomes rencontrés et donc la quantité d’électrons rétrodiffusés qui ressortent dépend de la nature chimique des couches traversées. Le taux d’émission électronique augmente avec le numéro atomique. On obtient donc un contraste chimique, les zones contenant des atomes légers (Z faible) apparaissant en plus sombre.
Le contraste topographique obtenu dépendra essentiellement du type de détecteur et de sa position. Dans le cas d'un détecteur annulaire placé dans l'axe du faisceau primaire, au-dessus de l'échantillon, les électrons rétrodiffusés seront redirigés vers le haut de la colonne : le taux d’émission dépend peu du relief, l’image apparaît donc « plate »26.
Dans le cas d'un détecteur en position latérale (Everhart-Thornley polarisé négativement), les électrons rétrodiffusés émis par les faces "cachées" illuminées par le faisceau ne peuvent atteindre le détecteur, en raison de l'absence de déviation opérée par ce dernier sur ces électrons ayant une grande énergie cinétique : il en résulte une image avec des ombres portées très marquées.
Imagerie en diffraction d’électrons rétrodiffusés
- Pour des articles détaillés, voir Diffraction d’électrons rétrodiffusés et Théorie de la diffraction sur un cristal
Comme toute particule élémentaire, les électrons ont un comportement corpusculaire et ondulatoire. Ce mode d’imagerie en diffraction d’électrons rétrodiffusés (plus connu sous le nom de EBSD pour Electron BackScatter Diffraction en anglais) utilise la propriété ondulatoire des électrons et leur capacité à diffracter sur un réseau cristallographique. Elle est particulièrement efficace pour caractériser la microstructure des matériaux polycristallins. Elle permet de déterminer l’orientation des différents grains dans un matériau polycristallin et l’identification des phases d’une cristallite dont la composition a préalablement été faite par spectrométrie X.
Couplé à un capteur CCD, le détecteur EBSD est composé d’un écran phosphorescent qui se trouve directement dans la chambre d’analyse du microscope. L’échantillon est incliné en direction du détecteur et l’angle par rapport au faisceau d’électrons primaires est de l’ordre de 70°. Lorsque les électrons viennent frapper la surface de l’échantillon, ils la pénètrent sur une certaine profondeur et sont diffractés par les plans cristallographiques selon un angle θ B dont la valeur est donnée par la loi de Bragg :
Cliché de diffraction obtenu par EBSD
- 2 d h k l sin θ B = n ⋅ λ .
d h k l représente la distance interréticulaire, λ la longueur d’onde et le nombre entier n l’ordre de diffraction.
La diffraction se fait sur 360° et chaque plan diffractant crée un « cône de diffraction » dont le sommet se situe au point d’impact du faisceau d’électrons primaires. Il existe donc autant de cônes de diffraction que de plans diffractants. L’espacement entre ces différents cônes est, par l’intermédiaire de la loi de Bragg, relié à la distance entre les plans cristallins.
L’inclinaison de l’échantillon et la position de l’écran phosphorescent sont telles que ces cônes viennent frapper l’écran. Les électrons font scintiller l’écran phosphorescent et peuvent être détectés par la caméra CCD. Sur l’écran, ces portions de cônes tronqués apparaissent sous la forme de lignes. Le cliché de diffraction que l’on obtient est une superposition de bandes sombres alternées avec des bandes de plus forte intensité que l’on appelle lignes de Kikuchi. Ces lignes, leurs divers points d’intersection et leurs espacements, peuvent être, en connaissant la distance de l’écran à l’échantillon, convertis en angles et l’on peut ainsi déterminer les paramètres de maille.
Avec cette méthode et du fait de la grande inclinaison de l’échantillon, la résolution spatiale est très asymétrique : de l’ordre de 1 µm latéralement mais de l’ordre de 50 à 70 µm longitudinalement27.
Imagerie en courant d’échantillon
Principe du courant d’échantillon
Le principe de l’imagerie en courant d’échantillon (en anglais EBIC pour Electron Beam Induced Current ou Courant Induit par un Faisceau Électronique) est différent des précédents modes de fonctionnement car il n’est pas basé sur une analyse des particules éventuellement réémises par la matière mais sur une mesure du courant transmis par l’échantillon. Lorsqu’un échantillon est bombardé par un certain flux d’électrons incidents, environ 50 % de ces éléments sont réémis sous forme d’électrons rétrodiffusés et 10 % sous forme d’électrons secondaires. Le reste du flux d’électrons se propage à travers l’échantillon jusqu’à la terre. En isolant l’échantillon on peut canaliser ce courant et en l’amplifiant, on peut l’utiliser pour créer une image de la structure de l’échantillon : c’est le principe de l’imagerie en courant d’échantillon.
Le courant induit au sein de l’échantillon est particulièrement sensible à un éventuel champ électrique. La technique par courant d’échantillon est principalement utilisée pour représenter des régions où le potentiel électrique varie. La différence de dopage au sein d’une jonction p-n entre la zone dopée n et la zone dopée p induit une polarisation. Cette technique est particulièrement utilisée pour étudier les jonctions p-n des semi-conducteurs où la conductivité électrique varie en fonction du dopage. Lorsque le faisceau d’électrons se situe sur la zone dopée n, le courant transmis est faible alors que lorsqu’il se trouve sur la zone dopée p, les électrons se propagent plus facilement et la zone apparaît en plus clair.
En dehors de cet exemple des jonctions p-n, l’imagerie en courant d’électrons est particulièrement adaptée pour repérer des défauts (par exemple un défaut ponctuel) d’un réseau cristallin qui apparaissent alors sous la forme de points ou de lignes noirs, une hétérogénéité de dopage28.
Imagerie chimique élémentaire par spectrométrie de rayons X
L’énergie des rayons X émis lors de la désexcitation des atomes dépend de leur nature chimique (ce sont les raies caractéristiques). En analysant le spectre des rayons X, on peut avoir une analyse élémentaire, c’est-à-dire savoir quels types d’atomes sont présents. Le faisceau balayant l’écran, on peut même dresser une cartographie chimique, avec toutefois une résolution très inférieure à l’image en électrons secondaires (de l’ordre de 3 μm).
L’analyse peut se faire par dispersion de longueur d’onde (WDS, wavelength dispersive spectroscopy), c’est le principe de la microsonde de Castaing inventée en 1951 par Raimond Castaing, ou par sélection d’énergie (EDS, energy dispersive spectroscopy). La technique utilisant les longueurs d’onde est plus précise et permet des analyses quantitatives alors que celle utilisant l’énergie est plus rapide et moins coûteuse.
En dispersion d’énergie la détection des photons X est réalisée par un détecteur constitué d’une diode de cristal de silicium dopé en lithium en surface ou d'un cristal de germanium.
Ce cristal est maintenu à la température de l’azote liquide pour minimiser le bruit électronique, et ainsi améliorer la résolution en énergie et donc la résolution spectrale. Le détecteur est protégé par une fenêtre en béryllium pour éviter son givrage lors d’un contact avec l’air ambiant29.
Mesure sous vide partiel, microscope environnemental (ESEM)
Si un échantillon est peu conducteur (par exemple le verre ou les plastiques), des électrons s’accumulent sur la surface et ne sont pas évacués ; cela provoque une surbrillance qui gêne l’observation. On dit alors que l’échantillon charge. Il peut être alors intéressant de fonctionner avec un vide partiel, c’est-à-dire une pression de quelques Pa à quelques milliers de Pa30 (contre 10-3 à 10−4 Pa en conditions habituelles), avec une intensité de faisceau moins forte. Les électrons accumulés sur l’échantillon sont neutralisés par les charges positives de gaz (azote principalement) engendrés par le faisceau incident. L’observation est alors possible par le détecteur d’électrons rétrodiffusés qui reste fonctionnel dans ce mode de pression contrôlée, contrairement au détecteur d'électrons secondaires du type Everheart-Thornley. Le signal provenant des électrons secondaires est formé grâce à des procédés propres à chaque constructeur de microscope31.
L’analyse X dans ce mode reste possible.
Depuis les années 1980, le microscope environnemental connu aussi par l'acronyme ESEM (environmental scanning electron microscope) est caractérisé par un vide de la chambre objet de plusieurs kiloPascals, ce qui permet l'observation d'échantillons hydratés où l'eau est maintenue en phase liquide au-dessus de 0 °C32.
MEB et Couleur
Les MEB ne produisent pas naturellement des images en couleur, car chaque pixel d'une image représente un nombre d'électrons reçu par un détecteur durant le laps de temps où le faisceau d'électrons est envoyé à la position que ce pixel représente. Ce nombre unique est traduit pour chaque pixel, par un niveau de gris, ce qui forme une image "noir et blanc"33 Cependant, plusieurs méthodes sont utilisées pour obtenir des images en couleur qui favorisent la vision et l'interprétation humaines.
Fausse couleur obtenue avec un seul détecteur
- Pour les images de composition obtenues sur des surfaces plates (typiquement, image en électrons rétrodiffusés ou "BSE") :
La façon la plus simple d'obtenir de la couleur est d'associer à ce nombre unique codant chaque pixel une couleur arbitraire au moyen d'une palette de fausse couleur (chaque niveau de gris est ainsi remplacé par une couleur choisie, plus facile à discerner). Sur une image BSE, une fausse couleur peut ainsi constituer une aide précieuse pour aider à différencier les phases présentes dans un matériau.
- Sur les images de texture de surface:
Un échantillon observé avec un faisceau incliné peut être utilisé pour créer une topographie approximative (voir rubrique MEB en 3D). Cette topographie peut alors servir de base à un algorithme classique de rendu 3D pour créer un effet plus naturel et colorisé de la texture de la surface.
-
Cristaux de weddellite (oxalate de calcium dihydraté) sur la surface d'un calcul rénal. Image de microscopie électronique à balayage (MEB), surface dans la réalité = 0,35 × 0,45 mm.
-
La même après colorisation issue de l'évaluation de la topographie
-
-
La même après même procédé de colorisation
Colorisation d'images MEB
Souvent, les images MEB publiées sont colorisées, pour des raisons esthétiques, mais aussi pour apporter une apparence plus réaliste à l'échantillon ou pour favoriser son interprétation par la vision humaine34,35 La colorisation est une opération manuelle effectuée à l'aide de logiciels de retouche d'image, ou de manière semi-automatique à l'aide de logiciels dédiés utilisant une segmentation d'image permettant d'isoler les objets36,37.
-
-
La même après colorisation semi-automatique. Les couleurs arbitraires aident à identifier les différents éléments de la structure
-
Couleur obtenue à l'aide de détecteurs multiples
Dans certaines configurations, on peut recueillir plus d'un signal par pixel, le plus souvent en utilisant plusieurs détecteurs38. Un exemple assez courant est la composition d'une image à partir d'un détecteur d'électrons secondaires (SE) et d'un détecteur d'électrons rétrodiffusés (BSE). Une couleur différente est associée à chacun des détecteurs39,40, le résultat étant une image montrant à la fois la texture (visible dans l'image des électrons secondaires) et la composition (visible sous la forme d'une densité de nucléons dans l'image des électrons rétro-diffusés). Cette méthode est connue sous le nom de "DDC-SEM" (density-dependent colour SEM)41,42.
-
image DDC-SEM d'une particule calcifiée dans le tissu cardiaque - Signal 1 : SE
-
-
Image colorisée obtenue à partir des deux premières. Cette image DDC-SEM montre en orange une calcification, plus dense, (particule sphérique de phosphate de calcium), et en vert, la matrice extra-cellulaire, moins dense.
-
Image de moindre grossissement issue des mêmes travaux sur les tissus cardiovasculaires humains41
Signaux analytiques issus de photons secondaires
Il y a plusieurs interactions des électrons du canon du microscope avec la matière capables de produire des photons. On utilise en particulier l'analyse dispersive en énergie de rayons X pour la détection d'éléments chimiques, et la cathodoluminescence qui permet une analyse spectrale de la luminescence induite par les électrons. En microscopie électronique, il est courant de coder par la couleur ces signaux supplémentaires pour les rendre visibles, ce qui rend observable la distribution dans l'échantillon des différents composants. Il est possible d'aller plus loin en mariant également cette image colorisée de la composition avec une image des électrons secondaires (SE), ce qui permet de colocaliser sur une seule image la composition et la structure.
MEB et images 3D
Le microscope électronique à balayage permet de connaître l'échelle horizontale des images, mais pas naturellement leur échelle verticale : contrairement à d'autres microscopes comme le microscope à force atomique, le microscope électronique à balayage n'est pas nativement un instrument de topographie.[réf. souhaitée]
Toutefois, l'arrivée de l'informatique a permis d'utiliser des artifices permettant de créer des images tridimensionnelles. Parmi les méthodes ci-dessous, les deux premières sont les plus utilisées :
- En réalisant successivement deux images de l'échantillon avec un angle différent, le relief peut être reconstitué par une méthode photogrammétrique :
-
Paire stéréo d'images MEB de microfossiles d'Ostracoda obtenue en inclinant l'échantillon entre les deux images.
-
À partir de cette paire stéréo, la troisième dimension a été reconstruite par photogrammétrie à l'aide du logiciel MountainsMap SEM ; une succession de représentations 3D à différents angles a ensuite été réalisée et assemblée pour former cette animation au sein d'une image GIF.
- En utilisant un détecteur à quatre quadrants, il est possible de reconstituer une image en relief par une analyse de la réflexion différentielle (méthode dite "shape from shading"), dans la mesure où les pentes restent raisonnables : les pentes verticales et les surplombs sont ignorés, de sorte que si une sphère entière est posée sur une surface plane, seule son hémisphère supérieure en émergera après reconstruction 3D.[réf. souhaitée]
- La même méthode peut également être utilisée avec une seule image pour produire un pseudo-3D non métrologique si l'incidence des électrons est suffisamment rasante par rapport à une surface relativement plane :
-
image MEB d'un œil de mouche avec un grossissement x 450.
-
Détail de l'image précédente.
-
reconstruction 3D à partir de cette seule image SEM, à l'aide d'algorithmes "Shape from shading".
-
Même procédé, mais après homogénéisation de l'éclairage par logiciel
Certains constructeurs de microscopes proposent directement des outils pour la reconstruction topographique, et il existe également des logiciels commerciaux spécialisés qui sont compatibles avec les différents instruments du marché[réf. souhaitée].
Les applications de la reconstruction 3D du relief sont par exemple la connaissance de la rugosité (adhérence), de la surface développée (aire utile à la réaction chimique, en ratio de l'aire horizontale projetée), la mesure dimensionnelle des MEMS, ou plus simplement l'intérêt en termes de visualisation 3D (pouvoir tourner la surface a posteriori pour changer l'angle de vue)[réf. souhaitée].
Applications
Cette section ne cite aucune source et peut contenir des informations erronées (signalé en mars 2021).
Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références » (modifier l'article).
Trouver des sources sur «
Microscopie électronique à balayage » :
Microélectronique, technologie des semiconducteurs et microfabrication
Images de MEB à faible énergie (1
kV) : Cette photo de 1995 montre une ligne de
photorésine de 120
nm de large et 1
µm de haut. On voit, sur les flancs de la photorésine, l'effet des ondes stationnaires du rayonnement UV utilisé pour l’exposition de la résine. Le MEB est un DSM 982 de chez Zeiss, équipé d’une colonne Gemini
La mise sur le marché des microscopes électroniques à balayage est à peu près contemporaine de l’envol de l’industrie des semi-conducteurs. C’est dans ce domaine d’activité que le MEB s’est répandu le plus massivement, étant reconnu comme un outil précieux dans la mise au point des procédés de fabrication des dispositifs dont l’élément caractéristique, la grille de transistor est passée d’une largeur typique de quelques micromètres à la fin des années 1960 à moins de 100 nanomètres au XXIe siècle. Non seulement le MEB a permis de voir au-delà des limites du microscope optique, mais la vision en relief s’est avérée très pratique pour l’aide à la microfabrication où il est souvent important de contrôler la verticalité des couches déposées ou des couches gravées. Voir, par exemple, sur la figure ci-contre, une image de MEB d’un motif de photorésine gravée.
Très populaire dans les laboratoires de recherche et développement, le MEB est également devenu un outil très répandu dans les unités de production, en tant qu’outil de contrôle industriel. La chambre d’analyse doit alors pouvoir accepter des tranches de silicium ((en) wafer) entières, c’est-à-dire dont le diamètre est, en 2006, de 200 mm ou 300 mm. On a même donné un nom particulier aux appareils qui effectue du contrôle dimensionnel, c’est-à-dire, qui vérifient la largeur d’une ligne. En anglais, on les appelle des CD-SEM. Ces appareils sont entièrement automatisés : ils ne produisent pas d’images à proprement parler : le calculateur de contrôle amène un motif de test exactement sur l’axe du faisceau qui est alors balayé dans une seule direction. Le signal du détecteur d’électrons secondaires est enregistré et analysé pour générer la largeur mesurée. Si celle-ci est en dehors du gabarit donné, l’alerte est donnée, et la tranche de silicium, considérée comme mauvaise, peut être rejetée.
Une autre application des MEB dans les unités de production de semiconducteurs est la caractérisation de microparticules qui contaminent la surface des tranches : le but est d’identifier la cause de la contamination afin de la supprimer. La particule dont la taille peut varier de 100 nm à 1 µm a été détectée par une machine d’inspection spécialisée qui communique les coordonnées de la particule au MEB d’analyse. Celui-ci est alors utilisé à la fois dans le mode imagerie, pour produire une image de la particule à fort grossissement et en microsonde de Castaing, ce qui implique que le MEB soit équipé d’un spectromètre X. L’image peut aider à l’identification de la particule, mais c’est surtout la caractérisation chimique résultant de l’analyse en longueur d’onde des rayons X qui donnera une piste permettant de remonter à la cause de la contamination.
La sonde électronique d’un MEB peut être utilisée non pas pour observer, mais pour écrire et fabriquer. Il s’agit alors de lithographie à faisceau d’électrons.
Science des matériaux
Les MEB utilisés en métallographie sont généralement équipés d’un spectromètre X qui permet leur utilisation en microsonde de Castaing. Ce sont des outils très communément répandus pour la caractérisation microstructurale des matériaux qui permettent d’obtenir à la fois des renseignements relatifs à la morphologie et à la répartition des constituants, et des informations cristallographiques et compositionnelles.
Pour obtenir certaines figures de diffraction (peudo-Kikuchi, Kossel), on est amené à pervertir le système de balayage de l’instrument : au lieu de générer un balayage en mode rectangulaire, on excite des bobines de déflexion de façon à faire pivoter le faisceau de plusieurs degrés autour d’un point fixe de l’échantillon. L’image générée est alors une figure de diffraction correspondant à une zone de l’échantillon de quelques micromètres.
-
-
Surface de fracture d’un acier bainitique
Pétrographie
Le MEB est largement utilisé dans les différentes branches de la géologie pour aider à l'identification des différentes phases minéralogiques. La pétrographie automatisée par MEB (QEMSCAN) représente une des grandes avancées récentes de la pétrographie mais reste cependant limitée par l'impossibilité de différencier les minéraux polymorphes.
-
-
Image QEMSCAN d'un grès fluviatile, grille=500 µm
Biologie
Au contraire des microscopes électroniques en transmission, le MEB se prête peu à l’étude des cellules. Par contre, la vision en relief du MEB se prête bien à l’observation des micro-organismes, pas forcément pour le pouvoir de résolution spatial, mais pour la profondeur de champ nettement plus élevée que celle des microscopes optiques.
-
Image prise au MEB de diverses sortes de pollens (fausses couleurs)
-
Image prise au MEB de Diatomées (grandissement X5000 X)
-
-
Divers
Le microscope électronique à balayage est l’un des appareils fondamentaux pour les recherches tribologiques[réf. souhaitée] ; voir à ce sujet le wikilivre de tribologie et plus spécialement le chapitre consacré à la genèse des frottements.
Marché
Le marché des microscopes (tous types confondus) est estimé à 811 millions de dollars US, dont environ 60 % sont générés par les microscopes optiques2. Avec 26 %, les microscopes électroniques représentent la deuxième part de ce marché, estimée en 1999 par Global Information Inc. à environ 222 millions de dollars43. Global Information Inc. estime également que la part des microscopes optiques ira en diminuant, celle des microscopes confocaux restera stable tandis que le marché des microscopes électroniques se développera. En 2005, il était estimé à 747 millions de dollars2.
Le prix moyen d’un MEB est estimé à 200 000 $ mais peut monter jusqu’à un million de dollars pour les appareils les plus avancés. Cependant, de nouveaux microscopes, qualifiés de microscope à bas prix (low-cost microscopes) ont été récemment proposés sur le marché, pour un tiers du prix moyen d’un MEB44.
Notes et références
- (en) Electron microprobe analysis: Merging of discoveries in physics, chemistry and microscopy [archive], p. 19, département de géologie, université du Wisconsin-Madison.
- (en) Hitachi breaks SEM resolution barrier [archive], www.labtechnologist.com, 10 mars 2005.
- « Dossier sagascience - Cellule animale » [archive], sur www.cnrs.fr.
- (Joseph Goldstein 1992, p. 21-24).
- (de) H. Busch, « Berechnung der Bahn von Kathodenstrahlen im axialsymmetrischen elektromagnetischen Felde », Annalen der Physik, vol. 386, no 25, , p. 973-993 (DOI 10.1002/andp.19263862507), article [archive] disponible sur Gallica.
- (de) M. Knoll et E. Ruska, « Das Elektronenmikroskop », Zeitschrift für Physik A Hadrons and Nuclei, vol. 78, , p. 318-339 (DOI 10.1007/BF01342199).
- (de)M. Knoll, Aufladepotentiel und Sekundäremission elektronenbestrahlter Körper, Zeitschrift fur technische Physik 16, 467-475 (1935).
- (de)M. von Ardenne, Das Elektronen-Rastermikroskop, Zeitschrift für Physik A Hadrons and Nuclei, 108(9-10):553-572, 1938.
- (en)Ernst Ruska, The Early Development of Electron Lenses and Electron Microscopy (traduction de Mulvey T), Hirzel, Stuttgart, 1980, (ISBN 3-7776-0364-3).
- (en) K.C.A. Smith, Charles Oatley: Pioneer of scanning electron microscopy, EMAG '97 Proceedings, IOP Publishing Lt, 1997 [archive].
- (Joseph Goldstein 1992, p. 69).
- (Joseph Goldstein 1992, p. 106-115).
- (Joseph Goldstein 1992, p. 90-104).
- (Joseph Goldstein 1992, p. 142).
- (Joseph Goldstein 1992, p. 116-141).
- (Joseph Goldstein 1992, p. 25-42).
- (Joseph Goldstein 1992, p. 29).
- (Joseph Goldstein 1992, p. 30).
- Michael T. Postek, The Scanning Electron Microscope in Handbook of Charged Particle Optics, CRC Press, Université du Maryland, 1997.
- Selon la brochure New-Technology Scanning Electron Microscope DSM 982 Gemini de la société Karl Zeiss, 1998.
- Postek, p. 366. Il semble que dans ce tableau Comparison of Pertinent Electron Source Characteristics toutes les brillances soient trop fortes d’un facteur 10. Dans le tableau ci-dessous, la ligne brillance a été corrigée de ce facteur 10.
- (en) Gemini optical column [archive].
- (Joseph Goldstein 1992, p. 177-180).
- (en) P. Hortolà, « Evaluating the Use of Synthetic Replicas for SEM Identification of Bloodstains (with Emphasis on Archaeological and Ethnographic Artifacts) », Microscopy and Microanalysis 21, , p. 1504–1513 (lire en ligne [archive]).
- (Joseph Goldstein 1992, p. 198-214).
- (Joseph Goldstein 1992, p. 191-194).
- (en) ELECTRON BACKSCATTERED DIFFRACTION sur le site de l’université de Strathclyde [archive].
- (en) Electron Beam-Induced Current (EBIC) Analysis [archive], semiconfareast.com.
- (Joseph Goldstein 1992, p. 273-340 et 525-546).
- « Le microscope électronique à balayage et à vide partiel sur le site de L'Université du Québec à Montréal » [archive].
- « Faculté des arts, lettres, langues, sciences humaines (UFR ALLSH) - Aix Marseille Université » [archive], sur www.up.univ-mrs.fr.
- « Athene M. McDonald, Environmental Scanning Electron Microscopy - ESEM, Materials World, Vol. 6 no. 7, p. 399-401, July 1998. »(Archive.org • Wikiwix • Archive.is • http://www.azom.com/details.asp?ArticleID=1556," rel="nofollow" class="external text">Google • Que faire ?).
- (en) Jeremy Burgess, Under the Microscope : A Hidden World Revealed, CUP Archive, (ISBN 0-521-39940-8, lire en ligne [archive]), p. 11.
- (en) P. Hortolà, « Using digital colour to increase the realistic appearance of SEM micrographs of bloodstains », Micron, vol. 41, no 7, , p. 904–908 (PMID 20638857, DOI 10.1016/j.micron.2010.06.010).
- (en) « Introduction to Electron Microscopy » [archive], FEI Company (consulté le ), p. 15.
- (en) « Next Monday, Digital Surf to Launch Revolutionary SEM Image Colorization » [archive], AZO Materials (consulté le ).
- [ « http://www.mesures.com/vision-industrielle/logiciels-de-traitement-d-images/item/12626 »(Archive.org • Wikiwix • Archive.is • http://www.mesures.com/vision-industrielle/logiciels-de-traitement-d-images/item/12626" rel="nofollow" class="external text">Google • Que faire ?) Le microscopie électronique à balayage prend des couleurs sur la revue Mesures du 29 janvier 2016].
- (en) A. Antonovsky, « The application of colour to SEM imaging for increased definition », Micron and Microscopica Acta, vol. 15, no 2, , p. 77–84 (DOI 10.1016/0739-6260(84)90005-4).
- (en) G.D. Danilatos, « Colour micrographs for backscattered electron signals in the SEM », Scanning, vol. 9, no 3, , p. 8–18 (DOI 10.1111/j.1365-2818.1986.tb04287.x).
- (en) G.D. Danilatos, « Environmental scanning electron microscopy in colour », J. Microscopy, vol. 142, , p. 317–325 (DOI 10.1002/sca.4950080104).
- S. Bertazzo, E. Gentleman, K. L. Cloyd, A. H. Chester, M. H. Yacoub et M. M. Stevens, « Nano-analytical electron microscopy reveals fundamental insights into human cardiovascular tissue calcification », Nature Materials, vol. 12, no 6, , p. 576–583 (PMID 23603848, DOI 10.1038/nmat3627).
- (en) Sergio Bertazzo, Susannah C. R. Maidment, Charalambos Kallepitis, Sarah Fearn, Molly M. Stevens et Hai-nan Xie, « Fibres and cellular structures preserved in 75-million–year-old dinosaur specimens », Nature Communications, vol. 6, , p. 7352 (PMID 26056764, PMCID 4468865, DOI 10.1038/ncomms8352).
- (en) MEMS technology magnifies opportunities for low-cost SEM [archive], Small Times, .
Bibliographie
- Charles William Oatley, The Scanning electron microscope. Pt 1, The instrument., Cambridge University Press, Londres, 1972, (ISBN 0-521-08531-4)
- (en) Ernst Ruska, The early Development of Electron Lenses and Electron Microscopy, [détail de l’édition]
- Michael T. Postek, The Scanning Electron Microscope in Handbook of Charged Particle Optics, CRC Press, Université du Maryland, 1997, (ISBN 0-8493-2513-7)
- Joseph Goldstein, Dale E. Newbury, Patrick Echlin, Charles E. Lyman, David C. Joy, Eric Lifshin, L. C. Sawyer, J. R. Michael, Scanning Electron Microscopy and X-ray Microanalysis : Third Edition, Springer Verlag, , 689 p. (ISBN 978-0-306-47292-3, lire en ligne [archive])
- Jacky Ruste, Microscopie électronique à balayage, Techniques de l’Ingénieur, 2013, in Analyse et caractérisation.
- Christian Colliex, La Microscopie électronique, [détail de l’édition] (lire en ligne [archive])
Liens externes
Sur les autres projets Wikimedia :
- Sur le principe du microscope électronique à balayage
- Sur l’histoire du microscope électronique à balayage
- Sur la préparation des échantillons
- Sur la diffraction d’électrons rétrodiffusés
- Sur l’imagerie par courant d’échantillon
- Galerie d’images
- Associations (formations et ressources)
Spectromètre
Un spectromètre est un appareil de mesure permettant de décomposer une quantité observée — un faisceau lumineux en spectroscopie, ou bien un mélange de molécules par exemple en spectrométrie de masse — en ses éléments simples qui constituent son spectre. En optique, il s'agit d'obtenir les longueurs d'onde spécifiques constituant le faisceau lumineux (spectre électromagnétique) tandis que, pour un mélange chimique, il s'agira d'obtenir les masses spécifiques de chacune des molécules (spectre de masse). Des spectromètres sont également utilisés en acoustique afin d'analyser la composition d'un signal sonore. De façon générale l'étude des spectres est appelée la spectrométrie.
Dans le cas de l'optique (mais c'est également vrai en chimie), « spectromètre » est un terme qui désigne en pratique une grande famille d'instruments permettant de balayer un large éventail de longueurs d'onde, des rayons gamma et des rayons X jusqu'à l'infrarouge. Cependant chaque type de spectromètre est associé à une bande de fréquence particulière et nécessite une technologie spécifique.
Différents types de spectromètres sont employés :
Spectromètre
La variable mesurée est le plus souvent l'intensité de la lumière mais pourrait être également, par exemple, l'état de polarisation. La quantité mesurée est habituellement la longueur d'onde de la lumière, normalement exprimée comme une fraction d'un mètre, mais parfois exprimée comme une certaine unité directement proportionnelle à l'énergie de photon, telle que la fréquence ou l'électron-volt, qui est inversement proportionnelle à la longueur d'onde. En pratique les longueurs d'onde sont observées sous forme de raies spectrales.
Généralement un appareil ne fonctionnera que sur une petite partie du spectre en raison de la variété des techniques employées pour mesurer chaque bande du spectre. En dessous des fréquences optiques (c'est-à-dire pour les micro-ondes et les ondes radio) on emploie un dispositif électronique étroitement lié, l'analyseur de spectre.
Spectroscopes
Des spectromètres connus sous le nom de spectroscopes sont utilisés dans l'analyse spectroscopique pour identifier les matériaux. Les spectroscopes sont souvent utilisés en astronomie et dans quelques branches de la chimie. Les premiers spectroscopes étaient simplement constitués d'un prisme avec des repères marquant les longueurs d'onde de la lumière. Les spectroscopes modernes, tels que des monochromateurs, emploient généralement un réseau de diffraction, une fente mobile, et un détecteur photoélectrique. Le tout est automatisé et commandé par un ordinateur. Le spectroscope a été inventé en 1860 par Gustav Kirchhoff et Robert Wilhelm Bunsen1.
Quand une matière est portée à incandescence, elle émet une lumière qui est caractéristique des constituants atomiques de cette matière. La lumière émise par un atome excité est constituée de différentes longueurs d'onde très spécifiques que l'on peut considérer comme l'empreinte digitale de l'atome. Par exemple, le sodium a une double bande jaune très caractéristique (correspondant au fameux « doublet du sodium ») connue sous le nom de D-lignes de sodium à 588,9950 et 589,5924 nanomètres : cette couleur est bien connue de ceux qui ont déjà observé une lampe à vapeur de sodium à basse pression.
Dans les spectroscopes du début du XIXe siècle, la lumière entrait par une fente et une lentille de diffraction transformait la lumière en fins rayons lumineux parallèles. La lumière traversait ensuite un prisme (dans des spectroscopes portatifs, habituellement un prisme d'Amici) qui réfractait le faisceau lumineux en un spectre2. Cette image était alors regardée dans un tube avec une échelle qui permettait de mesurer l'image spectrale transposée.
Avec le développement du film photographique, un spectrographe plus précis fut inventé. Il était basé sur le même principe que le spectroscope, mais comportait un appareil photographique au lieu du tube de visionnement. Ces dernières années, des circuits électroniques montés autour du tube de photomultiplicateur ont remplacé l'appareil photo, permettant l'analyse spectrographique en temps réel avec une précision bien plus élevée. Des rangées de photodétecteurs sont également utilisées à la place du film dans des systèmes spectrographiques. Une telle analyse spectrale, ou spectroscopie, est devenue un outil scientifique important pour analyser la composition d'une matière inconnue, pour étudier des phénomènes astronomiques et confronter les théories astronomiques.
Spectrographes
La comparaison de la diffraction à partir de spectromètres. Les systèmes optique de réflexion, de réfraction, des fibres.
Un spectrographe est un instrument qui transforme une onde entrante en un spectre de fréquences, ou généralement une séquence d'un tel spectre. Il y a plusieurs genres d'appareils désignés sous le nom de spectrographes, selon la nature précise des ondes.
Utilisation en optique
En optique, le spectrographe sépare la lumière entrante selon sa longueur d'onde et enregistre le spectre résultant dans un certain détecteur. C'est ce type de spectromètre qui remplace le spectroscope dans les applications scientifiques.
En astronomie, les spectrographes sont d'un usage courant. On les monte au foyer d'un télescope qui peut être un télescope d'observatoire terrestre ou un télescope embarqué dans un vaisseau spatial.
Les Mars Exploration Rovers (MER) comportent chacun un Mini-TES - un spectromètre d'émission thermique miniature (c'est-à-dire un spectromètre infrarouge).
Les premiers spectrographes ont employé le papier photographique comme détecteur. La classification du spectre des étoiles, la découverte de la séquence principale, par la loi de Hubble-Lemaître et la séquence de Hubble sont toutes réalisées avec les spectrographes qui utilisent le papier photographique. Le phytochrome, un colorant issu des plantes, est découvert à l'aide d'un spectrographe qui utilisait des plantes vivantes comme détecteur.
Les spectrographes plus récents emploient des détecteurs électroniques, tels que les capteurs photographiques CCD qui peuvent être employés tant pour l'ultraviolet que le visible. Le choix précis du détecteur dépend des longueurs d'onde de la lumière à mesurer.
Le télescope spatial James-Webb.
Par exemple, IRS (Infrared Spectrograph), embarqué sur le télescope spatial Spitzer, est un spectrographe produisant des spectres du rayonnement entre 5 µm et 38 µm. Le prochain télescope spatial James-Webb contient aussi bien un spectrographe proche-infrarouge (NIRSpec) et un spectromètre mi-infrarouge (MIRI).
Un spectrographe échelle emploie en général trois optiques diffractives : un réseau de diffraction et deux prismes. Par conséquent, on capte la lumière par un point d'entrée, et non par une fente, et un second capteur CCD enregistre le spectre.
Normalement, il faudrait s'attendre à lire le spectre sur la diagonale, mais lorsque les deux réseaux ont un pas suffisant et que l'un est configuré pour qu'on ne distingue que le premier ordre, tandis que le second est configuré pour décomposer plusieurs des ordres supérieurs, on obtient un spectre bien séparé sur un petit capteur photographique CCD ordinaire. L'emploi d'un petit capteur présente également l'avantage que le collimateur n'a pas besoin d'être corrigé pour la coma ou l'astigmatisme, car l'aberration sphérique peut être considérée comme nulle.
Utilisation en acoustique
Dans le domaine de l'acoustique, un spectrographe convertit une onde sonore en un spectre sonore. Le premier spectrographe acoustique est développé pendant la Seconde Guerre mondiale par les laboratoires de téléphonie Bell, et est employé couramment en science de la parole, phonétique, acoustique et recherche en matière d'audiologie, pour être, par la suite, remplacé par des techniques numériques de traitement du signal.
Notes et références
- La réfraction est la propriété d'un faisceau lumineux d'être dévié à l'interface de deux milieux d'indice différent. Un milieu dispersif, comme le verre d'un prisme par exemple, possède en plus la propriété d'avoir un indice différent pour chaque longueur d'onde. Ainsi, les différentes longueurs d'onde constituant un faisceau blanc arrivant sur un prisme sont déviées avec des angles différents, ce qui crée un arc-en-ciel en sortie.
Voir aussi
Articles connexes
Spectrométrie de masse
La spectrométrie de masse est une technique physique d'analyse permettant de détecter et d'identifier des molécules d’intérêt par mesure de leur masse, et de caractériser leur structure chimique. Son principe réside dans la séparation en phase gazeuse de molécules chargées (ions) en fonction de leur rapport masse/charge (m/z). Elle est utilisée dans pratiquement tous les domaines scientifiques : physique, astrophysique, chimie en phase gazeuse, chimie organique, dosages, biologie, médecine, archéologie... le temps de détection est très rapide.
Structure d'un spectromètre de masse
Structure d’un spectromètre de masse.
Le spectromètre de masse, initialement conçu par le Britannique Joseph John Thomson, comporte une source d'ionisation suivie d'un ou plusieurs analyseurs qui séparent les ions produits selon leur rapport m/z, d'un détecteur qui compte les ions et amplifie le signal, et enfin d'un système informatique pour traiter le signal. Le résultat obtenu est un spectre de masse représentant les rapports m/z, où m représente la masse et z la valence (ou m/q, q représentant la charge) des ions détectés selon l'axe des abscisses et l'abondance relative de ces ions selon l'axe de ordonnées.
Le spectromètre de masse se compose donc de quatre parties :
- le système d’introduction de l’échantillon : l’échantillon peut être introduit directement dans la source, sous forme gazeuse, liquide (infusion directe) ou solide (canne d’introduction directe, dépôt sur plaque MALDI…) ou encore par l'association à une méthode séparative (chromatographie en phase liquide, chromatographie en phase gazeuse, électrophorèse capillaire…) ;
- la source d'ionisation : elle consiste à vaporiser les molécules et à les ioniser. Une source d'ionisation peut être utilisée soit en mode positif pour étudier les ions positifs, soit en mode négatif pour étudier les ions négatifs. Plusieurs types de sources existent et sont utilisés en fonction du résultat recherché et des molécules analysées1 :
- l'ionisation électronique (EI), l'ionisation chimique (CI) et la désorption-ionisation chimique (DCI),
- le bombardement par atomes rapides (FAB), atomes métastables (MAB) ou ions (SIMS, LSIMS),
- le couplage plasma inductif (ICP),
- l'ionisation chimique à pression atmosphérique (APCI) et la photo-ionisation à pression atmosphérique (APPI),
- l'électronébulisation ou électrospray (ESI),
- la désorption-ionisation laser assistée par matrice (MALDI), activée par une surface (SELDI) ou sur silicium (DIOS),
- l'ionisation-désorption par interaction avec espèces métastables (DART),
- la désorption-ionisation sur silicium (DIOS) ;
- l’analyseur : il sépare les ions en fonction de leur rapport masse/charge (m/z). Il existe des analyseurs basse résolution : le quadripôle ou quadrupôle (Q), le piège à ions 3D (IT) ou linéaire (LIT), et des analyseurs haute résolution, permettant de mesurer la masse exacte des analytes : le secteur magnétique couplé à un secteur électrique, le temps de vol (TOF), la résonance cyclotronique ionique à transformée de Fourier (FTICR) et l'Orbitrap. Ces analyseurs peuvent être couplés entre eux pour réaliser des expériences de spectrométrie de masse en tandem (MS/MS). En général, un premier analyseur sépare les ions, une cellule de collision permet de fragmenter les ions, et un second analyseur sépare les ions fragments. Certains analyseurs, comme les pièges à ions ou le FT-ICR, constituent plusieurs analyseurs en un et permettent de fragmenter les ions et d'analyser les fragments directement ;
- le détecteur et système de traitement : le détecteur transforme les ions en signal électrique. Plus les ions sont nombreux, plus le courant est important. De plus, le détecteur amplifie le signal obtenu pour qu'il puisse être traité informatiquement.
Utilisation
- Identification :
- suivant le type d'ionisation utilisé ; un spectre de masse peut être caractéristique d'une molécule. Ainsi en le comparant avec le contenu de banques de spectres, il est possible d'identifier la molécule ;
- lors de l'utilisation d'un analyseur haute résolution (TOF, secteur magnétique, FTICR, Orbitrap), la spectrométrie de masse permet de mesurer avec précision la masse mono-isotopique d'un ion et d'en déduire sa formule brute.
- Analyse structurale :
- la parité de la masse mesurée est fonction de la parité du nombre d’atomes d’azote que possède une molécule (règle de l’azote) ;
- chaque atome possède un ou plusieurs isotopes qui sont de masses différentes par définition. Ainsi, la proportion de chaque isotope observé sur un spectre de masse, c'est-à-dire le massif isotopique, est caractéristique de la présence de certains atomes et de leur nombre dans l'ion mesuré (en particulier les éléments Cl, et Br, qui présentent des isotopes M et M+2 en quantité notable) ;
- les ions peuvent se fragmenter dans un spectromètre de masse : dans la source d'ionisation, dans l'analyseur ou dans une cellule de collision. Comme les fragmentations respectent des lois précises de chimie en phase gazeuse, l'étude de ces fragments permet de déterminer la structure des ions.
- Quantification :
- un spectromètre de masse est un détecteur universel et très sensible. Sa gamme linéaire va de 3 à 7 ordres de grandeur, d'où la possibilité d'obtenir une quantification fiable sur un domaine large.
- Imagerie :
- l'analyse point par point d'une surface par spectrométrie de masse avec ionisation adéquate (MALDI, SIMS, DESI) permet de générer des images ioniques, représentant la répartition de chaque ion issu de cette surface. Cette technique d'imagerie est très utilisée pour la recherche de biomarqueurs (identification dans une coupe de tissu de composés spécifiques d'une région définie).
Source d'ionisation
Les ionisations EI et CI, qui nécessitent un certain niveau de vide, sont préférentiellement utilisées en couplage avec la chromatographie en phase gazeuse (la CI fonctionnant à partir d'une source EI). En revanche, les deux sources à pression atmosphérique (electrospray et APCI) dites à « ionisation douce », sont principalement utilisées en couplage avec la chromatographie en phase liquide.
Ionisation électronique (EI)
Source d'ionisation électronique.
Des électrons émis par un filament rencontrent les molécules qui entrent dans la source : lors de la rencontre, si l'énergie cinétique des électrons est suffisante, un électron est arraché de la molécule M, la transformant en un ion radical M+o. Celui-ci peut ensuite se fragmenter suivant son énergie interne. L'EI conduit ainsi à un spectre assez fourni, avec de nombreux fragments, très riche en informations structurales.
Ionisation chimique (CI)
Source d'ionisation chimique.
En plus du dispositif EI ci-dessus, un gaz réactif est introduit dans la source et ionisé par impact électronique. S'ensuit une série de réactions qui donne naissance à des ions pouvant réagir avec les molécules d'analyte arrivant dans la source. Ce type de réactions ions-molécules produit principalement (en mode positif) des ions [MH]+, et [M+adduit+H]+, permettant ainsi d'accéder à la masse moléculaire de l'analyte.
Le méthane, l'isobutane et l'ammoniac sont parmi les gaz d'ionisation chimique les plus utilisés.
Pour la détection de molécules globalement électronégatives, comportant des parties halogénées, on peut faire appel à l'ionisation chimique négative. Le principe est de charger négativement ces molécules en les bombardant d'électrons qui seront capturés par les atomes électroattracteurs. Du fait de la forte probabilité de capture de l'électron, ce type d'ionisation peut être 1000 fois plus sensible que l'ionisation chimique positive2.
Ionisation par bombardement d'atomes rapides (FAB)
Elle permet d'analyser des molécules non vaporisables sous vide (grosses molécules biologiques). L'ionisation est effectuée par expulsion en phase vapeur des ions contenus dans un échantillon liquide à la suite d'un bombardement d'atomes rapides (Ar ou Xe). Les molécules ainsi ionisées n'ont pas beaucoup d'énergie interne, la fragmentation est donc faible mais l'ion moléculaire est facilement reconnaissable et la masse moléculaire est facile à déterminer. L'échantillon est mélangé en solution à une matrice liquide non volatile (glycérol, thioglycérine, alcool m-nitrobenzylique). Un faisceau à haute énergie (de l'ordre de 4 à 10 keV) d'atomes neutres (Ar ou Xe) est envoyé sur l'échantillon et la matrice dans la chambre de collision causant ainsi les phénomènes de désorption et d'ionisation. Les ions préexistants en solution sont expulsés en phase gazeuse et accélérés vers l'analyseur.
Ionisation par électronébulisation (electrospray ionisation, ESI)
Source d'ionisation par électrospray.
Son principe est le suivant : à pression atmosphérique, les gouttelettes de solutés sont formées à l'extrémité d'un fin capillaire porté à un potentiel élevé. Le champ électrique intense leur confère une densité de charge importante. Sous l'effet de ce champ et grâce à l'assistance éventuelle d'un courant d'air coaxial, l'effluent liquide est transformé en nuage de fines gouttelettes (spray) chargées suivant le mode d'ionisation. Sous l'effet d'un second courant d'air chauffé, les gouttelettes s'évaporent progressivement. Leur densité de charge devenant trop importante, les gouttelettes explosent en libérant des microgouttelettes constituées de molécules protonées ou déprotonées de l'analyte, porteuses d'un nombre de charges variable.
Les ions ainsi formés sont ensuite guidés à l'aide de potentiels électriques appliqués sur deux cônes d'échantillonnage successifs faisant office de barrières avec les parties en aval maintenues sous un vide poussé (<10−5 Torr). Durant ce parcours à pression élevée, les ions subissent de multiples collisions avec les molécules de gaz et de solvant, ce qui complète leur désolvatation. En faisant varier les potentiels électriques appliqués dans la source il est possible de provoquer des fragmentations plus ou moins importantes.
L'avantage de cette méthode d'ionisation comme pour l'APCI est l'obtention d'ions multichargés, pour les macromolécules, polymères. Elle permet d'autre part de générer une ionisation « douce » : des ions moléculaires sont formés en majorité.
Ionisation chimique à pression atmosphérique (APCI)
Les échantillons liquides sont directement introduits dans un nébuliseur pneumatique. Sous l'effet d'un jet d'air ou d'azote, le liquide est transformé en fin brouillard. Un chauffage assure la désolvatation des composés. Ces derniers sont ensuite ionisés chimiquement à pression atmosphérique : en général, la phase mobile vaporisée joue le rôle de gaz d'ionisation et les électrons sont obtenus à partir de décharges d'électrode couronne. L'ionisation des composés est très favorisée lors de ces techniques car la fréquence des collisions est élevée à pression atmosphérique.
L'APCI est une technique analogue à l'ionisation chimique (CI), elle fait appel à des réactions ions-molécules en phase gazeuse, mais à pression atmosphérique et conduit essentiellement à la formation d'ions [MH]+ ou [M-H]−.
Désorption-ionisation laser assistée par matrice (MALDI)
Source d'ionisation MALDI.
Un faisceau laser pulsé est utilisé, généralement dans le domaine des ultraviolets, pour désorber et ioniser un mélange matrice/échantillon cocristallisé sur une surface métallique, la cible.
Les molécules de matrice absorbent l'énergie transmise par le laser sous forme de photons UV, s'excitent et s'ionisent. L'énergie absorbée par la matrice provoque sa dissociation et son passage en phase gazeuse. Les molécules de matrice ionisées transfèrent leur charge à l'échantillon. L'expansion de la matrice entraîne l'échantillon au sein de la phase gazeuse dense où il va finir de s'ioniser.
L'ionisation de l'échantillon a donc lieu soit dans la phase solide avant la désorption, soit par transfert de charge lors de collisions avec la matrice excitée après désorption. Elle conduit à la formation d'ions monochargés et multichargés de type [M+nH]n+, avec une nette prépondérance pour les monochargés.
Ionisation thermique (TIMS)
Le chauffage de l'échantillon désorbe des atomes qui se présentent alors sous forme ionisée sous l'effet de la chaleur. Des lentilles électromagnétiques focalisent les ions en faisceaux individualisés en fonction du ratio masse / charge. Des variations de cette technique existent sous la forme ID-TIMS (pour l'anglais Isotope Dilution) et CA-TIMS (pour l'anglais : Chemical Abrasion).
Analyseur
Les analyseurs se différencient par leur principe de mesure du rapport m/z des ions, qui est :
- la dispersion des ions, fondée sur leur moment ou leur énergie cinétique (instruments à secteur magnétique ou électrique) ;
- la séparation dans le temps, fondée sur la vitesse des ions (TOF) ;
- la transmission des ions traversant un champ électrodynamique (quadripôle) ;
- le mouvement périodique dans un champ magnétique ou électrodynamique (pièges ou trappes à ions).
Analyseur quadripolaire
Un quadripôle (ou quadrupôle) est constitué de quatre électrodes parallèles de section hyperbolique ou cylindrique. Les électrodes opposées distantes de 2 r 0 sont reliées entre elles et soumises au même potentiel.
Les électrodes adjacentes sont portées à des potentiels de même valeur, mais opposés de sorte que l'écart de potentiel soit égal à ϕ 0 .
Ce potentiel ϕ 0 résulte de la combinaison de tensions, l'une continue (U) l'autre alternative (V) de haute fréquence f : ϕ 0 = U − V ⋅ cos ( 2 π f t )
En appliquant cette différence de potentiel entre chaque paire d'électrodes, il se crée un champ électrique quadripolaire. Un point de coordonnées (x, y, z) situé dans le champ électrique sera alors soumis au potentiel : ϕ = ϕ 0 ⋅ x 2 − y 2 r 0 2
Diagramme de stabilité d'un ion dans un quadripôle
La trajectoire d'un ion pénétrant dans le quadripôle sera donc uniforme selon l'axe z et décrite par les équations de Mathieu selon les deux autres axes. Il est possible de définir en fonction des valeurs U et V des zones de stabilité telles que les coordonnées x et y de l'ion restent strictement inférieures à r 0 . L'une d'entre elles est exploitée en spectrométrie de masse (voir figure) (Les ions qui se trouvent dans cette zone auront donc une trajectoire stable dans le quadripole et seront détectés). En gardant constant le rapport U/V, on obtient une droite de fonctionnement de l'analyseur. Un balayage de U avec U/V constant permet l'observation successive de tous les ions dont la zone de stabilité est coupée par la droite de fonctionnement. La résolution entre ces ions est d'autant plus grande que la pente de la droite est élevée.
Schéma de la trajectoire stable d'un ion traversant le quadripôle
En l'absence de tension continue, tous les ions de rapports m/z supérieurs à celui fixé par la valeur de V appliquée auront une trajectoire stable (x et y < r 0 ), le quadripôle est alors dit transparent et sert de focalisateur d'ions.
Les principaux avantages du spectromètre quadripolaire résident dans sa souplesse d'utilisation, sa résolution unitaire sur toute sa gamme de masse, sa vitesse de balayage satisfaisante, ainsi que son adaptabilité à différentes interfaces permettant le couplage avec la chromatographie gazeuse ou liquide.
Hexapoles et octopoles
Semblables à l'analyseur quadripolaire mais avec 6 et 8 électrodes respectivement, ils ne peuvent servir d'analyseurs (ils ne peuvent séparer les ions selon leur rapport masse/charge) : leur rôle est de guider et de focaliser les ions jusqu'à l'analyseur suivant.
Piège ionique quadripolaire (« piège à ions »)
Schéma de la trajectoire des ions dans un piège ionique (en vert)
C'est un piège ionique où la préparation, l'analyse et la détection des ions s'effectuent dans un même espace, suivant des séquences temporelles successives.
Le piège est constitué de trois électrodes à section hyperbolique : une électrode annulaire encadrée par deux électrodes-chapeaux (d'entrée et de sortie) qui forment les calottes supérieure et inférieure du dispositif. Une tension en radiofréquence V ⋅ cos ( 2 π f t ) combinée ou non à une tension continue U est appliquée entre l'électrode centrale et les deux électrodes calottes3. Le champ résultant est alors tridimensionnel.
Les domaines de stabilité des ions sont à nouveau déterminés par les équations de Mathieu. Celui exploité est défini tel que lorsque les ions en sortent, leur trajectoire radiale reste stable contrairement à celle selon l'axe des z. Un balayage de l'amplitude de la radiofréquence V entraînera donc l'expulsion des ions piégés selon cet axe, vers le détecteur4,5. Les trajectoires stables des ions, au sein du champ quadripolaire résultant sont tridimensionnelles, en forme de huit.
Temps de vol
L'analyseur à temps de vol consiste à mesurer le temps que met un ion, accéléré préalablement par une tension, à parcourir une distance donnée. Le rapport masse sur charge est directement mesurable à partir du temps de vol.
Trajectoire d'un ion dans l'analyseur à temps de vol en mode linéaire
Un analyseur à temps de vol se compose d'une zone d'accélération où est appliquée la tension accélératrice, et d'une zone appelée tube de vol, libre de champ. Les ions accélérés pénètrent dans le tube de vol libre de tout champ. La séparation des ions ne va donc dépendre que de la vitesse acquise lors de la phase d'accélération. Les ions de rapport m/z le plus petit parviendront au détecteur les premiers. Pour chaque groupe d'ions de même rapport m/z, un signal est enregistré au niveau du détecteur sous la forme d'une fonction temps/intensité.
Ce mode de détection comporte cependant certaines limitations en termes de résolution : ainsi deux ions identiques, de même vitesse initiale, mais localisés à deux points différents, entreront dans le tube de vol à des vitesses et des temps différents. Celui le plus loin du détecteur à l'origine sera accéléré plus longtemps et aura donc un temps de vol plus court, d'où une dispersion en temps et en énergie. Le mode réflectron permet de pallier ce phénomène.
Trajectoire d'un ion dans l'analyseur à temps de vol en mode réflectron
En mode réflectron, un miroir électrostatique impose un champ électrique de direction opposée à celle du champ accélérateur initial, et donc du mouvement des ions. Ces derniers voient ainsi leur trajectoire modifiée : ils pénètrent dans le réflectron et en ressortent avec une vitesse longitudinale de sens opposé à leur vitesse initiale. Les ions les plus énergétiques arrivent les premiers au niveau du réflectron et vont y pénétrer plus profondément, ils seront donc réfléchis dans un temps plus long. De cette façon, tous les ions de même rapport m/z se trouvent focalisés sur un même plan, le détecteur du réflectron étant placé sur le plan de focalisation de ces ions. En outre, le réflectron permet d'allonger la distance de vol sans pour autant augmenter la taille de l'analyseur : les ions mettent plus de temps pour atteindre le détecteur, et réduisent aussi leur dispersion en temps, la résolution s'en trouve donc grandement améliorée.
FT-ICR
Schéma d'une cellule cubique ICR
L’analyseur à résonance cyclotronique d’ion se compose d’une cellule ICR (de configuration cubique par exemple) qui comporte notamment six plaques sous tension, isolées les unes des autres.
L’application d’un champ magnétostatique B suivant l’axe z soumet les ions à la force de Lorentz F = e Z ⋅ v ∧ B . Leur mouvement dans le plan (x,y) est alors « cyclotronique », c’est-à-dire circulaire uniforme de fréquence f = e B 2 π m z . Les ions sont par ailleurs confinés suivant l’axe z par un champ électrostatique imposé par les deux plaques parallèles au plan (Oxy), résultant de l’application d’une tension faible.
Une fois piégés dans la cellule, les ions ont donc la même trajectoire mais pas la même position à un instant déterminé (a).
Étapes de la spectrométrie de masse ICR : a) ions avant excitation, b) Excitation des ions jusqu’à atteindre une certaine orbite, c) mouvement cohérent des ions de même m/z créant le courant induit
Il convient donc de donner aux ions de même m/z un mouvement d’ensemble en les mettant en phase, par résonance cyclotronique. Pour cela, les ions m/z sont excités par un champ alternatif de fréquence correspondant à leur fréquence cyclotron : pour exciter tous les ions d’une certaine gamme de m/z, une tension contenant toutes les fréquences cyclotron correspondantes est imposée. Les ions sont alors accélérés, mis en phase et voient le rayon de leur orbite augmenter (b).
Le courant induit par le mouvement cohérent des ions de même m/z sera mesuré sur les plaques de détection (c) : ce sera une sinusoïde amorti de fréquence cyclotronique. Le courant induit total mesuré sera donc la somme de sinusoïdes amorties des fréquences cyclotroniques correspondant aux ions de m/z excités par résonance. La fréquence cyclotron étant proportionnelle à 1/(m/z), l’inverse de la transformée de Fourier du courant obtenu permet d’aboutir au spectre de masse en m/z.
Cet analyseur a l’une des meilleures résolutions qui soient (Rs>100 000), dès lors le spectre MS a une plus grande capacité de pics, ce qui maximise la quantité d’informations pour l’analyse de mélanges complexes. Cependant, la largeur des pics étant proportionnelle à (m/z)², la résolution est meilleure aux m/z inférieures à 5 000 Th. L’excellente précision du FT-ICR sur la mesure de masse (5-10 ppm) lève ou diminue les ambiguïtés sur l’identification des composés. La gamme de masse dépend de la valeur du champ magnétique, elle s’étend jusque 27 000 Da pour un champ de 7 T. En revanche, la gamme dynamique est assez restreinte, avec 2-3 décades, car cet analyseur par confinement souffre du même défaut que le piège quadripolaire, la coexistence possible d’un nombre limité d’ions. Dès lors, les pics très minoritaires dans le spectre de masse présenteront une mesure de masse moins précise. Le FT-ICR permet l’analyse en MS/MS dans la cellule même, avec possibilités variées d’activation des ions et donc de fragmentations sélectives.
Orbitrap
Trajectoire des ions dans un orbitrap (en rouge)
L’orbitrap se compose d’une électrode creuse, à l’intérieur de laquelle est placée coaxialement une électrode en forme de fuseau. La forme particulière de ces deux électrodes permet l’imposition d’un champ électrostatique quadro-logarithmique avec la tension : U ( r , z ) = k 2 ⋅ ( z 2 − r 2 2 ) + k 2 ⋅ R m 2 ⋅ ln ( r R m ) + C .
avec Rm rayon caractéristique de l’électrode centrale, k courbure du champ, et C une constante.
Le champ est en particulier quadripolaire suivant l’axe z des électrodes. Les ions sont injectés tangentiellement à l’électrode centrale et piégés autour d’elle par la force électrostatique qui compense les forces centrifuges. Le mouvement des ions se décompose alors ainsi : un mouvement circulaire autour de l’électrode centrale dans le plan (xy) et un mouvement oscillatoire de va-et-vient selon l’axe z6. En particulier, les ions d’un m/z donné seront sur la même trajectoire circulaire qui oscille axialement avec une fréquence f. f est indépendante de la vitesse ou de l’énergie des ions et s’exprime comme 1 2 π k m z . De la même façon que pour le FT-ICR, le courant induit par ces oscillations permet par une transformée de Fourier d’accéder aux m/z.
La précision des mesures de m/z est particulièrement bonne (1-2 ppm) et la résolution (jusque 100 000) rivalise avec celle du FT-ICR, d’autant qu’étant proportionnelle à 1/√(m/z), elle diminue moins vite avec le rapport m/z que dans le cas du FT-ICR. La gamme dynamique est satisfaisante (> 3 décades)7. L’orbitrap est principalement utilisée en spectrométrie de masse en tandem, associée à un piège linéaire.
Analyseur à secteur magnétique
Schéma de la structure d’un spectromètre de masse : exemple d'un spectromètre de masse à secteur magnétique associé à une source d'ionisation d'impact électronique
L'ion est éjecté dans un milieu dans lequel règne un champ magnétique uniforme perpendiculaire au plan de la trajectoire. Du fait de la force de Lorentz, la trajectoire se courbe, et le point d'impact de l'ion (donc sa déviation) permet de connaître sa masse à partir de la charge.
En effet, soit B → le champ magnétique (dirigeant O z → ) de coordonnées ( 0 0 B ) et v → 0 la vitesse initiale orthogonale à B → , elle dirige O x → .
On a alors: q v → ∧ B → = ( q B y ˙ − q B x ˙ 0 ) .
D'où, en écrivant la relation fondamentale de la dynamique : { m x ¨ = q B y ˙ m y ¨ = − q B x ˙ .
Soit: { x ¨ − ω 0 y ˙ = 0 y ¨ + ω 0 x ˙ = 0 où ω 0 = q B m .
Posons V ~ = x ˙ + i y ˙ .
On a alors V ~ ˙ + i ω 0 V ~ = 0 .
En résolvant, V ~ ( t ) = v 0 e − i ω 0 t = v 0 cos ( ω 0 t ) − v 0 i sin ( ω 0 t ) .
Et donc: { x ˙ ( t ) = v 0 cos ( ω 0 t ) y ˙ ( t ) = − v 0 sin ( ω 0 t ) { x ( t ) = v 0 ω 0 sin ( ω 0 t ) y ( t ) = v 0 ω 0 cos ( ω 0 t ) − m v 0 q B (à l'aide des conditions initiales).
Il s'agit bien de l'équation paramétrique d'un cercle de rayon R c = m v 0 | q B | .
Le spectromètre mesure ensuite les distances d'impact lorsque la particule a effectué un demi-cercle. La distance au point d'origine correspond au diamètre donc au double du rayon donné par la dernière formule. La charge de la particule permet donc d'en déduire sa masse.
Détecteur
Comme les analyseurs et les sources, il existe différents types de détecteurs. Ils sont tous basés sur des principes physiques différents, mais leur rôle reste le même, compter les ions. C'est une partie placée sous vide (10−5 - 10−7 Torr).
- Les plaques photographiques sont le détecteur historique. La plaque est enduite d'une émulsion de bromure d'argent, son noircissement donne une valeur relative de l'intensité du flux (quantité d'ions). Cette technique est très peu sensible.
- Le cylindre de Faraday a pour principe le suivant : le transfert de charge de l'ion est détecté sur une surface conductrice, puis le signal est amplifié. Cette technique est précise mais peu sensible, avec une certaine lenteur de mesure et un bruit de fond important.
- Le multiplicateur d'électrons est le détecteur le plus courant. Le signal est amplifié par la formation d'électrons secondaires à l'aide de tubes en verre dopés au plomb (dynode). Il possède une bonne sensibilité, avec une amplification forte mais il est moins précis que le cylindre de Faraday. Il a en outre une durée de vie limitée. La galette de microcanaux, autre détecteur, peut être considérée comme assemblage de multiplicateurs d'électrons.
- Le multiplicateur de photons est dérivé du multiplicateur d'électrons : le signal est amplifié par la formation d'électrons secondaires à l'aide de tubes en verre dopés au plomb (dynode). Ces électrons sont accélérés vers un écran phosphorescent où ils sont convertis en photons. Ces photons sont ensuite détectés par le photomultiplicateur. Il présente une bonne sensibilité, avec amplification forte mais le balayage est moins rapide qu'avec un multiplicateur d'électrons.
Spectrométrie de masse en tandem (MS/MS)
Voir aussi : Séquençage par spectrométrie de masse
La spectrométrie de masse en tandem consiste à sélectionner un ion par une première spectrométrie de masse, à le fragmenter, puis à effectuer une deuxième spectrométrie de masse sur les fragments ainsi générés.
Elle peut être réalisée à l'aide de nombreux appareils combinant des secteurs magnétiques, électriques, quadripolaires ou des temps de vol, mais également au sein d'un même analyseur dans le cas d'une trappe d'ions.
Triple quadripôle
Structure d'un triple quadripole
Un triple quadripôle résulte de l'association de deux analyseurs quadripolaires en série, séparés par une cellule de collision souvent constituée d'un quadripôle plus court. Cette combinaison de quadripôles permet de travailler en MS simple ou en tandem. Pour réaliser une acquisition en MS, il suffit de n'appliquer qu'une tension alternative à l'un des analyseurs pour le rendre « transparent » comme la cellule de collision, celle-ci ne contenant alors pas de gaz.
Lors d'une acquisition en MS/MS, la cellule de collision est remplie d'un gaz inerte (argon par exemple) sous une pression relativement élevée ( 10 − 2 torr). L'énergie cinétique de l'ion sélectionné est convertie lors de ses collisions successives en énergie interne. La dissociation de l'ion se réalisera lorsque son énergie interne sera devenue supérieure à l'énergie d'activation nécessaire à la fragmentation. Cette technique de dissociation activée par collision (CAD ou CID : Collision Induced Dissociation) peut être amplifiée en augmentant l'énergie cinétique des ions sélectionnées par application d'une différence de potentiel entre la source et la cellule de collision.
L'analyse MS/MS peut être menée selon quatre modes différents selon l'information recherchée : le mode descendant est le plus utilisé pour obtenir des informations structurales, les deux modes (ascendant et perte de neutre) sont d'un usage plus restreint et permettent de mettre en évidence des ions ayant des particularités communes. Le quatrième mode (Multiple Reaction Monitoring ou MRM), dérivé du mode descendant, est voué à la quantification.
- En mode descendant, l'ion à étudier est sélectionné en focalisant le premier analyseur sur son rapport m/z. Les fragments formés dans la cellule de collision sont séparés par le deuxième analyseur et analysés. Le spectre obtenu présente à la fois l'ion précurseur (ou ion parent) et ses ions fragments (ou ions produits).
- En mode ascendant, le premier analyseur balaie une gamme de masse tandis que le deuxième est focalisé sur un seul rapport m/z. Tous les ions générés en source et capables de donner un fragment de même rapport m/z seront donc ainsi détectés.
- En mode perte de neutre, les deux analyseurs balaient une gamme de masse simultanément et avec un décalage de masse constant. Le spectre établi présentera alors tous les ions parents capables de se fragmenter en générant un neutre de masse égale au décalage imposé.
- En mode MRM, l'ion parent à étudier est sélectionné par le premier analyseur et fragmenté dans la cellule de collision, comme en mode descendant. En revanche, le second analyseur est focalisé sur l'ion produit. Ce mode de fonctionnement présente une double sélectivité, au niveau des sélections de l'ion parent et de l'ion produit. En outre les deux analyseurs étant fixées à des tensions constantes, la sensibilité de détection est améliorée par rapport à d'autres modes de balayage, faisant de la MRM un mode de choix pour la quantification.
Piège à ions quadripolaire
Au sein d'un piège à ions quadripolaire (parfois appelé « trappe d'ions » en raison d'une mauvaise traduction de l'anglais ion trap), l'analyse en tandem se réalise dans un premier temps par sélection d'ions dont la valeur m/z est choisie. Ces ions piégés vont ensuite se fragmenter par collisions (acquisition d'énergie interne, excitation vibrationnelle) à l'aide d'une tension RF (radiofréquence) correspondant à leur fréquence de résonance, et les ions produits formés sont à leur tour piégés. Une éjection sélective en masse des ions produits (fragments) peut alors être réalisée en vue de leur analyse. Le gaz de collision est généralement de l'hélium présent en permanence dans le piège et a pour rôle également de focaliser les ions aux centre de l'analyseur.
L'obtention d'ions de générations supérieures est possible par simple renouvellement du processus (sélection d'un ion produit, fragmentation, sélection d'un ion produit de 2e génération, fragmentation, etc.). Cette séquence est appelée M S n , n étant le nombre de générations d'ions. Ainsi la M S 2 est la MS-MS et ainsi de suite...
Hybride
Associer plusieurs types d'analyseur dans un spectromètre de masse en tandem permet de combiner les points forts des deux types d'analyseurs.
- Quadripôle/temps de vol :
Article Détaillé : Spectrométrie de masse en tandem Quadripôle-Temps de vol
Ces appareils appelés Q-TOF sont constitués d'un double quadripôle (1er analyseur + cellule de collision) et d'un analyseur à temps de vol comme second analyseur. Le quadripôle procure ainsi une grande efficacité au processus MS/MS, tandis que le TOF apporte son excellente sensibilité, sa grande rapidité d'analyse et ses résolutions et précision en masse bien meilleure sur les ions produits, par rapport à une configuration triple quadripôle. Cependant ces instruments sont limités par la faible gamme dynamique du TOF.
- Quadripôle/piège à ions quadripolaire :
Cette combinaison permet d'éviter les problèmes de charge d'espace associés aux pièges à ions. Le piège apporte une meilleure sensibilité et une vitesse d'analyse plus rapide. En outre, par rapport à un piège simple, cette combinaison autorise tous les modes d'acquisition MS/MS du triple quadripôle (perte de neutre et mode ascendant).
- Piège à ions quadripolaire/temps de vol :
L'association d'un piège à ions et d'un TOF permet d'accéder à une analyse structurale très poussée par MSn grâce au piège, mais présente aussi une grande précision en masse sur les ions précurseurs et produits pour la détermination des formules brutes, complétant ainsi l'identification. Cet appareil hybride est ainsi principalement destiné à l'identification et à l'analyse structurale.
- Piège à ions/FT-ICR ou Piège à ions/Orbitrap :
Le but de ce genre de couplage est d'obtenir une précision en masse et une résolution, qui soient encore meilleures qu'avec un TOF comme deuxième analyseur, et permettent l'établissement de formules brutes sans ambiguïté et donc une identification facilitée. Ces appareils représentent cependant un investissement bien supérieur, comparés à un piège à ions/temps de vol.
Voir aussi
Articles connexes
Liens externes
Notes et références
- « Les différentes techniques de désorption-ionisation et de solvatation-ionisation utilisée en spectrométrie de masse » [archive], un article CultureSciences-Chimie de l'Ecole Normale Supérieure-DGESCO
- Gas Chromatography and mass spectrometry : a practical guide, Kitson, Larsen & McEwen, academic press, 1996
- Lawson, G.; Todd, J.F.J. ; Bonner R.F., Dyn. Mass Spectrom. 1975 , 4, 39
- Dawson, P.H. ; Whetten, N.R., J. Vac. Sci. Technol. 1968, 5, 11
- Campana, J.E., Int. J. Mass Spectrom. Ion Phys. 1980, 33, 101
- Hu Q, Noll RJ, Li H, Makarov A, Hardman M, Graham Cooks R, « The Orbitrap: a new mass spectrometer », Journal of Mass Spectrometry, vol. 40, no 4, , p. 430–43 (PMID 15838939, DOI 10.1002/jms.856, Bibcode 2005JMSp...40..430H)
- Makarov, A.; Denisov, E.; Kholomeev, A.; Balschun, W.; Lange, O.; Strupat, K.; Horning, S. Anal Chem. 2006 78(7), 2113
Spectromètre magnétique Alpha
Pour les articles homonymes, voir AMS.
Alpha Magnetic Spectrometer
AMS-02
Image d'AMS-02 générée par ordinateur
modifier
Le spectromètre magnétique Alpha (en anglais : Alpha Magnetic Spectrometer) ou AMS-02 est une expérience de physique des particules installée à bord de la Station spatiale internationale depuis 2011. Il rassemble autour d'un aimant de grande puissance un ensemble de détecteurs qui doivent permettre de caractériser les particules et antiparticules du rayonnement cosmique. En accumulant les observations sur la durée, cette expérience pourrait apporter des éléments de réponse à des questions fondamentales soulevées ces dernières années par la physique, telles que la nature de la matière noire et l'abondance de l'antimatière dans notre Univers. Le recueil des données est planifié sur toute la durée de vie de la Station spatiale internationale mais les premiers résultats publiés en semblent confirmer les théories les plus courantes relatives à l'existence de la matière noire.
Objectifs
Le spectromètre magnétique Alpha est un instrument qui doit permettre de répondre à des questions fondamentales relatives à l'Univers et à son origine à travers l'étude de quatre types de particules et de rayonnements1. Les caractéristiques de l'instrument et son positionnement dans l'espace lui donnent les capacités de :
Contexte
Lancement du projet
|
|
|
AMS-01 est lancé en juin 1998 à bord de la navette spatiale Discovery dans le cadre de la mission STS-91. L'instrument est visible sur cette photo de la baie cargo de la navette spatiale.
|
En 1995, le physicien américain Samuel Ting, prix Nobel de physique 1976 et membre du Massachusetts Institute of Technology (MIT), propose à la NASA, à la suite de l'annulation du projet américain d'accélérateur de particules (Superconducting Super Collider - SSC), d'installer à bord de la Station spatiale internationale un instrument mesurant l'antimatière présente dans l'Univers. Celui-ci doit analyser le rayonnement cosmique qui sont en grande partie interceptés par l'atmosphère terrestre et ne peuvent donc être observés que de manière indirecte depuis le sol. Dans l'espace, l'instrument envisagé, de grande sensibilité, doit disposer de capacités uniques. La proposition de Ting est acceptée par l'agence spatiale américaine (NASA), qui est à la recherche d'applications scientifiques pour la Station spatiale internationale. Ting est nommé responsable scientifique du projet2. L'instrument utilise des technologies déjà mises en œuvre en physique des hautes énergies dans les expériences de physique nucléaire et de physique des particules ainsi qu'en astrophysique. Toutefois, il s'agit du premier spectromètre magnétique envoyé dans l'espace ce qui impose à sa conception de nombreuses contraintes.
Le prototype AMS-01
Un prototype, baptisé AMS-01, mettant en œuvre une version simplifiée des détecteurs de l'instrument final, est développé. En , l'instrument est embarqué dans le cadre de la mission STS-91 de la navette spatiale Discovery. L'objectif de cette mission est de valider l'utilisation dans l'espace des technologies qui doivent être utilisées par l'instrument final AMS-02, et d'étudier leur comportement. Ce vol de 12 jours ramène une moisson scientifique, et permet de découvrir l'existence d'une ceinture de particules cosmiques autour de l'équateur géomagnétique vers 400 km d'altitude3. Les données recueillies durant ce vol font l'objet de plus d'une dizaine de publications scientifiques. Aucun noyau d'antimatière (antihélium) n'est détecté par l'instrument durant son séjour dans l'espace ce qui permet de déterminer que le ratio antihélium/hélium est inférieur à 1,1 10-64.
Le développement de l'AMS-02
AMS en cours de test au CERN en 2008.
Après avoir développé l'AMS-01, Ting commence à développer l'instrument final baptisé AMS-02. Plus de 500 scientifiques venant de 56 institutions de 16 pays sont impliqués dans ce projet qui est piloté par le département de l'Énergie des États-Unis. Outre les États-Unis qui jouent un rôle central, les instituts de recherche des pays suivants sont impliqués : Allemagne, Espagne, Finlande, France, Pays-Bas, Italie, Portugal, Suisse, Chine et Taïwan5. AMS-02 comprend à l'origine un aimant supraconducteur cryogénique fonctionnant à 1,8 kelvin de grande puissance (environ 20 000 fois le champ magnétique terrestre). Ainsi équipé, ses performances doivent permettre d'améliorer la précision des mesures effectuées jusque-là d'un facteur compris entre cent et mille3,6.
Alors que le développement est très avancé, une source d'échauffement anormal est découverte dans l'aimant supraconducteur. Aucune explication claire n'est trouvé à ce phénomène. Celui-ci menace de réduire la durée de vie planifiée de trois ans en entraînant une évaporation plus rapide que prévu, les 2 500 litres d'hélium superfluide utilisé pour maintenir l'aimant à la température nécessaire pour le fonctionnement de l'expérience. Avec une durée de vie opérationnelle plus courte, l'aimant supraconducteur perd en grande partie son avantage. Cette conséquence va faciliter son abandon au profit de l'aimant classique utilisé par le prototype d'AMS-017. Le président américain Barack Obama décide au début de son mandat de prolonger la durée opérationnelle de la Station spatiale internationale en la faisant passer de 2015 à 2020. Ceci amène l'équipe projet à opter définitivement pour un aimant classique car avec une durée de fonctionnement qui doit atteindre de 10 à 19 ans, au lieu des 3 ans planifiés pour l'aimant supraconducteur, la quantité beaucoup plus importantes de données obtenues permet de compenser la perte de sensibilité par rapport à la solution alternative.8
Après le vol réussi d'AMS-01, le coût de développement de l'AMS-02 est estimé à 33 millions de dollars américains pour une mise en place en 20039. Mais les difficultés rencontrées dans la mise au point de l'instrument final ainsi que les retards du projet font monter son coût à 1,5 milliard de dollars. Cet accroissement des coûts fait l'objet de vives critiques lorsque le projet frôle par la suite l'annulation2.
Lancement et installation sur la Station spatiale internationale
Durant plusieurs années l'aboutissement du projet AMS-02 reste incertain10. En effet la destruction de la navette spatiale Columbia en 2003 cloue au sol les navettes spatiales durant deux ans et demi. Les autorités américaines décident à la suite de cet accident de retirer du service en 2010 les navettes considérées comme un système de transport spatial trop dangereux. Un certain nombre de vols de navette planifiés sont en conséquence annulés dont celui qui doit transporter AMS-022. En 2006, la NASA tente de trouver une solution alternative pour amener l'instrument en orbite mais toutes les solutions de transport étudiées s'avèrent trop coûteuses10. Un amendement au budget de la NASA ajoutant un vol de la navette spatiale destiné à l'emport de AMS-02 est proposé mi-2008, et est finalement voté par le Congrès des États-Unis puis approuvé par le président américain Georges W. Bush le 11,12,13.
Le , AMS-02 est installé sur la Station spatiale internationale (en anglais : International Space Station ou ISS) au cours de la mission STS-134 de la navette spatiale Endeavour14. L'instrument est installé sur la poutre de la Station spatiale internationale de 108 mètres de long qui sert de support aux panneaux solaires, aux radiateurs du système de régulation thermique et à différents équipements scientifiques de la Station spatiale internationale. L'axe du détecteur est incliné de 10° par rapport à l'axe vertical de la Station spatiale internationale pour que les particules qui entrent dans le cône de sensibilité de l'instrument ne traversent pas les panneaux solaires. AMS-02 doit fonctionner jusqu'à la fin de la durée de vie de la Station spatiale internationale qui peut intervenir vers 203015.
Panne des pompes du système de régulation thermique
En avril 2017, alors que l'instrument AMS-02 a déjà doublé sa durée de vie planifiée de 3 ans, la première des quatre pompes faisant circuler le fluide caloporteur dans le circuit de thermorégulation tombe en panne. Cette défaillance touche les unes après les autres les autres pompes et en la seule pompe encore opérationnelle ne fonctionne plus que de manière intermittente. Or AMS-02 ne peut fonctionner sans son système de régulation thermique. L'instrument n'est pas conçu pour subir des opérations de maintenance dans l'espace mais la NASA commence dès à mettre au point les procédures permettant d'effectuer une réparation en vol. Un plan de réparation complexe est mis au point par l'agence spatiale. Celle-ci présente de nombreuses difficultés : il n'y a ni main courante, ni cale-pieds, pour permettre à l'astronaute de s'assurer, certains écrous ne sont pas conçus pour pouvoir être dévissés dans l'espace ou être manipulés avec les outils disponibles, les circuits ne sont pas conçus pour être vidangés sans risque dans l'espace, certains tubes doivent être sectionnés créant des pièces susceptibles de perforer les combinaisons spatiales. Pour effectuer la réparation, la NASA développe 25 nouveaux outils et quatre sorties extravéhiculaires de l'équipage sont planifiées pour remettre en état l'instrument AMS-02. Au cours de la première sortie qui a lieu le et qui dure 6 heures 39, les astronautes Andrew R. Morgan de la NASA et Luca Parmitano de l'Agence spatiale européenne enlèvent le revêtement qui couvre AMS-02 et le protège des débris spatiaux. Ce revêtement qui n'est pas conçu pour être emmagasiné sur la poutre en attendant son évacuation dans un des véhicules cargos spatiaux et ne peut être emmené dans le sas à cause de son encombrement est largué dans l'espace. Du fait de son rapport surface/masse, il doit très rapidement perdre de l'altitude et être détruit en effectuant une rentrée atmosphérique16,17. Le , au cours de la deuxième sortie d'une durée de 6 heures 33, les astronautes Andrew R. Morgan de la NASA et Luca Parmitano achèvent le retrait des composants du revêtement qui a été retiré au cours de la sortie précédente, coupent 6 tubes des circuits de régulation thermiques et évacuent le dioxyde de carbone qui sert de fluide caloporteur et modifient le système d'alimentation électrique. Les mêmes astronautes doivent effectuer deux autres sorties programmées dans les semaines qui viennent pour achever la réparation18,19.
Caractéristiques techniques
L'instrument permet de mesurer les caractéristiques des particules à haute énergie qui traversent l'espace.
L'aimant
Pour effectuer ses mesures AMS-02 utilise un aimant d'une puissance de 0,15 tesla générant un champ magnétique 3 000 fois plus important que celui de la Terre. Celui-ci se présente sous la forme d'un cylindre de 1,105 mètre de diamètre et de 0,8 mètre de hauteur. Il est constitué de 6 000 pièces en alliage néodyme-fer-bore collées les unes aux autres et magnétisées. Cet aimant est utilisé auparavant par le prototype AMS-01. L'aimant permet de séparer les particules et les anti-particules qui ont une charge électrique opposée en modifiant leur trajectoire dans des directions opposées. La forme de la trajectoire des particules déviées par l'aimant permet de mesurer l'impulsion de celles-ci20,21,22.
Une dizaine de détecteurs sont utilisés pour identifier les particules qui parviennent jusqu'à l'instrument. Les principaux sont :
Détecteur de rayonnement de transition TRD
Le détecteur de rayonnement de transition TRD (Transition Radiation Detector) est le premier détecteur traversé par les particules. Il permet de distinguer les particules par leur masse ce que les autres instruments ne peuvent pas distinguer du fait de leur vitesse proche de celle de la lumière. En effet, en application de la loi de la relativité restreinte des particules comme le proton et l'électron, dont la masse au repos est dans un rapport de un à 2 000, ont une quantité de mouvement proche à cette vitesse. Or les principaux détecteurs, en particulier le trajectographe (Tracker), identifient les particules à travers cette donnée. L'instrument TRD, lui, est sensible au rapport énergie/masse qui reste très différent pour l'électron et l'antiparticule correspondante le positon d'une part et le proton (et antiproton) d'autre part. TRD est utilisé pour identifier les électrons et surtout les positons parmi les autres particules incidentes. Il repose sur l'analyse du rayonnement de transition émis par une particule chargée lorsqu'elle traverse un milieu non homogène comme la superposition de couches de matériaux différents. L'instrument est constitué de 328 modules regroupés en 20 couches. Chaque module est composé d'un couche de matériau plastique de 20 mm d'épaisseur auquel succède 16 détecteurs en forme de paille remplis d'un mélange de xénon (80 %) et de CO² (20 %). Lorsqu'un électron ou un positon traverse les couches successives de plastique et de vide il déclenche l'émission d'un rayon X alors que le proton ou l'antiproton ne le fait pas. AMS-02 dispose de réservoirs de xénon (40 kg) et de CO² (2 kg) utilisés pour maintenir le ratio des deux gaz avec une précision de 1 % ainsi qu'écarter les impuretés sous un seuil donné23,24,21.
Trajectographe au silicium Tracker
Le trajectographe au silicium (Tracker) mesure la trajectoire de la particule déviée par l'aimant en déterminant 8 de ses points de passage. Ceci permet de calculer la courbure de sa trajectoire. À charge électrique identique, une particule plus légère a un rayon de courbure plus élevé. Cet instrument est utilisé pour distinguer la matière de l'antimatière. Le trajectographe est constitué de 2 264 capteurs à double face en silicium représentant une surface sensible de 6,2 m225,26.
Les signatures des principaux types de particule vues par les détecteurs du spectromètre magnétique Alpha : de gauche à droite signatures de l'électron, du proton, de l'ion de fer, du
positon (antiélectron), de l'antiproton et de l'antihélium.
Calorimètre ECAL
Le calorimètre ECAL (Electromagnetic CALorimeter) permet de séparer les positons et les protons. Ceux-ci ont une charge électrique et un signe identique mais le positon est 2 000 fois plus léger. Le proton et le positon lorsqu'ils traversent le détecteur ECAL déclenchent une gerbe électromagnétique aux caractéristiques très différentes27,28,29.
Détecteur imageur annulaire Tcherenkov RICH
Le détecteur imageur annulaire Tcherenkov RICH (Ring Imaging CHerenkov) est chargé de mesurer la vitesse des particules arrivant à des vitesses proches de celle de la lumière avec une précision de 0,1 %. Cet instrument permet par exemple de différencier les isotopes de Béryllium-9 et Béryllium-10 dont la masse très proche ne diffère que de 10 % et qui ne peuvent être identifiés individuellement par les autres détecteurs. RICH exploite le fait que la lumière se déplace moins vite dans le verre que dans le vide. Lorsqu'une particule arrive à une vitesse proche de la lumière et pénètre dans le verre du détecteur, il se produit un phénomène baptisé effet Vavilov-Tcherenkov équivalent au passage du mur du son : la particule émet une gerbe de lumière de forme conique. L'angle d'ouverture du cône est proportionnel à la vitesse de la particule. Des centaines de petits tubes photomultiplicateurs mesurent la forme lumineuse circulaire créée30,31,32.
Détecteurs à temps de vol TOF
Deux détecteurs à temps de vol TOF (Time of flight) positionnés en entrée et en sortie de l'axe de l'aimant détectent l'arrivée et la sortie des particules qui traversent l'instrument. Lorsque le TOF situé à l'entrée de l'aimant détecte une particule, il envoie un signal aux autres détecteurs. Un autre signal est émis par le TOF situé à l'autre extrémité pour signaler aux détecteurs la sortie de la particule. Les TOF permettent également d'évaluer la charge électrique de la particule et de déterminer dans quelle sens la particule traverse l'aimant ce qui contribue à identifier les particules d'antimatière. Chaque TOF est constitué de deux détecteurs à scintillation. Les deux TOF sont écartés d'environ 1 mètre et ont une précision de 150 picosecondes ce qui permet de mesurer les particules ayant une vitesse allant jusqu'à 98 % de la vitesse de la lumière21,33.
Détecteur anti-coïncidence ACC
Le détecteur anti-coïncidence ACC (Anti-Coincidence Counter) permet d'exclure les particules qui ne traversent pas l'instrument de manière optimale. Environ 10 000 particules venant de toutes les directions traversent à chaque seconde l'AMS-02 mais seules celles traversant l'ensemble des détecteurs donc qui ont une trajectoire plus ou moins parallèle à l'axe du cylindre, soit environ 2 000 particules par seconde, permettent des mesures précises et sont retenues. L'ACC est un instrument de forme cylindrique qui entoure l'aimant et qui détecte les particules qui le traversent. L'électronique de l'AMS-02 ne prend en compte que les particules qui sont détectées par les deux TOF et ne le sont pas par l'ACC. Ce détecteur a des caractéristiques très proches de celles des TOF. Il est constitué de deux fines couches de plastique scintillateur qui émettent des flash de lumière lorsqu'ils sont traversés par des particules. Ces flashs sont détectés par des tubes photomultiplicateurs. Ceux-ci ne fonctionnant pas dans des champs magnétiques élevés, les tubes photomultiplicateurs sont installés loin de l'aimant. Des fibres optiques sont chargées de transporter les photons émis par le plastique jusqu'aux détecteurs34,35,36.
Les autres dispositifs
La géométrie du trajectographe au silicium (Tracker) qui permet de reconstituer la trajectoire des particules est soumise à des déformations dans l'espace du fait des changements thermiques à la fois rapides et importants lorsque l'instrument transite entre la partie de son orbite située à l'ombre de la Terre et la partie éclairée. Il est important que ces déformations soient mesurées pour que la trajectoire des particules puisse être déterminée avec précision. Le détecteur TAS (Tracker Alignment System) permet de mesurer les modifications de la géométrie avec une précision de 5 microns. La mesure repose sur 10 lasers dont le faisceau infrarouge émet dans une longueur d'onde capable de traverser les 7 couches de module Tracker37.
AMS-02 dispose de deux viseurs d'étoiles qui sont des petits télescopes situés sur des faces opposées de l'instrument pour qu'au moins un des deux instruments soit à tout moment face à une étoile. Ceux-ci sont utilisés pour déterminer en permanence l'orientation de l'instrument dans le ciel. La précision de ces capteurs est supérieure à celle des équipements similaires de la Station spatiale internationale. Les données fournies par les viseurs d'étoiles sont utilisées pour déterminer l'origine des rayons gamma mesurés par l'instrument. Les émissions de certaines sources de rayons gamma, tels les sursauts gamma, les supernova et les pulsars, évoluent très rapidement dans le temps. Il est donc important d'enregistrer avec une très grande précision l'heure de l'arrivée des rayons gamma pour pouvoir rapprocher ces observations avec celles effectuées par des télescopes basés sur la Terre. Ce rapprochement est effectué grâce à la datation très précise de l'événement réalisée par le biais du top horaire fourni par un récepteur GPS38,39.
Résultats
AMS enregistre depuis sa mise en fonctionnement environ 1 000 rayons cosmiques par seconde en générant 300 kilooctets[réf. souhaitée] de données transmis aux centres de recherche sur Terre. Début 2013, AMS-02 a détecté 25 milliards d'événements liés à des rayons cosmiques en 18 mois de fonctionnement40. Les premiers résultats scientifiques présentés le reposent sur l'analyse par les détecteurs de 400 000 positons (la particule d'antimatière correspondant à l'électron) d'une énergie comprise entre 10 GeV et 350 GeV soit la plus grande quantité d'antimatière étudiée jusque-là dans l'espace. Les mesures effectuées démontrent qu'il y a un léger excédent de positons par rapport à ce que les calculs prévoient en l'absence de matière noire. La proportion de positons parmi les particules composant les rayons cosmiques est croissante entre 10 GeV et 350 GeV mais la pente décroit d'un ordre de grandeur pour les particules dont l'énergie est comprise entre 20 et 350 GeV. Les données recueillies n'indiquent aucune variation du nombre de positons dans le temps et selon leur incidence. Compte tenu de cette absence d'anisotropie, l'excédent de positons ne peut pas être émis par une source conventionnelle localisée comme un pulsar. Les résultats sont conformes à la présence de matière noire dans l'espace dont l'annihilation génère ces positons mais d'autres explications ne sont pas complètement exclues41,42.
AMS-02 détecte également en 2016 un excès d'antiprotons par rapport aux prédictions théoriques. Les données sont d'interprétation délicate en raison de plusieurs sources d'incertitudes mais après une analyse plus poussée publiée en 2019, il semble que cette observation soit cohérente avec l'existence de matière noire43.
Galerie
-
Estimation (en 2007) de la distribution de la matière noire et de l'énergie sombre dans l'Univers
-
-
Notes et références
- « L’expérimentation AMS-02 : un détecteur de rayons cosmiques embarqué sur la Station Spatiale Internationale » [archive] (consulté le )
- (en) Dennis Overbye, « Long-Awaited Cosmic-Ray Detector May Be Shelved » [archive], sur The New York Times,
- Michel Buénerd, « Baptême de l'espace pour AMS, spectromètre de particules destiné à la recherche de l'antimatière » [archive], CNRS-Info, no351, 1er-15 décembre 1997, pp. 7-8 (consulté le )
- (en) AMS Collaboration, M. Aguilar, J. Alcaraz, J. Allaby, B. Alpat, G. Ambrosi, H. Anderhub, L. Ao et A. Arefiev, « The Alpha Magnetic Spectrometer (AMS) on the International Space Station: Part I – results from the test flight on the space shuttle », Physics Reports, vol. 366, no 6, , p. 331–405 (DOI 10.1016/S0370-1573(02)00013-3, Bibcode 2002PhR...366..331A)
- (en) Claude Leroy, Pier-Giorgio Rancoita, Michele Barone, Andrea Gaddi, Larry Price et Randal Ruchti, Astroparticle, particle and space physics, detectors and medical physics applications proceedings of the 11th Conference, Villa Olmo, Como, Italy, 5-9 October 2009, vol. 5 : Proceedings of the 11thConference on ICATPP-11, Singapour, World Scientific, , 921 p. (ISBN 978-981-4307-51-2, OCLC 939823895, lire en ligne [archive]), p. 741
- En 1999, AMS-01 établit une nouvelle limite supérieure de 1,1×10−6 pour le ratio du flux antihélium/hélium dans l'Univers. AMS-02 cherchera avec une sensibilité de 10−9, une amélioration de 3 décades sur AMS-01.
- (en) Stephen Harrison, Steve Milward, Robin Stafford Allen, Mark Gallilee, Nicholas Shaw, Robert Anderson, and Samuel C. C. Ting, « Testing and Final Construction of the Superconducting Magnet for the Alpha Magnetic Spectrometer », IEEE Transactions on Applied Superconductivity (en), Vol. 19, No. 3, (lire en ligne [archive])
- (en) « AMS To Get Longer Lease On Life » [archive], Aviation Week and Space Technology, (consulté le )
- (en) Greg Clark, « NASA Puts Big Bang to the Test » [archive], SPACE.com,
- (en) Marc Kaufman, « The Device NASA Is Leaving Behind » [archive], Washington Post,
- (en) « House Sends NASA Bill to President's Desk, Reaffirms Commitment to Balanced and Robust Space and Aeronautics Program » [archive], House Science and Technology Committee,
- (en) Mark Matthews, « Bush Signs NASA Authorization Act » [archive], Orlando Sentinel,
- (en) « Major Actions: H.R. 6063 » [archive], THOMAS (Library of Congress)
- (en)(en) « Launch and Landing » [archive], NASA, (consulté le )
- « L’expérience AMS (Alpha Magnetic Spectrometer) » [archive], laboratoire d’Annecy le Vieux de physique desparticules (consulté le )
- (en) Chris Gebhardt, « NASA/ESA begin challenging Alpha Magnetic Spectrometer repair spacewalks » [archive], sur nasaspaceflight.com,
- (en) William Harwood, « Astronauts complete bonus objectives in first in series of AMS repair spacewalks » [archive], sur spaceflightnow.com,
- (en) Chris Gebhardt, « NASA/ESA continue challenging Alpha Magnetic Spectrometer repair spacewalks » [archive], sur nasaspaceflight.com,
- (en) William Harwood, « Spacewalkers continue repair of cosmic ray detector » [archive], sur spaceflightnow.com,
- « L’aimant d’AMS-02 » [archive], Laboratoire Univers et Particules de Montpellier (consulté le )
- (en) « Dossier de presse de la mission STS-134 » [archive], NASA,
- (en) « AMS-02 > What is AMS? > The instrument > The magnet » [archive], Site AMS-02 (consulté le )
- « Le TRD » [archive], Laboratoire Univers et Particules de Montpellier (consulté le )
- (en) « AMS-02 > What is AMS? > The instrument > The TRD » [archive], Site AMS-02 (consulté le )
- « Pourquoi un Tracker pour AMS ? » [archive], Laboratoire Univers et Particules de Montpellier (consulté le )
- (en) « AMS-02 > What is AMS? > The instrument > The Silicon Tracker » [archive], Site AMS-02 (consulté le )
- « ECAL » [archive], Laboratoire Univers et Particules de Montpellier (consulté le )
- (en) « Electromagnetic Calorimeter » [archive], MIT (consulté le )
- (en) « AMS-02 > What is AMS? > The instrument > The ECAL » [archive], Site AMS-02 (consulté le )
- « Le RICH » [archive], Laboratoire Univers et Particules de Montpellier (consulté le )
- (en) « Ring Imaging Cerenkov Counter » [archive], MIT (consulté le )
- (en) « AMS-02 > What is AMS? > The instrument > The RICH » [archive], Site AMS-02 (consulté le )
- (en) « AMS-02 > What is AMS? > The instrument > The Time-of-Flight » [archive], Site AMS-02 (consulté le )
- « L’instrument AMS-02 » [archive], Laboratoire Univers et Particules de Montpellier (consulté le )
- (en) « Anti-Coincidence Veto Counters (ACC) » [archive], MIT (consulté le )
- (en) « AMS-02 > What is AMS? > The instrument > The Anti-Coincidence Counter » [archive], Site AMS-02 (consulté le )
- (en) « AMS-02 > What is AMS? > The instrument > The TAS » [archive], Site AMS-02 (consulté le )
- (en) « Star Tracker » [archive], MIT (consulté le )
- (en) « AMS-02 > What is AMS? > The instrument > The Star Tracker and GPS » [archive], Site AMS-02 (consulté le )
- (en) Jonathan Amos, « Alpha Magnetic Spectrometer to release first results » [archive], BBC,
- (en) Jonathan Amos, « Alpha Magnetic Spectrometer zeroes in on dark matter » [archive], BBC,
- (en) « AMS experiment measures antimatter excess in space » [archive], CERN,
- (en) Ilias Cholis, Tim Linden et Dan Hooper, « A robust excess in the cosmic-ray antiproton spectrum: Implications for annihilating dark matter », Physical Review D, vol. 99, (lire en ligne [archive]).
Voir aussi
Sur les autres projets Wikimedia :
Bibliographie
- (en) M. Aguilar, J. Alcaraz, J. Allaby, B. Alpat, G. Ambrosi et al., « The Alpha Magnetic Spectrometer (AMS) on the International Space Station: Part I – results from the test flight on the space shuttle », Physics Reports, vol. 366, no 6, , p. 331-405 (DOI 10.1016/S0370-1573(02)00013-3)
- (en) M. Aguilar, L. Ali Cavasonza, G. Ambrosi, L. Arruda, N. Attig et al., « The Alpha Magnetic Spectrometer (AMS) on the international space station: Part II — Results from the first seven years », Physics Reports, vol. 894, , p. 1-116 (DOI 10.1016/j.physrep.2020.09.003)
Articles connexes
Liens externes
Spectromètre à particules alpha et à rayons X
Photographie de l'arrière de l'astromobile Sojourner et de l'APXS qu'il embarque.
Tête du détecteur de l'APXS embarqué sur les astromobiles Spirit et Opportunity.
Le spectromètre à particules alpha et à rayons X (APXS)1 est un instrument d’analyse permettant d’obtenir la composition chimique en éléments majeurs et mineurs (sauf pour l’atome d’hydrogène) d’un échantillon. L’échantillon est bombardé avec des particules α (4He2+) et des rayons X. La détection de la diffusion de ces particules α et de la fluorescence des rayons X résultants de ce bombardement permet de connaître la composition de l'échantillon.
Il est utilisé principalement dans les missions spatiales puisqu’elles nécessitent des dispositifs légers, petits et faibles consommateurs d’énergie. Une des variantes de cet appareil est le spectromètre à protons, rayons X par particules α, qui comporte en plus un mode de détection pour protons. On retrouve son utilisation ainsi que celle de l’APS (version antérieur sans spectromètre à rayons X) dans de nombreuses missions telles que Surveyor 5-72, Mars Pathfinder3, Mars 964, Mars Exploration Rover5, Phobos6, Mars Science Laboratory7 et Philae8. Pour chacune d’elles, l’APXS a été et est utilisée pour des analyses géologiques d’astres et de planètes afin de déterminer la composition chimique de leurs sols et roches de surface.
Principe de fonctionnement
Cet instrument utilise deux méthodes de détections pour ses analyses : la spectroscopie de rayons X (mode rayons X) et la rétrodiffusion des particules α (mode α)5. Les rayons X permettent la détection d’éléments ayant un numéro atomique supérieur à 8. Le mode α quant à lui permet de détecter efficacement les éléments plus légers tels que le carbone et l’oxygène. Par complémentarité des deux modes on peut alors obtenir la composition chimique d’un échantillon donné, en l’occurrence celle des sols et roches présents sur Mars, qui est aujourd’hui l’application principale de cet appareil.
Mode rayons X
Dans le mode rayons X, l’instrument va détecter le spectre de rayons X d’un échantillon afin de remonter à sa composition puisque chaque élément émet des photons X d’énergie caractéristique à la transition électronique qu’il subit3. On distingue deux types d’excitation des rayons-X provenant du curium 244 (source radioactive). D’une part les rayons X eux-mêmes permettant la fluorescence de rayons X (en anglais XRF pour X-ray fluorescence), et d’autre part les rayonnements α induisant une émission de rayons X (en anglais PIXE, pour Particle-Induced X-ray Emission).
Fluorescence des rayons X (XRF)
Principe de fonctionnement de la fluorescence X, consistant en l’émission d’un photon X (flèche rouge) après éjection d’un électron (sphères bleues) d’une couche électronique interne de l’atome induite par particule α (flèche jaune) ou rayonnement X (flèche verte).
La méthode de la fluorescence X repose sur le principe suivant : le modèle quantique de l’atome impose l’existence de niveaux discrets d’énergie pour chaque électron au sein de son orbitale atomique. Si on expose un échantillon à des rayons X, les photons X (ayant une haute énergie supérieure à celle d‘ionisation de l’atome irradié) vont venir éjecter un électron de sa couche électronique, ce qui va créer une vacance (ou lacune) électronique au sein de l’atome. Cette lacune rendant la structure électronique de l’atome instable, sera comblée par un électron situé sur un niveau discret d’énergie plus élevé. Celui-ci va alors se « désexciter » et émettre un photon X d’énergie donnée (puisque seulement certaines transitions électroniques sont permises), correspondant à la différence d’énergie entre les niveaux d'énergies discrets concernées. C’est cette émission de rayons X qui est par la suite détecté par l’appareil. La source initiale de photons X (photons de hautes énergies) provient du curium 244 présent dans l’appareil.
Émission de rayons X induite par particules α (PIXE)
La méthode PIXE est quant à elle une application particulière de la fluorescence X. En effet la seule différence entre les deux méthodes est qu’ici, au lieu d’exciter un atome par rayons X, on va le bombarder de particules α. Bombarder un échantillon de particules α d’énergie suffisante (via un accélérateur d’ions) revient à expulser un électron (occupant un niveau énergétique particulier) de son orbitale électronique et créer ainsi une lacune électronique. On retrouve cette même instabilité que dans la XRF qui est responsable ici encore de la « désexcitation » d’un électron occupant une orbitale électronique plus énergétique afin de combler cette lacune. Cette transition aboutit là aussi à l’émission d’un photon X d’énergie particulière (comme expliqué pour la méthode XRF) qui est recueilli par le détecteur du spectromètre. La particule α (noyau d’Hélium) initialement envoyée sur l’échantillon provient de la décroissance radioactive de l’atome de Currium 244 présent dans l’instrument.
Mode α
Dans ce mode, l’appareil va détecter les particules α qui auront été rétrodiffusées, selon le principe de rétrodiffusion de Rutherford. Ici encore, la source de particules α provient de la décroissance radioactive du Curium 224 et ces derniers sont par la suite accélérés grâce à un accélérateur de particules (afin d’obtenir une énergie en MeV) avant d’être « envoyées » sur l’échantillon qui va les rétrodiffuser vers le détecteur de l’APXS.
Spectrométrie de rétrodiffusion de Rutherford (RBS)
Illustration du principe rétrodiffusion de Rutherford sur un échantillon ou les rayons α émis (bleus) sont rétrodiffusés après collisions élastiques à la surface de l'échantillon
La rétrodiffusion de Rutherford (de l’anglais Rutherford Backscattering Spectroscopy, RBS) est une technique d’analyse fondée sur la diffusion des ions sur un échantillon. Un échantillon est bombardé par un faisceau de particules à haute énergie, les particules α. En entrant en contact avec l’atome cible, il se produit une collision entre les particules incidentes et les noyaux des atomes présents dans les quelques micromètres supérieurs de la surface de l’échantillon9. Cette collision n’implique pas de contact direct entre les ions et l’atome ciblé. Il s’y produit plutôt un échange d’énergie en raison des forces de Coulomb présentes entre les noyaux des atomes adjacents. Cependant on peut se représenter la collision comme étant élastique, du point de vue de la physique classique. Après collision les particules vont être rétrodiffusées avec un rendement particulier selon un angle donné. Ce rendement, représentant l’énergie d’une particule rétrodiffusée en fonction de son énergie initial (avant collision), pour un angle spécifique dépend alors de 2 processus. La particule va perdre tout d’abord de l’énergie lorsqu’elle va traverser l’échantillon (avant et après la collision), dépendamment du pouvoir d’arrêt électronique du matériau analysé. Cette perte varie de manière continue en fonction de la distance parcourue par la particule au sein du matériau. L’autre responsable de la perte d’énergie subit par la particule est la collision élastique en elle-même avec les atomes. Cette perte dépend de la masse des atomes cibles.
Ainsi, les particules rétrodiffusées vont arriver au détecteur avec une énergie différente de celle de leurs émissions, et comme ce rapport est connu pour chaque élément à un angle donné, on peut alors déduire la composition élémentaire de l’échantillon analysée. Le détecteur de l’APXS est situé de façon à recevoir les rayons retrodiffusés avec un angle compris entre 140 et 175° par rapport au rayonnement α émis3, puisque c’est à cet angle que la différence des rapports énergétiques avant/après collisions est la plus élevé pour des éléments de masses atomiques proches.
Composition de l'APXS du Mars Science Laboratory (MSL)
La majeure partie des composants électroniques de l’APXS se trouve dans le corps de l’astromobile. La tête du détecteur est maintenue par un bras électronique relié à ce véhicule.
Dessin du véhicule Mars Science Laboratory, où l'APXS se situe dans la tête du bras mécanique.
Analyse de l'APXS
La tête du détecteur est déployée sur la surface de l’échantillon à analyser, dans le cas précis la surface du sol martien. Aucune préparation d’échantillon n’est nécessaire, cependant une brosse de dépoussiérage liée à l'astromobile peut être utilisée afin éliminer la poussière sur l’échantillon si nécessaire. La distance entre la tête du détecteur et l’échantillon doit typiquement être inférieure à 2 cm10. Les rayonnements expliqués précédemment sont alors envoyés sur la surface de l’échantillon pendant une durée variable. L’abondance des éléments influent sur cette durée, les éléments ayant une abondance égale ou supérieure à 0,5 % (Na, Al, Ca, Fe, Mg, Si, Ca ou S) sont analysés sur une durée proche des 15 minutes, tandis que les éléments présents sous forme de trace (Ni et Br) sont analysés sur une durée pouvant atteindre les 3 heures. Lorsque le balayage est terminé, les données sont envoyées au véhicule. Ces données d’une taille 32 kilobytes contiennent entre autres 13 spectres pris consécutivement. Le nombre de spectres permet une analyse statistique des résultats. Seules les données présentant une haute répétabilité sont retenues.
Mécanisme de déploiement
Le bras électronique du véhicule (Instrument Deployment Device, IDD) permet de déployer et de positionner l’APXS à différentes altitudes et orientations par rapport au niveau du sol. La rotation permet de d’orienter le détecteur et ainsi de le placer directement face à l’échantillon.
Photographie du MSL lors d'un test du bras électronique.
Étalonnage
L'étalonnage se fait au préalable, avant le lancement de l’équipement sur Mars. Un grand nombre de géostandards (étalons) ont été étudiés à la suite de campagnes d’étalonnage préalables11. Les étalons sont préparés à partir d’échantillons géologiques validés par des institutions qualifiées. Pour les deux premières missions spatiales composant le projet Mars Exploration Rover (MER), les appareils ont embarqué à leur bord 8 géostandards et 3 météorites ainsi que des standards d’oxyde et de métaux. La performance et la stabilité de l’instrumentation est étudiée de 2 façons :
- La cible d’étalonnage de composition (Compositional Calibration Target, CCT) est composée d’une plaque de magnétite (Fe3O4). Elle est utilisée pour vérifier la résolution des spectres à partir du pic caractéristique à 6,4 keV du fer et est elle-même montée sur le bras électronique du rover (IDD).
- La cible d’étalonnage interne est composée de minces couches d’or (Au), de Kapton (polyimides) et de nickel (Ni) présents sur le cuprobérylium des portes. Elle permet de vérifier la résolution, l’étalonnage énergétique, et la linéarité par rapport à des valeurs déterminées avant envoi de l’équipement.
Tête du détecteur
Le diamètre de l’anneau de contact est de 1,7 cm, une augmentation de celui-ci aurait pour résultat une diminution de l’intensité du signal. Différents capteurs lui sont intégrés afin de permettre, lors du positionnement du détecteur, d’indiquer au véhicule l’arrêt du mouvement. Les détecteurs α sont au nombre de 6.
Représentation schématique de la composition de la tête du détecteur de l'APXS. On remarque l'emplacement des détecteurs situés en face de l'échantillon qui rétrodiffuse les particules α (flèches rouges) à sa surface.
Amélioration de la méthode
Un certain nombre d’améliorations ont été apportées entre les deux missions Mars Exploration Rover (MER) et la Mars Science Laboratory (MSL). L’amélioration comprend entre autres une augmentation de la sensibilité par un facteur 3, une sensibilité améliorée pour les éléments lourds possibles grâce à une augmentation de l’intensité des rayons X, la possibilité d’effectuer des analyses de jour grâce à l’utilisation de refroidisseurs Peltier, l’utilisation d’une cible d’étalonnage faite de basalte montée sur l’IDD de l'astromobile spécifiquement pour l’APXS, et la diminution de la durée d’acquisition des spectres (~ 10 secondes) de diffraction aux rayons X.
Ce nouveau modèle a été mis au point par l’agence spatiale canadienne (ASC), un partenaire international de la mission Mars Science Laboratory (MSL) et a été placé sur Curiosity, le rover envoyé lors pour cette mission. Le principal chercheur de l’APXS est Ralf Gellert, de l’université de Guelph, en Ontario, qui a développé les modèles précédents.
Refroidisseur Peltier
Utilisé dans l’APXS il s’agit d’un dispositif de dissipation thermique contrôlé électroniquement. Il est composé d’une multitude de thermocouples connectés en série par des points de cuivre. Une différence de température au niveau des points de jonction des différents conducteurs électriques est induite par l’effet Peltier lorsqu’un courant est appliqué. Les puces des détecteurs de rayons X sont maintenues à des températures inférieures à 0 °C avec ces refroidisseurs12. La qualité des analyses étant améliorée à des températures basses (entre 0,2 keV et 6,4 keV à ~ −5 °C et < 150 eV à ~ -15 °C), il est alors possible d’obtenir une plus haute résolution pour ces analyses.
Quantification de l'appareil
L’APXS permet d’offrir une mesure précise des différents éléments présents dans un échantillon11. Par exemple, la limite de détection (LD) est ~ 100 ppm pour le nickel (Ni) et ~ 20 ppm pour le brome (Br) pour des acquisitions de 3 heures.
Application: Analyse géologique du sol martien
Mars est une planète qui subit d’importantes tempêtes de poussière, et c’est ce que les analyses de sols effectuées par l’APXS ont révélé. En effet la composition des sols (analysés sur différents sites d’atterrissage des sondes et astromobiles envoyées sur Mars) correspond à la distribution mélangée de ces poussières résultant de ces tempêtes à la surface de la planète , et est relativement semblable pour chaque lieu d’analyses. Ces sols sont composés majoritairement d’oxydes de silicium, fer, calcium ou encore d’oxyde de soufre et d’aluminium13 (voir tableau suivant).
Concentrations moyennes en oxydes et éléments particuliers pour différents sites de mesures (sols et roches)
Oxyde |
Na2O |
MgO |
Al2O3 |
SiO2 |
P2O5 |
SO3 |
FeO |
K2O |
CaO |
TiO2 |
Cr2O3 |
MnO |
Concentration (%wt) |
3,3 |
9,3 |
10 |
45,8 |
0,84 |
5,82 |
15,8 |
0,41 |
6,1 |
0,81 |
0,35 |
0,31 |
Éléments |
Ni |
Cl |
Br |
Zn |
|
|
|
|
|
|
|
|
Concentration (ppm) |
450 |
530 |
30 |
300 |
|
|
|
|
|
|
|
|
L’une des observations importantes provenant de ces mesures est que la présence de brome dans les sols, mais surtout dans les roches (et en plus grande quantité, autour de 170 ppm) pourrait indiquer une altération de leur surface durant une période d’activité aqueuse passée sur les sites de mesures.
Notes et références
- (en + fr) « Alpha particle X-ray spectrometer » [archive], sur btb.termiulplus.gc.ca.
- (en) James H. Patterson, Ernest J. Franzgrote, Anthony L. Turkevich et Wayne A. Anderson, « Alpha-Scattering Experiment on Surveyor 7: Comparison with Surveyors 5 and 6 », Journal of Geophysical Research, vol. 74, no 25, , p. 6120–6148 (ISSN 2156-2202, DOI 10.1029/JB074i025p06120, lire en ligne [archive], consulté le )
- (en) R. Rieder, H. Wänke, T. Economou et A. Turkevich, « Determination of the chemical composition of Martian soil and rocks: The α proton X ray spectrometer », Journal of Geophysical Research: Planets, vol. 102, no E2, , p. 4027–4044 (ISSN 2156-2202, DOI 10.1029/96JE03918, lire en ligne [archive], consulté le )
- (en) R.Rieder, « An Alpha Proton X-Ray Spectrometer for Mars-96 and Mars Pathfinder », American Astronomical Society,
- (en) R. Rieder, R. Gellert, J. Brückner et G. Klingelhöfer, « The new Athena alpha particle X-ray spectrometer for the Mars Exploration Rovers », Journal of Geophysical Research: Planets, vol. 108, no E12, , p. 8066 (ISSN 2156-2202, DOI 10.1029/2003JE002150, lire en ligne [archive], consulté le )
- (en) Hovestadt, D, « In-Situ Measurement of the Surface Composition of the Mars Moon Phobos: The Alpha-X Experiment on the Phobos Mission », Abstracts of the Lunar and Planetary Science Conference,
- (en) « Alpha Particle X-ray Spectrometer (APXS) » [archive], sur nasa.gov
- (en) « Alpha Proton X-ray Spectrometer (APXS) » [archive], sur nasa.gov
- « Théorie de la spectrométrie RBS. » [archive], sur eaglabs.fr
- (en) « APXS Instrument Information – MSL – Mars Science Laboratory » [archive]
- (en) « Alpha Particle X-ray Spectrometer (APXS) » [archive]
- « Module de Refroidissement Thermoélectrique Peltier » [archive]
- (en) R. Gellert, R. Rieder, R. C. Anderson et J. Brückner, « Chemistry of Rocks and Soils in Gusev Crater from the Alpha Particle X-ray Spectrometer », Science, vol. 305, no 5685, , p. 829–832 (ISSN 0036-8075 et 1095-9203, PMID 15297665, DOI 10.1126/science.1099913, lire en ligne [archive], consulté le )
Spectromètre RMN
L'aimant
Le spectromètre est principalement composé d'un aimant supraconducteur extrêmement puissant (jusqu'à plus de 22 teslas). Pour assurer la supraconductivité de l'aimant, celui-ci est plongé dans de l'hélium liquide et entouré d'un vase Dewar (l'équivalent d'une bouteille Thermos) pour l'isolation thermique. Afin de limiter l'évaporation de l'hélium, le tout est plongé dans un vase Dewar encore plus grand et rempli d'azote liquide. L'évaporation de l'hélium et de l'azote est mesurée et l'on rajoute de l'azote liquide environ chaque semaine.
Taille de l'aimant
La taille de l'aimant dépend exponentiellement :
- de la puissance de l'aimant ;
- du fait qu'il soit ultra-blindé ou pas.
Les spectromètres JEOL série ECZS 400 MHz sont dédiés à l'analyse de routine et leurs consoles sont extrêmement compacts. Les spectromètres JEOL série ECZR utilisés pour la recherche avancée, possèdent une configuration flexible et extensive, se déclinant du 400 MHz au 800 MHz (photos ci-dessous).
L'équipe de recherche composée de chercheurs du NIMS, RIKEN, Kobe Steel et JEOL RESONANCE ont développé avec succès le premier système RMN équipé du champ magnétique le plus élevé au monde, 1020 MHz.
Les chercheurs espéraient depuis longtemps que l'utilisation de la technologie supraconductrice à haute température permettrait la production de champs magnétiques au-delà de 1000 MHz. Cependant, les supraconducteurs à haute température étant fragiles et difficiles à traiter, aucun groupe n’avait obtenu une utilisation efficace et pratique sur le long terme.
Ce système à très haut champ contribuera grandement à la recherche et aux développements dans divers domaines tels que la biologie structurale, la chimie analytique et l'ingénierie des matériaux. La RMN nécessite un champ magnétique d'une très grande précision et la technologie supraconductrice à haute température qui s’est améliorée au cours du développement de la RMN sera applicable à bien d’autres systèmes de haute technologie tels que l'IRM (imagerie par résonance magnétique), la fusion nucléaire, les trains à moteur linéaire et les câbles d'alimentation supraconducteurs.
Les spectromètres Bruker UltraShield de 300 MHz et 400 MHz mesurent environ 1,80 m de haut. Un appareil de 500 MHz équivalent mesure 30-40 cm de plus. Les spectromètres de 700 ou 900 MHz sont, en revanche, bien plus imposants (photos ci-dessous).
Spectromètre Bruker 300 MHz UltraShield (c'est-à-dire ultra-blindé).
-
Bruker 400 UltraShield Plus avec passeur d'échantillons.
-
Bruker 500 UltraShield Plus avec passeur d'échantillons.
-
-
Ligne des 5 gauss
Les anciens spectromètres utilisaient un seul aimant. Le champ magnétique pouvait donc s'étendre à volonté et l'on marquait au sol, avec du ruban adhésif coloré, la « ligne des 5 gauss » à partir de laquelle on n'est plus exposé qu'à 10 fois le champ magnétique terrestre. Les spectromètres étaient même généralement entourés d'une barrière en bois et d'une chaîne en plastique rouge et blanche pour éviter que l'on ne s'approche trop près du spectromètre avec des éléments métalliques, et surtout ferromagnétiques (fer, cobalt, nickel) qui pourraient être attirés par l'aimant. Selon les spectromètres, on utilise encore parfois le marquage au sol et une barrière. Réciproquement, la présence d'un élément mouvant dans le champ provoquait une perturbation du champ magnétique pendant une expérience de RMN. Cet état de fait empêchait de placer des spectromètres proches les uns des autres.
À l'intérieur de la ligne des 5 gauss, la piste magnétique d'une carte bancaire peut être effacée, les montres mécaniques magnétisées, les pacemakers déréglés et tout objet ferromagnétique peut se transformer en projectile.
Les spectromètres récents, comme celui présent sur l'image ci-contre, possèdent d'autres aimants dont le rôle est de limiter la propagation du champ magnétique principal. Ils s'opposent au champ magnétique principal à la surface du spectromètre. Ceci permet notamment de rapprocher les spectromètres d'autres matériels qui normalement, gêneraient leur fonctionnement.
Voici quelques valeurs typiques de la distance radiale en mètres entre le centre de l'aimant et la ligne des 5 gauss selon la puissance de l'aimant et son blindage1.
Spectromètre | Sans blindage | UltraShield | UltraShield Plus |
Bruker 400 MHz |
2,50 |
1,00 |
0,50 |
Bruker 600 MHz |
– |
1,80 |
0,70 |
Bruker 800 MHz |
6,10 |
2,20 |
– |
Bruker 900 MHz |
7,80 |
– |
– |
Quenchage de l'aimant
Quenchage d'un aimant RMN à 400 MHz
Le quenchage (de l'anglais to quench, éteindre) de l'aimant, contrairement à ce que suggère sa traduction française « extinction », est une condition d'alerte maximale. Il s'agit d'une surchauffe de l'aimant supraconducteur avec une évaporation massive d'hélium et un risque de détruire définitivement l'aimant. Il n'y a pas grand chose à faire si ce n'est alimenter l'aimant en hélium liquide et en azote liquide.
Comme le montre la photo ci-contre, un jet de vapeur d'hélium jaillit du spectromètre (on voit en fait la vapeur d'eau condensée à cause de la baisse de la température) et forme un nuage juste en-dessous du plafond.
Le quenchage est causé par l'apparition de bulles à la surface du conducteur de l'aimant supraconducteur. Dans la mesure où l'hélium gazeux (comme tous les gaz) est un mauvais conducteur de chaleur comparé à son équivalent liquide, le conducteur forme un point chaud. La bulle augmente de volume et se détache du conducteur mais le conducteur étant très chaud par rapport au liquide cryogénique, une nouvelle bulle se forme dès que le liquide entre en contact avec le point chaud. Tout cela se répète jusqu'à ce que :
- le liquide cryogénique arrive à refroidir le conducteur et la supraconductivité est rétablie ;
- la température du point chaud dépasse la température de fusion du conducteur. Dans ce cas, le conducteur fond, ce qui interrompt la source de chaleur... mais l'aimant est détruit.
La sonde
La sonde est un tube métallique d'environ 60 cm de long renfermant toute l'électronique d'excitation et de détection des signaux. Son extrémité est un moulage en PTFE et dont les trous obliques permettent aux spinners de tourner sur eux-mêmes grâce à la présence d'air comprimé. Cette sonde est insérée par le bas du spectromètre et maintenue par des vis. Chaque sonde possède au moins 3 canaux de détection/excitation : le deutérium pour le lock, le proton et un noyau X. Ci-contre, une sonde 19F/1H. Cette sonde possède 3 canaux : 1H, 2H et 19F.
Photo d'une sonde DUAL 19F/1H 200 MHz Bruker.
Il existe un certain nombre de sondes différentes selon leurs capacités et la façon dont les bobines d'excitation/détection sont organisées :
- DUAL : une sonde dite DUAL est en général une sonde permettant la détection d'un noyau X (le plus souvent le 13C) avec des bobines de découplage du proton à l'extérieur ;
- BB (Broad Band, large bande) : les sondes BB peuvent être utilisées pour presque tous les noyaux X. On retrouve souvent, pour ce type de sondes, des codes différents :
- BBI : « I » signifie une détection « inverse », c'est-à-dire que les bobines proton sont à l'intérieur (au plus proche de l'échantillon) tandis que les bobines X sont à l'extérieur. Ce type de sondes est optimisé pour les séquences d'impulsions dites en détection inverse ;
- BBO : « O », pour observe, indique que les bobines X sont les plus proches de l'échantillon et les bobines proton à l'extérieur.
- gr : « gr » signifie gradient. Il s'agit de la capacité d'une sonde à générer un « gradient de champ » selon l'axe z. Ceci est d'une importance capitale dans les expériences modernes de RMN de corrélation.
Excitation et détection
Les bobines d'excitation sont parcourues par des courants de 1-2 kV (2-5 kV en RMN du solide) tandis que les bobines de détection détectent des signaux de quelques µV, soit un rapport de l'ordre de un pour un milliard. Il est donc indispensable de protéger les circuits de détection pendant l'excitation, par exemple en les mettant à la terre. Les séquences d'impulsions intègrent toutes un délai entre la fin de l'excitation et le début de l'acquisition afin de permettre la dissipation de l'énergie résiduelle et de reconnecter les bobines de détection.
Zoom sur le début d'une FID
On imagine souvent que ce genre d'interrupteur électronique est quasi instantané mais c'est loin d'être le cas. En outre, pour du matériel aussi onéreux, il est préférable d'assurer sa longévité. Aussi, l'activation des bobines de détection prend environ 10 ms. On peut observer ce phénomène au tout début d'une FID : si l'on considère la totalité de la FID, il semble que le signal maximum se trouve au tout début de la FID mais si l'on effectue un zoom sur cette zone, on voit tout de suite qu'une onde de haute fréquence augmente exponentiellement avant la vraie FID.
Dans l'exemple ci-contre, le zoom sur la première partie de la FID montre l'activation des bobines de détection immédiatement suivie de la FID. On peut noter que le logiciel de traitement a automatiquement détecté le début de la vraie FID en ajustant l'axe des abscisses pour que 0,0 corresponde au début de la FID. Ceci est très important pour effectuer une transformée de Fourier discrète car les points précédant le début de la FID ne doivent pas être inclus dans la transformée de Fourier discrète.
Accord de la sonde
Chaque bobine de la sonde a une certaine impédance. Dans le cas de la RMN, le champ magnétique B0 est fixe mais varie lentement avec le temps, ce qui fait qu'il n'est pas possible de régler l'impédance a priori. Chaque sonde possède donc un moyen d'ajuster avec précision l'impédance des bobines pour chaque noyau. C'est ce que l'on appelle accorder la sonde.
Puissance incidente vs puissance réfléchie
Dans son principe, une sonde agit comme une antenne puisqu'elle émet et reçoit des radiofréquences. Dans le cas idéal, l'impédance de l'antenne correspond à celle de l'amplificateur et la puissance incidente (reçue par l'antenne) est maximale. Dans le cas contraire, l'antenne réfléchit une partie de la puissance, c'est la puissance réfléchie. Voir Rapport d'ondes stationnaires.
Dans les faits, l'énergie n'est pas réellement émise par l'amplificateur puis renvoyée par l'antenne, comme un écho. Dans la mesure du possible, l'amplificateur va s'adapter pour fournir la puissance demandée en compensant la perte de puissance par exemple en augmentant le voltage. Néanmoins, si la puissance réfléchie devient trop importante, on peut aller au-delà des capacités physiques de l'amplificateur ou des bobines de la sonde : échauffement, arcs électriques (voir Arcage de la sonde, ci-dessous), détérioration voire destruction de certains composants.
Arcage de la sonde
L'excitation d'un noyau peut nécessiter une puissance de 100 à 1 000 W, ce qui correspond à plusieurs kilovolts dans les bobines. Un tel voltage peut créer, dans certaines circonstances, un arc électrique entre la bobine et une autre partie de la sonde. En électronique, on parle de claquage mais dans le cas particulier des sondes de RMN, on utilise l'anglicisme arcage (de l'anglais to arc, former un arc électrique) pour décrire ce phénomène. Il n'est pas nécessaire d'insister sur les dommages irréversibles que peuvent entraîner des arcages répétés, surtout lorsqu'ils sont longs (quelques dizaines de millisecondes).
Les bobines BB (BroadBand soit large spectre ou canal X) sont généralement optimisées pour les noyaux les plus courants, notamment 13C, 15N, 31P. En revanche, il n'est pas forcément possible d'utiliser la pleine puissance du canal X sur tous les noyaux à cause de ce phénomène. On doit donc diminuer l'intensité de l'impulsion, ce qui en augmente la durée et ce qui ne permet d'exciter qu'une plus petite gamme spectrale.
Exemple d'une sonde DUAL 19F/1H
Description des entrées/sorties d'une sonde DUAL 19F/1H 200 MHz.
Ci-contre se trouve une photo d'une sonde DUAL 19F/1H. On distingue :
- l'étiquette bleue indiquant :
- pour quel spectromètre cette sonde a été fabriquée (ici un 200 MHz), d'où l'indication 1H = 200 MHz en haut à gauche ;
- le diamètre des tubes (ø = 5 mm, en haut à droite), soit 5 mm ;
- au-dessus de chaque prise coaxiale, le canal associé soit, de gauche à droite, 2H, 1H et 19F.
En-dessous de la sonde, on distingue :
- les vis d'accord de la sonde. La couleur des bagues autour de chaque vis correspond à la couleur autour de la prise coaxiale pour un noyau donné. Ici, le jaune pour le proton et le bleu pour le fluor 19 :
- les bagues portent la mention « M » pour matching ou « T » pour tuning ;
- une prise de détection de la température ;
- une entrée, plus large, pour introduire une résistance (thermocouple) permettant de chauffer l'air introduit dans la sonde ;
- une vis de maintien pour fixer la sonde ;
- une entrée d'air comprimé (non-visible) sous forme d'un rodage hémisphérique.
L'électronique
Le préamplificateur
Préampli Bruker 3 canaux.
Les différents canaux de la sonde sont reliés à un préamplificateur généralement posé à côté du spectromètre. Ceci est dû au fait que la sonde détecte des courants de l'ordre du µV et que la ligne des 5 gauss oblige(ait) à placer l'armoire électronique loin de l'aimant. Pour éviter la perte de signal et l'accumulation de parasites, on minimise(ait) la distance entre la sonde et le préamplificateur. Avec les aimants ultra-blindés, l'armoire électronique peut se trouver à 1 m de l'aimant et certaines consoles récentes intègrent le préamplificateur.
Chaque partie du préamplificateur est optimisée pour un certain noyau (par exemple 1H, 2H, 19F) ou groupe de noyaux (noté X).
Selon la sonde et les expériences menées, on ajoute aux câbles reliant la sonde au préamplificateur de petits boitiers servant de filtre pour exclure certaines fréquences. Par exemple, le proton et le fluor 19 ont des fréquences de résonance très proches. Afin de pouvoir détecter le signal du fluor 19 correctement, il est indispensable d'ajouter un filtre pour supprimer les fréquences proton, et vice-versa.
L'armoire électronique (console)
La dite armoire électronique, aussi appelée la console, est une armoire métallique, ventilée et protégée des parasites électromagnétiques d'environ 1-1,3 m de hauteur et qui contient toute l'électronique permettant de contrôler la sonde : excitation, détection, conversion analogique/numérique, température, contrôle de la pression d'air comprimé, etc. Elle communique avec l'ordinateur en général via une connexion Ethernet.
-
Armoire électronique d'un Bruker Avance III 400 MHz.
-
Autre armoire (Bruker Avance III 500 MHz).
L'ordinateur
L'ordinateur est aujourd'hui le point initial et final de la transmission de l'information, ce qui n'était pas le cas dans les années 1990. L'ordinateur contrôle l'armoire électronique et reçoit les informations provenant de la sonde à travers toute l'électronique utilisée. Il centralise tout, y compris l'utilisation d'un passeur d'échantillons.
Installation
L'installation d'un spectromètre RMN est loin d'être une chose aisée : elle peut coûter à elle seule plusieurs centaines de milliers d'euros et durer 10-15 jours. À ceci s'ajoutent des frais liés à la mise en conformité de la salle dans laquelle le spectromètre va être installé.
Le transport d'un aimant tel un 950 MHz est loin d'être aisé. D'autre part, il faut trouver un point d'accès pour pouvoir faire entrer le spectromètre dans la salle, ce qui justifie le fait que le vendeur inspecte avec soin les lieux avant d'effectuer la livraison.
Sol et air climatisé
Le sol doit être capable de supporter le poids du spectromètre. Un vieux carrelage qui commence à s'effriter doit être enlevé et remplacé avant l'installation. D'autre part, les spectromètres et leur console sont prévus pour fonctionner dans une pièce à 21-22 °C. Ceci requiert d'installer une climatisation très puissante et homogène.
Pour de très gros spectromètres, il est nécessaire que le toit puisse s'ouvrir afin d'installer le spectromètre à l'aide d'une grue.
Installation illustrée
Voici l'exemple en images de l'installation d'un spectromètre Bruker 400 MHz UltraShield au Service Commun d'Analyse des équipes de recherche de la Faculté de pharmacie de Strasbourg2 (en fait située à Illkirch-Graffenstaden). Il ne s'agit que d'un exemple, puisque chaque installation est unique.
- Premier jour : installation et mise en équilibre de l'aimant. Ce dernier a besoin d'être correctement positionné par rapport au sol. On règle donc les amortisseurs pour que le canon de shim soit bien vertical. Il s'agit également de placer le haut des bobines de l'aimant supraconducteur à l'horizontale pour ajuster le niveau d'hélium liquide.
- Avant de pouvoir charger l'aimant supraconducteur, il faut impérativement l'amener à une température permettant la supraconduction. Pour ce faire, il faut remplir le Dewar externe d'azote liquide (très bon marché) puis remplir le Dewar interne, contenant l'aimant, avec de l'hélium liquide (beaucoup plus cher parce que plus rare dans l'atmosphère). Il faut compter au moins 1-2 jours pour effectuer cette opération.
- Deuxième jour : mise sous vide des Dewars d'hélium et d'azote. Lorsque l'on remplit un récipient, notamment lorsqu'il est plein d'électronique, avec un liquide cryogénique, on va créer des bulles de gaz partout dans le système. Pour un aimant supraconducteur, cela peut mener au guenchage de l'aimant (ci-dessus), une situation qui peut être critique. Pour cette raison, il est préférable de faire le vide dans les vases Dewar du spectromètre avant d'injecter l'azote ou l'hélium liquide.
- Troisième jour : purge des vases Dewar par de l'azote liquide.
- Quatrième jour : remplissage du vase d'hélium (pas de photo).
- Cinquième jour : connexion de la console (pas de photo).
- Sixième jour : chargement de l'aimant (montée en champ). Une fois l'aimant à température cryogénique, un chargeur dédié est utilisé pour charger l'aimant supraconducteur : cette étape est appelée la « montée en champ ». On plonge dans le Dewar d'hélium liquide une canne qui se connecte à l'aimant. Pour un aimant à 400 MHz, ce chargeur délivre un courant de 105 A3. Le chargement de l'aimant est une phase critique pendant laquelle on peut observer un quenchage de l'aimant (voir ci-dessus). C'est d'ailleurs ce qui s'est passé dans cet exemple.
- Septième jour : nouvel essai de montée en champ.
- Dixième au douzième jour : mise en place du passeur d'échantillons. Ce dernier fonctionne au millimètre près, il faut donc l'installer avec soin.
-
1er jour : installation et mise en équilibre de l'aimant.
-
2e jour : mise sous vide des vases Dewar (azote et hélium)4.
-
3e jour : purge des vases Dewar avec de l'azote liquide. Les cheminées les plus hautes concernent l'hélium, les plus petites, l'azote.
-
6e jour : la canne de chargement a été introduite dans le Dewar d'hélium liquide5.
-
-
10-12e jours : installation du passeur d'échantillons au millimètre près.
Après la montée en champ
Une fois la montée en champ effectuée, on procède notamment à l'étalonnage des impulsions pour les différents noyaux et les différentes sondes, ainsi qu'à l'étalonnage des gradients de champ pour les sondes « gr ».
Notes et références
- Almanac 2007, Bruker Biospin, 2007, p. 27. Disponible comme application gratuite sur mobiles et tablettes.
- Faculté de pharmacie de Strasbourg [archive]
- Pour comparaison, un logement typique en France dispose d'une alimentation de 15, 30 ou 45 A (sous 220 V).
- La pompe à vide est en orange au premier plan.
- On observe juste son extrémité (un boitier gris relié aux câbles orange en haut à gauche).
Articles connexes
- Spectroscopie RMN
- Journal Reference:
- Achievement of 1020 MHz NMR. Journal of Magnetic Resonance, 2015; 256: 30 DOI:10.1016/j.jmr.2015.04.009
Analyse
Pour l’article ayant un titre homophone, voir Annalise.
Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom.
Sur les autres projets Wikimedia :
Le mot analyse est employé dans différentes matières. Ces différentes significations ne partagent pas seulement le même nom, mais sont véritablement des applications particulières d'un concept commun.
- En philosophie, l'analyse est une méthode qui s'oppose à la synthèse. Elle vise à comprendre un objet en le décomposant en ses constituants. Elle établit donc tout d'abord des critères permettant d'identifier les composants.
- En psychanalyse, l'analyse est la démarche d'un analysant lors d'une cure.
- En géographie et plus particulièrement en démographie, l’analyse est de deux types : l’analyse longitudinale, qui consiste à mesurer (mesure longitudinale) les phénomènes à partir d’un événement initial où l’on peut distinguer les générations ou les cohortes (naissances, mariages, migrations) ; l’analyse transversale, qui permet de mesurer (mesure transversale) un phénomène au cours d’une période déterminée, généralement l’année civile.
- En politique, l'analyse consiste à éclairer un sujet en faisant éventuellement appel à une grille d'analyse. On parle également de décryptage d'un événement ou une situation.
- En économie, l'analyse force faiblesse opportunité menace est un concept d'intelligence économique.
- En renseignement, l'analyse est une étape du cycle du renseignement qui est pratiqué au sein des services de renseignement. C'est le travail de l'analyste. Elle consiste à transformer les données et informations recueillies à partir de sources en produit utile aux décideurs politiques.
- En mathématiques, l'analyse est une branche de cette science qui est constituée du calcul différentiel et intégral et des domaines associés. Alternativement, analyse peut désigner la première phase d'un raisonnement par analyse-synthèse.
- En chimie, l'analyse consiste à déterminer les constituants d'un produit.
- En biologie, l'analyse génétique est la technique cherchant à déterminer le génome des cellules d'un organisme.
- En informatique et plus particulièrement en génie logiciel, la phase d'analyse est la première étape de la conception de logiciel.
- En grammaire, l'analyse d'un segment de discours consiste à évaluer la forme et la fonction de ses éléments constitutifs. On distingue l'analyse du mot ou analyse grammaticale, l'analyse de la proposition ou analyse fonctionnelle, et l'analyse de la phrase ou analyse logique.
- L'analyse sémantique, qui établit le sens d'une phrase perçue.
- En littérature, l'analyse est une méthode structurée pour étudier une œuvre.
- En arts plastiques, l'analyse d'œuvre extrait les sens de la composition graphique et expose les références culturelles nécessaires.
- Parmi les méthodes scientifiques, différentes méthodes analytiques sont mises en œuvre comme la méta-analyse.
- En musique, l'analyse est l'étude de la structure formelle, mélodique, harmonique et rythmique des œuvres musicales.
- Au jeu d'échecs, il existe plusieurs pratiques de l'analyse des parties : l'analyse ou analyse post-mortem permet aux deux joueurs, à la fin d'une partie, de revoir les moments-clés de celle-ci ; la variante porte sur une séquence et c'est l'analyse rétrograde qui permet d'identifier le coup antérieur à une situation donnée débouchant sur un enchaînement inéluctable.
- Paralysie d'analyse.
Voir aussi
Catégories :
Séquenceur d'ADN
Séquenceur d'ADN
séquenceur ABI PRISM 3100 Genetic Analyzer
Un séquenceur de gènes est un appareil capable d'automatiser l'opération de séquençage de l'ADN. Un séquenceur sert à déterminer l'ordre des bases nucléiques d'un échantillon d'ADN et à le présenter, après traitement, sous forme d'une suite de lettres, appelée read ou lecture, représentant des nucléotides. Les grands projets de séquençage, tels ceux de déchiffrage de génomes entiers, ne sont concevables que s'il existe des appareils permettant d'augmenter la productivité des agents humains. On peut considérer certains séquenceurs comme des appareils optiques, vu qu'ils analysent les signaux lumineux émis par des fluorochromes fixés aux nucléotides.
Le principe de la réaction de séquençage utilisée dans les séquenceurs est dérivé de celui de la méthode de Sanger. Il se fonde toujours sur l'utilisation de di-désoxy-nucléotides (dd-NTP), mais peaufiné par l'utilisation de marqueurs fluorescents à la place de marqueurs radioactifs.
Les instruments les plus modernes de séquençage automatique de l'ADN sont capables de lire jusqu'à 384 échantillons marqués à la fluorescence d'un coup (run) et réaliser jusqu'à 24 runs en une journée. Ces instruments n'effectuent que la séparation des brins et la lecture des pics ; les réactions de séquençage, la purification et la resuspension dans un tampon approprié doivent se faire séparément, le plus souvent à la main.
La magnitude du signal de fluorescence est liée au nombre de brins d'ADN présents dans la réaction. Si la quantité initiale d'ADN est petite, le signal sera faible. Cependant, les propriétés de la PCR permettent d'augmenter le signal en augmentant le nombre de cycles dans le programme de la PCR.
Automatisation
Plusieurs séquenceurs d'ADN
Elle requiert l'emploi :
- d'un système piloté par ordinateur d'électrophorèse,
- de marqueurs fluorescents dont la lumière réfléchie après excitation par un laser est captée par une cellule CCD,
- d'une suite logicielle permettant l'analyse des signaux sortant de l'appareil et leur mise en forme sous forme de résultats (électrophorégramme et séquence),
- d'un robot passeur d'échantillon permettant d'enchaîner les échantillons les uns à la suite des autres (notamment passage de plaques de réaction à 96 puits (12×8)).
Séquenceurs à plaques
On fait passer quatre réactions de séquençage (1 pour chaque type de nucléotide) sur 4 lignes différentes ou non.
Séquenceurs capillaires
Un séquenceur de gène capillaire utilise des tubes capillaires de verre de seulement quelques microns de diamètre, sur plusieurs dizaines de centimètres de longueur (30 à 50 cm en général), pour réaliser la séparation des brins d'ADN durant l'électrophorèse.
Les quatre nucléotides passent dans le même tube capillaire. Il faut donc utiliser quatre marqueurs fluorescents différents pour caractériser les quatre nucléotides du brin d'ADN séquencé (adénine, guanine, thymine, cytosine).
Séquenceur monocapillaire
Muni d'un seul capillaire. Une seule migration électrophorétique a lieu à la fois.
Séquenceur multicapillaire
Avec généralement un nombre de capillaires multiple de 2 (2, 4, 8, 16, 96…) On multiplie ainsi le nombre de migrations simultanées, ce qui permet de passer un plus grand nombre d'échantillons dans le même laps de temps.
Constructeurs
Séquenceurs capillaires
Séquenceur haut débit
Depuis 2005 de nouvelles méthodes de séquençage massif ayant en commun le clonage et l'amplification moléculaire ont été développées. Ces méthodes permettent d’amplifier spécifiquement un fragment d’ADN isolé soit dans des microgouttes d’huiles (GS-FLX, Roche) soit par fixation sur lame (Solexa). Les étapes de clonage bactérien particulièrement longues sont ainsi évitées. Trois méthodes utilisent actuellement ce nouveau système :
- le GS Flex basé sur l'amplification de l'ADN lié spécifiquement à une bille en émulsion et le pyroséquençage (luminescence par libération de pyrophosphate)
- le Solexa basé sur l'amplification, l’accrochage-liaison sur puce et l'utilisation de terminateurs de chaîne réversibles marqués par des fluorochromes,
- le SOLiD basé sur l'amplification par émulsion et l'hybridation-ligature chimique.
Ces méthodes offrent de nouvelles perspectives dans de nombreux domaines tels que la génomique médicale (impact majeur dans le diagnostic, les traitements et la prévention des maladies génétiques) et la métagénomique (permettant une approche sans isolement des génomes environnementaux). Cependant, ces avancées posent de nouveaux problèmes dans la compilation, l'étude et la fiabilité des résultats. Il devient donc nécessaire de développer la bio-informatique et ainsi de créer une relation solide entre la théorie et l'expérimentation.
Autres applications
Références
Articles connexes
Carbone 14
table
Production cosmogénique
Isotope cible | Réaction |
14 7N |
(n, p) |
Désintégration radioactive
Désintégration | Produit | Énergie (MeV) |
β− |
14 7N |
0,156476 |
modifier
Le carbone 14, noté 14C, est l'isotope du carbone2,3,4 dont le nombre de masse est égal à 14 (c'est un isobare de la forme la plus commune de l'azote) : son noyau atomique compte 6 protons et 8 neutrons avec un spin 0+ pour une masse atomique de 14,003 241 99 g/mol. Il est caractérisé par un excès de masse de 3 019,89 keV et une énergie de liaison nucléaire par nucléon de 7 520 keV1. Le carbone 14 a longtemps été le seul radioisotope du carbone à avoir des applications. Pour cette raison, il était appelé radiocarbone5.
Un gramme de carbone 14 pur présente une activité de 164,9 GBq. L'unique mode de désintégration est l'émission d'une particule β de 156 keV en se transmutant en azote 14N ; avec une période radioactive de 5 730 ± 40 ans, selon la réaction :
- 14
6C ⟶ 14
7N + e− + νe.
Sur Terre, le carbone 14 est formé lors de l'absorption de neutrons par des atomes d'azote de la stratosphère et des couches hautes de la troposphère et l’expulsion d'un proton (et d'un électron) :
- 14
7N + 1
0n ⟶ 1
1p + 14
6C,
que l'on résume en :
- 14N (n, p) 14C.
Les neutrons proviennent de la collision des rayons cosmiques avec les noyaux d'atomes de l'atmosphère, principalement l'azote[réf. souhaitée].
Applications
L'application la plus connue du carbone 14 est la datation mais il est aussi utilisé comme traceur biologique ou plus récemment pour reconstituer l'évolution au cours des derniers millénaires du climat, du champ magnétique ou de l'activité solaire6.
Découverte
Le carbone 14 a été découvert le par Martin Kamen du Radiation Laboratory et Samuel Ruben du département de Chimie de l'université de Californie à Berkeley.
Dès 1934, à Yale, Franz Kurie suggère l'existence du carbone 14. Il observe en effet que l'exposition d'azote à des neutrons rapides produit parfois dans une chambre à brouillard de Wilson une longue trace fine au lieu de la courte trace plus épaisse laissée par une particule alpha. Dès 1936, il est établi que les neutrons rapides réagissent avec l'azote pour donner du bore tandis que les neutrons lents réagissent avec l'azote pour former du carbone 14. Ceci correspond à la « découverte au sens physique » du carbone 14 par opposition à sa « découverte au sens chimique », c'est-à-dire sa production en quantité suffisante pour pouvoir mesurer une activité.
Kamen et Ruben collaborent à des recherches interdisciplinaires sur les traceurs biologiques dans le but de déterminer le produit initial de la fixation du dioxyde de carbone lors de la photosynthèse. L'utilisation du carbone 11 comme traceur est très difficile en raison de sa courte période radioactive (21 minutes). Ruben essaye cependant de développer une technique d'étude de la photosynthèse : il fait pousser une plante en présence de dioxyde de carbone contenant du carbone 11, la tue, puis sépare et analyse ses composants chimiques, avant que la radioactivité ne devienne indétectable, pour trouver quels composants contiennent le traceur. L'échec de cette technique stimule la recherche d'un autre isotope radioactif à plus longue période radioactive, le carbone 14.
Une des principales sources de financement du Radiation Laboratory est la fabrication dans ses cyclotrons de radioisotopes pour la recherche biomédicale. À la fin de l'année 1939, Ernest Orlando Lawrence, directeur du Radiation Laboratory, est inquiet de la concurrence d'isotopes stables rares comme le carbone 13, l'azote 15 ou l'oxygène 18 qui peuvent se substituer aux radioisotopes comme traceurs biologiques. Il offre à Kamen et Ruben un accès illimité aux cyclotrons de 37 et 60 pouces pour rechercher des radioisotopes de périodes radioactives plus élevées pour les principaux éléments présents dans les composés organiques : hydrogène, carbone, azote ou oxygène.
Cette campagne de recherche systématique commence par le carbone. Kamen et Ruben bombardent du graphite avec des deutons (noyaux de deutérium). La faible activité qu'ils mesurent le , d'environ quatre fois le bruit de fond, confirme l'existence du carbone 14 avec une période radioactive qui se révèle bien supérieure (plusieurs milliers d'années) à ce que prévoyait la théorie. Cette période radioactive très longue, et donc la faible activité du carbone 14, explique pourquoi celui-ci n'a pas été découvert auparavant.
Kamen et Ruben constatent par la suite que la réaction de neutrons lents avec de l'azote pour donner du carbone 14 est nettement plus productive que la réaction deuton-carbone 13.
L'application du carbone 14 comme traceur biologique reste toutefois limitée par son coût de production, le cyclotron étant la seule source de neutrons disponible.
Après la Seconde Guerre mondiale, le développement des réacteurs nucléaires, qui utilisent le graphite comme modérateur, autorise la production massive de carbone 14, dont l'emploi se répand dans tous les domaines de recherche biomédicale.
Le carbone 14 comme polluant
Accidents industriels
En tant que radionucléide artificiel, le carbone 14 peut aussi quand il a été accidentellement ou volontairement libéré dans l'environnement être un polluant. Ainsi, à titre d'exemple, en France, près d'un ancien laboratoire de la société Isotopchim au lieu-dit « le Belvédère de Ganagobie » (30 km au nord-ouest de Forcalquier, dans les Alpes-de-Haute-Provence), des arbres ont bioaccumulé (de 1989 à 1997) des quantités significatives de carbone 14 provenant de rejets atmosphériques du laboratoire voisin qui produisait des marqueurs moléculaires radioactifs pour la chimie fine. L'IRSN a produit une fiche7 sur le 14C et l'environnement, après avoir évalué les conséquences radiologiques de deux hypothèses qui étaient :
- le maintien du site en l'état, en particulier en laissant sur place les arbres et en continuant l’entretien du site qui est fait actuellement ;
- l’enlèvement total ou partiel des arbres contaminés.
Les conclusions de l'IRSN sont que maintenir sur place des arbres conduit à un risque radiologique infime pour les riverains (moins d’un centième de dose annuelle due au carbone 14 présent naturellement dans l’environnement qui est de 12 microsievert), les conséquences pour les arbres ou l'écosystème étant difficiles à évaluer8.
Des cas particuliers existent9 dont le carbone 14 d'essais nucléaires ou d'accidents (la catastrophe de Tchernobyl en particulier) ayant été capté et piégé par des plantes annuelles près du lieu d'un accident (ex. : Artemisia absinthium après l'accident de Tchernobyl)9, et surtout par des arbres, qui dans leurs racines et dans leurs cernes peuvent piéger ce 14C pendant toute leur durée de vie. Dans la partie la plus biodisponible de l'arbre, il est principalement localisé dans l'épaisseur de quelques cernes de croissance correspondant à l'époque de la contamination (bois formé durant quelques années, avant que le 14C n'ait eu le temps d'être dilué dans l'environnement) ; voir illustrations. Il peut être relargué lors d'incendies de forêt. Des années après, il pourra aussi repasser dans l'écosystème via les insectes xylophages et saproxylophages qui consommeront ces cernes « radiomarqués », ou les champignons qui le dégraderont.
Centrales électriques au charbon
Les centrales au charbon n'émettent, compte tenu de l'âge de la houille, que du carbone 12 (et du carbone 13) et diminuent légèrement la teneur en carbone 14 dans l'atmosphère, les océans et à la surface terrestre. La radioactivité du charbon se trouve dans les cendres et est constituée principalement par celle de l'uranium, du radium et du thorium.
Essais nucléaires
Après la Seconde Guerre mondiale et le premier usage de la bombe atomique, les nombreux essais nucléaires atmosphériques des années 1960 ont libéré une grande quantité de divers radionucléides et radioisotopes (dont le carbone 14) dans l'air ; assez pour doubler le taux normal de 14C de l'atmosphère10, et par suite pour le faire augmenter dans la biomasse10 (et par suite dans la nécromasse).
L'écotoxicologie et la toxicologie nucléaire considèrent — hors quelques exceptions (voir plus bas) — que ce carbone 14 s'est largement dilué dans l'air et les mers, et que la part du 14C artificiel n'est plus distinguable de celui circulant naturellement (dont dans la biomasse qui contient plus de cent fois plus de carbone que ce que contient tout l'air de la planète10).
Le stock global de carbone 14 de la biomasse a presque partout retrouvé son niveau d’activité d'origine.
Les spécialistes (et l'IRSN en France) considèrent que « Les scénarios catastrophiques de bioaccumulation rencontrés dans le cas de toxiques comme le mercure ou le DDT sont donc exclus dans le cas du carbone 14 »10.
Incidence sur la radiodatation
Une conséquence de faibles rejets de carbone 14 dans l'environnement est de créer pour les chercheurs du futur des « anomalies » dans une datation par le carbone 14 faite sur les tissus ainsi marqués. Le carbone 14 ajouté artificiellement aura pour effet de fausser les résultats de la datation en donnant des âges apparents plus bas que ce qu'ils sont réellement, pouvant aller jusqu'à afficher des âges apparents négatifs si le marquage en carbone 14 est suffisamment important.
Inversement, la végétation le long des autoroutes et axes de grande circulation automobile présente un marquage négatif : le gaz carbonique métabolisé par cette végétation provenant majoritairement de combustibles fossiles, dont le carbone 14 a disparu après quelques dizaines de milliers d'années, l'équilibre isotopique qui y est relevé peut correspondre à des datations de plusieurs milliers d'années, pour des plantes pourtant encore sur pied.
Radioactivité naturelle
Avec le potassium 40, le carbone 14 constitue la deuxième source de radioactivité du corps humain.
Notes et références
- (en) « Live Chart of Nuclides: 14
6C
8 » [archive], sur https://www-nds.iaea.org/ [archive], AIEA, (consulté le ).
- « Carbone » [archive], dans le Dictionnaire de l'Académie française, sur Centre national de ressources textuelles et lexicales (sens 1) [consulté le 30 mai 2016].
- Définitions lexicographiques [archive] et étymologiques [archive] de « carbone » dans le Trésor de la langue française informatisé, sur le site du Centre national de ressources textuelles et lexicales [consulté le 30 mai 2016].
- Entrée « carbone 14 » [archive], sur Dictionnaires de français (en ligne), Larousse (consulté le ).
- Définitions lexicographiques [archive] et étymologiques [archive] de « radiocarbone » dans le Trésor de la langue française informatisé, sur le site du Centre national de ressources textuelles et lexicales [consulté le 30 mai 2016].
- (en) T. J. Heaton, E. Bard, Bronk Ramsey, M. Butzin, P. Köhler, R. Muscheler, P. J. Reimer et L. Wacker, « Radiocarbon: A key tracer for studying Earth’s dynamo, climate system, carbon cycle, and Sun », Science, vol. 374, no 6568, (DOI 10.1126/science.abd7096, lire en ligne [archive]).
- IRSN, Fiche pédagogique sur le 14C et l'environnement [archive]
- Bilan IRSN 2009 de la surveillance radiologique de l’environnement en France : vers une évolution de la stratégie de surveillance [archive], 3 février 2011
- Grodzinsky, D. M. (1995c), Ecological and biological consequences of Chernobyl catastrophe. 4. In: Bar’yakhtar, V. G. (éd.), Chernobyl Catastrophe: History, Social, Economics, Geochemical, Medical and Biological Consequence (Naukova Dumka, Kiev), (ru) « lire en ligne »(Archive.org • Wikiwix • Archive.is • http://www.stopatom.slavutich.kiev.ua" rel="nofollow" class="external text">Google • Que faire ?).
Voir aussi
Bibliographie
Articles connexes
Alambic
Pour l’article ayant un titre homophone, voir Halambique.
Dessin d'un alambic de laboratoire.
Un alambic est un appareil destiné à la séparation de produits par chauffage puis refroidissement (distillation).
Historique
Alambic représenté sur un manuscrit médiéval.
Le mot alambic vient de l'arabe al 'inbïq, lui-même emprunté au grec tardif ambix (= vase). L'alambic fut d'abord utilisé pour fabriquer des eaux florales, des huiles essentielles ou des médicaments, avant de permettre la production d'eaux-de-vie par distillation de jus de fruits fermentés1. Le type le plus ancien qui nous soit parvenu date de et provient du site mésopotamien de Tepe Gawra au Nord de l'Irak2. On trouve la plus vieille mention d'un alambic sur une tablette babylonienne en cunéiforme vers 3. Cette tablette mentionne également Tapputi, une parfumeuse babylonienne considérée comme la toute première chimiste4. Dans la période récente, Abu Al-Qasim (Aboulcassim) aurait décrit un alambic au XIe siècle et celui-ci aurait été inventé par Jabir ibn Hayyan (ou Geber en latin) au VIIIe siècle5.
Composition d'un alambic classique
L'alambic est composé habituellement de quatre parties :
- le corps ou chaudière ou encore cucurbite, élément dans lequel se trouvent les liquides à distiller, est chauffé directement sur un foyer ou sert de bain-marie ;
- le chapiteau recouvre la chaudière et est muni d'un tube conique dans lequel les vapeurs vont s'élever ;
- le col de cygne, tube primitivement conique et en arc de cercle (d'où le nom) puis cylindrique et rectiligne sur les appareils plus modernes, qui amène les vapeurs dans le condenseur ;
- le serpentin ou condenseur, tube en hélice à axe vertical sur les parois duquel les vapeurs se condensent par l'effet du refroidissement dû au liquide circulant autour. Les plus anciens appareils avaient un condenseur rectiligne plus ou moins incliné.
Alambic à double distillation
Généralement l'alambic à double distillation permet de séparer les esters, plus volatils et donnant un mauvais goût, de l'alcool éthylique. Avant l'invention de la double distillation, on parfumait les eaux-de-vie avec diverses substances (genièvre, anis…) à goût fort pour masquer le mauvais goût des esters. D'où la survivance de boissons telles le gin ou les anis.[réf. nécessaire] Pratiquer une double distillation se dit « cohober » dans le jargon des liquoristes, et le petit alambic qui y est destiné est appelé « cohobateur. »
Galerie
-
Alambic de la distillerie Claeyssens à Wambrechies, France.
-
Alambic de mesure du degré alcoolique du vin.
-
-
Ancien alambic municipal de Cussay en France.
-
-
-
Notes et références
- (en) R.J. Forbes, Short History of the Art of Distillation, Leyde, E.J. Brill, , 406 p.
- Pierre Germa, Depuis quand ? : le dictionnaire des inventions, p. 19.
- Martin Levey, Early Arabic Pharmacology: An Introduction Based on Ancient and Medieval Sources, Brill Archive, (ISBN 90-04-03796-9), p. 9.
- Strathern, Paul, Mendeleyev's Dream - The Quest For the Elements, New York, Berkley Books, .
Annexes
Sur les autres projets Wikimedia :
Articles connexes
Liens externes
[masquer]
|
Géographes |
8e siècle |
|
9e siècle |
|
10e siècle |
|
11e siècle |
|
12e siècle |
|
13e siècle |
|
14e siècle |
|
|
Concepts |
|
Ouvrages |
|