Un radar météorologique est un type de radar utilisé en météorologie pour repérer les précipitations, calculer leur déplacement et déterminer leur type (pluie, neige, grêle, etc.). La structure tridimensionnelle des données obtenues permet également d'inférer les mouvements des précipitations dans les nuages et ainsi de repérer ceux qui pourraient causer des dommages. Enfin, en se servant des précipitations comme traceurs, on peut en déduire la direction radiale et la vitesse des vents dans la basse atmosphère.
Durant la Seconde Guerre mondiale, les opérateurs radars ont remarqué que des échos parasites semblaient venir des précipitations et des techniques furent mises au point pour filtrer ces échos gênants. Cependant, les scientifiques ont rapidement reconnu le potentiel pour la météorologie et dès la fin du conflit, des radars militaires mis à disposition furent utilisés pour la détection des précipitations. Aujourd'hui, les radars météorologiques sont utilisés par les services météorologiques nationaux, les aéroports, les départements de recherche universitaires en météorologie et même les chaînes de télévision dans leurs bulletins d'information quotidiens.
Les données brutes de ces radars peuvent être utilisées pour faire des images ou être traitées par des logiciels spécialisés qui extrapoleront à court terme leur déplacement (prévision immédiate). Leurs informations peuvent même être chargées dans les modèles de prévision numérique du temps afin d'améliorer leur analyse de la situation météorologique, ce qui leur permettra de faire de meilleures prévisions.
Histoire
Opérateur radar d'un ancien radar météorologique
En 1864, James Clerk Maxwell décrit les lois de l’électromagnétisme ce qui permet pour la première fois de travailler sur leur source. En 1889, Heinrich Rudolf Hertz montre que les ondes électromagnétiques sont réfléchies par les surfaces métalliques. Dans les premières décennies du XXe siècle, plusieurs inventeurs, scientifiques, et ingénieurs de divers pays ont contribué au développement du radar, juste à temps pour le début de la Seconde Guerre mondiale. Durant le conflit, les opérateurs des radars micro-ondes des armées alliées remarquèrent de la contamination qui s’avéra être des échos venant des précipitations (pluie, neige, etc.). Juste après la guerre, les scientifiques militaires, qui avaient déjà commencé leur recherche sur les phénomènes rapportés, ont continué leur travail tant dans la vie militaire que civile.
Aux États-Unis, David Atlas est un des pionniers de la météorologie radar pour le groupe de l’armée de l’air et plus tard avec le Massachusetts Institute of Technology1. Il a participé au développement des premiers radars météorologiques opérationnels. Au Canada, J. Stewart Marshall et R.H. Douglas forment le « Stormy Weather Group » à l’Université McGill de Montréal2,3. Marshall et son étudiant Walter Palmer sont reconnus pour avoir travaillé sur la distribution du diamètre des gouttes dans les précipitations ce qui a mené à la relation entre la réflectivité (Z), le retour d’intensité des précipitations, et le taux de précipitations (R) au sol communément appelé relation Z-R. En Grande-Bretagne, les recherches se poursuivirent pour relier les signatures des échos aux caractéristiques des précipitations et sur les possibilités qu’offrent les différentes longueurs d'onde entre 1 et 10 centimètres.
Entre 1950 et 1980, les différents services de météorologie à travers le monde construisent des radars météorologiques pour suivre les précipitations par leur réflectivité. D’abord ces radars furent pour usage local dans les grands centres et avec un nombre limité d’angles et provenaient de surplus militaires. Ils étaient opérés en temps réel par les météorologistes qui devaient suivre les échos sur des écrans cathodiques. En 1957, le National Weather Service introduit le WSR-57, leur premier radar conçu exclusivement pour la détection des précipitations. En 1953, Donald Staggs, un ingénieur en électricité travaillant pour le Illinois State Water Survey, est le premier à noter sur les sorties de réflectivité le crochet typique associé à un orage tornadique4.
Dans les années 1970, les différents radars commencent à être organisés en réseaux avec un début de standardisation. Les premiers systèmes de capture des images ont été développés. Le nombre d’angles sondés augmente ce qui permet d’obtenir un volume de données en trois dimensions. Les coupes horizontales (CAPPI) et verticales sont développées. On étudie ainsi la structure des orages et autres nuages (entre autres par Isztar Zawadzki). Les groupes de recherche se sont multipliés à travers le monde, en particulier le NSSL aux États-Unis formé en 1964 sous la direction d'Edwin Kessler, et commencent à expérimenter sur la variation de la polarisation du signal radar ainsi que sur l’utilisation de l’effet Doppler-Fizeau. En , une tornade a frappé la ville de Union City, juste à l’ouest d'Oklahoma City. Le radar expérimental de longueur d'onde de 10 cm du NSSL a pu pour la première fois noter la vie entière de ce phénomène5. Grâce à l'effet Doppler, les chercheurs ont pu voir une rotation, appelée mésocyclone, dans le nuage orageux avant que la tornade ne se forme ce qui a convaincu le National Weather Service que cette nouvelle information serait très important pour la prévision des orages violents5.
Entre 1980 et 2000, les réseaux de radars météorologiques se généralisent en Amérique du Nord, en Europe, au Japon et dans certains autres pays. Les radars conventionnels sont remplacés par des radars pouvant détecter non seulement l’intensité des précipitations mais également leur vitesse de déplacement (effet Doppler). Aux États-Unis, l’implantation de ces radars de longueur d’onde de 10 cm appelé NEXRAD ou WSR-88D commence en 1988 et se termine au début des années 1990. Au Canada, le premier radar Doppler est celui de King City, au nord de Toronto, en 1985. Il est construit pour tester le concept avec une longueur d'onde de 5 cm6. Le second sera celui de 10 cm de l'Université McGill en 1993. Le réseau canadien de radars météorologiques est modernisé au complet à partir de 1998. La France (réseau ARAMIS) et les autres pays européens se convertissent à la fin des années 1990 et après 2000. En Australie, quelques radars de recherche sont construits à la fin des années 1990 et début 2000 mais ce n'est qu'en 2003 qu'un programme pour renouveler le réseau national réserve certains sites pour des radars avec fonction Doppler7.
Le développement fulgurant de l’informatique permet de traiter les données radars en temps réel pour faire une multitude de produits directs (CAPPI, PPI, cumul de précipitations, etc.) mais également des algorithmes qui permettent de repérer les précipitations dangereuses (orages, pluie diluvienne, rafales sous les nuages, etc.) et de prévoir à court terme leur déplacement.
Après 2000, les recherches qui ont été effectuées sur la double polarisation du signal radar commencent à trouver des applications pratiques dans la détection du type de précipitations. La France8, le Canada, les États-Unis, l’Australie et d’autres ont transformé certains de leurs radars pour utiliser ce concept en mode pré-opérationnel. Des recherches sont en cours depuis 2003 pour utiliser des antennes réseau à commande de phase assemblés en radar tridimensionnel à balayage électronique pour remplacer le sondage mécanique en balayage électronique, donc plus rapide.
Principes du radar météorologique
À la différence d'un radar à onde continue, un radar météorologique est un radar monostatique à impulsions. Il émet une impulsion de très courte durée de manière périodique. L'intervalle entre deux impulsions est calculé pour une portée donnée du radar. Cela permet de recevoir les échos de retour venant des précipitations avant que l'impulsion suivante ne soit émise. On peut ainsi repérer la position, l'intensité et le déplacement des précipitations.
Émission
Trajectoire du faisceau radar et volume sondé.
Une impulsion électromagnétique est produite par un oscillateur (magnétron, klystron ou autre) électronique. Elle est envoyée à travers un guide d’ondes à une antenne directive. La largeur du faisceau qui définit la résolution en azimut et en élévation dépend des caractéristiques de l'antenne, et la durée d’impulsion sinusoïdale simple (de l’ordre de la microseconde), définit la résolution radiale. Il est possible d'utiliser des impulsions compressées qui permettent d'obtenir une meilleure résolution radiale.
Ainsi, une impulsion sonde un volume de l'atmosphère qui augmente avec la distance au radar comme h r 2 θ 2 {\displaystyle \scriptstyle hr^{2}\theta ^{2}}
(h : largeur de l'impulsion, r la distance au radar et θ {\displaystyle \theta }
l'angle d’ouverture du faisceau). On voit sur l'image de droite le volume qu'occupent deux impulsions parties à des temps différents d'un radar. Avec les dimensions typiques d'un faisceau radar, le volume sondé varie donc de 0,001 km3 près du radar, jusqu'à 1 km3 à 200 km de celui-ci. Il s'agit du «volume radar»9.
Rétrodiffusion et étalonnage
Lorsqu'une impulsion entre dans une zone de précipitations, une petite partie est rétrodiffusée (réfléchie) vers le radar pendant que le reste continue. Ce retour est le total des retours de toutes les gouttes dans le volume sondé et l'équation du radar pour cibles volumiques en régit l'intensité9,10 :
- P r = [ P t τ G 2 λ 2 θ 2 ] [ c 512 ( π 2 ) ] η R 2 = C o n s t a n t e d u r a d a r × η R 2 {\displaystyle P_{r}=\left[P_{t}\tau G^{2}\lambda ^{2}\theta ^{2}\right]\left[{\frac {c}{512(\pi ^{2})}}\right]{\frac {\eta }{R^{2}}}={\rm {Constante\ du\ radar}}\times {\frac {\eta }{R^{2}}}}
![{\displaystyle P_{r}=\left[P_{t}\tau G^{2}\lambda ^{2}\theta ^{2}\right]\left[{\frac {c}{512(\pi ^{2})}}\right]{\frac {\eta }{R^{2}}}={\rm {Constante\ du\ radar}}\times {\frac {\eta }{R^{2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/36eaaac8edd55e98f707e8c59ef65f703cfd7352)
Où :
- Pt et Pr = Puissance transmise et reçue (watts)
- G = gain de l'antenne émettrice/réceptrice (dBi)
- λ = longueur d'onde du radar (mètres)
- θ = la largeur angulaire du faisceau radar (degrés)
- c = la vitesse de la lumière dans l'air (mètres par seconde)
- η = est la réflectivité des cibles par unité de volume (dBz/m3)
- R = distance cible-radar émetteur (mètres)
Lorsque le volume est rempli de cibles, on obtient une moyenne de leur intensité mais s'il n'est que partiellement rempli, on sous-estimera celle-ci en incluant des zones sans échos. Comme le volume augmente avec la distance, cette sous-estimation deviendra de plus en plus probable. Finalement, quelle que soit l'intensité du retour, il va diminuer inversement à R 2 {\displaystyle \scriptstyle R^{2}}
ce qui fait qu'on doit normaliser les retours, c'est-à-dire qu'on doit les multiplier par ce facteur pour faire comme s'ils revenaient tous du même endroit.
Position
Calcul de la hauteur des échos.
Entre chaque impulsion, l'antenne et le circuit électronique sont mis à l’écoute de l’impulsion de retour. On calcule la distance entre le radar et les précipitations par la relation suivante:
- D i s t a n c e = ( c n ) Δ t 2 = c ′ Δ t 2 {\displaystyle Distance=\left({\frac {c}{n}}\right){\frac {\Delta t}{2}}=c^{\prime }{\frac {\Delta t}{2}}}

Où :
- c = vitesse de la lumière dans le vide = 299 792,458 km/s
- n= indice de réfraction de l'air ~= 1,0003 mais qui varie avec la température, la pression et la vapeur d'eau contenue dans l’air11,12.
La distance maximale qu'on peut sonder sans ambiguïté dépend du Δ t {\displaystyle \,\Delta t}
utilisé entre deux impulsions subséquentes. En effet, la position de tout retour qui arrive d'une première impulsion, après qu'une seconde impulsion est partie, sera mal interprétée comme revenant de cette dernière. En général, on utilise un intervalle d'écoute de l’ordre de 1 milliseconde, soit mille fois la durée de l'impulsion. Cela permet une portée maximale utile d'environ 250 km.
En plus de la distance, on peut calculer la hauteur au-dessus du sol où se trouvent les cibles. Cela se calcule en connaissant l’angle d’élévation du radar et la courbure de la Terre. Il faut également tenir compte de la variation de la densité des couches de l’atmosphère. En effet, le faisceau radar ne se propage pas en ligne droite comme dans le vide mais suit une trajectoire courbe à cause du changement de l’indice de réfraction avec l'altitude.
La formule pour trouver cette hauteur est13 :
- H = ( r 2 + ( k e a e ) 2 + 2 r k e a e s i n ( θ e ) ) − k e a e + h a {\displaystyle H=\left({\sqrt {r^{2}+(k_{e}a_{e})^{2}+2rk_{e}a_{e}sin(\theta _{e})}}\right)-k_{e}a_{e}+h_{a}}

Où r = distance, ke = 4/3, ae = rayon de la Terre, θe : angle d’élévation, ha : hauteur du cornet au-dessus de la surface de la Terre.
- Résolution
On considère qu'on ne peut résoudre distinctement deux zones de précipitations que si elles sont éloignées de plus de h / 2 {\displaystyle h/2}
en portée et/ou de la moitié de la largeur du faisceau en azimut (voir Compression d'impulsion)14.
Stratégie de sondage
Angles typiquement sondés au Canada. Les lignes en zig-zag représentent les données de deux CAPPI à 1,5 et 4
km d'altitude.
Après avoir effectué une rotation complète à un angle d’élévation donné, l’antenne parabolique sera haussée à un angle supérieur et effectuera une autre rotation. Ce scénario se répétera sur plusieurs angles de telle façon que le radar effectuera un balayage en trois dimensions de l’atmosphère en 5 ou 10 minutes. On aura ainsi une idée des précipitations depuis un niveau près du sol jusqu’à environ 15 à 20 km d’altitude et sur 250 km de distance.
À cause de la courbure de la Terre et du changement d’indice de réfraction de l’air dont nous venons de parler, le sondage ne pourra pas « voir » sous une certaine hauteur qui dépend de la distance au radar et de l’angle minimal utilisé. Il ne pourra également pas « voir » plus près du radar que la trajectoire de l’angle maximal utilisé. La figure à gauche montre la hauteur versus la distance d’une série d’angles typiquement utilisés par un radar météorologique canadien, ces angles vont de 0,3 à 25 degrés. L’image de droite donne un exemple de volume couvert par un sondage à plusieurs angles d'élévation. Le cône vert en bas représente l’angle minimal et le cône rouge au centre, l’angle maximal.
Chaque pays détermine le nombre et les angles d'élévation utilisés selon ses besoins spécifiques. Plusieurs pays utilisent un nombre limité d'angles à relativement bas niveau pour obtenir la meilleure estimation des quantités de pluie tombées alors que les pays où les orages sont prédominants vont augmenter la couverture verticale. Le type de radar, la longueur d'onde et la fréquence de production d'images sont également des facteurs qui dictent le nombre d'angles sondés.
Types
Radar conventionnel
Les radars utilisés le plus couramment sont ceux à balayage horizontal dont le principe est expliqué ci-dessus. Il s'agit de radars utilisant une antenne parabolique de grand format (3 à 10 mètres de diamètre) et qui fonctionnent dans les longueurs d'onde les moins atténuées, soit de 5 à 10 cm. Les services météorologiques nationaux opèrent plusieurs radars de ce type dont les données sont traitées individuellement ou en réseau.
Comme la météo est un sujet important, certaines stations de télévision des États-Unis possèdent des radars météorologiques de plus petite taille et utilisant une longueur d'onde de 3 cm. Les météorologistes engagées par ces stations utilisent ces données pour détailler la zone plus restreinte couverte par leur auditoire.
Radar d'aéroport
Les aéroports ont des besoins très spécifiques en plus de la détection des précipitations. Entre autres, le cisaillement des vents près des pistes est un élément important à connaître pour la sécurité des vols. Certains radars spécialisés sont utilisés à cet effet. Ils sondent également horizontalement mais font moins d'angles d'élévation, à plus haute résolution et plus souvent. Un bon exemple est celui des radars météorologiques d’aéroport TDWR (Terminal Doppler Weather Radar) déployé dans les principaux aéroports américains15,16.
Radar mobile
Un
Doppler On Wheels observant une
tornade près de Attica au
Kansas
Plusieurs universités et certains services météorologiques nationaux ont développé des radars qui peuvent être déplacés d'un site à l'autre pour des études sur divers phénomène météorologiques. Certains sont des radars pleine grandeur qui peuvent être démontés et placés à un endroit pour des études de longue haleine. D'autres comportent de plus petites antennes montées sur un camion et qui peuvent suivre la météo, là où elle se produit. C'est le cas du Doppler on Wheels (ou DOW), du Center for Severe Weather Research de Boulder (Colorado), qui sert à la recherche sur la structure des orages violents, des ouragans et les phénomènes météorologiques de fine échelle17. Ces radars utilisent une plus petite longueur d'onde pour conserver une bonne résolution.
Profileur de vents
Un profileur de vents est un type de radar monté verticalement utilisé en météorologie pour mesurer la direction et la vitesse des vents en utilisant l'effet Doppler-Fizeau à très grande résolution (typiquement 100 à 200 m à la verticale et moins de 100 m à l’horizontale). Il note la variation de l’indice de réfraction de l’air selon la théorie de la diffusion de Bragg (Loi de Bragg). Cette variation est due aux turbulences de l’air en mouvement par la variation de sa densité. Lorsque l’indice change sur une distance qui correspond à la moitié de la longueur d’onde du radar utilisé, il y a un retour constructif entre les ondes revenant des zones de variation successives.
Radars à nuages
Un radar millimétrique de nébulosité est un radar pointé verticalement qui utilise les extrêmes hautes fréquences de l'ordre de 30 à 100 GHz pour sonder les nuages passant au zénith. Il sert à déterminer les caractéristiques des nuages et à en étudier la physique avec une très grande résolution de l'ordre de quelques dizaines de mètres en portée et de 1 à 10 secondes temporellement. Ces radars sont non seulement utilisés en recherche mais quotidiennement dans certains pays par les météorologues pour suivre le temps.
Exemple de graphique montrant les caractéristiques des nuages.
Les gouttelettes de nuages ont un diamètre de l'ordre du 30 à 100 micromètres. Pour que la diffusion Rayleigh s'applique et que les échos soient proportionnels à leur intensité, la longueur d'onde utilisée doit être environ dix fois celle du diamètre des cibles18. C'est pourquoi, un radar millimétrique est adapté à sonder les nuages. Un radar météorologique conventionnel, travaillant à une longueur d'onde centimétrique et adaptés aux précipitations, utilise une longueur d'onde trop grande.
Pour mesurer les propriétés des nuages, le radar doit être pointé à la verticale et autant sonder en réflectivité qu'en vitesse radiale par effet Doppler. En effet, ce qu'il est intéressant de noter dans le nuage est son épaisseur, sa base et son sommet, la teneur en eau et en glace ainsi que sa variation avec l'altitude, et finalement la vitesse verticale des particules. L’établissement de profils de nuages permet alors d’améliorer la compréhension des nuages19.
Ces radars peuvent être montés sur un satellite comme CloudSat, et pointer vers le nadir, ou au sol et pointer vers le zénith. Le signal étant fortement atténué par l'eau sous forme liquide, le sondage ne peut dépasser les 30 kilomètres en épaisseur20.
Radar aéroporté
Radar météorologique dans le nez d’un avion de recherche de la NASA
L’une des utilisations importantes pour la sécurité des passagers des avions est le radar météorologique aéroporté. Il permet au pilote de suivre les précipitations et le cisaillement des vents21. En général on retrouve le radar dans le nez de l’avion, mais il peut également se retrouver sous l’appareil, sous l’une des ailes ou à la queue, selon la configuration ou les besoins.
Contrairement aux radars au sol, l’antenne d’un radar aéroporté doit être utilisée à des angles variables qui tiennent compte de l’attitude de l’appareil. En effet, ce dernier peut être en montée, en descente ou en virage, et un mécanisme gyroscopique compensateur doit être intégré pour que donner une image constante de l’environnement22.
Le défi majeur des radars météorologiques aéroportés est de parvenir à filtrer suffisamment l'écho dû à la proximité du sol (notamment au décollage et à l’atterrissage). Ce dernier est ramené par le lobe principal lorsque le radar pointe vers le sol, mais aussi, par les lobes secondaires, quelle que soit la position du radar. Afin de réduire l'importance de l'écho sol, le lobe principal doit pointer au-dessus de l'horizon. Ainsi, pour réduire la charge de travail des pilotes, les radars de nouvelle génération règlent automatiquement inclinaison verticale du radar selon l'attitude de l'avion. Il est par ailleurs possible de régler l'inclinaison de manière manuelle par les pilotes23.
La technique la plus simple pour diminuer les échos sol consiste à utiliser l'effet Doppler, en supposant que le sol n'est pas en mouvement par rapport aux nuages. La partie du spectre du signal reçu correspondant aux vitesses Doppler proches de la vitesse nulle est filtrée. Cette technique présente plusieurs inconvénients : une partie de la pluie avec une faible vitesse radiale est également filtrée, et l'écho provenant des objets mobiles au sol (comme les voitures ou les pales des éoliennes) n'est pas correctement filtré par cette méthode. Les radars aéroportés modernes utilisent des algorithmes de filtrage plus élaborées (filtrage de l'écho permanent, etc.), et possèdent généralement une base de données terrain haute résolution, qui permet de mieux filtrer les échos sol.
Contrairement aux radars au sol, les radars aéroportés ne balayent pas sur 360 degrés autour de l'appareil mais effectuent seulement un va-et-vient sur 180 degrés sur un seul angle d'élévation ou selon un cône dont l'axe est l'horizon23. Ils obtiennent ainsi des données de type PPI qui peuvent être partielles et les pilotes vont souvent ajuster l'angle d'élévation pour repérer les échos significatifs23.
Dans les radars commerciaux, les longueurs d’onde utilisées se trouvent généralement dans la bande X (autour de 3 cm soit des fréquences de 8 000 à 12 500 MHz) ce qui permet d’utiliser de petites antennes ayant quand même une bonne résolution22,24. La portée utile maximale est en général de 180 milles marins (333 km) mais le plus souvent, le pilote règle celle-ci de 30 à 80 milles nautiques à cause de l’atténuation à cette longueur d'onde et du besoin de se concentrer surtout sur l’environnement immédiat21.
Types de données
Réflectivité
Calcul en décibel (dBZ)
L’écho de retour réfléchi par les cibles est également analysé pour son intensité afin d’établir le taux de précipitation dans le volume sondé. On utilise une longueur d’onde radar entre 1 et 10 cm afin que le retour agisse selon la loi de Rayleigh, c'est-à-dire que l'intensité de retour est proportionnelle à une puissance du diamètre des cibles pour autant que celles-ci (pluie, flocons, etc.) soient beaucoup plus petites que la longueur d’onde du faisceau radar. Cette intensité brute est proportionnelle à 1/R² et doit donc être renormalisée (voir supra). C’est ce qu’on nomme la réflectivité (Z). Cette intensité varie en fait comme la 6e puissance du diamètre des cibles de diamètre D (le sixième moment) multiplié par la distribution des gouttes de pluie. On considère la distribution de Marshall-Palmer où la distribution des goutelettes de pluie obéit à la relation :
- N ( D ) = N 0 e − Λ D {\displaystyle N(D)=N_{0}e^{-\Lambda D}}

Où N0 est une constante physique et Λ est une variable physique dépendant du taux de précipitations.
On obtient donc une fonction Gamma (tronquée)25 :
- Z = ∫ 0 D m a x N 0 e − Λ D D 6 d D {\displaystyle Z=\int _{0}^{Dmax}N_{0}e^{-\Lambda D}D^{6}dD}

N.B. : Il est à noter que dans le cas d'un flocon de neige, D est le diamètre de la gouttelette équivalente provenant de la fonte.
Ce Z est en m m 6 m − 3 {\displaystyle \scriptstyle mm^{6}m^{-3}}
, ce qui donne des unités plutôt inhabituelles. De plus, cette formule ne tient pas compte de la nature de la cible. Pour obtenir la réflectivité équivalente (Ze) que voit le radar, on doit normaliser et multiplier par le carré de la constante diélectrique (K) de la cible pour tenir compte de son efficacité à réfléchir :
- Z e = | K | 2 ( Z Z 0 ) = ( | K | 2 Z 0 ) ( ∫ 0 D m a x N 0 e − Λ D D 6 d D ) {\displaystyle Z_{e}=|K|^{2}\left({\frac {Z}{Z_{0}}}\right)=\left({\frac {|K|^{2}}{Z_{0}}}\right)\left(\int _{0}^{Dmax}N_{0}e^{-\Lambda D}D^{6}dD\right)}

- { Z 0 = 1 m m 6 m − 3 s o i t l e r e t o u r e ´ q u i v a l e n t d ′ u n v o l u m e r e m p l i d e g o u t t e l e t t e s a v e c D = 1 m m | K | 2 = 0 , 93 p o u r l ′ e a u e t 0 , 24 p o u r l a n e i g e {\displaystyle {\begin{cases}Z_{0}=1mm^{6}m^{-3}soit\ le\ retour\ {\acute {e}}quivalent\ d'un\ volume\ rempli\ de\ gouttelettes\ avec\ D=1\ mm\ \\|K|^{2}=0,93\ pour\ l'eau\ et\ 0,24\ pour\ la\ neige\end{cases}}}

Les conditions d'utilisation de cette formule sont :
- La variation de diamètre et la constante diélectrique entre les différents types de précipitations (pluie, neige, bruine, grêle, etc.) est très grande et la réflectivité équivalente est donc exprimée en dBZ (10 fois le logarithme du rapport ou décibel Z) ;
- L’antenne tournant sur son axe à un angle d’élévation donné émet un grand nombre d’impulsions dans chaque angle de visée. La réflectivité équivalente revenant de chaque impulsion pour chacun des volumes de cibles est donc notée pour calculer une intensité moyenne de sondage pour ce volume.
Transformation en taux de précipitations
Comme ce qu'on obtient au sol est une quantité de précipitations, on veut trouver la relation entre la réflectivité équivalente et ce qu'on mesure. Le taux de précipitations R est égal au nombre de particules, leur volume et leur vitesse de chute v(D):
- R = ∫ 0 D m a x N 0 e − Λ D π D 3 6 v ( D ) d D {\displaystyle R=\int _{0}^{Dmax}N_{0}e^{-\Lambda D}{\pi D^{3} \over 6}v(D)dD}

On voit donc que Ze et R ont une formulation similaire et en résolvant les équations on arrive à une relation, dite Z-R26, du type:
- Z e = a R b {\displaystyle \,Z_{e}=aR^{b}}

a et b dépendent du type de précipitations (pluie, neige, convective ou stratiforme) qui ont des Λ {\displaystyle \Lambda }
, K, N0 et v différents
Les coefficients avec une distribution théorique de gouttes de pluie dans le papier original de 1948 de Marshall-Palmer donnait : a = 296, b = 1.4727. Cependant, la plus connue des relations est la relation Z-R de Marshall-Palmer qui donne a=200 et b=1,628. Ces valeurs ont été obtenues expérimentalement en comparant la distribution de gouttes lors de nombreux événements de pluie et les données du radar de l'université McGill.
[afficher]
Démonstration de la relation Z-R de Marshall-Palmer
Elle est encore l'une des plus utilisées car elle est valide pour de la pluie synoptique dans les latitudes moyennes, un cas très fréquent26. D'autres relations ont été trouvées pour des situations de neige, de pluie sous orage, pluie tropicale, etc28.
Vitesse Doppler
Radar pulsé
À proprement parler, la différence de fréquence générée, selon l'effet Doppler traditionnel, par le déplacement des gouttes de pluie ou les flocons de neige est trop petite pour être notée par l'instrumentation électronique actuelle. En effet, les fréquences utilisées sont de l'ordre de 10 9 {\displaystyle 10^{9}}
Hz (longueurs d'onde 5 à 10 cm) et les vitesses des cibles de 0 à 70 m/s ce qui donne un changement de fréquence de seulement 10−5 %. On utilise donc à la place la différence de phase entre deux impulsions successives revenant d'un même volume sondée (paire d'ondes pulsées)29. Entre chaque impulsion, les cibles se déplacent légèrement créant cette différence de phase. L'intensité d'une impulsion après un aller-retour est donnée par29 :
Différence de phase entre deux ondes revenant d'une cible ayant bougé.
I = I 0 s i n ( 4 π x 0 λ ) = I 0 s i n ( ϕ 0 ) {\displaystyle I=I_{0}sin\left({\frac {4\pi x_{0}}{\lambda }}\right)=I_{0}sin\left(\phi _{0}\right)} 
O u ` : { x = d i s t a n c e r a d a r − c i b l e λ = l o n g u e u r d ′ o n d e Δ t = t e m p s e n t r e d e u x i m p u l s i o n s . {\displaystyle O{\grave {u}}:\quad {\begin{cases}x=distance\ radar-cible\\\lambda =longueur\ d'onde\\\Delta t=temps\ entre\ deux\ impulsions\end{cases}}.} 
L'intensité d'une impulsion subséquente revenant du même volume sondé mais où les cibles ont légèrement bougé est donnée par:
I = I 0 s i n ( 4 π ( x 0 + v Δ t ) λ ) = I 0 s i n ( ϕ 0 + Δ ϕ ) {\displaystyle I=I_{0}sin\left({\frac {4\pi (x_{0}+v\Delta t)}{\lambda }}\right)=I_{0}sin\left(\phi _{0}+\Delta \phi \right)} 
Donc Δ ϕ = ( 4 π v Δ t λ ) {\displaystyle \Delta \phi =\left({\frac {4\pi v\Delta t}{\lambda }}\right)} 
v = v i t e s s e d e s c i b l e s = λ Δ ϕ 4 π Δ t {\displaystyle v=vitesse\ des\ cibles\ ={\frac {\lambda \Delta \phi }{4\pi \Delta t}}} 
Dilemme Doppler
La portée maximale et la vitesse Doppler maximale non ambiguë varient de façon inverse (rouge pour la portée et bleu pour la vitesse maximale).
Regardons maintenant la vitesse maximale qu'on peut mesurer sans ambiguïté. Comme l'angle ϕ {\displaystyle \,\phi }
ne peut varier qu'entre - π {\displaystyle \pi }
et + π {\displaystyle \pi }
, on ne peut noter une vitesse supérieure à :
- V i t e s s e m a x = ± λ 4 Δ t {\displaystyle Vitesse_{max}=\pm {\frac {\lambda }{4\Delta t}}}

C'est ce qu'on appelle la vitesse de Nyquist. Pour obtenir une meilleure détermination de la vitesse des cibles, il faut envoyer des impulsions très rapprochées, donc avec Δ t {\displaystyle \,\Delta t}
très petit. Mais on sait également que la portée en réflectivité est
- x = c Δ t 2 {\displaystyle x={\frac {c\Delta t}{2}}}

ce qui demande un grand Δ {\displaystyle \Delta }
t pour être sûr de la position des échos revenant de loin sans ambiguïté. Ce dilemme Doppler limite donc la portée utile des radars qui utilisent cet effet. Dans le tableau à droite on peut voir la variation de ces deux paramètres selon le taux de répétition des impulsions (1 / Δ {\displaystyle \Delta }
t). Il faut donc faire un compromis qui en général fait que les radars Doppler ont une portée utile de 100 à 150 km.
Amélioration
Certaines techniques permettent néanmoins d'étendre la vitesse maximale pour diminuer l'effet de ce fameux dilemme. Il s'agit des méthodes dites à fréquences de répétitions multiples (multiple PRF en anglais) qui consistent à émettre des impulsions à différent taux de répétitions, très proches les uns des autres, et à recombiner les vitesses Doppler individuelles correspondantes. Ainsi avec un certain taux de répétition, on obtient une vitesse pour la cible alors qu'avec un autre taux, la vitesse notée sera différente. Par simple calcul, on peut déduire la vraie vitesse et on augmente la vitesse non ambiguë finale. Avec une plage de taux d'impulsions, on augmente la vitesse maximale décelable pour une même portée maximale.
Le réseau canadien de radars météorologiques, utilisant une longueur d'onde de 5 cm, est doté de ce genre de traitement radar depuis 1999. Sans la technique, on y noterait une vitesse non ambiguë entre 11 et 15 m/s pour une portée de 150 km. En utilisant la technique avec deux taux, on obtient 48 m/s sans changer la portée maximale. Si on voulait changer cette portée, la plage de taux de répétitions utilisables serait plus basse et la vitesse maximale non ambiguë serait plus basse également, même avec cette technique.
Les radars du réseau opérationnel français ARAMIS sont équipés d'un tel schéma depuis peu (2006). Cette technique permet d'étendre la portée maximale à plus de 200 km tout en ayant une vitesse non ambiguë de l'ordre de 60 m/s (Tabary et al. 2006). Dans ce cas, on utilise trois taux de répétitions pour étendre encore plus la plage de vitesses. Mais encore là, le dilemme existe, on ne fait que changer la pente des lignes sur le graphique.
Interprétation
Projection du vent réel sur la composante radiale au radar selon la direction azimutale sur 360 degrés.
Exemple idéalisé de sortie Doppler. Les vents s'approchant sont en bleu et ceux sortant en rouge selon la convention habituelle. Remarquez la variation en cosinus de la vitesse lorsqu'on se déplace sur 360 degrés le long d'un des cercles (maximum dans la direction radiale)
Cette vitesse est appelée la vitesse Doppler. Elle ne donne que la composante radiale du déplacement, dite vitesse radiale. Cependant, il est possible de déduire avec une certaine précision les vraies vitesses et directions si l'écran est suffisamment rempli de précipitations. Pensons à une pluie d'automne qui dure toute la journée et qui se déplace uniformément d'ouest en est. Le faisceau radar pointant vers l'ouest verra donc les gouttes s'approcher de lui et l'inverse quand il pointe vers l'est. Par contre, quand le radar pointe vers le nord et le sud, les gouttes ne se rapprochent, ni ne s'éloignent de lui car elles passent perpendiculairement au faisceau. Donc la vitesse notée sera nulle.
Synoptique
Si on se rappelle que le radar tourne sur 360 degrés, il verra donc toutes les composantes de projection de la vitesse de ces gouttes sur son axe de visée. L'ensemble des vitesses sur un tour complet prendra les valeurs d'un cosinus (sinusoïde maximum dans la direction de déplacement de la pluie et nulle dans la direction perpendiculaire). Fort de cela, on peut donc déduire la direction et la vitesse des précipitations (+/- celle du vent) sur la région couverte par le radar.
On a cependant négligé la vitesse de chute des gouttes mais elle est faible pour les angles d'élévation sous 3 degrés à l'intérieur de 150 km du radar ce qui sont le plus souvent les angles recherchés. Un regard plus en hauteur doit en tenir compte.
Méso-échelle
Dans la zone couverte par un radar, il peut cependant y avoir de plus petites zones où le vent diffère. Par exemple, dans un orage, il peut y avoir des rotations et de la turbulence. À cette échelle, dite méso-échelle, le radar n'observe toujours que la composante radiale mais il est possible de reconnaître des signatures comme celle d'une rotation (mésocyclone), d'une divergence (rafale descendante) ou d'une convergence (front de rafales) des vents.
Double polarisation
Illumination de la cible avec la double polarisation. Notez la forme de la goutte.
En général, la plupart des hydrométéores ont un axe plus grand selon l’horizontale (ex. les gouttes de pluie deviennent oblates en tombant à cause de la résistance de l’air). L’axe dipolaire des molécules d’eau a donc tendance à s’aligner dans cette direction et le faisceau radar sera généralement polarisé horizontalement pour tirer profit d’un retour maximal.
Si on envoie en même temps une impulsion avec polarisation verticale et une autre avec polarisation horizontale, on pourra noter une différence de plusieurs caractéristiques entre ces retours30,31,32 :
- Si les cibles ont une forme aplatie comme dans l'image ci-contre, en sondant avec deux ondes dont l'une est de polarisation verticale (V) et l'autre horizontale (H), on obtient des intensités plus fortes revenant de celle ayant l'axe horizontal. Par contre, si les retours orthogonaux sont égaux cela indique une cible ronde comme dans le cas d'un grêlon. Cela s'appelle la différence de réflectivité ou la réflectivité différentielle ( Z d r = l o g ( Z H / Z V ) {\displaystyle \scriptstyle Z_{dr}=log(Z_{H}/Z_{V})}
) qui peut être utilisé pour aider à identifier la grêle, déterminer la forme des gouttes de pluie ou des flocons de neige ;
- Le faisceau radar sonde un volume plus ou moins grand selon les caractéristiques de l'antenne émettrice. Ce qui revient est l'addition des ondes réfléchies par les cibles individuelles dans le volume. Comme les cibles peuvent changer de position dans le temps les unes par rapport aux autres, l'intensité des ondes V et H ne demeure constante que si les cibles ont toute la même forme. Le rapport d'intensité entre les canaux H et V revenant de sondages successifs s'appelle le coefficient de corrélation ( ρ h v {\displaystyle \scriptstyle \rho _{hv}}
) et donne donc une idée de l'homogénéité ou non des cibles dans le volume sondé ;
- La phase de l'onde change lorsqu'elle traverse un milieu de densité différente et ce changement est indépendant de l'atténuation par les précipitations :
- Le différentiel de phase, ou Φ d p {\displaystyle \scriptstyle \Phi _{dp}}
, représente la différence de déphasage accumulé entre les ondes polarisées horizontalement (H) et verticalement (V) lorsqu'elles s'éloignent et reviennent vers le radar. À mesure que les gouttes de pluie se développent et deviennent plus oblates, l'onde polarisée horizontalement ralentit par rapport à l'onde polarisée verticalement et un déphasage différentiel se développe ;
- La phase différentielle spécifique, ou K d p {\displaystyle \scriptstyle K_{dp}}
, est la variation de Φ d p {\displaystyle \scriptstyle \Phi _{dp}}
par rapport à la distance. Elle est fréquemment utilisé en raison de la difficulté d'interprétation de Φ d p {\displaystyle \scriptstyle \Phi _{dp}}
qui est une somme du changement de phase sur tout le trajet de l'onde. K d p {\displaystyle \scriptstyle K_{dp}}
aide à localiser les zones où le Φ d p {\displaystyle \scriptstyle \Phi _{dp}}
augmente le plus rapidement, ce qui est utile pour localiser les zones de fortes pluies et de particules aplaties. K d p {\displaystyle \scriptstyle K_{dp}}
donne donc une idée de la forme des hydrométéores et permet une estimation des quantités des précipitations tombées, indépendantes de l'atténuation de Z (réflectivité) par celles-ci.
- Le rapport de dépolarisation linéaire ( L D R {\displaystyle \scriptstyle LDR}
) est le rapport entre la puissance retournée en polarisation verticale par une impulsion horizontale ou celle retourné en polarisation horizontale par une impulsion verticale. Il s'agit d'un bon indicateur des zones où existe un mélange de précipitations (pluie et grêle, hauteur de fonte de la neige, etc.).
Les radars, dits à double polarisation, qui utilisent ce type de sondage peuvent donc obtenir des indications sur la forme des cibles ainsi que sur le mélange de formes. Ceci peut être utilisé, en plus de l’intensité du retour, pour une identification directe du type de précipitations (pluie, neige, grêle, etc.) grâce à un algorithme31,33. Cela permet même de déceler les débris soulevés par une tornade grâce à l'identification de la collerette de débris, aussi appelée « buisson34 ».
NCAR aux États-Unis, a été un des centres pionniers dans ce domaine avec Dusan S. Zrnic et Alexandre V. Ryzhkov. La NOAA mit le principe à l'essai sur un radar opérationnel à partir du début des années 2000 dans un programme appelé Joint Polarization Experiment (JPOLE)35 et, de 2010 à , les radars du réseau NEXRAD furent mis à niveau en installant la double polarisation36,37.
Au Canada, l'université McGill (Montréal, Canada) a un radar de bande S qui en est équipé et dont les données étaient utilisées opérationnellement jusqu'en par le Service météorologique du Canada38,39. Le MSC a un autre radar à double polarisation à King City en banlieue nord de Toronto mais en bande C40,41. Le réseau canadien de radars météorologiques est graduellement mis à jour par des radars de bande S en double polarisation depuis 201842.
Finalement, Météo-France a ouvert ses premiers radars polarisés en 2008 et d'autres centres, comme Poldirad en Allemagne, continuent les recherches dans ce domaine.
Types principaux d'images produites
Toutes les données obtenues par le sondage radar sont affichées selon leur format. Certains produits servent à afficher plusieurs types de données alors que d'autres sont plus spécifiques. Finalement, selon le type de données, l'affichage utilisera une convention de couleur qui variera.
Conventions d'affichage
À l'origine, les données de réflectivité n'étaient vues que par l'opérateur radar sur un écran cathodique, l'intensité était donc indiquée par la variation de la brillance. Par la suite, des photographies de ces images ou des images analogiques sur papier ont été produites en tons de blanc et gris. Lorsque les ordinateurs ont permis de traiter numériquement les données des radars météorologiques, il est devenu possible de relier une couleur à un taux de précipitations. Cette pratique s'est répandue aux autres types de données quand celles-ci sont devenues disponibles. La réflectivité, les données de vitesses radiales et celles de double-polarimétrie utilisent en général un code de couleur différent. Il n'existe pas de convention internationale quant aux couleurs à utiliser mais plutôt une pratique qui s'est répandue avec les échanges dans le domaine.
- Réflectivité
Exemple d'échelle de couleur associée avec la réflectivité
En général, les images de réflectivité utilisent une variation de couleur similaire à celle de l’arc-en-ciel. Les intensités les plus faibles sont indiquées par le bleu pâle (cyan), les intensités modérées par le jaune et les fortes par le rouge puis le magenta. Les intensités peuvent être reliées à la réflectivité en dBZ ou à son équivalent en millimètres/centimètres par heure. Par exemple, les images disponibles sur le site du Service météorologique du Canada utilisent cette échelle43 : en hiver le violet représente le taux de précipitations le plus élevé (20 cm/h) alors que le bleu-vert du bas de l'échelle représente le taux le plus bas (0,1 cm/h). Durant les mois d'été, l'échelle de réflectivité est remplacée par celle des précipitations pluviales, en mm/h, qui va d'une trace à plus de 100 mm/h.
Certains utilisateurs préfèrent cependant des codes numériques plus simples à interpréter. Ainsi, lorsqu'un pilote d'avion ou un contrôleur aérien décrivent l'intensité des échos de précipitations sur leur affichage radar, ils utilisent des niveaux44 : niveau 1 pour des précipitations faibles, niveau 2 pour des précipitations modérées possiblement reliées avec une basse visibilité et de la turbulence, niveau 3 pour de la pluie/neige forte reliée à des conditions de vol dangereuses.
Certains affichages commerciaux indiquent le type de précipitations. Ainsi les images que l'on peut voir aux bulletins télévisés en hiver peuvent séparer les zones de pluie, de pluie verglaçante et de neige. Ceci n'est pas une information venant du radar mais une association avec les informations venant des stations météorologiques de surface. Un programme analyse la température, le point de rosée et le type de précipitations rapportées par les METAR sous une zone d'échos au radar et fait la division des zones45. Cette analyse peut être améliorée en utilisant les données des modèles de prévision numérique du temps comme champ d'essai mais le tout reste sujet à des erreurs de lissage et ne tient pas compte des effets de petite échelle dans la distribution des types de précipitations (air froid emprisonné dans une vallée qui donne de la pluie verglaçante au lieu de pluie par exemple). Quand les données de double polarisation seront largement disponibles, une telle analyse sera plus fiable.
- Vitesse Doppler
Dans le cas de la vitesse radiale obtenue par les données Doppler, le principe du décalage vers le rouge ou le bleu est utilisé comme en astronomie. Ainsi la zone ayant des précipitations s'approchant du radar sera indiquée par des couleurs froides bleu/verte/violet, selon leur vitesse radiale, alors que les précipitations s'éloignant seront représentées par des couleurs chaudes rouge/jaune. Les vitesses s'approchant peuvent être également indiquées par un chiffre positif et celles s'éloignant par un chiffre négatif, la valeur représentant la grandeur de la vitesse radiale.
PPI (Vue panoramique à angle d'élévation constant)
Image d'un front d'orages en réflectivité (en dBZ), vu sur PPI (
NOAA).
Comme les données sondées par le radar se font un angle d'élévation à la fois, les premières images ont été celles d'un affichage panoramique des données de chaque angle individuellement (PPI). Ce type de données doit être interprété en se rappelant que le faisceau radar s'élève au-dessus du sol à mesure qu'on s'éloigne du radar. Donc ce qu'on voit près du radar est à beaucoup plus bas niveau que ce que l'on voit à 200 km46.
Il en résulte qu'un nuage avec des taux de pluie élevé à 30 km du radar peut sembler diminuer ou augmenter d'intensité à mesure qu'il s'éloigne du radar. En fait, comme notre faisceau est plus haut dans le nuage au second temps, il regarde une autre section de ce dernier.
Un PPI est également affligé de retours venant du sol près du radar car une partie de l'énergie émise se retrouve dans les lobes secondaires hors de l'axe du faisceau principal. Ceci donne de très forts retours qui peuvent être mal interprétés comme étant des précipitations fortes.
USAGE : Tous les types de données: réflectivité, vitesse radiale et les différents champs de polarimétrie.
CAPPI (Vue panoramique à altitude constante)
Cappi de réflectivité à 1,5
km d'altitude par le radar de
Montréal.
Pour pallier les problèmes du PPI, le CAPPI a été développé par les chercheurs canadiens2. Il s'agit en fait d'une coupe horizontale à travers l'ensemble des angles d'élévation sondés par le radar. Selon le nombre d'angles et les élévations de ceux-ci, on peut faire une coupe plus ou moins précise. Selon le niveau de notre coupe, il arrive également qu'à une certaine distance nous n'ayons plus de données à l'altitude recherchée. Ce qui est ensuite vu sur le CAPPI, ce sont les données du PPI le plus près de ce niveau.
Par exemple, sur l'image des angles plus haut en page (section stratégie de sondage), les 24 angles s'échelonnent de 0,5 à 25 degrés et nous pouvons donc faire un CAPPI à travers ces données. Les lignes grasses en dents de scie représentent des CAPPI à 1,5 et 4 km d'altitude. Remarquez qu'au-delà de 120 km, l'angle le plus bas passe au-dessus de 1,5 km et qu'à 200 km il dépasse le 4 km. Donc la portion des CAPPI qui sera au-delà de ces limites sera donc plutôt un PPI de l'angle le plus bas.
- Usage
Pour qu'un CAPPI donne des images relativement lisses de point en point, il faut des données sur un assez grand nombre d'angles dans la verticale afin d'éviter les trous dans la couverture verticale. De plus, il est important que le champ de données soit sans changements brusques selon la hauteur. C'est pourquoi ce sont surtout les données de réflectivité qui sont affichées sur des CAPPIs.
Les données de vitesses Doppler sont en général plus bruyantes car la direction des vents peut changer soudainement en quelques centaines de mètres d'altitude ce qui peut causer des images CAPPI en bandes si la coupe est faite autour de la hauteur de ce changement. Seule l'Université McGill (Montréal, Canada) produit régulièrement des CAPPIs Doppler47,48. Cependant, certains chercheurs l'utilisent, entre autres pour l'analyse de la circulation autour des cyclones tropicaux et pour le développement de produits NEXRAD49.
Finalement, les données de double polarisation sont nouvelles et peuvent être également bruyantes. Aucun exemple de CAPPI de ces données n'est connu mais au moins une société en électronique radar nommée SIGMET a un logiciel qui permet de le faire50.
Carte de cumul des précipitations
Cumul de 24 heures de la pluie selon le radar de Val d'Irène dans l'est du Québec (Canada). Remarquez les cônes sans données vers l'est et le sud-ouest causés par le blocage du faisceau par les montagnes (Source:
Environnement Canada)
Une des utilités principales des radars météorologiques est de pouvoir détecter à distance les précipitations pour des usages hydrométriques. Par exemple, les services de contrôle du débit des rivières, d’avertissement d’inondations, de planification de travaux de barrage, etc. ont tous besoin de savoir les quantités de pluie et neige qui tombent sur de larges domaines. Le radar complète idéalement un réseau de pluviomètres en étendant la prise de données sur une grande superficie, le réseau servant à son étalonnage. Ce produit a différentes appellations : carte ou image d'accumulations (Canada), lame d'eau (France ou en hydrologie), carte des hauteurs de précipitations, etc.
Pour faire une image d’accumulations, il faut multiplier le taux de précipitations obtenu à bas niveau dans un sondage radar par la durée voulue. Comme les précipitations se déplacent, on ne peut prendre le taux qu’à un seul instant donné et il faut donc faire plusieurs sondages à intervalles réguliers et distribuer les précipitations entre chaque pas de temps. Par exemple, si on génère un PPI ou CAPPI de bas niveau à toutes les 10 minutes. En comparant ces images informatiquement, on peut en tirer la vitesse et la direction de déplacement de la zone de précipitations. Le taux de précipitations X (par minute), qui se déplace du point A au point B entre deux pas de temps, laissera donc 10 X millimètres de pluie. On répartit ensuite cette quantité également tout le long du trajet de A à B. Pour obtenir des accumulations sur de plus grandes périodes (heures, jours, etc.), il suffit donc d’additionner les données de plusieurs pas de temps de sondage.
Comme il sera discuté plus bas dans l'article, certains artéfacts peuvent cependant se mêler aux véritables données dans le retour au radar. Pour avoir une estimation plus exacte des accumulations, il faudra les filtrer avant de produire ces cartes d'accumulations51.
Carte des réflectivités maximales
Les zones 1, 2 et 3 sont plus étendues sur le composite que sur le
PPI de bas niveau montrant que la réflectivité est plus forte en altitude.
La réflectivité composite, ou maximum de réflectivité, est une image radar dans laquelle chaque point représente la valeur maximale (en DBZ) de la réflectivité dans la colonne d'air sondée52. Ce produit est appelé Composite reflectivity pour le National Weather Service aux États-Unis et MAXR au Canada.
Un radar météorologique sonde séquentiellement sur 360 degrés une série d'angles dans la verticale. La réflectivité sur chacun de ces angles représente le taux de précipitations le long d'un cône qui s'élève en s'éloignant du radar. Chaque angle peut être vu sur une image PPI. Or ce taux varie avec l'altitude et un PPI individuel ne donne pas une idée complète de la structure verticale des précipitations.
Dans le composite, les intensités les plus élevées parmi celles disponibles sur les différents angles au-dessus de chaque point de l'image seront affichés. C'est un produit radar créé pour comparer la réflectivité à bas niveau avec celle totale dans la colonne d'air afin de repérer certaines caractéristiques des nuages ou artéfacts dans les données radar52,53.
Carte des sommets d’échos
Un autre domaine d’utilisation des radars est celui de l’aviation. Une carte très utile pour ce domaine est celle des sommets de précipitations. En effet, les aéronefs désirent savoir la hauteur des sommets des nuages, entre autres ceux des orages, pour savoir à quelle altitude voler afin d'éviter les nuages dangereux54. Comme le radar météorologique sonde un volume en trois dimensions, on peut donc y trouver la hauteur à laquelle se terminent les précipitations. Ce n’est pas la hauteur à proprement parler des nuages, puisque le sommet de ceux-ci ne contient que des gouttelettes pas assez grosses pour être visible au radar, mais il s’en approche.
La façon de procéder est simplement de prendre les données depuis l’angle le plus élevé vers le plus bas et de noter la hauteur et les endroits à chaque angle de visée où on dépassera un taux seuil de précipitations. Plus ce taux sera faible, plus on s’approche du sommet réel du nuage.
Coupes verticales
Coupe verticale des données volumiques à travers un orage.
Afin de connaître la structure verticale des précipitations dans les nuages, ce qui est important pour reconnaître leur type, un produit de coupe verticale des données des radars a été développé. Celles-ci étant prises sur de nombreux angles d'élévation et sur 360 degrés d'azimut, elles constituent pour chaque sondage complet une matrice de valeurs en 3 dimensions. En déterminant une ligne de coupe, il est donc possible de montrer les réflectivités, les vitesses et les valeurs polarimétriques selon la verticale d'un point A à un point B comme dans l'image ci-contre55. La résolution de l'image dépend du nombre d'angles sondés dans la verticale, de la distance au radar et de la résolution azimutale : plus le nombre d'angles est faible ou la coupe est faite loin du radar plus les données sont grossières.
Affichage de données RHI.
Ce genre de coupe est parfois appelée coupe transversale mais ce terme est vague car il s'applique à toute coupe selon un axe quelconque dans un volume de données. Ainsi, il peut aussi s'appliquer aux coupes horizontales qui donnent le CAPPI.
Un produit similaire, mais généré de façon totalement différente, est le « balayage vertical ». Dans ce cas, le radar météorologique n'effectue pas un balayage sur 360 degrés autour du site mais plutôt un balayage vertical selon un seul azimut comme un radar de site. Les données représentent donc un sondage de très haute résolution dans la verticale dans une seule direction56. Ce type de sondage est seulement utilisé en recherche pour faire une étude d'un phénomène comme un cumulonimbus relativement près du radar et nécessite un affichage hauteur/distance (RHI).
Boucle de PPIs de réflectivité (en dBZ) montrant l'évolution de l'ouragan Katrina.
Tous les produits dérivés des données radar peuvent être animés. L'utilisateur peut ainsi voir l'évolution de la zone de réflectivités, de vitesses, etc. et en tirer des informations sur le déplacement et la dynamique du phénomène météorologique observé. Par exemple, il est possible d'extrapoler le déplacement de la perturbation, pour prévoir à court terme l'arrivée de la pluie sur une ville d'intérêt. L'animation permet également d'observer le développement ou la diminution des précipitations.
Cette prévision immédiate peut se faire manuellement par l'utilisateur ou par un système expert qui extrait les variations temporelles des échos. En effet, un logiciel peut repérer les zones de précipitations en appliquant des critères de continuité horizontale et verticale des échos radar, puis faire une corrélation croisée pour trouver leur vitesse et direction de déplacement. Finalement, un modèle numérique de prévision du développement des précipitations peut être utilisé pour raffiner l'extrapolation57.
Dans les sections suivantes, les différents types de retours au radar qui ne proviennent pas d'hydrométéores (et qui nuisent à l'interprétation visuelle) seront traités. Une animation permet de repérer les artéfacts non météorologiques ayant un comportement aléatoire (par exemple le bruit ou la propagation anormale) dans le cas où ceux-ci n'ont pas été filtrés au préalable. Cependant, certains autres artéfacts, comme les échos provenant des oiseaux (voire des moustiques), bougent de la même façon que le ferait des précipitations et l'utilisation d'une animation ne permettra pas à elle seule de les repérer.
Mosaïques de radars
Mosaïques de tous les radars couvrant les États-Unis continentaux.
Les données d'un seul radar météorologique sont utiles si on ne regarde qu'à courte portée et sur un temps assez court. Cependant, pour bien voir le déplacement des précipitations, les sorties de plusieurs radars doivent être mis en réseau sur une carte mosaïque. Comme les différents radars peuvent avoir des caractéristiques différentes, dont leur étalonnage, et avoir des zones de recoupement, il faut prévoir un arbre de décision pour choisir quelle valeur mettre en un point de façon à avoir un continuum.
Pour les radars qui peuvent avoir une certaine atténuation dans les précipitations fortes, comme ceux de 5 cm de longueur d'onde, on mettra en général la donnée du radar ayant le plus fort retour en un point si deux radars couvrent cet endroit. Pour les radars n'ayant pas d'atténuation notable, comme ceux de 10 cm, on mettra plutôt la valeur du radar le plus près.
Ceci peut également varier entre l'hiver et l'été. Dans le premier cas, il peut y avoir beaucoup de différence de position dû au transport par les vents et de variations du taux de précipitations par sublimation (virga). Cela peut aboutir à une grande différence entre le niveau de la donnée du radar et le sol.
Voici quelques sites pour voir les données en réseaux:
Algorithmes automatiques
Le carré est mis par le programme de traitement lorsqu'il a repéré une rotation sur les données Doppler. À noter que ceci est un zoom d'une région et que le doublet de rotation (vert-jaune) a moins de 10
km de rayon (Source:
Environnement Canada).
Pour mieux repérer les informations contenues dans les données d'un radar, divers algorithmes informatiques ont été développés. En effet, un météorologiste à l'œil averti et avec beaucoup d'expérience pourra interpréter ces sorties mais certains détails demandent trop d'attention. Ceci est particulièrement vrai des données Doppler qui ne donnent que la composante radiale.
- Les principaux algorithmes de réflectivité sont
- La masse de la colonne de précipitations (VIL en anglais) permet d'estimer le potentiel total d'accumulation au sol de précipitations d'un nuage individuel et de repérer les nuages les plus importants comme les orages58,59 ;
- Celui de Rafale Potentielle qui relie le VIL et la hauteur du sommet des échos radar. Plus la quantité d'eau se concentre dans le nuage, plus la rafale sera forte lorsque le cœur des précipitations descendra59,60 ;
- Présence de grêle59 ;
- Voûte d'échos faibles qui repère les endroits ou la réflectivité est plus forte en altitude qu'au sol, ce qui indique la présence d’un fort courant ascendant61.
- Les principaux algorithmes pour les vitesses Doppler
- Repérage des rotations dans les orages. Avec un radar météorologique on ne peut voir les tornades, car elles sont plus petites que la résolution habituelle, mais on peut voir se former dans les cellules orageuses les rotations qui pourront se concentrer en tornade si les conditions sont favorables59 ;
- Repérage du cisaillement des vents dans les bas niveaux qui donne une idée où se produisent des rafales importantes59.
Limitations et artéfacts
L'interprétation des données radar dépend de plusieurs hypothèses qui ne sont pas toujours remplies:
- Atmosphère standard ;
- Obéissance à la loi de Rayleigh et relation directe entre le retour et le taux de précipitations ;
- Le volume sondé par le faisceau est rempli de cibles (gouttes, flocons, etc.) météorologiques, toutes du même type et à une concentration uniforme ;
- Aucune atténuation ;
- Aucun phénomène d'amplification ;
- Les lobes latéraux sont négligeables ;
- La forme du faisceau à mi-puissance peut être représentée de façon approximative par une courbe gaussienne ;
- Les ondes incidentes et rétrodiffusées sont polarisées linéairement ;
- La diffusion multiple est négligeable (pas de retour à multiples réflexions sur différentes cibles).
Le faisceau radar se propage dans l'atmosphère et rencontre bien des choses en plus de la pluie ou de la neige. Il faut donc savoir reconnaître la signature de ces artéfacts pour pouvoir interpréter correctement les données.
Propagation anormale (atmosphère non standard)
L'indice de réfraction (n) dans le vide est de 1 mais il varie dans l'air avec la température (T), la pression (p) et la pression de vapeur d'eau (e) selon la formule12 :
- n = 1 + 77 , 6 p T + 3 , 73 × 10 5 e T 2 {\displaystyle n=1+77,6{\frac {p}{T}}+3,73\times 10^{5}{\frac {e}{T^{2}}}}

Il est pris comme hypothèse que le faisceau radar se déplacera dans une atmosphère standard où la température, l'humidité et la pression diminuent selon une courbe normale avec l'altitude. Le calcul de la position des échos et leur altitude dépend de cette hypothèse. En cas de variation par rapport à ce standard, il y a propagation anormale.
Suréfraction
Suréfraction du faisceau radar qui peut noter des précipitations sous l'horizon
Il arrive souvent que des inversions de températures se produisent à bas niveau par refroidissement nocturne sous un ciel clair, ou en altitude par subsidence. Également, l'humidité peut être capturée près du sol et diminuer rapidement avec l'altitude dans une goutte froide sous un orage, en situation du passage d'air chaud sur de l'eau froide, ou dans une inversion de température62.
Ces différents cas changent la stratification de l'air. L'indice de réfraction diminue alors plus rapidement que la normale dans la couche en inversion de température ou d'humidité ce qui fait recourber le faisceau radar vers le bas63,64. Si l'inversion est près du sol, le faisceau frappe celui-ci à une certaine distance du radar puis retourne vers ce dernier. Comme le traitement radar s'attend à un retour d'une certaine hauteur, il place erronément l'écho en altitude.
Ce type de faux échos est facilement repérable, s'il n'y a pas de précipitations, en regardant une séquence d'images. On y voit dans certains endroits des échos très forts qui varient d'intensité dans le temps mais sans changer de place. De plus, il y a une très grande variation d'intensité entre points voisins. Comme cela se produit le plus souvent en inversion nocturne, le tout commence après le coucher du soleil et disparait au matin62,65. L'extrême de ce phénomène se produit quand l'inversion est si prononcée et sur une mince couche que le faisceau radar devient piégé dans la couche comme dans un guide d'ondes. Il rebondit plusieurs fois au sol avant de revenir au radar63. Ceci crée des échos de propagation anormale en bandes concentriques multiples.
Par contre, si l'inversion est due à une inversion pré-frontale (front chaud), il peut y avoir des précipitations mêlées avec la propagation anormale ce qui rend la détection plus problématique. Finalement, si l'inversion est en altitude, le faisceau radar pourrait frapper de vrais précipitations mais leur position serait trop basse par rapport à la réalité.
Infraréfraction
Si la température de l'air diminue plus rapidement que dans l'atmosphère standard, comme dans une situation d'air instable (convection), l'effet inverse se produit. Cette situation est prévisible avec le sondage aérologique mais est difficile à repérer sur l'affichage radar. Le faisceau radar est alors plus haut que l'on pense et les échos sont donc à plus bas niveau qu'indiqués. Le faisceau peut également passer au-dessus d'une zone de précipitations qu'il aurait normalement pu détecter et l'infraréfraction limite ainsi la portée du radar météorologique en limitant la détection à bas niveau.
Des cibles hors de la loi de Rayleigh
Une des hypothèses de l'interprétation radar est que le retour des cibles est proportionnel au diamètre des cibles. Ceci se produit quand les gouttes sont de l'ordre de 10 fois inférieures à la longueur d'onde utilisée. Si les cibles sont trop petites, le dipôle des molécules d'eau contenues dans la cible (ex. gouttelettes de nuage de quelques microns de diamètre) sera trop petit pour être excité et le retour sera invisible pour le radar.
Par contre si la cible s'approche de la longueur d'onde (ex. grêle de 5 cm), le dipôle de la cible sera excité de façon non linéaire et le retour ne sera plus proportionnel. Cette zone est appelée la diffusion selon la théorie de Mie.
Donc un radar météorologique opérationnel (5 et 10 cm en général) ne peut percevoir la bruine ou les nuages. D'un autre côté, si la réflectivité dépasse 50 dBZ, il est très probable que nous ayons affaire à de la grêle mais on ne peut en préciser le taux de précipitations.
Résolution, volume sondé non rempli et gradients de réflectivité
Vue par un profileur à grande résolution en haut et par un radar météorologique typique en bas.
Le faisceau radar a une certaine largeur et on prend des données avec un nombre défini d'impulsions sur chaque angle de visée ainsi qu'à des angles d'élévation discrets. Il en résulte que nous avons des données qui moyennent les valeurs de réflectivité, de vitesse et de polarisation sur des volumes de cibles. Plus on est loin, comme on l'a vu plus haut, plus ce volume est grand.
Dans la figure de gauche, on voit en haut une coupe verticale effectuée lorsqu'un orage est passé au-dessus d'un profileur de vents. Ce dernier a une résolution de 150 m selon la verticale et de 30 m selon l'horizontale ce qui fait qu'on peut voir énormément de détails. On peut entre autres voir que la réflectivité change rapidement à certains endroits (gradient).
Comparons cette image à celle du bas, simulée à partir des caractéristiques d'un faisceau radar météorologique de 1 degré de largeur, à une distance de 60 km. On voit très clairement la dégradation qui est particulièrement importante dans les zones où le gradient est fort. Ceci montre comment les données des radars peuvent facilement déroger de l'hypothèse que le volume sondé est rempli de cibles uniformément disposées. De plus, le faisceau radar moyennant sur une plus grande surface, il incorpore des régions qui n'ont pas de cibles avec d'autres en ayant ce qui agrandit l'image des précipitations au-delà de la réalité. Ces effets de lissage et d'étalement des zones augmentent avec la distance ce qui peut laisser croire à un utilisateur que les zones de précipitations qui s'éloignent du radar deviennent moins intenses.
L'image de droite montre les données provenant d'un orage violent. L'image du haut, provenant d'un radar TDWR, a une résolution double de celle du NEXRAD. Nous pouvons beaucoup mieux voir les détails qui aideront le météorologiste à reconnaître la configuration dangereuse d'un écho en crochet annonciatrice d'un tornade. La diminution de la largeur du faisceau, en augmentant le diamètre de l'antenne ou en diminuant la longueur d'onde de sondage, est donc un facteur important pour mieux se conformer à l'hypothèse d'un volume rempli uniformément mais ne fait rien pour la dégradation avec la distance.
Cibles non météorologiques
Débris de la navette Columbia vue par un radar NEXRAD.
En plus de la pluie, de la neige, du verglas et autres précipitations, le radar météorologique peut recevoir des échos provenant d'autres sources. Les principaux polluants des données sont :
- Les oiseaux, surtout en temps de migration
- Les insectes à très basse altitude
- Les leurres électroniques que peuvent laisser tomber des avions militaires (voir Paillette)
- Les obstacles solides comme les montagnes, les édifices, les avions
- La réflexion venant de plans d'eau à angle rasant.
Chacun de ces artéfacts a des caractéristiques propres qui permettent de les reconnaître de vraies précipitations pour un œil averti. Dans la section Solutions plus bas, il est montré qu'il est possible de les filtrer en combinant la réflectivité, les vitesses Doppler et la polarisation. Ces données peuvent être utiles pour certains utilisateurs une fois séparées des précipitations. Par exemple, plusieurs études universitaires et gouvernementales ont permis d'extraire les données sur la période, la hauteur et la trajectoire de migration des oiseaux et des papillons Monarques de ces échos parasites66, 67. Ces informations sont utiles pour les programmes d'aménagement des aires naturelles, la planification des parcs éoliens et toutes autres activités qui peuvent influencer les populations d'oiseaux ou d'insectes.
Le radar météorologique peut également percevoir des débris dans l'atmosphère sondée ce qui peut servir à divers utilisateurs :
- Cendres des feux de forêts68 : les services de protection de la forêt peuvent s'en servir pour localiser la source des feux et leur évolution ;
- Chute de météorites69 : permet de suivre et de comptabiliser les événements qui autrement ne seraient pas rapportés ;
- Débris d'explosion comme la désintégration de la navette Columbia le et l'explosion de l'accident ferroviaire de Lac-Mégantic du 70 : permet aux services d'urgence de repérer les explosions et aux enquêteurs de reconstituer les événements ;
- Débris projetés en l'air par une tornade71 : confirment aux météorologues la violence d'un orage et permettent ainsi de poursuivre les alertes météorologiques déjà en vigueur.
Éoliennes
Réflectivité (gauche) et vitesse radiale (droite) au sud-est d'un radar. Les zones encerclées proviennent d'un parc d'éoliennes
Les parcs d'éoliennes constituent une nouvelle source de faux retours. Les mâts sont métalliques et les pales de ces appareils sont le plus souvent en fibre de verre ou en fibre de carbone mais comportent une insertion métallique servant de parafoudre72. Elles peuvent retourner un signal assez intense vers le radar quand elles sont situées à une hauteur suffisante pour être dans la ligne de visée du faisceau73. Bien que l’écho provenant d’une seule éolienne loin du radar peut être négligeable dans le volume sondé, un parc d'éoliennes situé près du radar donnera un retour total non négligeable. De plus, les pales étant en rotation, les données de vitesse radiale seront non nulles74.
Ainsi des échos provenant d'un parc d'éoliennes peuvent être pris par erreur pour des précipitations ou se mêler à celles-ci. Dans ce dernier cas, si l'orientation des pales est correcte, on peut même noter un doublet de vitesses s'éloignant et se rapprochant du radar qui ressemblent à un mésocyclone et qui sera détecté erronément par le programme de traitement des données. Ceci est arrivé par exemple en 2009 à Dodge City (Kansas), États-Unis, et a déclenché une alerte à la tornade inutile quand une signature tornadique de rotation a été analysé dans les données du radar NEXRAD local75.
Finalement, les éoliennes sont un obstacle physique qui coupe partiellement le faisceau radar et donc amène des problèmes de zones d'ombres totales ou partielles. Comme les autres blocages, ceci diminue le retour provenant des précipitations en aval du parc d'éoliennes ce qui amènera à leur sous-estimation. Des études sont en cours à la fois sur les éoliennes pour réduire leur surface équivalente radar et sur les algorithmes radar pour leur permettre de discriminer les éoliennes des autres échos73.
Atténuation
Exemple de forte atténuation par une ligne d'
orages passant au-dessus d'un radar de 5
cm de longueur d'onde (flèche rouge). Source:
Environnement Canada.
Toute onde électromagnétique peut être absorbée en passant dans un milieu quelconque car elle excite les molécules qui le composent. Cela peut donc enlever une partie des photons pour faire changer le niveau énergétique du milieu. L'air est très peu absorbant mais la molécule d'eau l'est. Plus la longueur d'onde porteuse du faisceau radar se rapproche de celle des gouttes d'eau (0,1 à 7 millimètres), plus le dipôle de ces molécules sera excité et plus l'onde sera atténuée par les précipitations rencontrées.
En conséquence, les radars météorologiques utilisent généralement une longueur d'onde de 5 cm ou plus. À 5 centimètres, lors de pluies intenses, on note une perte de signal en aval de celles-ci sur l'image radar (voir image). L'atténuation est cependant de nulle à acceptable dans des précipitations faibles à modérées et dans la neige. C'est pourquoi la plupart des pays des régions tempérées (Canada et une bonne partie de l'Europe) utilisent cette longueur d'onde. Elle nécessite une technologie moins coûteuse (magnétron et de plus petite antenne). Les nations ayant une prédominance d'orages violents utilisent une longueur d'onde de 10 centimètres qui est atténuée de façon négligeable dans toutes les conditions mais est plus coûteuse (klystron). C'est le cas des États-Unis, de Taïwan et d'autres.
Les longueurs d'onde de moins de 5 cm sont fortement atténuées, même par pluie modérée, mais peuvent avoir une certaine utilité à courte portée, là où la résolution est plus fine. Certaines stations de télévision américaines utilisent des radars de 3 centimètres pour couvrir leur auditoire en plus du NEXRAD local. La double polarisation des radars météorologiques permet cependant d’utiliser de nouveaux paramètres pour corriger les données atténuées. Plusieurs pays mettant à jour leur réseau radar de bande C de cette manière, comme le Canada et la France, des algorithmes robustes furent mis au point pour procéder automatiquement à cette correction. Ces algorithmes varient selon les caractéristiques du faisceau et la longueur d’onde76,77,78.
Bandes brillantes
En haut, CAPPI de 1,5
km d'altitude fortement contaminé par la bande brillante (échos en jaune). La coupe verticale du bas montre qu'entre 1,5 et 2,5
km les échos radar sont plus intenses. C'est la bande brillante qui est causée par la fonte de flocons de neige (Source:
Environnement Canada).
Comme nous l'avons vu antérieurement, le retour de réflectivité est proportionnel au diamètre, au nombre et à la constante diélectrique de la cible. Entre un flocon de neige et une goutte de pluie de même masse, il y a une différence importante de ces trois variables. Ainsi le diamètre d'un flocon est beaucoup plus grand que celui de la goutte mais la constante diélectrique est beaucoup plus petite. Les flocons tombant plus lentement, ils ont une plus grande concentration que les gouttes mais celles-ci se combinent souvent par collisions pour donner de plus grosses cibles. Lorsque l'on tient compte de tous ces facteurs et que l'on calcule la réflectivité de chacune de ces deux cibles, on se rend compte que la différence est d'environ 1,5 dBZ en faveur de la goutte.
Lorsque de la neige, en altitude, descend vers le sol et rencontre de l'air au-dessus du point de congélation, elle se transforme en pluie. Donc on s'attend à ce que la réflectivité augmente d'environ 1,5 dBZ entre une donnée radar prise dans la neige et une autre prise dans la pluie. À l'altitude où la neige commence à fondre, il y a cependant un rehaussement des réflectivités jusqu'à 6,5 dBZ79. Qu'arrive-t-il?
À ce niveau, nous avons affaire à des flocons mouillés. Ils ont encore un diamètre important, se rapprochant de celui des flocons de neige, mais leur constante diélectrique s'approche de celle de la pluie et ils tombent lentement. Nous avons alors les trois facteurs favorisant une plus grande réflectivité. Il en résulte une zone qu'on appelle la bande brillante. Dans les données radar, sur PPI ou CAPPI, qui croisent ce niveau, l'on verra alors un rehaussement des intensités des précipitations qui n'est pas réel79.
Utiliser les taux de précipitations contaminés par la bande brillante conduira donc à une surestimation des quantités de pluie au sol. Plusieurs techniques ont été développées pour filtrer cet artéfact par plusieurs services météorologiques. Le principe général est de repérer le niveau de la bande brillante et d'essayer d'utiliser les données dans la pluie sous celle-ci, si possible, ou sinon dans la neige au-dessus, mais avec correction80,81,82.
Géométrie du faisceau
Le faisceau émis n'est pas un pinceau comme un faisceau laser mais il a plutôt la forme d'un diagramme de diffraction par une fente puisque l'onde émise sort par la fente d'un tube guide d'ondes au point focal d'une antenne parabolique. Le pic central (le faisceau radar) est plus ou moins une courbe gaussienne mais il y a des pics secondaires qui peuvent également illuminer les cibles hors de l'axe principal. Tout est fait pour minimiser l'énergie des pics secondaires à une faible fraction du pic central mais ils ne sont jamais nuls.
Lorsque le faisceau radar passe sur un écho particulièrement fort, le retour de l'énergie du pic central est dans l'axe de visée. Les retours des pics secondaires (voir lobe secondaire) arrivent, quant à eux, au même temps où le pic central illumine un autre angle de visée. Comme le récepteur note l'angle de visée du pic central, les retours des pics secondaires sont donc notés à un mauvais azimut ce qui crée un faible faux retour de chaque côté de notre vrai écho.
Diagramme idéalisé de la distribution d'énergie d'un faisceau radar (pic central à 0 et pics secondaires à différents angles de chaque côté de celui-ci)
|
|
Diffraction par un trou circulaire simulant le diagramme d'émission vu par les cibles
|
|
Les forts échos retournés par des collines par temps dégagé ( pixels rouges et jaunes) et les retours mal placés venant des lobes secondaires (bleus et verts)
|
Réflexions multiples
Réflexion du faisceau radar par la grêle.
Le faisceau radar est réfléchi par la cible dans toutes les directions. En général, le retour venant de réflexions multiples dans le nuage est négligeable. Dans certaines conditions où le cœur des précipitations est intense (comme la grêle), une partie importante de l'énergie du faisceau radar sera réfléchie vers le sol. Comme ce dernier est très réflectif, il en retournera une bonne partie vers le nuage. La zone de précipitations intenses en retourna finalement une partie vers le radar83. On aura alors une réflexion à trois corps.
Comme cet écho supplémentaire arrive plus tard que l'écho initial du nuage, à cause du plus long trajet, il sera placé erronément à l'arrière des vrais échos de précipitations84. Sur un PPI ou un CAPPI, il prendra l'aspect d'un cône ou d'une zone allongée de faible intensité derrière le cœur le plus intense des précipitations. Dans une coupe verticale, on verra que ce cône ne touchera pas le sol. Il s'étendra selon une direction radiale le long d'un angle d'élévation par rapport au radar et passant pas le cœur.
Solutions actuelles et futures
Filtrage
Image radar brute et filtrée
La boucle suivante montre comment on peut nettoyer une image brute de réflectivité pour trouver les vrais échos dus aux précipitations. Comme ces derniers sont en général mobiles, en éliminant les échos dont la vitesse est nulle, obtenue par traitement Doppler, il ne nous reste que les vrais échos. Bien que le traitement soit complexe et faillible, il donne en général des résultats très intéressants. Les problèmes dus au changement de type de précipitations, au mélange de ces derniers et aux cibles non météorologiques, comme les oiseaux, peuvent quant à eux être filtrés par l'utilisation d'un filtre venant des données de polarisation. Ceci commence à être fait opérationnellement et donne de bons résultats85,86.
Réseau à petite échelle
La résolution du radar est également un facteur important dans l'identification et la mesure des intensités des précipitations. On peut augmenter le diamètre de l'antenne afin de diminuer la largeur du faisceau mais les coûts sont importants. Une autre façon est d'augmenter la densité du réseau de radars afin d'utiliser les données les plus près de chaque radar, là où le faisceau est le moins large.
Un tel programme appelé CASA, pour Center for Collaborative Adaptive Sensing of the Atmosphere, subdivise la région couverte par un radar régulier et chaque secteur est couvert par petit radar peu coûteux qui ne sonde qu'à bas niveau87,88. Ceci ajoute de l'information de grande résolution à bas niveau et comble le manque de données sous l'angle minimum du radar principal. Un tel réseau peut utiliser une longueur d'onde plus courte ce qui diminue la grosseur des antennes mais l'atténuation par les précipitations est significative. Il faut alors que chaque point soit couvert par plusieurs radars qui vont compenser pour l'atténuation en « regardant » chacun d'une direction différente. Un tel réseau pourrait même théoriquement remplacer les radars actuels si le coût et la technologie de coordination du sondage deviennent compétitifs87.
Balayage électronique
Depuis 2003, un radar tridimensionnel à balayage électronique, acheté de la United States Navy par le service météo de la NOAA, est mis à l'essai pour voir l'utilité de ce concept dans la détection des précipitations. L'avantage de ce type d'antenne est d'obtenir un sondage de l'atmosphère dans un temps beaucoup plus rapide qu'avec une antenne conventionnelle, permettant de voir l'évolution des orages avec une résolution temporelle grandement supérieure. Comme ces derniers peuvent changer de caractéristiques très rapidement et donner du temps violent, l'espoir est de pouvoir mieux anticiper le déclenchement des phénomènes violents (tornade, grêle, pluie torrentielle et rafales descendantes) et ainsi améliorer les préavis d'alertes météorologiques.
On estime qu'il faudra de 10 à 15 ans pour compléter les recherches et faire les plans pour construire une nouvelle génération de radars météorologiques utilisant ce principe qui pourraient donner un sondage complet en moins de 5 minutes. Le coût estimé de cette expérience est de 25 millions USD89,90.
Notes et références
- Atlas 1990
- (en) Frédéric fabry, « L'histoire du «Stormy Weather Group» » [archive du ], Université McGill, Montréal, Canada, (consulté le ).
- (en) R. H. Douglas, chap. 8 « The Stormy Weather Group (Canada) », dans Radar in meteorology : Battan Memorial and 40th Anniversary Radar Meteorology Conference, Boston, MA, AMS, (ISBN 0-933876-86-6 et 978-1-935704-15-7, lire en ligne [archive]), p. 61-68.
- (en) « The First Tornadic Hook Echo Weather Radar Observations » [archive], Université d'État du Colorado, (consulté le )
- (en) Susan Cobb, « Weather radar development highlight of the National Severe Storms Laboratory first 40 years » [archive], NOAA Magazine, NOAA, (consulté le )
- (en) C.L. Crozier, P.I. Joe, J.W. Scott, H.N. Herscovitch et T.R. Nichols, « The King City Operational Doppler Radar: Development, All-Season Applications and Forecasting (Le radar opérationnel Doppler de King City : Développement, applications toutes saisons et prévisions) », Atmosphere-Ocean, Société canadienne de météorologie et d'océanographie (SCMO), vol. 29, no 3, , p. 479-516 (DOI 10.1080/07055900.1991.9649414, lire en ligne [archive] [PDF], consulté le )
- (en) « Radar Network and Doppler Services Upgrade Project » [archive], Bureau of Meteorology, (consulté le )
- (en) Jacques Parent du Châtelet et al. de Météo-France, « Le projet PANTHERE » [archive] [PDF], 32e Conférence radar, Albuquerque, NM, American Meteorological Society, (consulté le )
- (en) « Pulse volume » [archive], Glossary of Meteorology, American Meteorological Society, (consulté le )
- (en) Merrill I. Skolnik, Radar handbook, New York, McGraw-Hill, , 3e éd., 1328 p. (ISBN 978-0-07-148547-0 et 0-07-148547-3, présentation en ligne [archive]), chap. 19.2
- (en) M. de Podesta, Understanding the Properties of Matter, CRC Press, , 434 p. (ISBN 0415257883, lire en ligne [archive]), p. 131
- (en) Frédéric Fabry, C. Frush, I. Zawadzki et A. Kilambi, « Extracting near-surface Index of refraction using radar phase measurements from ground targets », Journal of Atmospheric and Oceanic Technology, American Meteorological Society, no 14, , p. 978-987 (lire en ligne [archive])
- (en) R. J. Doviak et D. S. Zrnic, « ATMS 410 – Radar Meteorology : Beam propagation » (version du 15 juin 2010 sur l'Internet Archive), [PDF]
- (en) « Radar resolution » [archive], Glossary of Meteorology, American Meteorological Society, (consulté le )
- (en) « Terminal Doppler Weather Radar Information » [archive], National Weather Service (consulté le )
- (en) « Terminal Doppler Weather Radar (TDWR) » [archive], MIT Lincoln Laboratories (consulté le )
- (en) « Doppler On Wheels » [archive], Center for Severe Weather Research (consulté le )
- UVED, « La diffusion de Rayleigh » [archive], Éléments de physique du rayonnement, Université Panthéon-Sorbonne (consulté le ).
- « Carte d'information sur ClouSat » [archive] [PDF], sur www.canadiangeographic.ca (consulté le ).
- (en) Kenneth P. Moran, Brooks E. Martner, M. J. Post, Robert A. Kropfli, David C. Welsh et Kevin B. Widener, « An Unattended Cloud-Profiling Radar for Use in Climate Research », Bulletin of the American Meteorological Society, AMS, vol. 79, no 3, , p. 443-455 (ISSN 1520-0477, DOI 10.1175/1520-0477(1998)079<0443:AUCPRF>2.0.CO;2, lire en ligne [archive du ] [PDF], consulté le ).
- (en) Christian Wolff, « Airborne Weather Radar » [archive], Radar tutorial (consulté le )
- (en)Avionics Division, « RDR-1200 Weather Radar System », Bendix Avionics, Fort Lauderdale, Floride, É.-U., Bendix Corporation,, no juillet,
- (en) Ian Gilbert, « Airborne-Weather-Radar Interpretation » [archive], Training Manual, Honeywell, (consulté le )
- (en) Barr, James C., Airborne Weather Radar. 1re édition., Ames (Iowa), É.-U, Iowa State University Press,
- (en) Short Course in Cloud Physics, Third Edition par M K Yau et R R Rogers
- « Radar météorologique et la mesure de la hauteur de précipitations grâce à la réflectivité radar » [archive], Glossaire météorologique, sur Météo-France (consulté le )
- (en) J.S. Marshall et W. Palmer, « The distribution of rain drops with size », Journal of Meteorology, vol. 5, , p. 165 (lire en ligne [archive])
- (en) National Weather Service, « Reflectivity factor Z » [archive], NOAA (consulté le )
- Pierre tabary, Georges Scialom et Alain Protat, « Un radar météorologique : pour quoi faire ? », La Météorologie, Société météorologique de France, , p. 44 (lire en ligne [archive])
p. 32-35
- (en) Jacob Carlin, « Weather radar polarimetry : Dual-polarization radar promises to improve the modeling of convective storms. », Research & Technology, (DOI 10.1063/PT.5.4011, lire en ligne [archive], consulté le ).
- (en) Bureau de Louisville, KY, « What is Dual-Polarization Radar and What Can It Do for Me? » [archive] [PDF], National Weather Service, (consulté le ).
- (en) Caroline Sandford, Anthony Illingworth et Robert Thompson, « The Potential Use of the Linear Depolarization Ratio to Distinguish between Convective and Stratiform Rainfall to Improve Radar Rain-Rate Estimates », J. Appl. Meteor. Climatol., AMS, vol. 56, no 11, , p. 2927–2940 (DOI 10.1175/JAMC-D-17-0014.1, lire en ligne [archive] [PDF], consulté le ).
- (en) Larry Carey, « Polarimetric Radar Meteorology (Radar polarimétrique) » [PDF], Université Texas A&M (consulté le ).
- Organisation météorologique mondiale, « Buisson » (version du 15 février 2016 sur l'Internet Archive), Eumetcal.
- (en) Alexander V. Ryzhkov, Terry J. Schuur, Donald W. Burgess, Pamela L. Heinselman, Scott E. Giangrande et Dusan S. Zrnic, « The Joint Polarization Experiment: Polarimetric Rainfall Measurements and Hydrometeor Classification », BAMS, AMS, vol. 86, no 6, , p. 809–824 (DOI 10.1175/BAMS-86-6-809, lire en ligne [archive] [PDF], consulté le ).
- (en) Radar Operations Center, « WSR-88D Dual Polarization Installation Schedule » [PDF], National Weather Service, (consulté le ).
- (en) National Weather Service, « Dual-polarization radar: Stepping stones to building a Weather-Ready Nation » [archive], NOAA, (consulté le ).
- (en) Observatoire radar J.S. Marshall, « Target ID Radar Images PPI 0.5 degree » [archive], Université McGill (consulté le ).
- (en) Frédéric Fabry de l’Observatoire radar J.S. Marshall, « Definition: dual-polarization », Université McGill (consulté le )
- (en) David Sills, « The New Dual-Polarization Radar at King City » [archive], (consulté le ).
- (en) Ryzhkov, Giangrande, Krause, Park, Schuur et Melnikov, « Polarimetric Hydrometeor Classification and Rainfall Estimation for Better Detecting and Forecasting High-Impact Weather Phenomena Including Flash Floods » [archive du ], Doppler Weather Radar Research and Development, CIMMS (consulté le ).
- Service météorologique du Canada, « Modernisation du réseau canadien de radars météorologiques » [archive], Gouvernement du Canada, (consulté le ).
- (fr) Service météorologique du Canada, « Radar météo - Guide d'utilisation » [archive], Environnement Canada, (consulté le )
- (en) Hal Stoen, « Airborne Weather radar » [archive], stoenworks.com, (consulté le )
- (fr) « Carte type de précipitations » [archive], Types de Cartes, MétéoMédia (consulté le )
- Pierre tabary, Georges Scialom et Alain Protat, « Un radar météorologique : pour quoi faire ? », La Météorologie, Société météorologique de France, , p. 44 (lire en ligne [archive])
p. 32-33
- (en) Frédéric Fabry, « Radial velocity CAPPI », Examples of remote-sensed data by instrument, sur http://www.radar.mcgill.ca/ [archive], Observatoire radar J.S. Marshall, (consulté le ).
- (en) Frédéric Fabry, « Example: Scanning radars » [archive], Examples of remote-sensed data by instrument, sur http://www.radar.mcgill.ca/ [archive], Observatoire radar J.S. Marshall, (consulté le ).
- (en)Paul R. Harasti, Colin J. McAdie, Peter P. Dodge, Wen-Chau Lee, John Tuttle, Shirley T. Murillo et Frank D. Marks Jr., « Real-Time Implementation of Single-Doppler Radar Analysis Methods for Tropical Cyclones: Algorithm Improvements and Use with WSR-88D Display Data », Weather and Forecasting, American Meteorological Society, vol. 19, no 2, , p. 219–239 (DOI 10.1175/1520-0434(2004)019<0219:RIOSRA>2.0.CO;2, lire en ligne [archive]).
- (en) « CAPPI: Constant Altitude Plan Position Indicator » [archive] [PDF], IRIS Product & Display Manual : Configuring IRIS Products, sur http://www.vaisala.com/weather/products/sigmet.html [archive], SIGMET, (consulté le ).
- (fr) Fakhreddine Amara, Le radar météorologique, un outil pour l'hydrologie: principes, limites et applications en France, Limoges, France, Office international de l'eau et l'ENGREF, École nationale du génie rural, des eaux et des forêts (ISBN 978-2-84875-475-8 et 2-84875-475-3)
- (en) National Weather Service, « Composite Reflectivity » [archive], JetStream - Online School for Weather, NOAA, (consulté le ).
- (en) Dennis R. Cain et Paul Kirkwood, « What is the difference between base and composite reflectivity? » [archive], WSR-88D Radar FAQ's, National Weather Service, (consulté le ).
- Bureau de la sécurité des transports du Canada (BST), « Rapport d'accident d'avion en 1997 », Transport Canada (consulté le ).
- Bureau de la traduction, « Coupe verticale » [archive], TERMIUM Plus, Gouvernement du Canada, (consulté le ).
- Christian Wolff (trad. Pierre Vaillant), « Affichage de hauteur et de distance (RHI) » [archive], sur www.radartutorial.eu, Radartutorial, (consulté le ).
- Urs Germann et Isztar Zawadzki, « Scale Dependence of the Predictability of Precipitation from Continental Radar Images. Part I: Description of the Methodology », Monthly Weather Review, AMS, vol. 130, no 12, , p. 2859–2873 (DOI 10.1175/1520-0493(2002)130<2859:SDOTPO>2.0.CO;2, lire en ligne [archive] [PDF]).
- (en) Douglas R. Greene et Robert A. Clark, « Vertically Integrated Liquid Water—A New Analysis Tool », Monthly Weather Review, American Meteorological Society, vol. 100, no 7, , p. 548-552 (lire en ligne [archive] [PDF])
- (en) Paul Joe, Don Burgess, Rod Potts, Tom Keenan, Greg Stumpf et Andrew Treloar, « The S2K Severe Weather Detection Algorithms and Their Performance », Weather and Forecasting, American Meteorological Society, vol. 19, no 1, , p. 548-552 (DOI 10.1175/1520-0434(2004)019<0043:TSSWDA>2.0.CO;2, lire en ligne [archive] [PDF])
- (en) S. Stewart, The prediction of pulse-type thunderstorm gusts using vertically integrated liquid water content and cloud top penetrative downdraft mechanism., NOAA, coll. « Note technique SR-136 du National Weather Service », , 20 p.
- (en) National Weather Service, « Bounded Weak Echo Region » [archive], Meteorological Glossary, National Oceanic and Atmospheric Administration (consulté le )
- (en) Chris Herbster, « Anomalous Propagation (AP) » [archive], Introduction to NEXRAD Anomalies, Embry-Riddle Aeronautical University, (consulté le )
- (en) Mike Willis, « Propagation » [archive] (consulté le )
- (en) Les Barclay (dir.), Propagation of radio waves, Londres, The Institution of Engineering and Technology, coll. « Electromagnetic Waves » (no 502), , 2e éd. (1re éd. 1996), 352 p. (ISBN 0-85296-102-2 et 978-0-85296-102-5, présentation en ligne [archive], lire en ligne [archive]), chap. 7 (« Clear-Air Characteristics Of The Troposphere (auteur K.H. Craig) »), p. 103-120
- (fr) Service météorologique du Canada, « Erreurs courantes d'interprétation » [archive], Radar météorologique, Environnement Canada, (consulté le )
- (en) Robert H. Diehl, Ronald P. Larkin et John E. Black, « Radar Observations of Bird Migration over the Great Lakes », The Auk, The American Ornithologists' Union, vol. 120, no 2, , p. 278-290 (ISSN 1938-4254, DOI 10.1642/0004-8038%282003%29120%5B0278%3AROOBMO%5D2.0.CO;2, lire en ligne [archive] [PDF], consulté le )
- (en) François Gagnon, Marc Bélisle, Jacques Ibarzabal, Pierre Vaillancourt et Jean-Pierre L. Savard, « A Comparison between Nocturnal Aural Counts of Passerines and Radar Reflectivity from a Canadian Weather Surveillance Radar », The Auk, The American Ornithologists' Union, vol. 127, no 1, , p. 119-128 (ISSN 1938-4254, DOI 10.1525/auk.2009.09080, lire en ligne [archive] [PDF], consulté le )
- (en) Ernandes A. Saraiva, Ronaldo Viana Soares, Antônio Carlos Batista, Horácio Tertuliano et Ana Maria Gomes, Advances in forest fire research, Imprensa da Universidade de Coimbra, (ISBN 978-989-26-0884-6), « Monitoring forest fires and burnings with weather radar ».
- (en) Marc Fries et Jeffrey Fries, « Doppler weather radar as a meteorite recovery tool », Meteoritics & Planetary Science, vol. 45, no 9, 1er septembre 2010-09-01, p. 1476–1487 (ISSN 1945-5100, DOI 10.1111/j.1945-5100.2010.01115.x, lire en ligne [archive]).
- (en) National Weather Service, « Radar images of the Space Shuttle Columbia disaster 2003-02-01 1300UTC 2308UTC » [archive], YouTube, (consulté le ).
- (en) Matthew J. Bunkers et Martin A. Baxter, « Radar Tornadic Debris Signatures on 27 April 2011 » [archive], sur National Weather Service, National Oceanic and Atmospheric Administration, (consulté le )
- Jacques Bernard-Bouissières, Perturbation des radars par les éoliennes : Synthèse des informations disponibles, France Énergie Éolienne, , 2e éd. (lire en ligne [archive] [PDF])
- « Éoliennes et radars : vers une meilleure cohabitation ? » [archive], sur science.gouv.fr, Ministère de l'éducation de France (consulté le )
- Bureau du NWS à Buffalo, NY, « Wind Farm Interference Showing Up on Doppler Radar » [archive], NOAA, (consulté le )
- (en) Dirk Lammers (Associated Press), « Wind farms can appear sinister to weather forecasters », Houston Chronicle, (consulté le )
- (en) J. Testud, E. Le Bouar, E. Obligis et M. Ali-Mehenni, « The rain profiling algorithm applied to polarimetric weather radar », J. Atmos. Oceanic Technol., vol. 17, no 3, , p. 332–356 (DOI 10.1175/1520-0426(2000)017<0332:TRPAAT>2.0.CO;2, lire en ligne [archive] [PDF])
- (en) G. Vulpiani, P. Tabary, J. Parent-du-Chatelet et F. S. Marzano, « Comparison of advanced radar polarimetric techniques for operational attenuation correction at C band », J. Atmos. Oceanic Technol., vol. 25, no 7, , p. 1118–1135 (DOI 10.1175/2007JTECHA936.1, lire en ligne [archive] [PDF])
- (en) L. D. Carey, S. A. Rutledge, D. A. Ahijevych et T. D. Keenan, « Correcting propagation effects in C-band polarimetric radar observations of tropical convection using differential propagation phase », J. Appl. Meteor., vol. 39, no 9, , p. 1405–1433 (DOI 10.1175/1520-0450(2000)039<1405:CPEICB>2.0.CO;2, lire en ligne [archive] [PDF])
- (en) Frédéric Fabry de l'université McGill, « Vertical profiles of reflectivity and precipitation intensity » (version du 1 juin 2009 sur l'Internet Archive), UNESCO.
- (en) Aldo Bellon, GyuWon Lee, Alamelu Kilambi et Isztar Zawadzki, « Real-Time Comparisons of VPR-Corrected Daily Rainfall Estimates with a Gauge Mesonet », Journal of Applied Meteorology and Climatology, American Meteorological Society, vol. 46, no 6, , p. 726–741 (DOI 10.1175/JAM2502.1, lire en ligne [archive] [PDF], consulté le ).
- (en) J. Joss, J. et R. W. Lee, « Scan strategy, clutter suppression, calibration and vertical profile corrections », Preprints of the 26th Radar Meteorology Conference (Norman (Oklahoma)), American Meteorological Society, , p. 390-392.
- (en) J. Joss et R. W. Lee, « The Application of Radar–Gauge Comparisons to Operational Precipitation Profile Corrections », Journal of Applied Meteorology and Climatology, American Meteorological Society, vol. 34, no 12, , p. 2612–2630 (DOI 10.1175/1520-0450(1995)034<2612:TAORCT>2.0.CO;2, lire en ligne [archive] [PDF], consulté le ).
- (en) Leslie R. Lemon, « The Radar “Three-Body Scatter Spike”: An Operational Large-Hail Signature », Weather and Forecasting, vol. 13, no 2, , p. 327–340 (ISSN 1520-0434, DOI 10.1175/1520-0434(1998)013<0327:TRTBSS>2.0.CO;2, lire en ligne [archive] [PDF], consulté le )
- (en) National Weather Service, « Three body scatter spike » [archive], NOAA (consulté le )
- (en) M. H. Golbon-Haghighi, « Detection of Ground Clutter for Dual-Polarization Weather Radar Using a Novel 3D Discriminant Function », Journal of Atmospheric and Oceanic Technology (JTECH), vol. 36, no 7, , p. 1285-1296 (DOI 10.1175/JTECH-D-18-0147.1, lire en ligne [archive] [PDF]).
- (en) M. H. Golbon-Haghighi, G. Zhang, Y. Li et R. Doviak, « Detection of Ground Clutter from Weather Radar Using a Dual-Polarization and Dual-Scan Method », Atmosphere, vol. 7, no 6, , p. 83 (lire en ligne [archive] [PDF]).
- (en) David McLaughlin et al., « Short-wavelenght technology and potential for distributed networks of small radar systems. », Bulletin of the American Meteorological Society, Boston, MA, AMS, vol. 90, no 12, , p. 1797–1817 (ISSN 1520-0477, résumé [archive], lire en ligne [archive] [PDF])
- (en) « List of lectures on CASA » [archive], American Meteorological Society, (consulté le )
- (en) NSSL, « New Radar Technology Can Increase Tornado Warning Lead Times » [archive], National Oceanic and Atmospheric Administration (consulté le )[PDF]
Bibliographie
- (en) David Atlas, Radar in Meteorology : Battan Memorial and 40th Anniversary Radar Meteorology Conference, Boston, AMS, , 806 p. (ISBN 0-933876-86-6 et 978-1-935704-15-7, DOI 10.1007/978-1-935704-15-7), AMS Code RADMET
- (en) Louis J. Battan, Radar Observation of the Atmosphere, Chicago, États-Unis, Univ. of Chicago Press,
- Yves Blanchard, Le radar, 1904-2004 : histoire d'un siècle d'innovations techniques et opérationnelles, Paris, France, Éditions Ellipses, , 428 p. (ISBN 2-7298-1802-2)
- (en) R. J. Doviak et D. S. Zrnic, Doppler Radar and Weather Observations, San Diego Cal., Academic Press, , 2e éd., 562 p.
- (en) Frédéric fabry, Radar Meteorology : Principles and Practice, Cambridge University Press, (ISBN 978-1-107-70740-5, DOI 10.1017/CBO9781107707405, lire en ligne [archive])
- (en) K. L. S. Gunn et T. W. R. East, « The microwave properties of precipitation particles », Quarterly Journal, Royal Meteorological Society, vol. 80, no 346, , p. 522–545 (DOI 10.1002/qj.49708034603)
- (en) Yang Hong et Jonathan J, Gourley, Radar Hydrology : Principles, Models, and Applications, CRC Press, , 176 p. (ISBN 978-1-4665-1461-4, lire en ligne [archive]).
- (en) Ronald E. Rinehart, Radar for Meteorologist, Nevada, MO, Rinehart Publications, , 3e éd., 428 p. (ISBN 0-9658002-0-2 et 978-0965800204, présentation en ligne [archive])
- Henri Sauvageau, Radarmétéorologie, Paris, France, Éditions Eyrolles, , 296 p.
- Pierre tabary, Georges Scialom et Alain Protat, « Un radar météorologique : pour quoi faire ? », La Météorologie, Société météorologique de France, , p. 44 (lire en ligne [archive])
- (en) P. Tabary, F. Guibert, L. Perier et J. Parent-du-chatelet, « An operational triple-PRT scheme for the French radar network », Journal of Atmospheric Oceanic Technology, Boston, États-Unis, American Meteorological Society, vol. 23, no 12, , p. 1645-1656 (DOI 10.1175/JTECH1923.1)
- (en) Roger M. Wakimoto et Ramesh Srivastava, Radar and Atmospheric Science : A Collection of Essays in Honor of David Atlas, vol. 30, t. 52, Boston, États-Unis, American Meteorological Society, coll. « Meteorological Monograph », , 270 p. (ISBN 1-878220-57-8)« Code AMS : MM52 ».
- (en) M. K. Yau et R. R. Rogers, Short Course in Cloud Physics, Butterworth-Heinemann, , 3e éd., 304 p. (ISBN 978-0-7506-3215-7)
EAN 9780750632157
.
Voir aussi
Articles connexes
Sur les autres projets Wikimedia :
Différents réseaux de radars météorologiques:
Liens externes
Informations supplémentaires en français
Informations supplémentaires en anglais
Général
Données
Portail de la météorologie
-
Image obtenue au sonar d'un fond marin (Océan Atlantique Nord) collée sur une modélisation 3D de la
bathymétrie.
Conception
Précédé par |
Depth sounding machine (d)
|
Le sonar (acronyme issu de l'anglais sound navigation and ranging) est un appareil utilisant les propriétés particulières de la propagation du son dans l'eau pour détecter et situer les objets sous l'eau en indiquant leur direction et leur distance. Son invention découle des travaux de Lewis Nixon et des Français Paul Langevin et Constantin Chilowski au cours de la Première Guerre mondiale. Il est utilisé :
Les sonars peuvent être actifs (émission d'un son et écoute de son écho) ou passifs (écoute des bruits).
Dans le domaine de la biologie, on parle aussi de sonar à propos des moyens d'écholocalisation dont disposent les cétacés et les chauves-souris.
Inventions
Dès 1822, Jean-Daniel Colladon utilise une cloche sous l'eau pour calculer la vitesse du son sous l'eau dans le Léman. Ces premières recherches seront reprises par les inventeurs du sonar.
En 1906, Lewis Nixon I (en) développe un système d'écoute sous-marin, précurseur du sonar pour la détection des icebergs1,2.
En 1915, Paul Langevin met au point un modèle destiné à la détection de sous-marins en utilisant les propriétés piézoélectriques du quartz, dispositif alors dénommé « Écholocalisation pour détecter les sous-marins ». Son invention arrive trop tard pour contribuer notablement à l'effort de guerre, mais influencera grandement le développement des futurs sonars1.
Les premiers sonars utilisés par les marines alliées sont des modèles passifs, c'est-à-dire sans émission de sons pour lire un écho. Vers 1917, Anglais et Américains développent des systèmes actifs (qui émettent et reçoivent un signal)3 ; en particulier, le centre de recherche sur les submersibles de New London, dans le Connecticut, y emploie l'expert en électronique W. G. Cady4,5.
Durant l'entre-deux-guerres, la technologie se perfectionne de manière décisive avec l'apparition de l'électronique de première génération, et les progrès de l'industrie naissante de la radio3.
Le mot sonar est employé pour la première fois durant la Seconde Guerre mondiale par les Américains. Les Britanniques utilisent la dénomination ASDIC. Durant cette guerre, la technologie est utilisée à grande échelle et joue un rôle déterminant dans la bataille de l'Atlantique contre les U-Boot allemands3.
Les évolutions ultérieures du sonar incluent le sondeur d'échos, le détecteur de profondeur, le sonar à balayage rapide, le sonar à balayage latéral, le sonar WPESS (balayage dans le secteur électronique pulsé)1.
Sonars actifs
Sonar actif remorqué VDS (Variable Depth Sonar) type DUBV43C.
Le système SLASM (Système de lutte anti sous-marine) de la
frégate De Grasse. Il comprend notamment un sonar ATBF (Actif Très Basse Fréquence) DSBX1 avec poisson de 10 tonnes intégrant tous les sonars (actifs et passifs). L'ATBF permet une détection jusqu'à plusieurs centaines de kilomètres. Le SLASM intègre également un sonar passif ETBF (Écoute Très Basse Fréquence) beaucoup plus discret mais moins performant sur les sous-marins modernes, dont les qualités de discrétion acoustique ont été grandement améliorées depuis les années 1980.
La première application militaire du sonar actif fut l’ASDIC (acronyme de Allied Submarine Detection Investigation Committee). Les premiers transducteurs à ultrasons de quartz furent mis au point en 1917 par le canadien Robert William Boyle et les tout premiers ASDIC furent montés sur quelques navires quelques mois avant la fin de la Première Guerre mondiale6.
Image d'une épave de bateau au sonar du bateau letton, le "Virsaitis"
Un sonar actif émet une impulsion sonore et écoute son écho sur les obstacles qu'elle rencontre. Les bases d'émission et de réception des signaux sont appelés antennes et sont formées de plusieurs hydrophones.
L'antenne est :
- soit directionnelle, et l'opérateur l'oriente mécaniquement dans une direction donnée où il émet et écoute ;
- soit fixe et omnidirectionnelle, l'émission est alors soit omnidirectionnelle soit en faisceau formé électroniquement dans une direction donnée. À la réception, la direction de l'écho est également déterminée par un processus électronique (mesure des déphasages sur chaque hydrophone).
La distance est obtenue par la mesure du temps écoulé entre l'émission et la réception de l'écho (la vitesse de propagation du son dans l'eau de mer étant égale à environ 1 500 m/s, quatre fois plus vite que dans l'air).
La fréquence d'émission du sonar est choisie en fonction de son utilisation. Les hautes fréquences (plusieurs dizaines ou centaines de kHz) sont rapidement absorbées par l'eau de mer (plusieurs centaines de mètres) mais, en revanche, permettent la détection de petits objets et peuvent ainsi réaliser de véritables images. Employées à une fréquence de 14 à 22 kilohertz pour les ASDIC de la Seconde Guerre mondiale, elles sont donc, depuis, utilisées pour les sondeurs hydrographiques, les sonars de pêche, pour la recherche de mines, pour la détection de torpilles. L'impulsion peut avoir une fréquence constante, mais aussi une fréquence légèrement variable et modulée pour une détection plus fine de l'écho (Chirp). Une impulsion à fréquence fixe permet de tirer parti de l'effet Doppler (variation de la fréquence de l'écho due au déplacement de la cible) pour en déterminer sa vitesse. Une impulsion à fréquence variable ne permet pas d'utiliser l'effet Doppler, mais permet une meilleure détection (compression d'impulsion).
Plus on descend en fréquence, plus les distances de détection sont grandes, mais on perd en finesse et les antennes deviennent très grandes et très lourdes. En pratique, les sonars actifs très basse fréquence (ATBF) ne descendent guère en dessous de 3 kHz. Les portées de détection n'excèdent pas quelques dizaines de kilomètres (dans les zones de convergence).
Car l'autre difficulté rencontrée tient au fait que l'eau de mer n'est pas un milieu homogène. D'une part, la propagation est perturbée par le relief du fond, les animaux marins et le plancton. D'autre part, la célérité du son varie en fonction de la température (la bathythermie) et de la pression (et marginalement de la salinité). Ces paramètres varient avec la profondeur mais, entre 30 ou 100 mètres, se trouve généralement une limite marquée, appelée la thermocline, et qui divise l'eau chaude de la surface de l'eau froide du fond. L'onde générée par un sonar sur la thermocline est réfléchie par celle-ci. Ce phénomène n'existe pas dans les eaux côtières peu profondes, mais les échos sur le fond sont alors très gênants. Au-delà de cette thermocline, la température devient constante, mais les ondes sont soumises à l'influence de la pression qui va les « redresser » vers la surface, créant ainsi des zones de convergence (ZC). Les ondes sonores ne suivent donc pas des trajets rectilignes sur le plan vertical, (et aussi à grande distance sur le plan horizontal) et créent ainsi selon les conditions bathythermiques des « zones d'ombre » sonores, utilisées par les sous-marins et des zones de détections annulaires (les ZC) favorables à la détection. Pour cette raison, les bâtiments de lutte anti sous-marine utilisent à la fois des sonars de coque et des sonars remorqués, dont le « poisson » est immergé à quelques centaines de mètres pour « éclairer » par en dessous la thermocline. Ces bâtiments utilisent aussi des sonars passifs remorqués.
En effet, la mise en œuvre d'un sonar actif rend son porteur détectable et identifiable, puisque émettant un son très caractéristique. Il n'est pour cette raison pratiquement pas utilisé par les sous-marins, qui mettent en œuvre plusieurs types de sonars passifs.
Sonar hélitreuillé pour la recherche de sous-marins
Les hélicoptères de lutte anti-sous-marine mettent également en œuvre des sonars actifs dit « trempés » à moyenne fréquence, qu'ils treuillent et immergent en vol stationnaire.
Les plus petits sondeurs ressemblent à une lampe-torche étanche. L'utilisateur le pointe dans l'eau, presse un bouton, et peut alors y lire une distance. Le sonar de pêche en est une variante permettant de voir les bancs de poissons sur un écran. Certains sondeurs ou sonars de pêche peuvent avoir des capacités proches de celles des sonars militaires, avec des représentations tridimensionnelles de la zone située sous le bateau.
Les sonars à usage militaire pourraient être la cause des échouages en masse de baleines pourtant en bonne santé. Des scientifiques ont notamment étudié les causes de la mort de dizaines de baleines retrouvées échouées sur une plage en Australie en et d'une centaine retrouvées mortes sur les côtes écossaises et irlandaises entre août et . L'usage de sonars militaires semble provoquer une forte hausse du stress de ces animaux, les poussant à modifier leur comportement en plongée et les mettant en danger de mort7.
Impact des sonars sur la faune marine
Les sonars actifs causent, par leurs impulsion, une élévation du niveau des valeurs de crête du bruit sous marin.
Certains animaux marins, comme les cétacés, utilisent des systèmes d'écholocation similaires aux sonars actifs pour localiser leurs prédateurs et leurs proies. Les sonars ont un impact important sur le comportement de ces animaux Ils sont notamment accusés de les amener à perdre leur chemin, voire de les empêcher de se nourrir ou de se reproduire. Des liens avec des échouages massifs ont également été faits8.
Des sonars de haute puissance peuvent également tuer les animaux marins. Aux Bahamas, en 2000, une expérience de l'US Navy avec un émetteur à 230 dB dans la gamme de fréquence 3 000 à 7 000 hertz provoqua l'échouage de seize baleines, dont sept furent trouvées mortes. L'US Navy reconnut sa responsabilité dans cet échouage dans un rapport publié dans le Boston Globe, le .
Sonars passifs
Bouées sonar chargées à bord d'un avion
P-3 Orion de l'US Navy. Larguées en nombre, elles permettent de couvrir une large zone
Le principe du sonar passif est d'écouter des sons sans en émettre. Ils sont généralement utilisés dans des applications militaires ou scientifiques.
L'écoute des sons est l'activité principale d'un sous-marin en patrouille, il écoute :
- des sons émis par les hélices des bateaux et des coques en mouvements, voire des moteurs des avions de patrouille maritime ou des hélicoptères à basse altitude ;
- des émissions de sonars ;
- ses propres bruits pour les réduire, rester discret et conserver une bonne écoute.
Ces sons sont détectés, analysés, suivis par toute une série d'hydrophones, plus ou moins spécialisés en fonction de leur fréquence de recueil, sur la coque même du sous-marin ou sur une antenne linéaire remorquée (une « flûte sismique ») d'écoute très basse fréquence (ETBF) (quelques dizaines à quelques centaines de Hz). Ces équipements permettent de déceler une présence à des distances pouvant dépasser la centaine de kilomètres.
L'affichage de la plupart des sonars passifs se présente traditionnellement sous la forme d'une « chute d'eau » bidimensionnelle, avec en abscisse la direction (l'azimut) du son et en ordonnée le temps (ou la fréquence pour une analyse spectrale). Certains affichages utilisent des couleurs. Les plus récents emploient une représentation inspirée de celle des radars.
Le sonar passif ne mesure qu'une direction ; la distance est obtenue par le calcul et les cinématiques relatives du bruiteur et du sous-marin. Dans le cas de détection d'émissions sonar, la distance peut également être déterminée par les intervalles de temps entre les échos dus aux réflexions successives sur le fond et la surface.
Pour l'écoute, le sous-marin bénéficie d'un grand avantage par rapport à son adversaire de surface : il n'est pas perturbé par le bruit des vagues ni (à faible vitesse) par ses propres bruits, ce qui lui permet d'exploiter des propriétés propres à la propagation du son dans la mer. Aussi, l'océanographie militaire étudie les masses d'eaux, leurs températures et leur salinité, les courants et les tourbillons, dans le but de déterminer les conditions favorables à la détection sous-marine et les zones propices à la discrétion des sous-marins.
Les avions de patrouille maritime et les hélicoptères de lutte sous-marine utilisent également des sonars passifs sous forme de bouées acoustiques larguées et dont les signaux sont transmis par onde radio et reçus et analysés par l'aéronef, voire relayés vers un centre à terre.
Identifications des bruiteurs
Du personnel spécialisé est formé à l'écoute (familièrement appelé « les oreilles d'or ») ; une grande pratique et un long entraînement leur permettent de reconnaître le type de navire, voire de l'identifier individuellement, de calculer sa vitesse et déceler ses changements de route. Les sonars passifs utilisent aussi des bases de données sonores très importantes et le calculateur analyse le spectre de fréquence du bruiteur pour l'identifier. La performance de l'oreille humaine reste toutefois encore supérieure dans bien des cas à celle du calculateur, et les deux moyens sont complémentaires.
Son
Les sonars passifs sont généralement très limités du fait des bruits qui sont émis dans le bâtiment lui-même. Pour cette raison, les bâtiments de surface ne peuvent les utiliser que sous la forme d'antenne linéaire remorquée (elle est ainsi découplée de la coque).
Par conception, les sous-marins sont silencieux ; les moteurs et auxiliaires sont reliés à leur châssis (« suspendus ») par le biais de plots (généralement élastomériques), dissipant les vibrations (donc le bruit), sous forme de chaleur. Les sous-marins font l'objet d'un soin particulier pour éviter toute vibration par le choix d'équipements très silencieux intrinsèquement, par des formes hydrodynamiques soignées, évitant de générer des perturbations indiscrètes dans l'eau et par des propulseurs discrets. Les hélices font l'objet d'une conception attentive, afin de limiter les émissions de bruits, notamment ceux liés au phénomène de cavitation (formation de petites bulles sur les pales des hélices lors de leur rotation rapide par faible immersion). Un revêtement acoustique externe est souvent disposé sur la coque extérieure pour absorber les sons (on parle alors de matériau de masquage) et/ou diminuer l'écho d'une impulsion d'un sonar adverse (on parle alors de revêtement anéchoïque).
Échanges des données sonar élaborées au sein d'une force navale
Les données élaborées à partir des sonar actifs et passifs se traduisent sur le système de combat ou de mission des plates-formes, par la création des objets tactiques suivants :
- Les pistes sous-marines
- les contacts perdus ((en)Lost Contact)
- les datums (dernière position connue d'un contact avant sa disparition)
- les points de référence ASW (Anti Submarine Warfare, Lutte anti-sous-marine)
- les points "bouées de référence"
- la position des bouées sonar, avec leur route et vitesse de dérive
- les azimuts des détections
- les zones de présence de sous-marin AMI ((en) NOTACK Area, pour No Attack).
Pour l'OTAN, ces données sont échangées au sein de la force navale par les liaisons de données tactiques, les liaison 11, liaison 16 et liaison 22.
Notes et références
- (en) some as CalmX et Was an Experimental Artist, « The Evolution of Sonar » [archive], sur ThoughtCo (consulté le )
- (en) « Lewis Nixon » [archive], sur Maritime Logistics Professional, (consulté le )
- « SONAR » [archive], sur Encyclopædia Universalis (consulté le )
- (en) Charles H. Sherman et John L. Butler, Transducers and Arrays for Underwater Sound, Springer, (ISBN 3319390422), p. 716
- (en) Elias Klein, Notes on Underwater Sound Research and Applications Before 1939, Off. Nav. Res. US Navy, (lire en ligne [archive])
- (en) Jerry Proc, « Asdic et sonar systems in the RCN » [archive], ASDIC, RADAR and IFF SYSTEMS used by the RCN - WWII and Post War, (consulté le )
- « Les sonars poussent les baleines au suicide » [archive], sur futura-sciences.com (consulté le )
Voir aussi
Articles connexes
Liens externes
Portail du monde maritime
Portail des sous-marins
-
La lumière blanche, en passant à travers un
prisme optique, se décompose pour faire apparaître le
spectre visible.
Le spectre visible est la partie du spectre électromagnétique qui est perceptible par l'humain. Le spectre se décompose en rayonnements monochromatiques par le passage de la lumière à travers un dispositif disperseur (prisme ou réseau diffractant) : c'est l'analyse spectrale.
La sensibilité de l'œil selon la longueur d'onde diminue progressivement de part et d'autre d'un maximum entre 495 et 555 nanomètres (nm) selon le domaine de vision et les conditions de la mesure. On ne peut donner de limites exactes au domaine des rayonnements visibles. La Commission internationale de l'éclairage définit la vision de l’observateur de référence jusqu'à une valeur 50 000 fois plus faible que le maximum, pour une longueur d'onde dans le vide de 380 à 780 nm.
Le spectre visible occupe la majeure partie de la fenêtre optique, une gamme de longueurs d'onde bien transmises par l'atmosphère terrestre, qui recoupe celle où l'éclairement énergétique solaire est maximal à la surface de la Terre. Des longueurs d'onde plus courtes endommageraient la structure des molécules organiques, tandis que l'eau, constituant abondant du vivant, absorbe celles plus longues.
Histoire d'un terme étrange
Le terme spectre, signifiant « apparence immatérielle », « illusion » s'appliquait, au XVIIe siècle, à tous les phénomènes optiques qu'on ne s'expliquait pas. Synonyme de couleur accidentelle, il servait pour les impressions rétiniennes du contraste simultané ou successif aussi bien que pour les irisations vues au bord d'un objet regardé à travers un prisme1,2.
Newton utilise une seule fois le terme « Spectrum » pour présenter ses expériences en optique dans son article publié en 1671 à propos de « sa nouvelle théorie sur la lumière et les couleurs3 ». Procédant avec soin, il projette un rayon de lumière blanche du soleil passant au travers d'un volet par un trou de 6 mm de diamètre et dévié par un prisme sur un mur, et obtient un spectre (op. cit., p. 3076) environ cinq fois plus long que large. Éliminant toutes les autres causes possibles, Newton conclut que la lumière blanche est « un mélange hétérogène de rayons différemment réfrangibles » (op. cit., p. 3079). Les couleurs ne sont pas, dit-il, des qualifications de la lumière, comme on l'estimait depuis Aristote, mais des propriétés originales, différentes dans chaque rayon ; les moins réfrangibles sont de couleur rouge, et les plus réfrangibles sont d'un violet profond, et cette association de propriétés ne peut être brisée par aucun moyen (op. cit., p. 3081). Les transmutations de couleurs ne se produisent que lorsqu'il y a mélange de rayons. Ce sont ces couleurs obtenues par mélange, et non celles séparées par le prisme, qui sont illusoires, fugaces et apparentes. « Les couleurs originales ou premières sont le rouge, le jaune, le vert, le bleu et un violet-pourpre, ensemble avec l'orange, l'indigo, et une variété indéfinie de gradations intermédiaires4 ». Toute une série de phénomènes optiques s'expliquent ainsi, y compris la coloration des objets : il conclut ainsi sur ce point que « les couleurs des objets naturels n'ont pas d'autre origine que celle-ci : ceux-ci sont variablement constitués pour réfléchir une sorte de couleur en plus grande quantité que d'autres » (op. cit., p. 3084). Avec ces conclusions, il est clair que Newton n'emploiera plus le terme de spectre. Les « couleurs prismatiques » (op. cit., p. 3087) ne sont pas illusoires ou immatérielles : les autres couleurs le sont.
La théorie de Newton est immédiatement adoptée par le public, mais des savants influents, comme du Fay5, doutent. Ils relèvent que Newton présente comme un fait ce qui en réalité n'est qu'une hypothèse plausible, son expérience ne suffisant pas à prouver que le prisme ne crée pas des rayons lumineux colorés, différents par nature de la lumière blanche6. Voltaire défend la théorie de Newton avec une interprétation particulière qui transforme le spectre continu en sept rayons principaux7,8. Le jésuite Castel s'oppose avec détermination à ce qu'il considère comme un phénomène de mode9. Quelles sont, dit-il, ces sept couleurs que le savant anglais discerne, par rapport aux trois qui, comme les peintres et les teinturiers le savent depuis fort longtemps, suffisent pour en reconstituer une infinité10 ?
Après plus d'un siècle, des intellectuels et philosophes comme Goethe11 suivi par Schopenhauer12 contestent toujours les constructions de la physique. Pour eux, les couleurs prismatiques sont un « spectre », une illusion trompeuse. L'explication par des causes physiologiques, avec la théorie de Young et Helmholtz, de la synthèse trichrome des couleurs, résoudra l'apparente contradiction entre les pratiques des coloristes et les expériences des physiciens.
Au début du XIXe siècle, des expériences avec la lumière solaire montrent qu'il existe un rayonnement invisible de part et d'autre de celui que le prisme étale en rayons colorés. En 1800, William Herschel découvre qu'on peut échauffer un thermomètre en l'exposant à l'obscurité du côté du rouge ; l'année suivante Johann Wilhelm Ritter observe que le papier imbibé de chlorure d'argent noircit quand il l'expose à l'obscurité du côté du violet, plus vite que lorsqu'il l'expose au violet. Les couleurs prismatiques se prolongent donc par des parties invisibles, infrarouges et ultraviolets.
James Clerk Maxwell montre en 1864 que la lumière est une perturbation électromagnétique. Le modèle de description des phénomènes périodiques lui est applicable. Des formules qui servaient à l'acoustique décrivent les vibrations électromagnétiques ; elles ressortent de l'analyse fréquentielle issue de l'analyse harmonique développée depuis Joseph Fourier pour tout phénomène périodique. La lumière n'est plus qu'un cas particulier d'onde électromagnétique. La physique adopte le terme spectre, au sens de « description d'un signal par les fréquences ou les longueurs d'onde (voire les énergies) qui le composent13 », qu'on obtient à partir de la description temporelle par la transformation de Fourier. Il faut dès lors préciser spectre visible quand on parle de celui de la lumière14.
Après la séparation des recherches optiques et de celles sur la perception, les arts de la couleur et la colorimétrie adoptent une série de caractérisations de la couleur qui leur est propre.
Le spectre visible dans le spectre électromagnétique
Situation du visible dans le spectre électromagnétique.
Du point de vue de la physique, la lumière est un rayonnement électromagnétique. Elle occupe une très petite fraction du spectre de l'ensemble de ces rayonnements ; le rapport de la plus grande longueur d'onde visible à la plus courte est d'environ 2, tandis que les extrêmes du spectre électromagnétique sont dans un rapport 1015.
Cette infime région du spectre électromagnétique représente la plus grande partie de la fenêtre optique, expression qui désigne une gamme de longueurs d'onde que l'atmosphère terrestre transmet bien. Elle recoupe celle où l'éclairement énergétique solaire est maximal à la surface de la Terre15. Cette fraction du spectre solaire joue un rôle important pour le développement de la vie ; des longueurs d'onde plus courtes endommageraient la structure des molécules organiques, tandis que l'eau, constituant abondant du vivant, absorbe celles plus longues16. Le spectre visible correspond à des énergies photoniques proches de 2 eV, parmi les plus faibles de celles qui peuvent provoquer des réactions chimiques. La partie la plus énergétique se prolonge dans les ultraviolets, tandis que de la partie la moins énergétique se prolonge dans les infrarouges, invisibles mais qui transportent une énergie transformée en chaleur lorsqu'elle est absorbée.
Longueurs d'onde
On a coutume, en optique, de caractériser les rayonnements monochromatiques par leur longueur d'onde dans le vide ; cette grandeur est pratique dans plusieurs applications. La vitesse de la lumière dans un matériau est inférieure à celle dans le vide. Le rapport de ces vitesses est l'indice de réfraction du matériau. Lorsqu'un rayon lumineux passe obliquement la limite entre deux matériaux d'indices de réfraction différent, il subit une déviation qui dépend du rapport de ces indices. Dans les matières dispersives, la vitesse de propagation du rayonnement, et donc l'indice de réfraction, dépendent de la fréquence ou énergie photonique. La déviation, au passage dans un tel milieu, dépend de cette différence de vitesse. Les composantes d'une lumière qui contient un mélange de fréquences se trouvent ainsi étalées. L'eau est une de ces matières, et le passage de la lumière solaire dans des gouttelettes d'eau en suspension dans l'air produit un arc en ciel. Les verres optiques sont plus ou moins dispersifs. On peut les utiliser pour décomposer la lumière blanche avec un prisme : c'est l'expérience de Newton à l'origine du terme spectre. Un réseau de diffraction permet aussi, par l'effet des interférences, la dispersion des rayons lumineux selon la fréquence. C'est le principal procédé aujourd'hui pour l'analyse du spectre.
En optique, on décrit généralement le spectre en fonction de la longueur d'onde du rayonnement dans le vide. En passant dans un milieu quelconque, la vitesse de la lumière décroît, tandis que la fréquence et l'énergie photonique qui lui est équivalente restent identiques. La longueur d'onde varie donc d'un milieu à l'autre selon la réfringence. Il serait plus rigoureux de définir le rayonnement en fonction de l'énergie photonique, mais pour des raisons historiques et surtout pratiques, on parle de longueur d'onde, en sous-entendant dans le vide.
Limites du visible
La sensibilité de l'œil diminue progressivement selon la longueur d'onde, et varie selon les individus, de sorte qu'on peut donner plusieurs limites au spectre visible. La Commission internationale de l'éclairage définit la vision de l’observateur de référence entre une longueur d'onde dans le vide à partir de 380 nanomètres (nm), perçue comme un violet extrêmement sombre, et jusqu'à 780 nm, correspondant à un rouge également à peine perceptible17.
Dans des conditions exceptionnelles, comme la suppression du cristallin après une opération de la cataracte, ces limites de la perception humaine peuvent s'étendre jusqu'à 310 nm du côté des ultraviolets et jusqu'à 1 100 nm dans le proche infrarouge18,19.
Spectroscopie
L'étude scientifique des objets fondée sur l'analyse de la lumière qu'ils émettent est nommée spectroscopie. En astronomie, c'est un moyen essentiel de l'analyse d'objets distants. La spectroscopie astronomique utilise des instruments à forte dispersion pour observer le spectre à de très hautes résolutions.
En spectroscopie, la limite du visible a souvent peu d'importance, et l'analyse déborde largement sur les infrarouges et les ultraviolets. On caractérise parfois le rayonnement par une variante du nombre d'onde, l'inverse de la longueur d'onde dans le vide. Dans cette échelle, la partie visible du spectre s'étend à peu près, du rouge au bleu-violet, de 1 500 à 2 300 cm−1.
Fraunhofer repéra le premier l'existence de raies obscures dans la lumière du Soleil décomposée par le prisme. Les raies attestent de l'émission ou de l'absorption de la lumière par des éléments chimiques. Leur position dans le spectre renseigne sur la nature des éléments chimiques présents ; l'effet Doppler affecte légèrement cette position, d'où on déduit la vitesse radiale des astres. L'analyse du spectre des étoiles a atteint une si grande résolution que des variations de leur vélocité radiale de quelques mètres par seconde ont pu être détectées, ce qui a fait conclure à l'existence d'exoplanètes, révélée par leur influence gravitationnelle sur les étoiles analysées.
Couleurs et spectre
Couleurs approximatives du spectre visible entre 390
nm et 710
nmnote 1.
La vision humaine distingue les couleurs en domaine photopique (diurne), c'est-à-dire avec une luminance de 3 à 5 000 cd/m220. Comparant l'effet de rayonnements monochromatiques donnant la même perception de luminosité, on trouve que la radiance est minimale pour un rayonnement de longueur d'onde voisine de 555 nm, ce qui correspond à un vert-jaunâtre. Ce rayonnement proche du maximum de celui du soleil, correspond à la plus grande sensibilité visuelle.
Chaque « couleur spectrale » correspond à une longueur d’onde précise ; cependant, le spectre des lumières présentes dans la nature comprend en général l'ensemble des rayonnements, en proportion variables. La spectrométrie étudie les procédés de décomposition, d’observation et de mesure des radiations en étroites bandes de fréquence.
Spectromètre courant :
Un spectromètre du spectre visible (et longueurs d'onde voisines) est devenu un instrument assez courant, analysant la lumière par bandes de longueur d'onde de 5 à 10 nm.
Un tel appareil, capable de donner cent niveaux différents pour chacune de ses quarante bandes, peut représenter 10040 spectres différents.
Dans certaines régions du spectre, un humain normal peut distinguer des ondes de longueur d'onde différant de moins de 1 nm, et plus d'une centaine de niveaux de luminosité21. Pourtant, la description d'une couleur n'a pas besoin d'autant de données que pourrait laisser croire la spectroscopie. Les humains n'ont en vision diurne que trois types de récepteurs, et il suffit de trois nombres pour décrire une couleur perçue. De nombreuses lumières mélangées de plusieurs radiations de longueurs d'onde différentes, dites métamères, se perçoivent identiquement. Les lumières monochromatiques n'ont pas de métamère, sauf à utiliser un mélange de deux rayonnements proches pour donner à percevoir un intermédiaire entre eux.
La colorimétrie décrit la couleur perçue ; mais la spectrométrie a une grande utilité lorsqu'il s'agit de couleurs de surface. Une surface colorée renvoie une partie du spectre de l'illuminant qui l'éclaire, absorbant le reste. Changer l'illuminant, c'est changer la lumière émise par la surface. Deux surfaces peuvent apparaître identiques sous un illuminant, mais, leur réflectance spectrale étant différente, ne plus être métamères sous un autre. Pour résoudre les problèmes que cela peut susciter, sans avoir à expérimenter avec tous les illuminants possibles, il faut étudier leur spectre.
On utilise parfois par extension le terme lumière pour désigner les rayonnements ultraviolets (UV), comme dans l'expression « lumière noire », ou infrarouges (IR), bien que ces rayonnements ne soient pas visibles22.
Longueurs d'onde approximatives des couleurs spectrales
Bien que le spectre soit continu et qu'il n’y ait pas de frontière claire entre une couleur et la suivante, la table suivante donne les valeurs limites des principaux champs chromatiques, avec les noms et limites de longueur d'onde dans le vide indiqués par la norme française AFNOR X080-10 « Classification méthodique générale des couleurs »23.
La fréquence du rayonnement en hertz s'obtient en divisant la vitesse de la lumière, soit environ 3 × 108 m/s, par la longueur d'onde en mètres. La fréquence en THz s'obtient en divisant 300 000 par la longueur d'onde en nanomètres, ou 1 × 10−9 m.
Couleurs du spectrenote 2
Longueur d'onde (nm) | Champ chromatique | Couleur | Commentaire |
380 — 449 |
Violet |
445 |
primaire CIE 1931 435,8 |
449 — 466 |
Violet-bleu |
455 |
primaire sRGB : 464 |
466 — 478 |
Bleu-violet |
470 |
indigo entre le bleu et le violet (Newton) |
478 — 483 |
Bleu |
480 |
|
483 — 490 |
Bleu-vert |
485 |
|
490 — 510 |
Vert-bleu |
500 |
|
510 — 541 |
Vert |
525 |
|
541 — 573 |
Vert-jaune |
555 |
CIE 1931 : 546,1 ; primaire sRGB : 549. |
573 — 575 |
Jaune-vert |
574 |
|
575 — 579 |
Jaune |
577 |
|
579 — 584 |
Jaune-orangé |
582 |
|
584 — 588 |
Orangé-jaune |
586 |
|
588 — 593 |
Orangé |
590 |
|
593 — 605 |
Orangé-rouge |
600 |
|
605 — 622 |
Rouge-orangé |
615 |
primaire sRGB : 611 |
622 — 780 |
Rouge |
650 |
primaire CIE 1931 : 700 |
Les couleurs primaires d'instrumentation de la CIE (1931) correspondent à des raies spectrales du mercure, pour celles à 435,8 et 549 nm, et est une valeur arbitraire pour celle à 700 nm, dont la luminance n'est que de 0,004102 du maximum atteint vers 555 nm. Dans la région du rouge, le seuil de discrimination entre longueurs d'onde est élevé, et les expérimentateurs n'ont pas besoin de définir le rayonnement avec autant de précision24.
Annexes
Sur les autres projets Wikimedia :
Bibliographie
- Maurice Déribéré, La couleur, Paris, PUF, coll. « Que Sais-Je » (no 220), , 12e éd. (1re éd. 1964)
- Yves Le Grand, Optique physiologique : Tome 2, Lumière et couleurs, Paris, Masson, , 2e éd..
- Robert Sève, Science de la couleur : Aspects physiques et perceptifs, Marseille, Chalagam, , 374 p. (ISBN 978-2-9519607-5-6 et 2-9519607-5-1)
- Richard Taillet, Loïc Villain et Pascal Febvre, Dictionnaire de physique, Bruxelles, De Boeck, , p. 635
Articles connexes
Lien externe
Notes et références
Notes
- Les écrans ne peuvent pas représenter les couleurs monochromatiques.
Références
- Trésor de la langue française.[réf. incomplète]
- Oxford English Dictionnary.[réf. incomplète]
- « A letter from M. Isaac Newton (…) containing his new theory about Light and Colors », Philosophical Transactions, , p. 3075-3087 (lire en ligne [archive])
- « The Original or primary colours are, Red, Yellow, Green, Blew, and a Violet-purple, together with Orange, Indico, and an indefinite variety of Intermediate gradations » (op. cit., p. 3082)
- Charles François de Cisternay du Fay, « Observations physiques sur le mélange de quelques couleurs », Mémoires présentés à l'Académie des sciences, (lire en ligne [archive]) ; pour plus de noms et résumés des opinions, voir Alexandre Savérien, Dictionnaire universel de mathématique et de physique, Paris, (lire en ligne [archive]), p. 229-234 « couleurs ».
- (en) Evan Thompson, Colour Vision : A Study in Cognitive Science and Philosophy of Science, Routledge, (présentation en ligne [archive]), p. 8-9.
- Déribéré 2014, p. 21-30.
- Voltaire, Éléments de la philosophie de Newton mis à la portée de tout le monde, Amsterdam, (lire en ligne [archive]), p. 117
- Louis-Bertrand Castel, L'optique des couleurs : fondée sur les simples observations & tournée sur-tout à la pratique de la peinture, de la teinture & des autres arts coloristes, Paris, Briasson, (lire en ligne [archive]), introduction et chapitre 1.
- Voir par exemple Jacob Christoph Le Blon, Coloritto : L'Harmonie du coloris dans la peinture; reduite en pratique mecanique et à des regles sures & faciles : avec des figures en couleur, pour en faciliter l'intelligence, non seulement aux peintres, mais à tous ceux qui aiment la peinture., Londres, sans nom d'éditeur, (lire en ligne [archive]).
- Traité des couleurs, 1810.[réf. incomplète]
- Sur la vue et les couleurs, 1816.[réf. incomplète]
- Dic. Phys., p. 635 « Spectre ».
- L'expression « spectre visible » est attestée en 1890, Royal Society of London, Catalogue of scientific papers, vol. 17 MARC-P (1884-1900), (lire en ligne [archive]), p. 596.
- Sève 2009, p. 43.
- Neil Campbell et Jane Reece, Biologie, Pearson, , 7e éd. (ISBN 978-2-7440-7223-9), p. 198
- Valeurs tabulées des fonctions colorimétriques de 380 à 780 nm par pas de 5 nm : (en) « Selected Colorimetric Tables » [archive], sur cie.co.at (consulté le ).
- (en) D. H. Sliney, « What is light? The visible spectrum and beyond », Eye, no 2, , p. 222–229 (ISSN 1476-5454, DOI 10.1038/eye.2015.252).
- (en) W. C. Livingston, Color and light in nature, Cambridge, UK, Cambridge University Press, (ISBN 0-521-77284-2, lire en ligne [archive]).
- Pour un champ de 2°. Pour un champ large, il faut porter le minimum à 200 cd/m2 (Sève 2009, p. 84).
- Sève 2009, p. 121-122.
- Dic. Phys., p. 406 « Lumière ».
- Sève 2009, p. 248. Les fonctions colorimétriques donnent des valeurs converties en codes informatiques au mieux pour un écran conforme aux préconisations sRGB ; les luminances correspondent à la luminance relative de la couleur spectrale. Le nombre inscrit dans la couleur est la longueur d'onde dominante représentée.
Portail de la physique
Portail des couleurs
Portail de l’optique
-
Spectre électromagnétique
Pour les articles homonymes, voir Spectre.
Diagramme montrant le spectre électromagnétique dans lequel se distinguent plusieurs domaines spectraux en fonction des
longueurs d'onde (avec des exemples de tailles), les
fréquences correspondantes, et les températures du
corps noir dont l'émission est maximum à ces longueurs d'onde.
Le spectre électromagnétique est le classement des rayonnements électromagnétiques par fréquence et longueur d'onde dans le vide ou énergie photonique1.
Le spectre électromagnétique s'étend sans rupture de zéro à l'infini. Pour des raisons tant historiques que physiques, on le divise en plusieurs grandes classes, dans lesquelles le rayonnement s'étudie par des moyens particuliers.
Domaines du spectre électromagnétique.
La spectroscopie ou spectrométrie est l'étude expérimentale des spectres électromagnétiques par des procédés, d’observation et de mesure avec décomposition des radiations en bandes de fréquences idéalement étroites. La spectroscopie s'intéresse en général au spectre d'absorption ou au spectre d'émission d'un objet.
Domaines du spectre électromagnétique
Vue générale
On décrit un rayonnement électromagnétique par ses caractéristiques les plus accessibles, selon sa forme et son utilisation.
On caractérise habituellement les ondes radio par la fréquence, qui s'applique aussi bien aux circuits des appareils qu'on utilise pour les produire.
Quand les fréquences croissent, les longueurs d'onde correspondantes se raccourcissent jusqu'à devenir du même ordre de grandeur que les appareils, et deviennent le paramètre d'utilisation le plus courant.
Au-delà d'une certaine limite, on utilise principalement des instruments d'optique, tout comme pour la lumière, et la longueur d'onde dans le vide devient la caractéristique la plus commode. Elle joue directement dans le calcul des interférences dans les réseaux de diffraction et dans beaucoup d'autres applications.
À partir des rayons X, les longueurs d'onde sont rarement utilisées : comme il s'agit de particules très énergétiques, c'est l’énergie correspondant au photon X ou γ détecté qui est plus utile.
On découpe habituellement le spectre électromagnétique en divers domaines selon la longueur d'onde et le type de phénomène physique émettant ce type d'onde2 :
Domaines du spectre électromagnétique
Nom | Longueur d'onde | Fréquence | Énergie du photon (eV) | Type de phénomène physique |
Rayon gamma |
< 5 pm |
> 6 × 1019 Hz |
> 2,5 × 105 eV |
Transitions au sein du noyau atomique, souvent émis lors de la désexcitation de noyaux-fils issu de la désintégration radioactive d'un noyau instable, de façon spontanée ou sous l'effet d'une accélération au sein d'un accélérateur de particules. |
Rayon X |
10 nm — 5 pm |
30 PHz — 60 EHz |
1,2 × 102 eV — 2,5 × 105 eV |
Transitions d'électrons des couches profondes au sein d'un atome, accélération ou décélération (bremsstrahlung) d'électrons libres de haute énergie. |
Ultraviolet |
300 nm — 1 nm |
1 PHz — 300 PHz |
4,1 eV — 1,2 × 103 eV |
Transitions d'électrons de valence d'atomes ou de molécules de plus haute énergie encore, non observables par l'œil humain. |
Visible |
750 nm — 380 nm |
400 THz — 789 THz |
1,7 eV — 3,3 eV |
Infrarouge |
100 µm — 0,75 µm |
3 THz — 400 THz |
1,2 × 10−2 eV — 1,7 eV |
Oscillations de particules, vibration moléculaire, transitions d'électrons de valence au sein d'atomes ou de molécules. |
Térahertz / submillimétrique |
1 mm — 0,1 mm |
300 GHz — 3 THz |
1,2 × 10−3 eV — 1,2 × 10−2 eV |
Niveaux de vibration de molécules complexes. |
Micro-ondes |
1 m — 1 mm |
300 MHz — 300 GHz |
1,2 × 10−6 eV — 1,2 × 10−3 eV |
Oscillations d'électrons au sein de composants électriques spécifiques (comme une diode Gunn par exemple), rotation moléculaire, ou d'antenne (comme c'est le cas pour la téléphonie mobile, qui peuvent utiliser des micro-ondes comme ondes porteuses, comme 60 GHz). |
Ondes radio |
100 000 km — 1 m |
3 Hz — 300 MHz |
1,2 × 10−14 eV — 1,2 × 10−6 eV |
Oscillations d'électrons au sein d'un circuit électrique comme une antenne. |
Le découpage détaillé en bandes de fréquence selon les normes de l'UIT se trouve dans le paragraphe « Usages et classification » ci-dessous.
Spectre optique
Le spectre optique recouvre les domaines de l'infrarouge, le spectre visible, et de l'ultraviolet. La discipline étudiant les lois et comportements des ondes de ce domaine est l'optique.
Spectre visible
Le domaine visible du spectre électromagnétique.
Le rayonnement électromagnétique visible est la très étroite portion du spectre électromagnétique accessible à la perception humaine visuelle ; elle correspond à la plus forte énergie de rayonnement solaire arrivant à la surface de la Terre. La sensibilité humaine est maximale aux alentours d'une longueur d'onde dans le vide de 550 nm en vision photopique, avec des éclairements importants, de l'ordre de grandeur de ceux qui se trouvent dans la journée à la surface de la Terre. De part et d'autre de ce maximum, la sensibilité diminue progressivement. Elle est de moins de 1 % du maximum à 410 nm et à 690 nm, et il n'en reste rien à 360 nm. Du côté des basses énergies, on détecte au plus jusqu'à 820 nm, bien que très faiblement, mais les êtres humains et autres animaux terrestres sentent le rayonnement infrarouge sous forme de chaleur sur la peau. En vision scotopique, nocturne, le maximum est à 510 nm et on ne distingue pas les couleurs.
La colorimétrie relie la mesure physique du rayonnement à la couleur perçue. Un humain normal peut distinguer des ondes monochromatiques dont la longueur d'onde diffère d'un peu moins de 1 nm, et plus d'une centaine de niveaux de luminosité3. Pourtant, la description d'une couleur n'a pas besoin d'autant de données que pourrait laisser croire la spectroscopie. Les humains n'ont en vision diurne que trois types de récepteurs, et de nombreux mélanges de radiations de longueurs d'onde différentes, dites « métamères », se perçoivent identiquement.
Histoire
Jusqu'au XIXe siècle, la seule partie du spectre électromagnétique qui était connue était le spectre visible ou spectre optique. Si le phénomène d'arc-en-ciel était connu des premiers humains, ce n'est qu'au XVIIe siècle que Newton a mis en évidence le fait que la lumière blanche peut être décomposée en diverses couleurs.
Le terme spectre, signifiant « apparence immatérielle », « illusion » s'appliquait, au XVIIe siècle, à tous les phénomènes optiques qu'on ne s'expliquait pas. Synonyme de couleur accidentelle, il servait pour les impressions rétiniennes du contraste simultané ou successif aussi bien que pour les irisations vues au bord d'un objet regardé à travers un prisme4. Newton l'employa une seule fois pour présenter ses expériences en optique dans son article de 16715. Ayant expliqué que la lumière blanche est « un mélange hétérogène de rayons différemment réfrangibles » (op. cit., p. 3079) et que les couleurs ne sont pas des qualifications de la lumière, comme on l'estimait depuis Aristote, mais des propriétés originales, différentes dans chaque rayon ; que les moins réfrangibles sont de couleur rouge, et les plus réfrangibles sont d'un violet profond, et cette association de propriétés ne peut être brisée par aucun moyen (op. cit., p. 3081) ; que les transmutations de couleurs ne se produisent que lorsqu'il y a mélange de rayons. Ce sont ces couleurs de mélange, et non celles séparées par le prisme, qui sont illusoires, fugaces et apparentes. Dès lors, Newton utilise toujours l'expression « couleurs prismatiques », laissant le spectre pour les phénomènes douteux ou inexpliqués. Mais l'usage d'appeler ces couleurs « spectrales » persiste, alimenté et promu par les opposants à la théorie physique de la lumière comme Goethe6 suivi par Schopenhauer7.
En 1800 William Herschel découvre de façon plutôt fortuite l'existence d'une radiation lumineuse non-visible, le rayonnement infrarouge. L'année suivante, le physicien allemand Johann Wilhelm Ritter prolonge le spectre électromagnétique connu du côté des courtes longueurs d'onde en mettant en évidence l'existence du rayonnement ultraviolet.
L'interprétation de la lumière comme la propagation d'une onde électromagnétique est due à James Clerk Maxwell dans les années 1860, qui prédit également l'existence d'ondes électromagnétiques de toutes les fréquences possibles, se déplaçant toutes dans le vide à la vitesse de la lumière c. Les travaux du physicien Heinrich Hertz permettent la découverte en 1886 des ondes hertziennes, dites aussi ondes radio, qui étendent encore le spectre électromagnétique en deçà de l'infrarouge dans le domaine des basses fréquences ou des grandes longueur d'onde. Les expériences sur les tubes électroniques permettent à Wilhelm Röntgen de mettre en évidence l'existence d'un nouveau type de rayonnement, de plus courte longueur d'onde que l'ultraviolet, les rayons X.
La dernière portion du spectre électromagnétique, les rayons gamma, commence à être explorée au début du XXe siècle avec les travaux de Paul Villard et William Henry Bragg.
Usages et classification
Les définitions des bandes mentionnées dans le tableau sont les suivantes (normalisation internationale effectuée par l’UIT8, sauf pour la bande THF) ; elles sont aussi communément désignées par leur catégorie de longueur d’onde métrique. Dans le tableau ci-dessous, les longueurs d'onde sont calculées avec l'approximation courante : c = 300 000 km/s.
Bandes | Fréquence | Longueur d’onde | Usages |
Ondes TLF (tremendously low frequency) |
0 Hz à 3 Hz |
100 000 km à ∞ |
Champs magnétiques, ondes et bruits électromagnétiques naturels |
Ondes ELF (extremely low frequency) |
3 Hz à 30 Hz |
10 000 km à 100 000 km |
Ondes électromagnétiques naturelles, résonance terrestre de Schumann, ondes du cerveau humain, recherches en géophysique, raies spectrales moléculaires |
Ondes SLF (super low frequency) |
30 Hz à 300 Hz |
1 000 km à 10 000 km |
Ondes électromagnétiques naturelles, résonance terrestre de Schumann, ondes physiologiques humaines, ondes des lignes électriques, usages inductifs industriels, télécommandes EDF Pulsadis, harmoniques ondes électriques |
Ondes ULF (ultra low frequency) |
300 Hz à 3 kHz |
100 km à 1 000 km |
Ondes électromagnétiques naturelles notamment des orages solaires, ondes physiologiques humaines, ondes électriques des réseaux téléphoniques, harmoniques ondes électriques, signalisation TVM des TGV |
Ondes VLF (very low frequency) |
3 kHz à 30 kHz |
10 km à 100 km |
Ondes électromagnétiques naturelles, radiocommunications submaritimes militaires, transmissions par CPL, systèmes de radionavigation, émetteurs de signaux horaires |
Ondes LF (low frequency) ou ondes kilométriques |
30 kHz à 300 kHz |
1 km à 10 km |
Ondes électromagnétiques naturelles des orages terrestres, radiocommunications maritimes et submaritimes, transmissions par CPL, radiodiffusion en OL, émetteurs de signaux horaires, systèmes de radionavigation |
Ondes MF (medium frequency) ou ondes hectométriques |
300 kHz à 3 MHz |
100 m à 1 km |
Systèmes de radionavigation, radiodiffusion en OM, radiocommunications maritimes et aéronautiques, radioamateurs, signaux horaires et ADSL |
Ondes HF (high frequency) ou ondes décamétriques |
3 MHz à 30 MHz |
10 m à 100 m |
Radiodiffusion internationale, radioamateurs, radiocommunications maritimes, aéronautiques, militaires et d’ambassades, aide humanitaire, transmissions gouvernementales, applications inductives autorisées, transmissions par CPL, signaux horaires, CB en 27 MHz, radar trans-horizon |
Ondes VHF (very high frequency) ou ondes métriques |
30 MHz à 300 MHz |
1 m à 10 m |
Radiodiffusion et télédiffusion, radiocommunications professionnelles, transmissions militaires, liaisons des secours publics, radionavigation (VOR et ILS) et radiocommunications aéronautiques, radioamateurs, satellites météo, radioastronomie, recherches spatiales |
Ondes UHF (ultra high frequency) ou ondes décimétriques |
300 MHz à 3 GHz |
10 cm à 1 m |
Télédiffusion, radiodiffusion numérique, radioamateurs, radiocommunications professionnelles, transmissions militaires y compris aéronautiques, liaisons gouvernementales, liaisons satellites, FH terrestres, radiolocalisation et radionavigation, services de la DGAC, usages spatiaux, satellites météo, téléphonie GSM, UMTS et DECT, liaisons Wi-Fi et Bluetooth, systèmes radar, fours à micro-ondes |
Ondes SHF (super high frequency) ou ondes centimétriques |
3 GHz à 30 GHz |
1 cm à 10 cm |
FH terrestres et par satellite, systèmes radar, liaisons et FH militaires divers, systèmes BLR, radioastronomie et usages spatiaux, radiodiffusion et télédiffusion par satellite, liaisons Wi-Fi |
Ondes EHF (extremely high frequency) ou ondes millimétriques |
30 GHz à 300 GHz |
1 mm à 1 cm |
FH terrestres et par satellite, recherches spatiales, radioastronomie, satellites divers, liaisons et FH militaires, radioamateurs, systèmes radar, raies spectrales moléculaires, expérimentations et recherches scientifiques |
Ondes THF (tremendously high frequency) |
300 GHz à 384 THz |
0,78 µm à 1 mm
(ondes micrométriques)
|
Ondes infrarouges
(subdivis. recommandée par la CIE)
- Infrarouges C ou IR lointain (IR-C ; LIR)
(300 GHz à 100 THz) (3 µm à 1 mm)
- Infrarouges à ondes longues (LWIR)
(8 µm à 15 µm)
- Infrarouges à ondes moyennes (MWIR)
(3 µm à 8 µm)
- Infrarouges B ou IR moyen (IR-B ; MIR)
(100 à 214 THz) (1,4 µm à 3 µm)
- Infrarouges A ou IR proche (IR-A ; PIR)
(214 à 384 THz) (0,78 µm à 1,4 µm)
|
Ondes infrarouges
(suivant autre schéma de subdivision)
- Infrarouges extrêmes (EIR)
(300 GHz à 20 THz) (15 µm à 1000 µm)
- Infrarouges lointains (FIR)
(20 à 50 THz) (6 µm à 15 µm)
- Infrarouges moyens (MIR)
(50 à 100 THz) (3 µm à 6 µm)
- Infrarouges proches (NIR)
(100 à 384 THz) (0,78 µm à 3 µm)
|
384 THz à 300 PHz |
10 à 780 nm
(ondes nanométriques)
|
- Spectre visible par l’homme (couleurs « spectrales ») :
- Ondes visibles rouges (384 à 480 THz soit 780 à 625 nm)
- Ondes visibles orange (480 à 510 THz soit 625 à 590 nm)
- Ondes visibles jaunes (510 à 508 THz soit 587 à 560 nm)
- Ondes visibles vert-jaune (517 à 521 THz soit 580 à 575 nm)
- Ondes visibles vert jaunâtre (521 à 535 THz soit 575 à 560 nm)
- Ondes visibles vertes (535 à 604 THz soit 560 à 497 nm)
- Ondes visibles vert bleuté (566 à 610 THz soit 530 à 492 nm)
- Ondes visibles cyans (610 à 616 THz soit 492 à 487 nm)
- Ondes visibles bleu azur (616 à 622 THz soit 487 à 482 nm)
- Ondes visibles bleues (622 à 645 THz soit 482 à 465 nm)
- Ondes visibles indigo (645 à 689 THz soit 465 à 435 nm)
- Ondes visibles violettes (689 à 789 THz soit 435 à 380 nm)
- Fin du spectre visible du violet et début de la transition vers les UV-A 750,000 à 788,927 THz
- Transition spectrale vers les UV-A 788,927 à 849,481 THz
- Rayonnements dits « ionisants » :
- Ultraviolet :
- Ultraviolets UV-A (849,481 THz à 951,722 THz soit ~400-315 nm)
- UVA I : 400-340 nm
- UVA II : 340-315 nm
- Ultraviolets UV-B (951,722 THz à 1 070,687 THz soit 315-280 nm soit ~315-290 nm)
- Ultraviolets UV-C (1 070,687 à 2 997,924 GHz soit ~290-100. Bande spectrale constituée de trois sous-bandes)
- Ultraviolets UV-C (1 070,687 THz à 1 498,962 THz soit 280-180 nm)
- Ultraviolets V-UV (1 498,962 à 2 997,924 THz soit ~200-100 nm)
- Ultraviolets X-UV, transition vers les rayons X (2 997,924 à 29 979,245 THz soit ~140-10 nm)
|
300 PHz à 300 EHz |
1 pm à 10 nm
(ondes picométriques)
|
- Rayonnements dits « ionisants » (suite) :
- Rayons X :
- Rayons X mous (300 PHz à 3 EHz ; 0,01-10 nm)
- Rayons X durs (3 EHz à 30 EHz ; 10-100 pm)
- Rayons gamma :
- Rayons gamma mous (30 EHz à 300 EHz ; 1-10 pm)
- Rayons gamma durs (au-delà de 300 EHz ; < 1 pm) (au-delà de la bande THF)
|
Spectroscopie
Spectre d'émission
Des atomes ou molécules excités (par exemple par chocs) se désexcitent en émettant une onde électromagnétique. Celle-ci peut se décomposer en une superposition d'ondes sinusoïdales (monochromatiques) caractérisées par leurs longueurs d'onde. Le spectre est constitué par l'ensemble des longueurs d'onde présentes. On peut le matérialiser à l'aide d'un prisme de décomposition de la lumière en un ensemble de lignes, les raies spectrales, qui correspondent aux différentes longueurs d'onde émises. Pour plus de précision, on peut également représenter ce spectre comme un graphe de l'intensité lumineuse en fonction de la longueur d'onde.
L'observation du spectre d'émission de l'hydrogène se fait au moyen d'un tube Geissler qui comporte deux électrodes et de l'hydrogène sous faible pression. Les électrodes sont soumises à une différence de potentiel de 1 000 V. L'important champ électrique accélère les ions présents qui, par chocs, excitent les atomes d'hydrogène. Lors de leur désexcitation, ils émettent de la lumière qui est analysée par un spectroscope. Dans tous les cas, on observe (dans le visible) le même spectre composé de quatre raies (spectres de raies) aux longueurs d'onde : 410 nm, 434 nm, 486 nm, 656 nm.
Niels Bohr interprétera alors l'émission de lumière par l'émission d'un photon lorsque l'atome passe d'un niveau d'énergie à un autre. Le spectre d'émission de n'importe quel élément peut être obtenu en chauffant cet élément, puis en analysant le rayonnement émis par la matière. Ce spectre est caractéristique de l'élément.
Spectre d'absorption
Le principe est exactement le même que celui du spectre d'émission : à un niveau d'énergie donné correspond une longueur d'onde. Mais au lieu d'exciter de la matière (par exemple en la chauffant) pour qu'elle émette de la lumière, on l'éclaire avec de la lumière blanche (donc contenant toutes les longueurs d'onde) pour voir quelles longueurs d'onde sont absorbées. Les niveaux d'énergie étant caractéristiques de chaque élément, le spectre d'absorption d'un élément est exactement le complémentaire du spectre d'émission. On s'en sert notamment en astrophysique : par exemple, pour déterminer la composition de nuages gazeux, on étudie leur spectre d'absorption en se servant des étoiles se situant en arrière-plan comme source de lumière. C'est d'une manière générale le but de la spectrographie d'absorption : identifier des éléments inconnus (ou des mélanges) par leur spectre.
Absorption atmosphérique
Absorption et diffusion par l'atmosphère terrestre (ou
opacité) de diverses
longueurs d'onde du rayonnement électromagnétique (tracé approximatif).
La plus grande partie du rayonnement ultraviolet et des rayons X sont absorbés dans la haute atmosphère.
Pour la partie visible du rayonnement électromagnétique, l'atmosphère est relativement bien transparente.
Dans le domaine infrarouge, le rayonnement électromagnétique est fortement absorbé par l'atmosphère, en particulier selon différents modes d'excitation de la vapeur d'eau.
Ensuite, dans le domaine des fréquences radio, lorsque l'énergie des photons diminue, l'atmosphère redevient transparente sauf pour les fréquences les plus basses (ondes longues) qui sont arrêtées par l'ionosphère.
Grandeurs physiques caractéristiques
Présentation
Un rayonnement électromagnétique peut se considérer soit comme une onde progressive, soit comme un ensemble de particules.
Si on le considère comme une onde, on peut le décomposer, selon la transformation de Fourier, en une somme d'ondes monochromatiques, dont chacune est entièrement décrite par deux grandeurs physiques :
- Son amplitude ;
- Sa fréquence ou sa longueur d'onde, grandeurs corrélées par la célérité de l'onde.
Si on le considère comme un ensemble de particules, chacune d'entre elles est entièrement décrite par son énergie. La répartition des énergies et leur somme obéissent aux lois statistiques.
- Unités
- La fréquence, notée f {\displaystyle f}
ou ν {\displaystyle \nu }
, s'exprime en hertzs (Hz) dans le Système international d'unités (SI).
- La pulsation, notée ω {\displaystyle \omega }
, s'exprime en radians par seconde (rad/s) dans le SI.
- Le nombre d'onde, aussi appelé pulsation spatiale, est noté k {\displaystyle k}
et s'exprime en radians par mètre (rad/m).
- La longueur d'onde, notée λ {\displaystyle \lambda }
, s'exprime en unités de longueur (en mètres (m) dans le SI).
- L'énergie des photons, notée E {\displaystyle E}
, s'exprime en joules (J) dans le SI, et aussi couramment en électron-volts (1 eV = 1,602 176 53 × 10−19 J).
Relations
On passe de la définition comme onde à la définition comme particule, par les relations suivantes :
- E = h ν = h T = h c λ {\displaystyle E=h\,\nu ={\frac {h}{T}}={\frac {h\,c}{\lambda }}}

- où h {\displaystyle h}
est la constante de Planck : h {\displaystyle h}
≈ 6,626 070 040 × 10−34 J s ≈ 4,135 667 662 × 10−15 eV s.
La longueur d'onde dépend de la célérité de la lumière dans le milieu de propagation. Si celui-ci n'est pas précisé, c'est la longueur d'onde dans le vide
- λ = c ν {\displaystyle \lambda ={\frac {c}{\nu }}}

- où c {\displaystyle c}
est la vitesse de la lumière dans le vide : c {\displaystyle c}
= 299 792 458 m s−1 (cette valeur est exacte, du fait de la définition actuelle du mètre)
sinon
- λ = c n ν ν {\displaystyle \lambda ={\frac {c}{n_{\nu }\,\nu }}}

- où n ν {\displaystyle n_{\nu }}
est l'indice de réfraction dans le milieu à la fréquence ν {\displaystyle \nu }
, toujours égal à 1 dans le vide.
Voir aussi
Sur les autres projets Wikimedia :
Bibliographie
- Richard Taillet, Loïc Villain et Pascal Febvre, Dictionnaire de physique, Bruxelles, De Boeck, , p. 634-635
Articles connexes
Notes et références
- Richard Taillet, Loïc Villain et Pascal Febvre 2013, p. 635 « Spectre ».
- Richard Taillet, Loïc Villain et Pascal Febvre 2013, p. 634 Fig. 175.
- Robert Sève, Science de la couleur : Aspects physiques et perceptifs, Marseille, Chalagam, , p. 120-122.
- Trésor de la langue française, Oxford English Dictionnary.
- « A letter from M. Isaac Newton », Philosophical Transactions, , p. 3075-3087 (lire en ligne [archive]) ; voir Spectre visible
- Traité des couleurs, 1810.
- Sur la vue et les couleurs, 1816.
Portail de la physique
Portail de l’optique
-
En physique, la fréquence est le nombre de fois qu'un phénomène périodique se reproduit par unité de temps1. Dans le Système international d'unités la fréquence s'exprime en hertz (Hz).
Lorsque le phénomène peut être décrit mathématiquement par une fonction périodique du temps, c'est-à-dire une fonction F(t) telle qu'il existe des constantes Ti pour lesquelles, quel que soit t, F(t+Ti) = F(t), alors la plus petite des valeurs positives de ces constantes Ti est la période T de la fonction, et la fréquence f est l'inverse de la période2 :
f = 1 T {\displaystyle f={\frac {1}{T}}} 
La notion de fréquence s'applique aux phénomènes périodiques ou non. L'analyse spectrale transforme la description d'un phénomène en fonction du temps en description en fonction de la fréquence.
Dans plusieurs domaines technologiques, on parle de fréquence spatiale. Dans cet usage, une dimension de l'espace prend la place du temps. S'il existe une variation périodique dans l'espace, la fréquence spatiale est l'inverse de la distance minimale à laquelle on retrouve la forme identique, par exemple en imprimerie la linéature. On peut appliquer à l'espace les règles de l'analyse spectrale, comme on le fait dans les systèmes de compression numérique des images. Dans le cas des ondes progressives, la fréquence spatiale ou nombre d'onde est le quotient de la fréquence par la vitesse de l'onde.
La pulsation d'un phénomène périodique est la valeur de la vitesse de rotation qu'aurait un système en rotation de même fréquence : pour une fréquence f, la pulsation est donc ω = 2π.f (rad/s).
L'idée de répétition et le temps
La fréquence, dans ce qu'elle a de plus accessible intuitivement, mesure un phénomène périodique. Plus le phénomène est fréquent, plus sa fréquence est grande.
Exemple :
Un rameur fait avancer son bateau en plongeant ses rames dans l'eau dans un mouvement cyclique qui se répète régulièrement 40 fois par minute. « 40 fois par minute » est l'expression de la fréquence de ce mouvement périodique en cycles par minute.
Inversement, pour mesurer le temps, on fait appel à des phénomènes périodiques qu'on sait stables.
C'est ainsi que le Système international d'unités définit la seconde comme « la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les niveaux hyperfins de l’état fondamental de l’atome de césium 1333 ».
En conséquence, on peut définir une fréquence comme le rapport entre deux unités de temps différentes, exprimée en général par le nombre d'unités de l'une pour une de l'autre4.
L'analyse spectrale
La décomposition en série de Fourier montre que tout signal décrivant un phénomène périodique peut se décomposer en une somme de sinusoïdes, dont la fréquence est un multiple entier de la fréquence du phénomène. La transformation de Fourier étend le concept de série de Fourier à des phénomènes non périodiques : elle permet de passer de la description d'un phénomène en fonction du temps à sa description en fonction des fréquences qu'il contient, appelée spectre de fréquences, et inversement. La transformation de Fourier est un procédé mathématique qui suppose que la valeur qui décrit le phénomène est connue à chaque instant. De même, elle suppose que les valeurs de la fréquence peuvent être quelconques, de moins l'infini à plus l'infini. Elle connaît donc des fréquences négatives.
Relation entre temps et fréquence
Les phénomènes ont à la fois une extension dans le temps, entre un début et une fin, et une dimension fréquentielle, dans la mesure où ils se répètent périodiquement entre ce début et cette fin. On peut les décrire par l'évolution de leur amplitude dans le temps, ou par les fréquences de leur spectre.
Une description temporelle ne contient aucune information fréquentielle ; une description fréquentielle ne contient aucune information temporelle. La transformation suppose qu'on connaisse le signal à l'infini.
Pour décrire adéquatement un phénomène, on peut le découper dans le temps en segments dont on puisse déterminer à peu près le spectre. La relation d'incertitude
Δ t ⋅ Δ f ≥ 1 4 π {\displaystyle \Delta t\cdot \Delta f\geq {\frac {1}{4\pi }}}
décrit le fait que plus la durée Δt du segment est longue, et donc plus l'incertitude sur la durée est grande, plus l'incertitude sur la fréquence Δf est faible, et vice-versa5.
Cette approche mathématique décrit avec précision des faits connus de l'expérience. Pour définir avec précision une fréquence, il faut observer l'oscillation pendant une longue durée. C'est ainsi que l'horloger, pour régler la fréquence du balancier, doit observer la pendule, qui compte ces oscillations, pendant une longue durée. En procédant ainsi, il obtient la moyenne de la durée des balancements, mais perd toute information sur les éventuelles irrégularités. Inversement, en observant le mouvement pendant une brève période, en soumettant l'horloge à divers mauvais traitements comme le remontage du ressort, des courants d'air ou des vibrations, il reconnaît leur conséquence éventuelle sur le balancement, mais n'acquiert aucune notion précise de sa fréquence. En acoustique musicale, on a depuis longtemps remarqué qu'on ne peut définir la tonie des sons brefs. Identifier un ton implique de discriminer précisément une fréquence fondamentale, ce qui n'est possible qu'avec un minimum de temps d'écoute.
Pulsation
La pulsation d'un phénomène périodique est la valeur de la vitesse de rotation, ou vitesse angulaire, qu'aurait un système en rotation de même fréquence : pour une fréquence f {\displaystyle f}
en hertz, la pulsation associée est donc ω = 2 π f {\displaystyle \omega =2\pi f}
: son unité SI est le radian par seconde (rad s−1)6.
La pulsation est parfois nommée « fréquence angulaire », par traduction littérale de l'anglais « angular frequency » : ce terme est fréquemment employé dans des ouvrages traduits d'auteurs anglophones et est déconseillé par de nombreux auteurs francophones7,8,9,10.
L'analogie avec un système mécanique en rotation est intéressante car la description mathématique est très similaire à celle d'une grandeur évoluant de façon sinusoïdale x = a cos ( ω t ) = a cos ( 2 π f t ) {\displaystyle x=a\cos(\omega ~t)=a\cos(2\pi f\,t)}
, où a {\displaystyle a}
est l'amplitude, ω {\displaystyle \omega }
la vitesse angulaire, f {\displaystyle f}
la fréquence et t {\displaystyle t}
le temps. La différence avec une véritable vitesse de rotation est que le phénomène décrit n'est pas une rotation, mais une variation périodique ; la rotation n'est pas ici une rotation physique, mais est celle de la phase dans l'espace réciproque.
Les coordonnées dans le plan d'un point décrivant un cercle de rayon a sont: { x = a cos ( ω t ) y = a sin ( ω t ) {\displaystyle {\begin{cases}x=a\cos(\omega ~t)\\y=a\sin(\omega ~t)\end{cases}}} 
où x {\displaystyle x}
est l'abscisse, y {\displaystyle y}
est l'ordonnée.
Dans de nombreux domaines de la physique dont les phénomènes bénéficient d'une analyse spectrale, il est intéressant d'encoder cette information dans un unique nombre complexe z = x + i y {\displaystyle z=x+\mathrm {i} y}
. D'après la formule d'Euler, ce nombre peut s'exprimer z = a e i ω t {\displaystyle z=a\,\mathrm {e} ^{\mathrm {i} \,\omega \,t}}
. Selon l'application, l'amplitude (la norme de a) a un sens physique, dans d'autres, c'est la partie réelle de z qui peut porter l'information. Cette notation permet sans être plus alourdie d'inclure un cas plus général comportant un déphasage du signal en notant simplement que l'amplitude a de cette expression peut également être un nombre complexe qui possède un argument non-nul.
Ondes
Quand le phénomène périodique est une onde, la fréquence temporelle et la longueur d'onde sont liées par la vitesse de propagation (célérité) de l'onde.
f = c λ {\displaystyle f={\frac {c}{\lambda }}}
où f est la fréquence de l'onde (en hertz), c la célérité de l'onde (en mètres par seconde) et λ {\displaystyle \lambda \,}
, la longueur d'onde (en mètres).
Exemple :
On peut mesurer la période temporelle T d'une ondulation sur l'eau (des vagues) en se plaçant en un point de la surface de l'eau et en mesurant la durée nécessaire à une crête de vague (ou à un creux de vague) pour être remplacée par la crête suivante (ou le creux suivant) en ce point. Cette durée donne la période et en prenant son inverse on obtient la fréquence de l'ondulation.
En mesurant la durée de trajet d'une crête entre deux points de distance connue, on peut mesurer la vitesse de propagation de l'onde.
La fréquence spatiale ou nombre d'onde est la distance entre deux crêtes.
Fréquence et énergie
Le rayonnement électromagnétique peut se définir soit en termes d'onde de propagation d'une perturbation électromagnétique à la vitesse de la lumière, caractérisée par une fréquence et dont l'énergie dépend de l'amplitude, soit en termes de particules sans masse appelées photon, se déplaçant à la vitesse de la lumière.
Dans ce contexte, on désigne la fréquence par la lettre grecque ν {\displaystyle \nu }
(nu).
L'énergie d'un photon est proportionnelle à la fréquence :
- E = h ⋅ ν {\displaystyle E=h\cdot \nu }

où h {\displaystyle h}
est la constante de Planck.
Symboles et unités
En électromagnétisme, physique quantique et relativité, on désigne la fréquence par ν {\displaystyle \nu }
, la lettre nu de l'alphabet grec. On y parle aussi de fréquence pour la quantité ω = 2 π T {\displaystyle \omega ={\frac {2\pi }{T}}}
, avec la lettre grecque oméga.
Dans la technologie et l'ingénierie, on utilise plus couramment la lettre f, et on appelle la grandeur 2πf pulsation ou vitesse angulaire.
Dans le Système international d'unités dit SI, l'unité de temps est la seconde dont le symbole est s. La fréquence est alors en hertz dont le symbole est Hz (unité SI), et on a 1 Hz = 1 s-1.
Le hertz ne s'utilise que pour les signaux périodiques. Lorsque le compte d'occurrences par seconde concerne un phénomène aléatoire, on le note explicitement ; par exemple en physique statistique ou en thermodynamique, on compte les « collisions par seconde ». Ainsi, le nombre de désintégrations d'un radionucléide par seconde, représentant son activité, s'exprime en becquerels, et non en hertz11.
En mécanique, en médecine, en musique, et en général dans des domaines où la mesure de la fréquence ne sert qu'à des comparaisons, on exprime souvent la fréquence « par minute » : tours par minute (voir vitesse angulaire), pouls en battements par minute, comme la graduation du métronome.
Applications
Dans le domaine de la physique ondulatoire on parlera d'une fréquence :
- d'oscillation mécanique
- de vibration (ressort, corde vibrante, vibration du réseau cristallin, vibration de molécules, etc.),
- d'oscillation acoustique dans le domaine audible (sonore) ou inaudible (infrasons, ultrasons, hypersons, etc.)
- d'oscillation électromagnétique (lumière visible, infrarouge, ultraviolet, etc.).
Dans le traitement du signal numérique, la fréquence d'échantillonnage détermine la bande passante admissible pour le système.
Dans les technologies numériques synchrones, les circuits communiquent entre eux en suivant un signal d'horloge dont la fréquence détermine les capacités de transfert du système, toutes choses étant égales par ailleurs.
Mesure de la fréquence
Un fréquencemètre est un instrument de laboratoire destiné à mesurer la fréquence de signaux électriques périodiques simples. L'appareil détecte les occurrences d'une transition caractéristique de ces signaux, et compare leur fréquence à celle d'un oscillateur aussi stable que possible appelé base de temps :
- soit en comptant les occurrences dans un intervalle de temps correspondant à un nombre déterminé de périodes de la base de temps,
- soit en comptant le nombre de périodes de la base de temps dans l'intervalle entre un nombre déterminé de transitions,
- soit, indirectement, en mélangeant un signal dérivé des transitions caractéristiques à un autre, de fréquence proche, constitué à partir de la base de temps, et en mesurant ensuite, par l'un ou l'autre des moyens précédents, la fréquence des battements qui s'ensuivent.
En musique
Tempo
La musique se caractérise par un déroulement assez régulier dans le temps ; les notes reviennent à des instants particuliers. La fréquence de ces instants est déterminée par une grandeur appelée tempo, qui est une fréquence exprimée en battements par minute.
Hauteur
En musique, les sons sont caractérisés par la hauteur, une perception dont on a depuis l'Antiquité remarqué qu'elle correspond à la longueur des cordes ou des tuyaux des instruments de musique, dont l'étude est à l'origine de l'acoustique.
La théorie de la musique résume ces recherches en affirmant :
« La hauteur est le résultat du plus ou moins grand nombre de vibrations produites dans un temps donné : plus il y a de vibrations, plus le son est aigu12 »
Les recherches psychoacoustiques ont montré le caractère schématique de cette définition13, mais la correspondance entre la fréquence fondamentale d'un son et la perception d'une hauteur est indiscutée.
Le solfège note les hauteurs sur la portée ; on peut aussi indiquer une note de musique par son nom, avec éventuellement une altération, en précisant l'octave.
Le diapason le plus courant fixe la fréquence du la de la troisième octave à la fréquence fondamentale de 440 Hz.
Selon la théorie de la musique, les intervalles musicaux correspondent à des rapports harmoniques, c'est-à-dire que le quotient des fréquences est proche de rapports de nombres entiers : l'octave correspond à un rapport 2, la quinte juste à un rapport de 3/2, la tierce majeure à un rapport de 5/4, etc. Pour la théorie de la musique, dans l'abstrait, un intervalle de douze quintes devrait être identique à un intervalle de sept octaves. Mais douze quintes correspondent à un rapport de fréquences de 3/2 à la puissance douze, soit 531441/4096, à peu près 129,7, alors que 7 octaves correspondent à un rapport 128. Les musiciens, pour aboutir aux gammes et tempéraments musicaux, procèdent à des petits ajustements que l'on peut exprimer en cents ou en savarts.
Les humains perçoivent les sons de quelques hertz à 16 000 Hz, mais la plage dans laquelle une personne entraînée peut distinguer les tons s'étend d'environ 20 Hz à environ 4 500 Hz. Hors de ces limites, qui correspondent au registre du piano, la sensation de hauteur est de moins en moins précise14.
Voir aussi
Articles connexes
Notes et références
- Richard Taillet, Loïc Villain et Pascal Febvre, Dictionnaire de physique, Bruxelles, De Boeck, , p. 297.
- C'est la définition retenue par la Commission électrotechnique internationale (Electropedia 103-06-02 [archive], dépendant de 103-06-01 [archive] pour la période.
- BIPM, Définition de la seconde [archive].
- G.M. Clemence, « Unités de mesure du temps et de la fréquence », Ciel et terre, vol. 73, , p. 257-278 (lire en ligne [archive]), indique les phénomènes périodiques ayant servi pour la définition de la seconde, avant cette réflexion sur les fréquences (p. 258) ; cet auteur évoque aussi la mesure du temps par la décroissance exponentielle d'un phénomène, comme la désintégration d'un radionucléide. Cette mesure par rapport à un phénomène non périodique, bien qu'elle soit basée sur une conception fondamentale du temps, fournit cependant difficilement des unités précises, en raison de son caractère statistique.
- (en) Dennis Gabor, « Theory of communication : Part 1: The analysis of information », Journal of the Institute of Electrical Engineering, London, vol. 93-3, no 26, , p. 429-457 (lire en ligne [archive], consulté le ). Lire aussi Patrick Flandrin, « Représentations temps-fréquence des signaux non stationnaires », Traitement du Signal, vol. 6, no 2, , p. 89-101 (lire en ligne [archive], consulté le ).
- Dubesset 2000, p. 104 (en ligne [archive]).
- Institut français du pétrole, Revue de l'Institut français du pétrole, Institut Français du Pétrole., (lire en ligne [archive])
- « IEC 60050 - International Electrotechnical Vocabulary - Details for IEV number 103-07-03: "angular frequency" » [archive], sur www.electropedia.org (consulté le )
- Michel Dubesset, Le manuel du Système international d'unités : lexique et conversions, Editions TECHNIP, , 169 p. (ISBN 978-2-7108-0762-9, lire en ligne [archive])
- « pulsation » [archive], sur www.granddictionnaire.com (consulté le )
- Bureau international des poids et mesures (BIPM) Unités ayant des noms spéciaux… [archive]
- Adolphe Danhauser (auteur) et H. Rabaud (révision), Théorie de la musique, Lemoine, (1re éd. 1870), note (a), p. 119 apud Pierre Schaeffer, Traité des objets musicaux : Essai interdisciplines, Paris, Seuil, , 2e éd. (1re éd. 1966), 713 p., p. 164.
- Schaeffer 1977 ; Laurent Demany, « Perception de la hauteur tonale », dans Botte & alii, Psychoacoustique et perception auditive, Paris, Tec & Doc, .
Portail de la physique
Portail de la musique
-
Émetteur d'ondes radioélectriques
Pour les articles homonymes, voir Émetteur.
Un émetteur d’ondes radioélectriques est un équipement électronique de télécommunications, qui par l’intermédiaire d’une antenne radioélectrique, rayonne des ondes électromagnétiques dans l’espace1.
Le signal transmis par ces ondes radioélectriques peut être un programme de radiodiffusion (radio, télévision), une télécommande, une conversation (radiotéléphonie), une liaison de données informatiques, une impulsion de télédétection radar.
Le contenu d’un émetteur radio varie donc énormément en taille, prix et conception, selon les applications, d’un simple « porte-clés » pour commander un portail, à une station de radiodiffusion d’un mégawatt, muni d’une antenne de plusieurs centaines de mètres comme l’émetteur d'Allouis.
Vocabulaire
Un « émetteur-récepteur » ou « transceiver » est un équipement combinant émetteur et récepteur pour assurer une liaison bidirectionnelle.
Un répéteur ou « relais » est un équipement combinant un récepteur et un émetteur pour propager une liaison sur une distance plus grande qu’un émetteur simple. Le répéteur utilise les mêmes bandes de fréquences pour l’émission et la réception. Dans le cas contraire, lorsqu’il utilise des bandes de fréquences différentes (cas des satellites par exemple), on parle de transpondeur.
Un émetteur peut être une installation autonome, ou au contraire un équipement intégré dans un système, par exemple dans un radar.
Cet article traite des aspects techniques actuels relatifs à l'émission radioélectrique, les liens et articles détaillés permettant de connaître les détails concernant chaque application.
Histoire
La technique de l’émission radio a beaucoup évolué au cours de l’histoire, depuis les émetteurs à étincelle, puis à ondes amorties, à l’apparition des tubes électroniques, puis des semi-conducteurs de puissance HF.
Réglementation
L’espace hertzien étant une ressource partagée, les fréquences, puissances et modulations utilisables par service sont réglementées et normalisées par les administrations :
- mondialement par l’UIT et les World Radio Conferences pour les allocations internationales ;
- par les administrations nationales pour les licences ou allocations de fréquence à l’intérieur des bandes et règles internationales, ou ne perturbant pas au-delà des frontières.
De manière générale, l’émission sur la plupart des bandes est réservée à des services précis (radio maritime, radioamateurs, télévision, radar, etc.), d’autres sont libres dans des limites de puissance définies (cibiste, ISM), d’autres émissions sont totalement libres, par exemple en très basse fréquence, ou en bande térahertz.
Fonctionnalités
La fonction générale d’un émetteur radio est de transformer le signal utile contenant l’information en onde radioélectrique de puissance suffisante pour assurer la liaison à un récepteur. Il assure donc successivement :
- la modulation du signal, en amplitude (AM), fréquence (FM), phase (PM) ou impulsion. Celle-ci est précédée éventuellement du traitement du signal et du codage ;
- l’amplification à la puissance souhaitée, très variable, de quelques milliwatts en Wi-Fi, à quelques mégawatts en télécommunications sous-marines ;
- le couplage à l’espace hertzien par l’intermédiaire de l’antenne, celle-ci pouvant éventuellement être rotative ou orientable.
Ces spécifications principales de fréquence, modulation, puissance, gains d’antenne, sont liées par le bilan de liaison nécessaire à l’application.
Caractéristiques générales
Puissance rayonnée
La puissance isotrope équivalente rayonnée, ou PIRE est la caractéristique essentielle de la portée d’une liaison, donc de la couverture d’un émetteur.
C’est la puissance générée par l’amplificateur final, multipliée par le gain de l’antenne dans la direction du ou des récepteurs (les pertes de la ligne et autres pertes, devant être retranchées).
En radiodiffusion AM, les antennes étant généralement omnidirectionnelles, et de gain proche de l’unité, les stations sont souvent définies par leur puissance radioélectrique seule.
En télévision terrestre, les antennes sont généralement omnidirectionnelles, mais avec un rayonnement maximum vers l’horizon. La PIRE est alors très supérieure à la puissance radioélectrique.
En faisceaux hertziens, diffusion satellitaire ou radar, le gain d’antenne, généralement de type parabole, peut atteindre 40 à 60 dB.
Le cas des émetteurs radar est particulier, puisqu’il s’agit d’impulsions. La puissance utile pour l’équation du radar est la puissance crête, alors que la puissance moyenne, qui définit la puissance d’alimentation, la dissipation thermique et le risque sanitaire, est très inférieure (soit quelques % de la puissance crête).
Émissions parasites
Un émetteur peut émettre, outre le signal utile, plusieurs types de signaux non désirés :
- les émissions harmoniques, dues aux non-linéarités de l’étage final. Ces harmoniques sont des fréquences multiples de la fréquence d'émission. Elles sont réduites par filtrage entre émetteur et antenne ;
- des émissions dans les canaux proches, dues également à la non-linéarité de l’étage final par intermodulation, ou au manque de filtrage dans les étages de modulation ;
- des émissions parasites diverses, non harmoniques et loin du canal. Elles peuvent être dues aux changements de fréquence, fuites d’oscillateurs, etc. Une conception de filtrage interne et de blindages mutuels les minimise, ainsi qu’un choix correct de plan de fréquence ;
- des émissions parasites dues à des oscillations temporaires de l’étage final en certains points de tension ou de charge. Ces émissions peuvent être très puissantes, mais doivent être considérées comme un défaut anormal. Elles sont éliminées par blindage correct entre entrée et sortie, et éventuellement par neutrodynage.
Toutes ces émissions parasites sont spécifiées par des normes de l’UIT, selon la puissance, la fréquence et le type de service. Ces normes sont d’autant plus sévères que la portée de l’émetteur est grande, donc sa puissance élevée, ou que le service est actif dans une zone dense. Ainsi, un émetteur de radiodiffusion peut être spécifié à −60 dB ou plus pour toute émission hors bande2.
Zone de couverture
La puissance rayonnée, la distance et la propagation définissent le niveau de réception, selon l’équation des télécommunications. Inversement, un émetteur permet de transmettre avec une qualité acceptable dans une zone, en supposant un type de station de réception donné. Cette couverture permet de définir les auditeurs possibles en radiodiffusion ou télévision, ou le service dans un réseau.
La couverture peut être définie avec précision si la propagation est stable, et les lobes d’antennes précisément connus, comme en télévision satellitaire ou en téléphonie mobile. Au contraire, la propagation fluctuante MF ou HF, ne permet que des couvertures statistiques, ou variables selon le jour et l’heure.
Fonctionnement
Architecture
L’architecture d’un émetteur varie beaucoup selon les applications, particulièrement selon qu’il est monofréquence, comme en radiodiffusion, multifréquence comme en radiotéléphonie, à large bande comme en communications militaires, ainsi que selon le type de modulation.
L’émetteur le plus simple monofréquence en modulation d’amplitude comporte :
- une source à la fréquence de porteuse, généralement issue d’un oscillateur à quartz ;
- un amplificateur de puissance modulé en amplitude par le signal amplifié ;
- une antenne couplée à la sortie de l’amplificateur.
En radiodiffusion, les étages de bas niveau, ou « étages de signal » comportant oscillateur, modulateur, filtres, génèrent le signal modulé ou porteuse à une puissance de quelques watts. Ils sont appelés exciter. L’amplificateur de puissance qui suit est parfois appelé simplement « émetteur ».
En radiotéléphonie HF, VHF ou UHF, la nécessité de choix de canal ou de fréquence peut amener à une architecture à changement de fréquence, similaire à celle d’un récepteur, permettant de moduler et de filtrer à une fréquence fixe.
En radar de puissance, le schéma le plus simple est un auto-oscillateur de type magnétron, remplacé par des amplificateurs pour les radars à traitement de signal.
Générateur de fréquence
Comme en réception, la génération de fréquence porteuse utilise des techniques variées, oscillateur à quartz fixe ou commuté, multiplicateur de fréquence, ou synthétiseur. Les émetteurs ayant une fonction de diffusion du temps ou de radionavigation comme en LORAN utilisent un maître oscillateur à horloge atomique (au césium ou rubidium).
Étage de puissance
Un klystron pour communications spatiales
L’étage final d’un émetteur fournit à l’antenne la porteuse avec la puissance électrique souhaitée. Sa conception dépend de la fréquence et de la gamme de puissance, ces deux paramètres fixent le choix entre la technologie à semi-conducteur ou à tube électronique.
Ainsi les amplificateurs à l’état solide (SSPA) ont remplacé les tubes jusqu’à une puissance d’environ 200 W en HF et de 20 W en SHF. La mise en parallèle d’amplificateurs SSPA permet d’atteindre des puissances de l’ordre du kW en HF. Au-delà de ces puissances, les tubes électroniques tels que triodes et tétrodes sont utilisés aux fréquences LF, MF et HF (bandes de radiodiffusion AM), les klystrons et carcinotrons sont utilisés aux fréquences VHF et UHF (bande FM et télévision), les tubes à ondes progressives en SHF et EHF.
La classe d’amplificateur utilisée dépend principalement de la modulation : une classe non linéaire à haut rendement peut être utilisée en FM ou PM, alors qu’une classe linéaire est impérative en BLU ou modulation AM-PM combinées (OQPSK), ou émission de multiplex (télévision).
Les émetteurs AM sont un cas particulier, la modulation pouvant être introduite :
- dans les étages de signal (« exciter »), suivis d’un étage de puissance linéaire ;
- en modulation directe sur l’alimentation du tube final, mais le modulateur AF est alors de très forte puissance ;
- en modulation directe sur une grille du tube final.
Antenne et ligne de transmission
La variété des antennes utilisées selon les applications est plus grande que celle des schémas d’émetteur.
Dans tous les cas, l’adaptation des impédances entre l’étage amplificateur final et l’antenne, ainsi que la ligne de transmission éventuelle, sont critiques. Un circuit passif adaptateur d'antenne est utilisé si l’antenne ne présente pas l’impédance caractéristique demandée par l’étage de sortie.
La ligne de transmission peut être de type coaxial, de type guide d'ondes en faisceaux hertziens ou radars, ou encore une ligne haute impédance bifilaire.
Circuits de protection
Pupitre d’un émetteur FM de 35 kW
Les tensions de plusieurs milliers de volts (jusqu’à 40 kV) sont présentes dans un émetteur de puissance, et nécessitent des protections électriques et humaines, en particulier pour les interventions de maintenance.
Les émetteurs sont exposés aux orages, et des éclateurs sont placés entre antenne et émetteur pour limiter les dommages.
Les étages de puissance, particulièrement à semi-conducteurs, sont sensibles aux ondes réfléchies, et éventuellement détruits en cas de coupure d’antenne. Un circuit de mesure d’ondes stationnaires entre émetteur et antenne permet de couper la polarisation ou l’excitation en cas d’anomalie.
Tous les éléments de fonctionnement, tensions, courants, ondes réfléchies, puissance, sont mesurés et transmis, soit à un panneau ou pupitre, soit par télémesure (cas des satellites ou des relais isolés).
Installation
Champ d’antennes d’une station émettrice HF
Ce chapitre traite plus particulièrement des émetteurs de grande puissance : radiodiffusion, communications spatiales, radars de contrôle aérien, télécommunications maritimes ou radionavigation. L’installation d’une station portable ou fixe de radiotéléphonie ne présente pas les mêmes problèmes, et les stations mobiles terrestres, maritimes, ou aéroportées ont leurs propres contraintes.
Pylônes et sécurité
Le choix de l’emplacement d’un émetteur est lié à la couverture souhaitée, à la proximité humaine pour éviter les risques sanitaires, à la nature du sol. En effet, les antennes verticales en LF, MF ou HF demandent un sol conducteur. Dans le cas contraire, des réseaux de câbles sont enterrés pour créer un plan de terre artificiel.
Un pylône d’antenne de quelques dizaines ou centaines de mètres présente un danger pour la navigation aérienne, et doit donc être muni des voyants réglementaires.
La surface nécessaire à une antenne munie de son plan de sol additionnel, peut être considérable, particulièrement en VLF. La clôture de protection nécessaire peut être plus coûteuse que l’antenne elle-même.
Alimentation
Un émetteur de 1 MW comme Allouis est alimenté par une ligne à 100 kV propre (le centre-émetteur d'Allouis TDF possède deux émetteurs d'1 MW chacun). Un émetteur lié à des fonctions de sécurité, ou installé en région peu équipée, peut posséder un groupe électrogène permanent ou de secours. Un relais isolé peut également être alimenté par cellules solaires.
Pour un service totalement continu indépendant du réseau, un groupe électrogène doit être associé à une batterie tampon avec onduleur, pour supprimer le délai de démarrage du groupe.
Le refroidissement des étages de puissance peut s’effectuer par air forcé jusqu’à quelques kW, par conduction et échangeur à liquide, comme dans un moteur thermique, ou par ébullition comme dans les vapotrons.
Interférences radioélectriques
C’est un problème complexe, car partagé entre émission et réception dans un système, sur un site, ou une zone de couverture. Il doit être traité globalement en amont, lors de la définition des fréquences, puissances, couvertures, et de l’installation en général. Des mesures particulières appliquées éventuellement après installation peuvent résoudre des problèmes ponctuels3.
Ce problème de compatibilité électromagnétique est particulièrement critique dans des systèmes comportant de nombreux émetteurs et récepteurs, par exemple un porte-avions ou un aéroport. On trouve parmi ces problèmes de cohabitation, entre autres :
- désensibilisation et saturation des étages d'entrée des récepteurs par le niveau élevé des champs ;
- intermodulation des récepteurs par la présence de plusieurs émissions puissantes reçues en entrée des récepteurs ;
- intermodulation des émetteurs entre eux, par retour vers les étages de puissance des signaux issus des autres émetteurs, ce qui impose l'utilisation de circulateurs /isolateurs ;
- produits de mélange généré par l'environnement. Par exemple, les cartes électroniques mal blindées des ordinateurs génèrent des émissions parasites par mélange de leurs horloges avec les champs puissants des émetteurs. Ces émissions parasites perturbent les récepteurs du site ;
- parasites large bande générés par les contacts métalliques incertains de l'environnement (pylônes...) baignant dans les champs forts.
D'autres exemples ont été largement médiatisés, comme la perturbation mutuelle des réseaux Wi-Fi en zone dense4, les striures des images de télévision dues à des émetteurs proches, ou les parasites entendus sur les lignes téléphoniques à proximité d’émetteurs de radiodiffusion.
D’autres exemples sont connus par les interdictions qui en résultent, comme l’interdiction des téléphones portables en avion.
Contraintes sanitaires et environnementales
Les émetteurs de grande puissance peuvent présenter un risque sanitaire, en fonction du champ électrique subi par les personnes vivant au voisinage. Un périmètre non habité peut être nécessaire.
D’autres contraintes d’installation peuvent être dues au risque de la foudre, aux forces de vent, et au climat en général (dégivrage, déneigement des radômes, etc.).
Notes et références
Voir aussi
Articles connexes
Liens externes
Portail des télécommunications
Portail de l’électricité et de l’électronique
Portail de la radio
-
Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom.
Sur les autres projets Wikimedia :
Physiologie
- Récepteur : cellules ou organes qui reçoivent des stimulis environnementaux ou internes et produit un influx nerveux informatif.
Biochimie
- Récepteur : protéine sur laquelle se lie un ligand, déclenchant ainsi une réponse cellulaire.
Immunologie
- Récepteur : région d'un anticorps qui reconnaît un antigène.
Communication
- Récepteur : individu ou entité qui reçoit un ensemble de signes nommé message et tente de l'interpréter.
- Récepteur radio : appareil électronique destiné à recevoir les ondes radioélectriques émises par un émetteur radio.
- Réception des ondes radioélectriques
- Récepteur superhétérodyne
- Caméra
-
Arrière de la caméra argentique Michell BNC dotée en supplément sur le côté droit d'un enregistreur vidéo analogique, utilisée par
Stanley Kubrick pour pouvoir rapidement monter un "brouillon" de son film
Apocalypse Now lors du tournage, avant toute opération de montage sur la pellicule photographique même.
Une caméra est un appareil de prise de vues destiné à enregistrer ou à transmettre des images photographiques successives afin de restituer l'impression de mouvement pour le cinéma, la télévision, la recherche, la télésurveillance, l'imagerie industrielle et médicale, ou bien pour d'autres applications, professionnelles ou domestiques.
Le terme caméra est issu du latin camera qui signifie « chambre » en français. La camera obscura (« chambre noire ») est un dispositif optique, connu depuis l'Antiquité, qui permet la formation d'une image inversée d'une scène sur un écran ou une toile.
Fabriquées aux États-Unis d'abord, puis en Europe, les premières caméras furent développées grâce à l'invention en 1888 par John Carbutt et la mise sur le marché en 1889 par George Eastman du support souple et transparent en nitrate de cellulose, au format de 70 mm de large à destination des nouveaux appareils photographiques commercialisés sous la marque Kodak, que l'équipe de Thomas Edison eut l'idée d'adopter pour mettre au point la première caméra de cinéma : le Kinétographe.
Il existe un grand nombre de types de caméras, aujourd'hui en grande majorité numériques, dont les caractéristiques (taille, qualité de l'image, sensibilité, support d'enregistrement, etc) dépendent du domaine et des besoins d'utilisation.
Types de caméras
[masquer]
|
Systèmes élémentaires |
|
Combinaisons optiques de base |
Simples |
|
Doublets |
|
Triplets |
|
|
Instruments d'optique |
Instruments d'observation |
|
Instruments de projection |
|
Instruments de mesure |
|
|
Portail du cinéma
Portail de la réalisation audiovisuelle
Portail de la photographie
-
Un caméscope est un appareil électronique portatif permettant d'enregistrer des images et du son sur un même support. Il combine donc les fonctions d'une caméra vidéo avec celles d'un magnétoscope, d'où son nom, mot-valise de ces deux termes et qui aurait été inventé par René Bouillot1, à l'époque où il était ingénieur chez Thomson. Il s'agit d'une évolution technologique par rapport à la génération précédente qui faisait appel à deux appareils distincts.
Types de caméscopes
Sony Betamovie BMC-100P (Betamax) (1983)
On peut distinguer les caméscopes numériques des caméscopes analogiques.
- Les caméscopes analogiques enregistrent l'information sous forme analogique, comme les magnétoscopes de même type, sur une bande magnétique (VHS, Video 8, Betamax, etc.).
- Les caméscopes numériques enregistrent l'information sous forme numérique compressée sur divers supports (cassettes DV, DVD, disque dur, mémoire Flash, etc.).
Caméscope Sony avec vue sur l'intérieur
En plus de la distinction analogique / numérique, les caméscopes peuvent être rangés dans différentes gammes en fonction des publics auxquels ils se destinent :
- grand public (cycle de renouvellement des produits : 6 à 12 mois) ;
- semi-pro (cycle de renouvellement des produits : 2 à 4 ans) ;
- professionnel (cycle de renouvellement des produits : 5 ans et plus).
La part de marché des modèles numériques a été en constante augmentation grâce à l'arrivée de produits plus abordables et de bonne qualité, jusqu'à supplanter les modèles analogiques.
Supports et formats d'enregistrement
Les séquences enregistrées par un caméscope numérique DV peuvent être très facilement transférées vers un ordinateur équipé d'une prise IEEE 1394 (appelée également FireWire) en utilisant un programme approprié (qui est parfois vendu en même temps que le caméscope). Le transfert s'effectue à la vitesse de 1x, ce qui signifie qu'une séquence de x minutes demandera exactement x minutes pour passer d'un appareil à l'autre.
Les dernières générations de caméscopes, dotés de Disque Dur ou Mémoire Flash/Carte, sont équipés d'une prise USB, et sont reconnus par les ordinateurs comme disque dur externe. Le transfert se fait selon le type de carte et de prise USB.
Il existe plusieurs supports d'enregistrement et autant de formats. Consulter la page vidéo pour avoir plus d'informations. Les caméscopes les plus récents sont également capables d'enregistrer sur des supports plus innovants tels que des mémoires flash ou des disques durs (en MPEG, MPEG-2 ou MPEG-4) ou directement sur un DVD (soit DVD-RAM, soit DVD-R) en MPEG-2.
Les formats les plus courants de caméscope sont les suivants :
- Caméscopes à Mémoire Flash / Carte Mémoire
- Caméscopes à Mémoire Flash / Carte Mémoire en Haute Définition (AVCHD)
- Caméscopes à Disque Dur
- Caméscopes à Disque Dur en Haute Définition (AVCHD)
- Caméscopes Mini DV (Enregistrement numérique sur cassette)
- Caméscopes à DVD
- Caméscopes HDV (Enregistrement haute définition sur cassette)
- Caméscopes VHS, VHS-C, SVHS, SVHS-C, Video 8, Hi8 (Ces formats analogiques sur cassettes sont aujourd'hui obsolètes)
Historique
- À la fin des années 1960 apparurent les premiers ensembles portables formés d'un magnétoscope portable et d'une caméra. Le premier modèle est le Portapack (Sony DV-2400), lancé en 1967, c'est le début de la vidéo amateur.
- En 1983 Sony a mis au point et commercialisé le premier caméscope au monde : la betamovie au format betamax elle cessa d'être produite en 1986, ces premiers modèles de caméscope ne faisaient qu'enregistrer, ils ne pouvaient pas lire la cassette.
- En 1985, JVC commercialise les caméscopes au format VHS, qui dès leur début avaient la capacité de lire la cassette enregistrée dans le caméscope.
- En 1985, Sony et d'autres grands constructeurs, développent ensemble un standard de caméscope plus petit, utilisant des cassettes de plus petit format, contenant de la bande magnétique de 8 mm de largeur (contre 12,7 mm pour le VHS et VHS-C) le video 8
- JVC riposta en développant des cassettes VHS de plus petit format, le VHS-C et de même épaisseur et que l'on pouvait lire dans un magnétoscope normal VHS (au moyen d'un adaptateur).
- En 1987-1988, les formats Y/C arrivent sur le marché : le Hi8 (amélioration du Video 8) et les SVHS et SVHS-C (amélioration du VHS et du VHS-C). Avec ces nouveaux formats, le vidéaste amateur accède à une meilleure qualité d'image, passant de 240 lignes (sur les anciens formats composites) à près de 400 lignes sur ces nouveaux formats Y/C.
- En 1996, les premiers caméscopes numériques débarquent sur le marché grand public avec une définition de 500 lignes.
Le Mini DV, avec ses cassettes de très petite taille permet aux constructeurs de créer des caméscopes encore plus petits et plus légers, ce qui contribue à son succès auprès de beaucoup d'amateurs. La fin des années 1990 verra aussi la commercialisation du Digital 8 (version numérique du Video 8) qui connut nettement moins de succès que le Mini DV.
- Vers 2004-2005, de nouveaux types de caméscopes apparaissent, enregistrant sur disque dur ou sur DVD.
- En 2004, le format HDV est lancé. Il est l'évolution haute définition du Mini DV.
- Le format AVCHD, créé par Sony et Panasonic, est aujourd'hui[Quand ?] en forte expansion, et concerne les supports mémoire flash et quelquefois le disque dur.
- En 2010, Panasonic lance le premier caméscope 3D grand public, le HDC-SDT750.
Notes et références
Annexes
Sur les autres projets Wikimedia :
Articles connexes
Portail de la réalisation audiovisuelle
-
Appareil photographique compact
Un appareil photographique compact.
Un appareil photographique compact est un appareil photographique de petite taille et léger, le plus souvent totalement automatisé, et dont la visée se fait généralement sur un écran à cristaux liquides.
Ces appareils se sont beaucoup perfectionnés dans les années 2010, et ils se divisent en plusieurs catégories (ludique, antichoc, gros zoom et expert). Les modèles destinés au grand public disposent de modes intelligents performants, adaptés aux personnes souhaitant un appareil simple sans se soucier de la technique — ouverture, temps de pose, sensibilité.
Argentique
Le premier véritable appareil compact est apparu en 1925 avec le format 24x36 mm, c'était le premier Leica. En 1936, l'Argus modèle A est le premier appareil 35 mm bon marché et simple d'utilisation1.
En 1960, sort le Polaroid 900, qui est équipé du procédé de photographie à développement instantané. Six ans plus tard, le Rollei 35 était le premier appareil compact moderne pouvant rentrer dans une poche grâce à ses dimensions de 97 x 60 x 32 mm et son poids de 370 grammes2. Ce type d'appareil se démocratisera vraiment pendant les trente Glorieuses.
Dès la fin des années 1970, l'arrivée de l'autofocus permet une utilisation simplifiée des compacts, qui deviendront très courants chez les amateurs à la fin du XXe siècle.
Cependant dans les années 2000, l’argentique disparaît progressivement au profit du numérique. Seul l’appareil photographique jetable subsiste du fait de son faible coût. Quelques marques subsistent ou bien ressuscitent du fait de leur originalité, de leur qualité. On distingue trois marques :
- Leica et ses appareils photo haut de gamme jouant sur la personnalisation et un matériel de précision,
- Polaroid et ses appareils à photos instantanés,
- Lomography et leurs différents appareils photographiques originaux utilisant des formats et des techniques différentes et notamment la réutilisation de vieux modèles d’ex-URSS.
-
-
-
Un Lomography Holga 120 S
-
-
Un compact des années 1980 destiné au grand public
Types de films
La plupart des films qui équipaient les compacts dans les années 1980 étaient des pellicules 35 mm. Le 35 mm était considéré comme un format « professionnel », à cause de la difficulté relative à la charge et le rembobinage des pellicules aux formats de base comme le 110 ou le film disque. Les principales innovations qui ont été apportées aux compacts 35 mm étaient le chargement du film et le rembobinage automatiques. Ce système était légèrement populaire dans les années 1990. Le Format 126 a également été populaire pendant les années 1970.
Appareil photographique prêt-à-photographier
Un appareil photo jetable
Kodak.
On a vu apparaître dans les années 1980 des appareils photographiques en matière plastique vendus avec un film déjà chargé à l'intérieur, appelés d'abord jetables, puis rapidement renommés en prêt-à-photographier (ou PàP), car la notion de jetable était devenue dévalorisante.
L'existence de ces appareils a été permise par l'apparition de films négatifs à très grande latitude de pose et grande finesse capable de donner des images avec un minimum de réglages.
Ces appareils sont munis d'un obturateur et d'un diaphragme, un simple trou dans une plaque de tôle, qui donne une vitesse de prise de vue d'environ 1/100e de seconde.
L'objectif est une simple lentille en plastique.
Le film est en général pré-chargé, c'est-à-dire qu'il est entièrement déroulé dans l'appareil et que les manœuvres d'armement et de défilement du film rentrent celui-ci dans sa cartouche. Ainsi, en cas d'ouverture accidentelle les vues prises sont épargnées.
Ces appareils se sont montrés remarquablement solides, ce qui fait qu'ils pouvaient être réutilisés après recyclage.
À l'origine les pellicules étaient du 200 ISO, puis souvent 400 ISO.
Très vite l'impossibilité de faire des photos en intérieur a amené les constructeurs à proposer des appareils à flash.
On a également fabriqué des appareils panoramiques (qui coupaient simplement la photo en hauteur) et des appareils étanches pour prises de vue pendant la baignade.
Numérique
Le premier véritable appareil numérique compact destiné au grand public est le Casio QV10 sorti en 19953. L'explosion du marché des appareils numériques commence vers 1997-1998 et les compacts rencontrent un succès de plus en plus important au début du XXIe siècle. En 2006, le numérique s'impose face à l'argentique à la suite de l'abandon de ce secteur par plusieurs constructeurs.
Les compacts numériques vendus en 2013 possèdent un capteur de 10 à 20 millions de pixels4. Le zoom optique a une puissance qui varie souvent de 5 à 20, allant jusqu'à 30. Il permet de se rapprocher du sujet sans perdre en qualité d'image contrairement au zoom numérique. Leur poids varie de 70 grammes (sans zoom optique) à 220 grammes (avec zoom optique x10) et les dimensions sont de l'ordre de 9 x 6 x 2 cm. Certains appareils disposent de fonctions annexes : Wi-Fi, écran tactile, lecture de musique et de vidéo, radio. D'autres appareils sont dotés de fonctions avancées (modes manuels, gestion du format RAW)5.
Catégories
Compact ludique
Le Canon ixus 240 HS, un compact ludique.
Cette catégorie de compact a été créée au début des années 2000. L'objectif est de créer des appareils très compacts et simples d'utilisation en mode automatique pour le grand public comme, notamment, la série des Casio Exilim. En 2013, cette catégorie possède toujours les mêmes caractéristiques, les appareils ont généralement un design élégant et sobre.
Ces appareils sont de plus en plus souvent équipés d'un capteur CMOS, généralement de 12 à 18 mégapixels. Leur zoom oscille entre le 5x et le 15x.
Ces compacts ont souvent une ergonomie simple avec de moins en moins de boutons, préférant utiliser des écrans tactiles comme les smartphones. Ils peuvent même être équipés d'un second écran pour prendre des autoportraits. Ils proposent des modes ludiques pour le traitement de l'image comme des filtres colorés.
Le marché est occupé par tous les constructeurs, car c'est une catégorie très populaire aussi bien en bas de gamme qu'en haut de gamme.
L'année 2012 voit l'apparition d'une nouvelle génération de compacts ludiques intégrant un système d'exploitation (Android OS) ouvert venu du monde de la téléphonie intelligente, avec les Nikon Coolpix S800c6 et Samsung Galaxy Camera7 présentés lors du salon technologique berlinois IFA. Ces appareils disposent notamment d'un GPS et d'un accès Wi-Fi.
Compact étanche ou antichoc
Le Panasonic Lumix TS3, un compact antichoc.
Cette catégorie de compacts est née en 2006 avec le Pentax Optio WPi, premier compact étanche. Elle ne se développera vraiment qu'à partir de 2009 avec l'arrivée de compacts généralisant la résistance aux chocs comme la série "Tough" d'Olympus ou le Panasonic Lumix FT1 ; ils seront alors nommés antichocs ou « baroudeur ».
En 2013, ces baroudeurs sont étanches à tout (sable, boue, eau, neige…) et peuvent être immergés parfois jusqu'à 12 mètres. Ils résistent aussi aux basses températures (−10 °C), aux chutes (1,5 mètre), et à l'écrasement (100 kg)8.
Ces appareils sont le plus souvent équipés d'un capteur CMOS, généralement de 12 à 18 mégapixels. Leur zoom varie aux alentours de 5×.
Ces compacts ont une ergonomie basée sur la solidité. L’électronique est protégée par une coque épaisse avec un design souvent agressif.
Compact gros zoom
Le Sony Cyber-shot HX60, un compact gros zoom.
Cette catégorie est apparue en 2006 avec le Panasonic Lumix TZ1 qui était le premier compact équipé d'un zoom optique 10x9. Le concept était d'équiper des appareils compacts d'optiques performantes allant du grand angle au téléobjectif. Il sera rapidement rejoint par la concurrence avant le début des années 201010.
En 2013, ces appareils poursuivent la même évolution. Ils sont généralement tous équipés d'un capteur CMOS de 14 à 20 mégapixels. Leur zoom oscille entre le 18x et le 30x11.
Leur ergonomie est assez proche de celle des compacts ludiques, mais ils sont plus épais et ont davantage de boutons. Ils sont souvent équipés d'une molette pour choisir le mode adapté rapidement.
Comme pour les compacts ludiques, cette catégorie est assez populaire et la majorité des constructeurs est donc présente sur ce marché.
Compact expert
Le Nikon Coolpix P7700, un compact expert.
Cette catégorie est apparue en 2001 avec la sortie du Canon PowerShot G1. Il s'agit d'un compact s'inspirant de l'ergonomie d'un reflex. Mais ce n'est qu'avec l'arrivée d'un concurrent, le Nikon Coolpix P5000, en 2007, que le marché commence à vraiment se développer.
L'ergonomie des compacts experts est très proche des reflex et privilégie le réglage manuel par diverses commandes. Ainsi on trouve beaucoup de boutons et de molettes de réglages. Leur écran sont souvent montés sur rotule, ce qui est souvent utile pour les photos indirectes et les vidéos. Certains modèles sont les derniers APN compacts à utiliser une visée optique.
Depuis les débuts de la photo numérique grand public, les compacts experts « classiques » ne possédant pas de grand capteur cherchent à compenser ce handicap en utilisant un objectif lumineux. Ainsi un modèle commercialisé, en 2000, par Canon sous la référence PowerShot G1 et par d'autres marques sous des dénominations diverses disposait d'une optique ouverte à f/212. La mode en a passé mais elle revient périodiquement13. Par exemple, le XZ-1 fabriqué par Olympus14 ou chez Panasonic la série des LX à partir du LX3 en 200815.
Ces appareils sont généralement équipés d'un capteur CMOS de 10 ou 12 mégapixels. Leur zoom oscille entre le 3× et le 7×, une grande amplitude n'étant pas possible si on ne veut pas sacrifier la luminosité.
Les compacts experts à grand capteur sont une variante récente des compacts experts, créée en 2011, par Fujifilm avec son X100 équipé d'un capteur CMOS au format APS-C16. Il sera rejoint en 2012 par les Canon G1 X et Sony RX100 qui sont également équipés de capteurs CMOS de grande taille (1")17,18.
En septembre 2012, Sony présente le premier compact plein format, le RX119. En juin 2015, le Canon G3 X est le premier compact a cumuler une ergonomie d'expert, un capteur de 1" et un long zoom (25x, équivalent 24-600 mm)20.
La taille du capteur permet d'obtenir une qualité d'image supérieure en basse lumière comme pour les hybrides.
Ces appareils sont équipés d'un capteur CMOS de 12 à 20 mégapixels. Leur zoom approche le 5×.
La plupart des compacts experts (comme les Canon PowerShot série G et les Nikon Coolpix série P) peuvent accueillir des compléments optiques et autres filtres :
Compact à objectifs interchangeables
Également appelé hybride, il s'agit d'une catégorie d'APN compact à part, utilisant des capteurs de grande taille (au maximum 24×36 mm) et des objectifs interchangeables.
Qualités et limites du compact
Mise à part la catégorie, des compacts « à grand capteur », tous les compacts sont équipés de capteurs de taille réduite, surtout par comparaison avec la référence que constituent les reflex. Ce choix présente à la fois des avantages et des inconvénients mais il fait avant tout du compact un appareil photographique grand public, peu adapté aux usages exigeants et présentant des limites incontournables. Les compacts numériques ont longtemps été handicapés par un évident manque de réactivité. Leur mise en service demandait plusieurs secondes et, plus gênant encore, leur système autofocus pouvait hésiter longuement avant de faire la mise au point. Une lenteur générale souvent confondue par les utilisateurs avec un délai au déclenchement empêchant fréquemment de réaliser de bonnes photos de sujets en mouvement (enfants, animaux, sport, etc.). Sans offrir la réactivité d'un reflex, les compacts ont gommé l'essentiel de ces défauts depuis quelques années et sont devenus à la fois plus performants et plus agréables à utiliser[réf. nécessaire].
Capteur et focales
Grâce à un petit capteur on peut réaliser un zoom puissant peu encombrant.
Les capteurs utilisés par les compacts ont (à quelques rares exception près) une diagonale d'image inférieure à 10 mm. Il est donc possible de réaliser des optiques très compactes et même des zooms extrêmement puissants puisque les focales nécessaires resteront limitées tout en fournissant, grâce à un facteur de conversion élevé (supérieur à 5), des focales équivalentes importantes. Les constructeurs ont eu plus de difficulté à proposer des focales très courtes permettant d'obtenir un grand angle. Longtemps les compacts n'ont offert qu'un équivalent à 35 mm comme focale la plus courte mais le problème a été résolu et un consensus s'est établi autour d'une focale grand angle équivalente à 28 mm, parfois un peu moins (25 ou 24 mm). Le compact peut ainsi offrir un zoom capable d'aller jusqu'à 20× environ sous un encombrement réduit. L'équivalent qui s'en rapproche le plus chez les reflex serait un boîtier Nikon DX (capteur APS-C) associé à un zoom 18-300 mm (équivalent 28-450 mm) et le prix, le poids et l'encombrement ne sont plus du même ordre. Le problème serait identique avec toute réalisation utilisant un grand capteur : un petit capteur a des avantages évidents pour un usage grand public. Du moins pour ceux qui souhaitent jouer avec une large gamme de focales[réf. nécessaire].
L'autre caractéristique apportée par un petit capteur, vue comme un avantage mais aussi comme un inconvénient suivant les goûts de chacun, est la grande profondeur de champ liée à l'emploi de focales très courtes. Un compact utilisé en position grand angle donne une image nette de quelques dizaines de centimètres à l'infini21. Il est donc possible sans difficulté d'avoir une image avec un avant-plan, un sujet principal et un arrière-plan nets. En revanche, côté inconvénient, il devient difficile d'isoler un sujet net avec un arrière-plan flou comme cela se pratique souvent, pour le portrait par exemple[réf. nécessaire].
Capteur et bruit
Du fait de ses dimensions, et plus précisément des dimensions de ses photosites, un petit capteur présente un niveau de bruit relativement élevé et une sensibilité nominale assez faible22. Si le bruit reste le plus souvent très acceptable et même invisible dans des conditions d'examen normales des photos réalisées, il augmente progressivement lorsqu'on fait appel à des sensibilités ISO élevées, au point de devenir assez rapidement insupportable. Les constructeurs luttent contre le bruit avec un traitement logiciel qui en élimine la plus grande partie mais souvent au détriment de la qualité d'image qui perd ses détails et peut sembler artificielle. Même si les progrès des capteurs permettent désormais d'utiliser des sensibilités assez élevées (800 à 1600 ISO) avec des résultats très acceptables, les compacts ne peuvent se comparer aux modèles utilisant des capteurs beaucoup plus grands qui offrent logiquement des performances très supérieures[réf. nécessaire].
Pixels et diffraction
Effet de la diffraction avec un compact numérique 12 mégapixels : la fermeture du diaphragme entraîne la disparition des détails les plus fins de l'image.
Parmi les limites sur lesquelles on bute inévitablement avec un compact, il y a la diffraction qui limite la résolution réelle de l'image, quel que soit le nombre de pixels (ou plutôt de photosites) que comporte le capteur. Ce problème existe avec tous les appareils photographiques mais jusqu'à une taille de capteur de l'ordre de l'APS-C, il n'est pas vraiment gênant. Il en va tout autrement avec les compacts puisque, à partir de douze mégapixels environ, le diamètre de la tache d'Airy et la taille des photosites se rejoignent et il devient difficile voire impossible d'exploiter la résolution du capteur23. En pratique, une grande ouverture (de l'ordre de 2,8 dans ce cas) devient indispensable pour ne pas perdre en résolution.
Pour cette raison, les compacts visant une résolution élevée n'utilisent pas de diaphragme mais un filtre gris neutre qui se met en service lorsque la luminosité est trop forte. Ainsi, l'objectif travaille toujours à pleine ouverture et procure la résolution maximale. Certains compacts « experts » disposent à la fois d'un filtre gris neutre et d'un diaphragme car, pour certaines prise de vue (par exemple, la photo rapprochée et la macro), il est préférable de sacrifier de la résolution à une plus grande profondeur de champ[réf. nécessaire].
Parts de marché
En novembre 2011, les compacts représentaient 44 % du marché des APN, en baisse de 52 % par rapport à 2010, tandis que les appareils photo de smartphones occupent 27 % des parts de marché en 2011, en hausse de 17 %. Les ventes unitaires totales de tous les types de compacts ont diminué de 17 % par an, mais ont augmenté de 16 % pour les compacts gros-zoom24.
Au début de 2012, tous les grands constructeurs ont au moins un modèle grand zoom optique (autour de 20×) et la plupart d'entre eux sont fournis avec une connexion Wi-Fi et un GPS25.
En 2013, le marché des appareils photographiques numériques est touché par une baisse des ventes au niveau mondial avec un recul de 40 %. Malgré cette importante chute des ventes, les reflex et les hybrides ont une part de marché croissante (elle passe de 16 à 21 % pour les reflex et de 4 à 5 % pour les hybrides) et une faible diminution des volumes de ventes, au contraire des compacts et des bridges, dont la part de marché passe de 80 à 74 %26.
En 2014, le volume de vente des compacts est en baisse de 27 %27.
Annexes
Sur les autres projets Wikimedia :
Notes et références
- « Avant le numérique » [archive]
- « Le Rolei 35 » [archive]
- « Le premier compact numérique en 1995 » [archive]
- « généralité sur les compacts » [archive]
- « évolution des compacts récents » [archive]
- « le monde numérique du 22/08/2012 » [archive]
- « Challenges du 29/08/2012 » [archive]
- « Le Pentax Optio WG2 étanche jusqu'à 12 mètres. » [archive]
- « Le Lumix TZ1, zoom 10x en 2006. » [archive]
- « Le Sony HX5V, zoom 10x en 2010. » [archive]
- « Le Sony DSC-HX50, zoom 30x en 2013. » [archive]
- (en) « ouverture d'un objectif de compact expert » [archive]
- « Exemple de compact expert à objectifs lumineux. » [archive], sur Les Numériques
- « compact expert lumineux » [archive]
- (en) « Panasonic LX3 » [archive]
- « Le Fujifilm X100. » [archive]
- « Le Sony RX100. » [archive], sur Les Numériques
- « Le Canon G1X. » [archive], sur Les Numériques
- (fr) Fred, « Sony RX1 : les caractéristiques officielles » [archive], article de presse, sur http://www.fredzone.org/ [archive], (consulté le )
- « Canon PowerShot G3 X : compact expert ET à gros zoom, c'est possible » [archive], sur Les Numériques.
- (en)« grand angle des compacts » [archive]
- René Bouillot, Cours de photographie numérique : principes, acquisition et stockage, Paris, Dunod, , 300 p. (ISBN 978-2-10-005541-8, BNF 39049044), p. 182.
- (en)« taille et résolution des capteurs » [archive]
- (en)« Les parts de marché » [archive]
- (en)« Les compacts gros zoom » [archive]
- « Chute du marché des APN » [archive], sur Focus Numerique.
Lien externe
-
Appareil photographique hybride
Un appareil photographique hybride (mirrorless en anglais, litt. « sans miroir ») est un appareil photographique numérique à objectifs interchangeables dont la visée se fait par viseur numérique ou écran. Ceux-ci montrent ce que capte le capteur (contrairement aux viseurs des reflex).
L’appellation mirrorless est utilisé en opposition aux reflex, sur lesquels la visée oculaire montre ce que cadre l'objectif grâce à la réflexion d'un miroir. Les hybrides, les compacts, bridges et télémétriques n'ont pas de miroir non plus, et montrent tous l'image telle qu'elle se forme sur le capteur .
Désignant initialement des boitiers de dimensions compactes (COI c-à-d Compact à Objectif Interchangeable), hybride a progressivement (au cours de la décennie 2010-2020) désigné tous les appareils à objectifs interchangeables sans miroir, quelles qu'en soient les dimensions.
Cette catégorie, apparue en 2008, est en pleine expansion au début des années 2010. Les ventes d'appareils hybrides stagnent en 2013, simultanément à une baisse généralisée des ventes d’appareils photos. En 2014, le volume des ventes d'hybrides repart à la hausse, malgré la chute des autres types d’appareils photo (en particulier les compacts). Depuis 2020, il se vend plus d'hybrides que de reflex.
Histoire
L'histoire des appareils hybrides débute en 2008 lorsque Panasonic et Olympus adaptent le nouveau format de capteur micro 4/3 sur des boîtiers sans miroir pour les modèles Panasonic Lumix G1 et Olympus PEN E-P1. L'absence de miroir (comme sur les bridges et les compacts) permet de concevoir des appareils photo numériques plus petits que des reflex mais de même dimensions de capteur. Les premiers modèles sont proches des reflex grand public1 et de tarifs similaires.
Le marché s'élargit au début des années 2010, notamment par les premiers hybrides équipés de capteurs au format APS-C2. Cette nouvelle taille est introduite par le Samsung NX 10 et le couple Sony Alpha NEX-5 et NEX-3. Le marché commence à prendre son essor à partir de ce moment-là et d'autres constructeurs s'y lancent.
-
Le prototype hybride d'Olympus.
-
-
-
En sort le Pentax Q, qui se distingue par un capteur de petite taille de format 1/2,3"3 et un boîtier au style rétro. Quelques mois plus tard, Nikon sort sa gamme 1 à capteur de format 1, composée du J1 et du V1. L'arrivée de ce constructeur permet de faire connaître davantage ce jeune marché4. En 2012, Fujifilm sort le X-Pro1, qui offre le choix entre visées optique et électronique ; le style de l'appareil est rétro également.
À la fin de l'année 2011, Panasonic sort une gamme d'objectifs motorisés compacts baptisée « X ». Ces objectifs permettent de réduire davantage l’encombrement des hybrides5.
En , Canon annonce l'EOS M. Comme pour la gamme One de Nikon, le design du boitier est moderne. Le capteur est de type APS-C comme sur les Sony NEX et Samsung NX6. En , Polaroid présente un hybride sous Android, le iM18367. Quelques mois plus tard, en juin 2013, Samsung présente le Galaxy NX, un hybride haut de gamme sous Android avec un écran de 4,8 pouces et une connexion 4G8.
En octobre 2013, Sony présente les deux premiers hybrides 24 × 36 mm, les Sony Alpha 7 et 7 R9. En , Samsung annonce le plus petit appareil hybride du marché, le NX Mini, équipé d'un capteur de 1" et affichant des dimensions de 11 × 6,19 × 2,25 cm et un poids de moins de 160 grammes10.
En 2014, les Panasonic Lumix DMC-GH4 et Sony Alpha 7S sont les deux premiers appareils hybrides capables d'enregistrer des vidéos au format 4K11. Le suivant, Leica présente sa gamme T et son premier appareil hybride, le type 70112. En mai, la division photo de Kodak racheté par JKimaging présente le Pixpro S1, qui adopte la monture micro 4/3, ce qui permet à la marque de rentrer sur le marché avec un parc optique important13. Le Sony Alpha 7 II présenté en novembre est le premier appareil plein format équipé d'un capteur stabilisé (5 axes)14. En , Hasselblad lance le X1D, premier hybride moyen format (dernière taille de capteur encore réservée aux reflex)15.
En 2018, Nikon réoriente sa vision de l’hybride vers le format 24 × 36 avec la gamme Z et abandonne la gamme Nikon 116,17. Quelques semaines plus tard, Canon rejoint également le marché des hybrides 24 × 36 avec la gamme EOS R18 et en 2019 Panasonic inaugure sa gamme S sur ce format, parallèlement à sa gamme G au format Micro 4/3)
Caractéristiques
Le concept consiste à équiper des appareils compacts d'optiques interchangeables et de capteurs de grande taille comme ceux des reflex. Ils sont généralement équipés d'un capteur CMOS de 16 à 50 mégapixels.
Leur ergonomie est assez proche de celle des compacts mais avec des fonctionnalités de reflex, la principale étant la possibilité de changer d'objectif.
Visée électronique
Un Olympus E-P2 équipé d'un viseur électronique.
La visée électronique permet d'avoir accès à davantage d'informations pour perfectionner les réglages, les informations proviennent directement du capteur. Cette technique offre plusieurs avantages :
- l'affichage de nombreuses informations (exposition, balance des blancs et profondeur de champ) ;
- le viseur permet de voir tout le champ photographié, ce que les reflex ne permettent pas toujours ;
- la compensation de luminosité ;
- facilitation de la mise au point manuelle et la vérification de l'AF grâce à l'accentuation des lignes de fort contraste (souvent appelée "focus peaking"), et la possibilité d'agrandir une portion de l'image ;
- la vue directe de ce que le capteur enregistre ;
- la possibilité de visualiser les menus et les images prises.
En raison de l'absence du miroir que l'on trouve dans les reflex, ces appareils sont souvent désignés mirrorless, notamment dans les pays anglophones ; il convient cependant de noter que les « bridge » et les compacts n'ont pas de miroir non plus.
Formats de capteurs
En 2017, sept tailles de capteur différentes sont utilisées sur les hybrides : 33x44, 24 × 36, APS-C, Micro4/3, 1", 1/1.7", 1/2.3".
En 2020 quatre tailles différentes de capteurs sont utilisées sur les hybrides : 33x44, 24 × 36, APS-C, Micro4/3.
Moyen format
Le moyen format numérique est utilisé par Hasselblad sur son X1D et Fujifilm avec son GFX19.
24 × 36
Le format 24 × 36 (aussi appelé « 35 mm » ou « plein format ») est utilisé sur des appareils haut de gamme à objectifs interchangeables (reflex, hybrides) ou fixes. Les appareils photos hybrides équipés de ce format sont les séries Alpha 7 et 9 de Sony, Leica SL de Leica, L de Panasonic, FP de Sigma, Z de Nikon et EOS R de Canon.
APS-C
Un capteur CMOS d'un NEX-5 (format APS-C).
Ce format d'environ 16 × 24 mm de coté est utilisé sur des appareils haut de gamme à objectifs interchangeables (reflex, hybrides) ou fixes. Dans la catégorie des hybrides, ce format est utilisé par Sony pour ses NEX et ILCE, Samsung pour ses NX, Canon pour ses EOS M ainsi que Fujifilm pour ses X, Pentax pour son K-01 et enfin Leica pour sa gamme T.
Micro 4/3
Le format de capteurs micro 4/3 (13 × 17,3 mm) équipe les appareils de série G de Panasonic, de série PEN (E et F) et OMD E-M de Olympus, ainsi que le Pixpro S1 de Kodak.
1"
Le format appelé « 1 pouce » (au ratio 4/3) a été utilisé d'abord par Nikon pour sa gamme 1. Elle est actuellement composée de quatre séries : Sony (RX 10, RX 100), Panasonic (TZ 100,200, FZ 1000, 2000), Samsung (NXmini10) utilisent ce format 1" au ratio 3/2.
1/2,3" et 1/1,7"
Ces deux formats, que l'on trouve sur la plupart des appareils photographiques compacts grand public, sont utilisés par Pentax sur ses petits hybrides série Q.
Succès
Le succès des hybrides résulte du fait qu'ils mélangent certaines caractéristiques des reflex et des compacts et qu'il en existe sous de multiples formes (certains sont très proches des compacts comme les Nikon 1 et d'autres sont plus proches des reflex comme les séries de Panasonic Lumix G et GH ou la gamme Olympus OM-D dont les appareils sont équipés d'un faux prisme reflex) ; ces boîtiers légers et compacts ont ainsi, souvent, une apparence rétro. La qualité d'image est souvent proche, voire supérieure à celle des appareils reflex pour les hybrides APS-C20 et plein format (notamment les Alpha 7R21 et Alpha 7S22).
La volonté des constructeurs est de proposer une véritable alternative aux reflex, où la qualité et les réglages restent mais où l'ergonomie, l'encombrement et le poids changent beaucoup par rapport aux reflex — et aussi d'un appareil hybride à l'autre23. De plus en plus de ces boîtiers s'adressent aux photographes passionnés et professionnels (séries Samsung NX1, NX10, Olympus OMD, Sony Alpha 6000 et 7, Panasonic Lumix GX et GH, Fujifilm X). Ces appareils sont également appréciés en photographie de rue pour leur discrétion24,25.
Les constructeurs proposent aussi des appareils à peine plus encombrants que les compacts et tout aussi faciles à utiliser (séries Olympus PEN, Sony Alpha 5000, Nikon 1 S et J, Lumix GF et GM).
La mise sur le marché de nombreuses bagues d'adaptation à faible coût permet de monter sur ces appareils des objectifs de toute provenance sans perte des modes de prise de vue automatiques ou programmés, mais avec une incidence sur l'angle de champ, en fonction de la taille du capteur (un objectif de 50 mm de focale pour le format 24 × 36 cadre sur un capteur 4/3 comme le ferait une focale de 100 mm sur 24 × 36)26,27,28. La possibilité de réutiliser des gammes anciennes ou devenues obsolètes d'objectifs issus de la photographie argentique renforce l'intérêt des hybrides pour certains acheteurs. Mais la compacité et la légèreté de la plupart de ces appareils sont également des critères d'achat, ainsi que leur bon niveau de performances.
Marché
Au début des années 2010, le marché est en pleine croissance et tous les grands constructeurs y sont présents : Nikon, Olympus, Panasonic (Lumix), Sony Alpha, Fujifilm, Samsung, Pentax et Canon.
En 2012, les hybrides représentent 20 % des ventes d'appareils à objectifs interchangeables en France29. La même année au Japon, ils représentent 50 % des ventes d'appareil photo30 Les ventes de COI ont augmenté de 64 % sur les trois premiers trimestres de l'année 201231.
En 2013, le marché des appareils photographiques numériques est touché par une baisse des ventes au niveau mondial avec un recul de 40 %. Malgré cette importante chute des ventes, les hybrides, tout comme les reflex, ont une part de marché croissante (elle passe de 4 à 5 % pour les hybrides) et une faible diminution des volumes de ventes, au contraire des compacts et des bridges, dont la part de marché passe de 80 % à 74 %32.
En 2014, tous les acteurs du marché ont développé des gammes larges allant des produits grand public aux produits professionnels, à l'exception de Canon, dont l'EOS M est un échec critique et commercial, surtout aux États-Unis. Parallèlement le marché est rejoint par Kodak qui commercialise un appareil à bas coût et qui rejoint le consortium micro 4/313. La même année, le volume des ventes connaît une croissance de 11 %33.
À partir d'août 2019, les ventes mondiales d’hybrides dépassent (en valeur et en nombre) celle des reflex. Cependant, sur l'année entière, le nombre d'hybrides vendus dans le monde est cette année-là un peu inférieur au nombre de boitiers reflex vendus34. À partir de 2020, il se vend plus d'hybrides que de reflex35,36. Les statistiques CIPA montrent que le marché des hybrides s'est développé moins rapidement en Europe que dans le reste du monde37.
Ventes et parts de marché dans le monde, en nombre de pièces vendues38
Année | Ventes | Parts de marché (total appareils photo numériques) | Parts de marché (appareils à objectifs interchangeables) |
2012 |
4 millions |
|
|
2013 |
3 millions |
|
|
2014 |
3,1 millions |
|
|
2015 |
3,2 millions |
|
|
2016 |
3,1 millions |
|
|
2017 |
4,1 millions |
|
|
2018 |
4,2 millions |
|
|
201934 |
4 millions |
|
|
202035 |
2,93 millions |
|
|
202139 |
3,11 millions |
|
|
Séries d'appareils hybrides
- Canon EOS M (APS-C) et EOS R (24 × 36) ;
- Fujifilm X : Pro, A, E, M et T (APS-C) et GFX (33 × 44) ;
- Hasselblad Lunar et X1D ;
- Kodak Pixpro (S) ;
- Leica T et SL ;
- Nikon 1 : S, J, V et AW (1") et Nikon Z (24 × 36) ;
- Olympus PEN E et OM-D E-M (micro 4/3) ;
- Panasonic Lumix GM, GX, GF, G et GH (micro 4/3) , S (24 × 36) ;
- Pentax séries Q et K ;
- Polaroid (iM) ;
- Samsung NX (mini, xx00, xx0, xx et Galaxy) ;
- Sony Alpha NEX (3, 5, 6 et 7) et ILCE (3000, 5000, 6000, 7 et 9).
Notes et références
- « Lancement du micro 4/3 » [archive], sur bokeh.fr.
- « Lancement des NEX à capteur de reflex » [archive].
- « Le Pentax Q » [archive].
- « Nikon dévoile sa gamme one » [archive].
- « Présentation des objectifs X » [archive].
- (en)Canon, « DSLR-quality images at your fingertips: Canon launches the small and simple EOS M » [archive], communiqués de presse, sur www.canon.fr, (consulté le ).
- Damien LADURELLE, « Polaroid – un appareil photo sous Android » [archive], presse, sur www.phonandroid.com, (consulté le ).
- « Samsung Galaxy NX: l'hybride grand écran avec 3G et 4G LTE » [archive].
- « Présentation des A7 et A7R » [archive], sur http://www.fredzone.org/ [archive].
- « Samsung NX Mini : le plus petit COI » [archive], sur Focus Numerique.
- (en) « First competition for the GH4 has been announced. Sony A7s » [archive].
- (en) « Leica T 701 camera website is now live » [archive].
- « L'analyse : Kodak Pixpro S1 » [archive], sur 01net.com.
- « Présentation du Sony Alpha 7 II » [archive], sur Les Numériques.
- « Hasselblad X1D, le renouveau de l’appareil photo à capteur géant » [archive], sur 01net (site web).
- « Nikon 1 : c’est officiellement la fin ! » [archive], sur Les Numériques, .
- « Z 7 et Z 6 : les hybrides 24x36 de Nikon sont enfin là ! » [archive], sur Les Numériques, .
- « Canon EOS R : l’hybride 24x36 est enfin dévoilé » [archive], sur Les Numériques, .
- Arthur Azoulay, « Fujifilm GFX : non Fuji ne fera pas de 24 × 36 mm mais plus grand ! » [archive], sur Focus Numérique, .
- « Test : Fujifilm X-T1, le meilleur APS-C du moment » [archive], sur Les Numériques.
- « Test : Sony A7R, le plein format que nous attendions » [archive], sur Les Numériques.
- « Sony Alpha 7s : dynamique record et obturateur électronique » [archive], sur Les Numériques.
- « Les APN qui ont marqué l'année 2013 » [archive], sur LesNumeriques.
- « Reflex ou hybride » [archive].
- « Un hybride pour la photo de rue ? » [archive], sur eschon.com.
- « Hybride et vieille optique en second boitier ? » [archive]
- (en) « Using Manual Focus Lenses on Mirrorless Cameras » [archive], sur http://admiringlight.com/ [archive].
- (en) « How to Use Vintage Lenses on Mirrorless Cameras » [archive], sur pcmag.com.
- « Le marché des hybrides. » [archive]
- « Le marché japonais des hybrides » [archive].
- « Le marché des APN en 2012 » [archive].
- « Chute du marché des APN » [archive], sur Focus Numerique.
- « Photokina 2014 : bilan et perspectives » [archive], sur Focus Numerique.
- « Le marché de la photo a une nouvelle fois dévissé en 2019 » [archive], sur Les Numériques, .
- (en) CIPA, « Production,Shipment of Digital Still CameraJanuary-December in 2020 » [archive] [PDF], sur cipa.jp (consulté le ).
- (en) CIPA, « Production,Shipment of Digital Still Camera January-December in 2019 » [archive] [PDF], sur cipa.jp (consulté le ).
- (en) CIPA, « CIPA Digital Camera Statistical Data » [archive] (consulté le )
- CIPA, Camera industry facts : 2009-2013 [archive] et 2010-2018 [archive].
Annexes
Sur les autres projets Wikimedia :
Portail de la photographie
-
Appareil photographique numérique
Pour les articles homonymes, voir APN.
Appareil photographique numérique
Caractéristiques
Composé de |
|
Un appareil photographique numérique (ou APN) est un appareil photographique qui recueille la lumière sur un capteur photographique électronique, plutôt que sur une pellicule photographique, et qui convertit l'information reçue par ce support pour la coder numériquement.
Un appareil photo numérique utilise un capteur CCD ou CMOS pour acquérir les images, et les enregistre habituellement sur des cartes mémoire (CompactFlash, SmartMedia, Memory Stick, Secure Digital, etc.). Pour prendre et visualiser les clichés, l'appareil est équipé d'un écran arrière à cristaux liquides ou OLED et parfois d'un viseur (optique ou électronique).
Un petit appareil photo numérique.
Histoire
Le Canon RC-701, de 1986.
Le Kodak DCS 100 de 1991.
Le
Sony Ericsson K800i fut l'un des premiers téléphones portables à être équipé d'un capteur de 3,2 mégapixels.
Tout remonte à l'invention du capteur CCD en 1969. Dans les années 1970 apparaissent les premières caméras vidéos destinées aux particuliers1.
En 1975, Steven Sasson, un ingénieur américain travaillant chez Kodak, met au point le premier appareil photo électronique2. Ce prototype pèse 3,6 kg et capte des images de 100 × 100 pixels en noir et blanc grâce à un nouveau capteur CCD. L'enregistrement de la photo, sur le support d'une bande magnétique sur cassette, prend 23 secondes3.
Le , Sony présente le prototype Mavica (« Mavica » pour « Magnetic Video Camera »). Un disque magnétique permet le stockage de cinquante images en couleurs d'une définition de 490 × 570 points (280 000 pixels), au format NTSC. Un lecteur approprié permet d'afficher les photos sur un téléviseur. Pour ne pas être en reste, les autres constructeurs adoptent un support normalisé pour le stockage magnétique de photos : la disquette deux pouces (les ordinateurs de marque Amstrad utilisaient des disquettes trois pouces). Cet appareil était un appareil électronique analogique équipé d'objectifs interchangeables et d'un viseur reflex4.
En 1986, Nikon dévoile un autre prototype à la photokina. La même année sort le Canon RC-701, considéré comme le précurseur des réflexs numériques modernes5.
En 1989, Canon propose le Xapshot, destiné au grand public, qui dispose d'une définition de 786 × 300 points. Il est suivi de modèles baptisés « Ion ». Ces premiers modèles ne sont pas vraiment numériques, car l'image, si elle est bien capturée par une matrice de points, est stockée de façon analogique sur des mémoires magnétiques4.
En 1990, Kodak sort plusieurs appareils à usage professionnel4.
En 1991, le département Kodak Digital Science de Kodak sort un dos numérique pour un appareil photo reflex classique, le Nikon F3. Ce produit est destiné aux professionnels, notamment en raison de son prix prohibitif4. Fujifilm et Nikon sortent un peu plus tard les Fujix, avec des caractéristiques comparables. La même année, en septembre, la NASA a lancé le Nikon F4 NASA à bord de la navette spatiale Discovery lors de la mission STS-48. L'appareil photo est basée sur un F4 à la norme monture-F muni d'un capteur CCD monochrome offrant des images de 1 024 × 1 024 pixels sur une surface de 15 × 15 mm6.
En 1992, le fabricant de périphériques informatiques Logitech lance le Fotoman, petit appareil numérique à connecter sur un micro-ordinateur. L'appareil a une définition de 376 × 284 points, et stocke 36 photos sur sa mémoire intégrée de 1 Mo. C'est le premier photoscope entièrement numérique. L'année suivante, Apple propose un appareil similaire, le Quicktake, qui prend des photos en 640 × 480 ou 320 × 240.
En 1994, apparaît chez Apple le premier appareil photo grand public couleur, le QuickTake 100 de 0,3 million de pixels, comme le Fotoman Plus de Logitech sorti peu de temps après4.
À partir de 1994-1996 apparaissent des appareils photo numériques tels que nous les connaissons à l'heure actuelle, équipés d'un écran couleur LCD à l'arrière. Casio présente le premier appareil photo numérique avec écran à cristaux liquides qui montre l'image en temps réel et sauvegarde le cliché en mémoire le 4.
Le premier véritable appareil numérique compact destiné au grand public est le Casio QV10 sorti en 19957. L'explosion du marché se produit vers 1997-1998 avec une rapide multiplication des modèles.
En 1997, le Sony Mavica FD7 est le premier APN grand public équipé d'un zoom optique 10x8,9. En 1998, le Sony Mavica FD91 est le premier appareil grand public doté d'un superzoom (14x) et d'un stabilisateur, ce qui fait de lui le premier véritable bridge numérique10.
En 1999 sort le Nikon D1, équipé avec le même corps et les mêmes montures Nikkor que le Nikon 35 mm. C'est le premier appareil reflex totalement numérique destiné au marché des professionnels11.
En novembre 2002, Canon lance son premier appareil reflex numérique 35 mm (24 × 36 mm), l'EOS 1Ds. Deux capteurs APS-C CMOS apposés côte à côte permettent d'obtenir un[citation nécessaire] capteur 36 × 24 mm de 11 mégapixels. Cette même année, il se vend en France deux fois plus d'appareils photo numériques que l'année précédente. 70 % du chiffre d'affaires des ventes d'appareils photographiques proviennent du numérique12.
En 2003, le Canon EOS 300D équipé d'un capteur de 6,3 mégapixels est le premier reflex numérique destiné au grand public. Son succès commercial a encouragé d'autres fabricants à produire des reflex numériques en réduisant les coûts pour créer des produits d'entrée de gamme et permettre aux photographes amateurs d'acheter un reflex numérique13.
En 2004, Konica Minolta a commercialisé le Konica Minolta Maxxum 7D, le premier reflex numérique équipé de la stabilisation d'image14, technique qui est ensuite reprise par Pentax, Olympus et Sony Alpha. Cette même année des capteurs numériques équipent un bon nombre de téléphones cellulaires, le plus souvent avec une définition de 640 × 480 pixels (0,3 Mpx VGA), parfois avec un capteur de 1,3 million de pixels ou plus.
En 2005, Canon sort le premier reflex numérique 24 × 36 à prix « attractif » : le EOS 5D, référence pour les photo-journalistes jusqu'en 2008, avec l'arrivée des Nikon D300/D700 et du Canon EOS 5D Mark II.
En 2006, le géant américain Kodak ainsi que l'ensemble de ses concurrents (Fuji, Agfa, Konica Minolta…) connaissent des baisses de chiffres d'affaires records dues à la non rentabilité des appareils et accessoires argentiques.
En 2007, Kodak crée un nouveau type de capteur15 qui, au lieu de tester en chaque point la luminosité de trois couleurs, sépare les informations de luminance et de chrominance, et utilise donc quatre capteurs. Le bénéfice attendu en est une plus grande stabilité de luminance.
En 2008, certains téléphones cellulaires disposent d'un APN de 8,1 mégapixels, flash au xénon ou à DEL.
En 2008, Panasonic présente ses G1 et GH1, à objectifs interchangeables et dotés d'un capteur CMOS au format 4/3 de 12,1 mégapixels. La firme inaugure une nouvelle catégorie d'APN : les hybrides16.
En 2009, la diversification des appareils photos numériques se poursuit avec la sortie de l'Olympus Pen E-P1 à objectifs interchangeables et doté d'un capteur CMOS 17,3 × 13 mm de 12,3 mégapixels. Leica sort le le plus petit appareil en équivalent 24 × 36 (plein format) du monde, le M917 (appareil télémétrique). Début de 2009 sort aussi le Nikon D90, premier reflex numérique à fonctionnalité d'enregistrement vidéo. Depuis lors, toutes les grandes marques offrent des appareils avec cette fonctionnalité18.
En 2010, Fuji sort le premier appareil photo numérique stéréoscopique à deux objectifs périscopiques écartés de 77 mm, le Finepix REAL 3D W3, le premier appareil photo numérique 3D au monde réalisant des vidéos 3D HD avec deux capteurs 10 Mpx et un écran de contrôle autostéréoscopique19.
En 2011, Nikon lance sa gamme hybride One composée du J1 et du V120.
En 2012, le Canon EOS-1D C est le premier réflex numérique capable de prendre des vidéos au format 4K/DCI (4 096 × 2 160)21, et le Nikon P510 est le premier appareil photographique bridge à atteindre la focale de 1 000 mm avec son zoom 42x22.
En sort le Sony Alpha 7, le premier appareil hybride plein format.
En 2014, les Panasonic Lumix GH4 et Sony Alpha 7S sont les deux premiers appareils hybrides capables d'enregistrer des vidéos au format 4K23. Le Sony Alpha 7 II présenté en novembre de la même année est le premier appareil plein format équipé d'un capteur stabilisé (5 axes)24.
Le marché actuel
Le marché actuel[Quand ?] des appareils photos numériques est segmenté en huit catégories principales :
- L'appareil à visée télémétrique est représenté en 2012 par un seul constructeur, Leica. En 2006 est sorti le M8, en 2008 la version rénovée du M8, le M8-2, et en 2009 le M9 seul télémétrique numérique en plein format, 24 × 36 ;
- Le reflex numérique (DSLR pour Digital Single Lens Reflex en anglais ou « reflex numériques mono objectif » par opposition aux appareils reflex bi-objectifs, de type Rolleiflex), qui comporte à la fois des appareils professionnels qui sont généralement équipés d'un capteur CMOS de la même taille qu'un capteur 24 × 36 (full frame en anglais), et des appareils plus « grand public » équipés de capteurs un peu plus petits que le 24 x 36. La réduction de la taille du capteur engendre un cadrage différent de l'image, analogue au changement d'oculaire d'un télescope. Il en résulte un coefficient de multiplication (crop factor en anglais) à appliquer sur les focales des objectifs pour avoir un cadrage équivalent au 24 × 36. Ce facteur est généralement compris entre une fois (35 mm) et deux fois chez Olympus. Il est de 1,6 fois chez Canon et de 1,5 fois chez Nikon ;
- L'hybride, est une catégorie créée en 2008 par Panasonic avec son G1 et Olympus avec le Pen E-P1. Le marché s'est beaucoup élargi au début des années 2010, notamment avec les NEX de Sony et l'arrivée d'un constructeur réputé comme Nikon avec sa gamme One. Ces appareils se rapprochent des reflex par la taille de leur capteur (micro 4/3, APS-C, CX) ainsi que par la possibilité de changer d'objectif, tout en conservant un boîtier de petite taille ;
- Le bridge, ainsi nommé parce qu'il fait le « pont », en termes de marketing, entre les compacts et les reflex, est un appareil dont l'apparence est proche des reflex, mais qui n'a pas d'optique interchangeable ni de visée reflex par le truchement d'un miroir et d'un prisme. La visée pseudo-reflex des bridges est visible dans un viseur électronique à la façon d'une caméra vidéo. Ils intègrent des capteurs de petite taille au même titre que les appareils compacts ;
- Le compact, appareil grand public, possédant une bonne qualité d'image facilement accessible grâce à des modes automatiques performants, simplifiant leur utilisation. Ils se divisent en plusieurs sous-catégories (ludique, antichoc, gros zoom et expert) ;
- Les appareils photo numériques des téléphones portables ont atteint un niveau très correct sur les smartphones du début des années 2010, notamment le Samsung Galaxy S III qui est capable de prendre en rafale, le Nokia PureView 808 équipé d'un capteur de 41 Mpx ou encore le LG Optimus 3D capable de prendre des photos et vidéos 3D. Les APN de téléphone restent tout de même réservés à la photo occasionnelle car ils n'ont pas d'ergonomie adaptée. Leur capteur et leur optique miniatures restent un point faible récurrent. Certains ont proposé le mot phonéographie pour désigner la pratique de la photographie avec un téléphone mobile ; ce terme de phonéographie est très peu utilisé ;
- Les appareils plénoptiques utilisent une matrice de micro-objectifs qui permettent d'enregistrer les informations 4D[précision nécessaire] d'un flux lumineux. Ce qui permet en particulier de faire la mise au point par post-traitement. La société allemande Raytrix a commercialisé deux modèles : le R5 (modèle d'entrée de gamme de 1 Mpx) et le R11 (modèle haut de gamme de 3 Mpx). En 2012, Lytro commercialise un nouvel appareil plénoptique pour le grand public à 400 $ ;
- Le module photographique est un appareil photographique numérique de petite taille, dépourvu de système de visée et de réglage qui est dépendant d'un smartphone ou d'une tablette avec lesquels il communique sans fil.
La vision directe de l'image à photographier sur un écran arrière permet de s'affranchir du problème du viseur parallèle. Cette caractéristique commence à figurer dans toutes les gammes de reflex.
La taille des capteurs de ces appareils numériques n'augmente pas, c'est leur définition en nombres de pixels, et donc la précision de l'image, qui augmente : un million de pixels en 2000, quatorze millions en 2008 et dix-huit millions en 2012. Sur le plan marketing, la définition est un argument de vente très utilisé, à tort, car un nombre trop important de pixels sur un petit capteur n'entraîne pas une amélioration de la qualité d'image. Au contraire, l'augmentation du nombre de pixels favorise l'apparition de « bruit numérique », notamment dans les zones sombres, même dans les sensibilités les plus basses.
Au cours des années 2010, le marché connaît une mutation, marquée par l'expansion des photophones et la montée en gamme des appareils classiques. Les appareils hybrides dynamisent le marché avec des volumes de ventes en croissance alors que les reflex, concurrencés par les hybrides à grands capteurs (24 × 36, APS-C et micro 4/3), mais surtout les compacts et les bridges, concurrencés par les smartphones et les hybrides à petits capteurs (1" et moins) connaissent une importante baisse de ventes. Les compacts et bridges premium se développent, il s'agit souvent d’appareils munis de grands capteurs et d'objectifs à focale fixe ou à faible zoom avec ouverture constante comme les Sony RX ou les Fujifilm X25.
-
Appareil photographique numérique à visée télémétrique (Leica M9).
-
Appareil photographique numérique reflex (Nikon D3200).
-
Appareil photographique bridge (Canon PowerShot SX40 HS).
-
Appareil numérique compact étanche et résistant au chocs. Concept développé à partir de 2009 par plusieurs marques pour photographier en tout temps et tout lieu sans risque pour l'appareil.
-
Appareil numérique hybride. Cette catégorie créé en 2008 est en pleine expansion au début des années 2010.
-
Lytro, un appareil photographique plénoptique.
Utilisation
Il est possible au cours de la même séance de prise de vue, de modifier la totalité des paramètres d'une image à l'autre : on peut ainsi faire varier la sensibilité, choisir une prise de vue en couleur ou en noir et blanc (ou sépia, ou autre...), voire enregistrer plusieurs fichiers de la même image pour des utilisations différentes, ou encore changer de format d'image (panoramique par exemple), toutes choses totalement impossibles avec le film argentique (avec lequel seuls les appareils type Reflex ou à télémètre permettaient de choisir seulement l'ouverture du diaphragme et la vitesse).
Les images produites peuvent être visualisées sur l'écran arrière de l'appareil photo et supprimées au besoin ou exportées vers un ordinateur, retouchées grâce à des logiciels, publiées sur l'Internet, imprimées, stockées sur disque dur ou CD-ROM ou DVD… Certaines imprimantes, avec ou sans écran de contrôle, lisent directement les cartes mémoires et ne nécessitent pas d'ordinateur intermédiaire. L'ancienne étape de développement du film est supprimée, ce qui fait gagner du temps et permet parfois aussi de prendre des photos dont le contenu est très personnel. Mais également, le tirage des images en couleurs devient plus facile que les tirages papier noir et blanc qui pouvaient se faire avec un labo amateur.
Toutefois, les encres et papiers spéciaux sont très onéreux et le tirage de qualité à domicile n'est pas compétitif avec le tirage professionnel. Grâce à l'Internet, il est très facile d'envoyer à des laboratoires professionnels les fichiers des images souhaitées, éventuellement retouchées, recadrées, modifiées avec tel ou tel effet, simplifiant à l'extrême la relation avec le laboratoire et les conditions d'obtention d'une épreuve photographique.
Les modèles récents d'appareils photo numériques, de type compact, bridge, hybride ou reflex proposent des définitions suffisantes (généralement de douze à dix-huit millions de pixels) pour tirer des images, des affiches et des panneaux publicitaires, ce qui a permis aux boîtiers numériques de s'imposer rapidement face aux argentiques pour l'illustration. Les photojournalistes utilisent des appareils photo numériques pour transmettre électroniquement les photos à leur rédaction depuis le lieu de prise de vue.
Parallèlement, le marché professionnel a d'abord utilisé des dos numériques sur des moyens formats argentiques (voir Format de pellicule photographique) avant que les reflex numériques ne s'imposent définitivement pour la publicité ou la reproduction d'œuvres d'art.
Popularité
Les amateurs aussi accueillent avec enthousiasme les appareils numériques dont le coût a nettement diminué. Cette démocratisation est passée par un partage plus facile des images et photos via le courrier électronique, MMS et messageries instantanées, via les sites communautaires, blogs, réseaux sociaux comme Facebook, Pinterest, Instagram, Tumblr, ou encore Snapchat.
La technologie a aussi facilité le partage avec des appareils photos intégrés aux appareils connectés comme les smartphones ou des appareils photos connectés comme la Galaxy Camera qui communique directement via Wi-Fi ou 3G et permet notamment d’imprimer chez soi ou chez le destinataire sur une imprimante connectée les photos que l’on vient juste de prendre. La liberté de laisser chacun des membres de sa famille gérer à sa guise les photos qu'il désire et le nombre de leurs tirages a certainement eu son importance. L'usager n'a plus besoin de consommer de pellicules voire de tirer les documents s'il se contente de l'écran de l'ordinateur : il est totalement autonome.
Le numérique permet en outre de multiplier les essais à moindre coût et la possibilité de prendre des milliers de photos sans l’encombrement des pellicules et l’attente du développement ni le coût de la pellicule et de son développement. De plus la plupart des effets effectués sur les appareils photos argentiques peuvent être recréés sur ordinateur. Des logiciels comme Adobe Photoshop ont permis aux utilisateurs d’atteindre la qualité argentique à partir de prises de vue numériques.
Types de visée des appareils photographiques numériques
Il existe actuellement plusieurs types d'appareils photographiques numériques que l'on peut classer selon le positionnement marketing (appareil photographique compact, bridge, reflex, hybride appelé aussi COI : compact à objectif interchangeable ou appareil système26), ou par systèmes de visée et de capture.
Légende des images ci-dessous
Appareils avec écran uniquement
APN avec écran seulement |
Ce type de fonctionnement se trouve principalement dans les appareils photos de type « compact » et « hybrides » ; il ne possède pas de viseur. L'écran affiche l'image renvoyée par le capteur après avoir subi le redimensionnement nécessaire pour être affichée sur l'écran.
|
Appareils avec écran et viseur optique
APN avec écran et viseur optique |
Comme pour le fonctionnement précédent, ce système se trouve principalement sur les appareils de type « compact » et « hybrides ». Le viseur direct permet lors d'une luminosité trop importante d'avoir un cadrage correct, ce qui n'est pas le cas avec les écrans. Le défaut du viseur direct est qu'il ne retranscrit pas l'image saisie par l'objectif, il peut donc y avoir un défaut de cadrage.
|
Appareils avec écran et viseur électronique
APN avec écran et viseur électronique |
Ce système est principalement utilisé dans les appareils numériques dits « bridge » et « hybrides ». Quel que soit le mode de visée utilisé, le cadrage est toujours correct puisque l'image est prise à partir de l'objectif. Elle est malgré tout redimensionnée et n'est donc pas aussi « vraie » que dans un système reflex.
|
Appareils reflex
Prise de vue |
Le reflex affiche dans le viseur l'image exacte (sans conversion numérique, seulement par système optique). Cet avantage possède un point faible ; comme il y a un miroir qui se trouve devant le capteur, il est impossible, avant la prise de vue à l'aide du viseur, d'avoir une image sur l'écran.
|
Appareils reflex avec visée sur écran
Visée sur l'écran et prise de vue |
Ce système permet, avant et après la prise de vue, d'utiliser l'écran en lieu et place du viseur. Il est également utilisé pour prendre les vidéos.
|
|
À l'exception de certains modèles Sony, les principaux constructeurs d'appareils reflex comme Canon et Nikon, utilisent simplement le relevé du miroir. L'image se formant sur le capteur est alors envoyée vers l'écran arrière27. Cette configuration est également utilisée pour la prise de vue vidéo. L'utilisation de la visée sur écran avec un reflex présente des inconvénients spécifiques (en dehors de ceux communs à toute visée sur écran). En effet, lorsque le miroir est relevé, le système autofocus à détection de phase n'est plus opérationnel et c'est un système à détection de contraste, beaucoup moins rapide et efficace qui prend le relais28. Le reflex perd donc une partie de ses capacités essentielles. La visée sur écran offre néanmoins un certain intérêt pour photographier dans des positions ne permettant pas d'utiliser le viseur reflex.
Taille du capteur et qualité de l'image
La taille du
capteur d'un appareil de type compact est d'environ 25
mm2. Celle d'un appareil de type reflex peut aller de 225
mm2 à 864
mm2 et plus.
La taille du capteur d'image varie en fonction des appareils. Les appareils de type compact sont habituellement équipés d'un capteur de taille assez réduite par rapport à celle d'un film photographique. Les appareils de type reflex sont équipés d'un capteur de plus grande taille, ce qui augmente la qualité d'image, en diminuant le bruit numérique et en augmentant la sensibilité ainsi que la dynamique. Une augmentation de la taille du capteur entraîne aussi une diminution de la profondeur de champ.
On peut présenter schématiquement la situation comparative des capteurs numériques comme suit :
Tableau des tailles des différents capteurs29 |
Type | Largeur (mm) | Hauteur (mm) | Surface (mm²) |
1/3,6" |
4,00 |
3,00 |
12,0 |
1/3,2" |
4,54 |
3,42 |
15,5 |
1/3" |
4,80 |
3,60 |
17,3 |
1/2,7" |
5,37 |
4,04 |
21,7 |
1/2,5" |
5,76 |
4,29 |
24,7 |
1/2,3" |
6,16 |
4,62 |
28,5 |
1/2" |
6,40 |
4,80 |
30,7 |
1/1,8" |
7,18 |
5,32 |
38,2 |
1/1,7" |
7,60 |
5,70 |
43,3 |
2/3" |
8,80 |
6,60 |
58,1 |
Nikon CX |
13,2 |
8,8 |
116 |
1" |
12,8 |
9,6 |
123 |
Format 4/3 |
18,0 |
13,5 |
243 |
APS-C |
23,6 |
15,7 |
370 |
APS-H |
28,7 |
19,0 |
548 |
35 mm |
36 |
24 |
864 |
Dos |
48 |
36 |
1 728 |
À nombre de pixels identique, la taille du capteur à une influence directe sur la taille des photosites : plus le capteur est petit, et plus chaque photosite sera lui-même de petite taille. Or la taille des photosites influe (au moins) sur deux éléments touchant à la qualité des photographies :
- la sensibilité du capteur (de petits photosites recevront moins de photons, et le capteur sera sonc moins sensible, plus bruité) ;
- la diffraction sera d'autant plus marquée que les photosites seront petits. On admet généralement que cette diffraction devient sensible pour un diaphragme égal à trois fois le côté du photosite (exprimé en micromètres), soit f/22 (voire f/32) pour un plein format 24 × 36 de 12 millions de pixels (Mpx), mais f/16 pour un capteur APS-C de 12 Mpx également, et f/11 seulement pour un capteur APS-C de 24 Mpx, tel que celui du Sony Alpha 77 ().
Inconvénients actuels des appareils numériques
- Les appareils sont parfois encore gourmands en énergie. On peut utiliser des batteries rechargeables métal-hydrure du commerce, sans effet mémoire donc sans perte de capacité dans le temps, contrairement aux accumulateurs cadmium-nickel. Au début des années 2010, la plupart des appareils numériques sont livrés avec des batteries au lithium de capacité nettement supérieure à celles citées précédemment, sans effet mémoire. Une recharge permet de prendre entre 200 et 1500 photos suivant la capacité de la pile, l'emploi ou non du flash incorporé, l'affichage systématique ou non des images sur l'écran et le type d'appareil.
- En voyage, il faut pouvoir recharger fréquemment les batteries et prévoir une capacité de stockage importante pour les images. Ce problème est aujourd'hui beaucoup moins sensible avec la forte baisse de prix des cartes mémoire. On trouve des appareils de déchargement de fichiers qui comportent un disque dur de 20 à 750 Go pour les modèles les plus performants, avec ou sans affichage. Leur intérêt est désormais moindre avec la disponibilité de cartes mémoire de grande capacité (SDHC, SDXC). On peut aussi avoir un ordinateur portable pour le stockage et le tri de ses photos.
- Les appareils à objectif interchangeable sont très sensibles au problème de la poussière, d'autant que l'effet de soufflet produit par la bague de zoom aspire les particules à l'intérieur, qui viennent alors se déposer sur le capteur. Les solutions ou les approches sont diverses selon les marques :
- Pentax place devant le capteur un écran que l'on peut nettoyer. Le problème n'est que repoussé au moment où une poussière viendra s'intercaler entre l'écran et le capteur.
- Nikon et Kodak donnent des indications sur les méthodes de nettoyage du capteur. Le nouveau D300 dispose d'un système de nettoyage actif et le D3 d'un système passif.
- Canon propose dans le menu un nettoyage de capteur qui met celui-ci à nu pour un nettoyage par air. Certain appareils (comme le EOS 400D, 500D, 5D Mark II, 40D, 50D et EOS 1D Mark III) offrent un capteur autonettoyant.
- Olympus intègre à son E1 un vibreur à ultrasons faisant tomber la poussière sur un ruban adhésif.
- Presque toutes les marques suggèrent de ranger l'appareil objectif vers le bas (afin de favoriser la chute des poussières loin du capteur) et de ne changer l'objectif que dans une atmosphère raisonnablement propre.
- La vulnérabilité des capteurs, notamment les CCD, à la poussière est un problème complexe pour deux raisons principales. La petite taille des pixels favorise leur occultation, cette dernière est facilement visible sur les photos. La poussière très fine, plus difficile à maîtriser, est aussi la plus sujette à adhérence par effet de tension de surface.
- La plupart des appareils à visée reflex sont équipés d'un capteur dont la taille est inférieure au traditionnel format 24 × 36 mm des pellicules utilisées en photographie argentique. Par conséquent, il est nécessaire d'utiliser des objectifs d'une focale inférieure si l'on souhaite obtenir un cadrage équivalent au 24 × 36. L'« allongement relatif » de la focale est ainsi problématique lorsque l'on utilise des objectifs grand-angle conçus pour le 24 × 36 : le cadrage obtenu correspond à celui d'un objectif de focale supérieure en 24 × 36. Ce problème a surtout concerné les débuts de la photo numérique : depuis longtemps les constructeurs et les fabricants indépendants d'objectifs proposent des optiques grand angle étudiées pour les diverses tailles de capteur. Cet « inconvénient », résolu avec les capteurs « 35 mm » 24 × 36, peut être un avantage lors de l'utilisation d'un téléobjectif avec un APS : le cadrage obtenu sera en effet équivalent à celui d'un objectif d'une focale supérieure en 24 × 36. Inversement, les objectifs conçus pour des capteurs de taille inférieure au 24 x 36 auront un champ image insuffisant pour un capteur 24 × 36, créant un vignettage des bords et angles.
- L'immatérialité des images numériques pose le problème de leur pérennité : les photos numériques se conservent sur supports numériques, reconnus comme peu fiables sur le long terme. Toutefois, cette limitation est contrebalancée par la facilité à dupliquer les images sur différents supports de stockage, et de renouveler dans le temps cette duplication à intervalles réguliers. Ainsi la pérennité des images numériques peut devenir infinie.
- La faible dynamique des premiers capteurs qui imposait une exposition très précise : ce défaut rendait difficile la réalisation de photographies présentant de violents contrastes. Ce problème concernait toutefois principalement les appareils à petit capteur (compacts et bridges), la dynamique des grands capteurs (typiquement ceux des reflex) étant beaucoup plus élevée et leurs systèmes de calcul d'exposition très élaborés.
- La conception particulière des émulsions argentiques disposées sur l'épaisseur du film permettait d'exploiter une certaine tolérance sur mise au point. Sur les systèmes numériques la mise au point doit être faite de manière ultra-précise sur la surface du capteur, toute tolérance devenant interdite[réf. nécessaire].
La mauvaise description des noirs jusqu'à une période récente
En 2013, les appareils d'entrée de gamme restitueraient une dynamique de plus de 9 diaphragmes et les plus performant jusqu'à plus de 14 diaphragmes d'écart, égalant, voire dépassant, la photo argentique30. Mais au début de la photographie numérique, la description des valeurs foncées pouvait être très pauvre. Une photographie numérique restituait une dynamique lumineuse correspondant à environ cinq diaphragmes.
Par exemple, une image codée sur 8 bits (c'est le cas d'une image compressée en JPEG) produit 256 niveaux de gris (28). Fermer l'objectif de la valeur d'un diaphragme revient à diviser la quantité de lumière par deux, par conséquent, dans l'intervalle entre les deux diaphragmes les plus ouverts, on obtient 256 / 2 = 128 niveaux de gris. Dans l'intervalle suivant il ne restera plus que le quart (la moitié de la moitié) de quantité de lumière décrite par 128 / 2 = 64 niveaux de gris, et ainsi de suite jusqu'au quatrième et dernier intervalle qui lui ne sera plus décrit que par 16 niveaux de gris. Donc, dans l'intervalle le plus sombre, l'information est dégradée dans un ratio de un à huit par rapport à l'intervalle le plus clair. Les valeurs sombres manquent terriblement de définition et elles sont quasiment impossible à « éclaircir » dans le cadre d'un étalonnage.
Il fallait donc éviter absolument de sous-exposer ses prises de vue numériques. Si l'appareil le permettait, utiliser un mode qui permette d'avoir une profondeur d'information supérieure à huit bits : c'est le cas du format RAW. Le format RAW, en plus d'offrir des possibilités d'étalonnage très sophistiquées, permet de conserver la profondeur d'analyse du capteur. Cette profondeur, pour les reflex, était habituellement de 12 bits mais la plupart des modèles récents (à l'exception de l'entrée de gamme) offrent désormais 14 bits. En 14 bits l'intervalle entre les deux diaphragmes les plus foncés est décrit par 1 024 niveaux de gris.
Correction d'exposition
Cette expression est parfois remplacée par compensation d'exposition ou par compensation EV.
L'exposition du capteur numérique (ou du film sur un appareil argentique) est la quantité de lumière qu'il reçoit. Celle-ci croît avec l'augmentation du temps de pose et/ou celle de l'ouverture du diaphragme. Sur un appareil manuel, le photographe choisit ces deux paramètres tandis qu'un appareil automatique les choisit sans intervention de l'opérateur. Le capteur, pour un réglage de sensibilité donnée, par exemple 100 ISO, doit toujours recevoir la même quantité de lumière (un peu comme s'il s'agissait du seau à remplir d'eau systématiquement). Si le sujet est très clair on « ferme » donc le diaphragme (le robinet) et/ou on réduit le temps de pose (le temps d'ouverture du robinet).
Un appareil fonctionnant en exposition automatique donne des résultats acceptables dans bon nombre de circonstances. En cas d'erreur de l'automatisme, on obtient des zones sous et/ou surexposées, photo trop sombre ou trop claire, l'appareil ayant choisi une position moyenne qui ne satisfait pas le photographe. Ainsi, on peut photographier des fleurs dont les corolles, qui présentent des nuances claires dans la nature, deviennent uniformément blanches sur la photo. L'explication réside dans le fait que l'exposition est plus influencée par le fond sombre majoritaire sur lequel se détachent les fleurs claires : le fond est ainsi techniquement éclairci au détriment du sujet et, pour obtenir une photo plus satisfaisante, il faudrait ordonner à l'appareil de réduire l'exposition. Le cas inverse se présente lorsqu'on photographie sur la neige un sujet qui devient excessivement foncé et la neige grise.
C'est le rôle de la correction qui existe sur beaucoup d'appareils. Pratiquement, elle est en général définie par des nombres variant entre -2 (sous-exposer) et +2 (sur-exposer). Ces nombres s'interprètent en termes de variation du diaphragme ou du temps de pose : -1 correspond à une division par 2 de celui-ci, +2 à une multiplication par 4. Le meilleur moyen de contrôler ses prises de vues en photo numérique, pour voir si on a besoin d'une correction d'exposition, est de vérifier le rendu d'une photo sur l'écran de l'appareil.
Balance des blancs
Un corps blanc est un corps qui réfléchit toutes les lumières, toutes les couleurs. Il paraît donc blanc en lumière blanche et rouge en lumière rouge.
Un corps blanc peut paraître blanc aussi bien sous un éclairage incandescent que sous un ciel gris. Les physiciens savent que le premier éclairage produit une lumière rougeâtre tandis que le second produit une lumière bleuâtre. Cette différence de couleur de la lumière est mesurée en termes de température de couleur. C'est le cerveau qui interprète et corrige, jusqu'à un certain point, les couleurs vues par les yeux. Cette interprétation du cerveau a des limites. Ainsi, on peut être plus ou moins choqué par une photo d'intérieur avec une dominante rouge ou une photo d'extérieur avec une dominante bleue. La balance des blancs est perçue comme fausse (cela se remarque aussi dans certaines vidéos ou à la télévision lorsque des visages sont trop rouges ou trop pâles, voire bleus).
En photographie argentique, ce problème se résout en utilisant des films ou des filtres adaptés à tel ou tel type d'éclairage et peut être affiné au laboratoire au moment du tirage sur papier.
En photographie numérique, le calculateur se contente de modifier quelques valeurs, ce qui est une méthode beaucoup plus souple. Ainsi, le photographe a généralement accès aux réglages « Incandescent », « Luminescent », « Flash », « Soleil », « Ombre », « Nuages », etc. Deux autres positions sont disponibles. La position « Auto » tente d'imiter l'ajustement effectué par le cerveau, semble-t-il avec succès dans de nombreux cas. À l'opposé, la position « Blanc mesuré » est commode pour des éclairages hors du commun (on cite souvent le cas d'une pièce éclairée à la fois par des ampoules et des tubes fluorescents, ou le cas d'une pièce éclairée par la lumière du jour à travers une fenêtre et celle d'une ou plusieurs ampoules). Pour ce paramétrage, il suffit de viser un papier blanc situé sous l'éclairage et de déclencher. Cette photo, d'un blanc par définition sous l'éclairage ambiant, est utilisée pour obtenir le bon étalonnage pour les photos suivantes. Une photo numérique peut in fine voir sa balance des blancs encore affinée avec un logiciel de traitement de l'image.
Notes et références
- (en) : histoire du CCD [archive]
- Le premier appareil photo numérique [archive] - La boite verte, 2 août 2010
- Le premier appareil photo numérique inventé par Kodak [archive], sur le site tendancebleue.com
- « Histoire de la photo numérique » [archive], sur christian-roux.ch
- « Le Canon RC-701 » [archive]
- « Le Nikon F4 de la NASA » [archive], sur nikonweb.com
- (en) : présentation du Casio QV10 (page internet d'époque) [archive], sur le site inventors.about.com
- Histoire de la photographie numérique : 1997-Mavica FD7 [archive], sur le site christian-roux.ch.
- (en) Sony Mavica FD7 : zoom 10x [archive], sur le site interment.net.
- Histoire de la photographie numérique [archive], sur le site christian-roux.ch.
- Présentation du D1 [archive], sur le site apphotnum.free.fr.
- [PDF] Bilan et Analyses de l’année 2002 [archive] SIPEC (syndicat des entreprises de commerce international de matériels photo et cinéma-vidéo), avril 2003
- « Histoire des APN » [archive], sur christian-roux.ch
- « Le Konica Minolta Maxxum 7D » [archive]
- (en) Kodak lets light shine in with fourth-pixel advance [archive] - EE Times, 14 juin 2007
- Présentation du G1, premier PAN hybride [archive], sur le site lesnumeriques.com.
- M9 [archive], sur le site leica-camera.com
- Nikon D90 [archive], sur le site lesnumeriques.com
- Le Finepix REAL 3D W3 [archive], sur le site lesnumeriques.com
- Nikon dévoile sa gamme one [archive], sur le site pampuri.net
- Histoire de la photographie numérique : 2012-Canon EOS 1D-C [archive], sur le site christian-roux.ch
- « Nikon P510 avec zoom 42x » [archive], sur lemondedelaphoto.com
- (en) « First competition for the GH4 has been announced. Sony A7s » [archive].
- « Présentation du Sony Alpha 7 II » [archive], sur Les Numériques.
- « Photokina 2014 : bilan et perspectives » [archive], sur Focus Numerique.
- En Belgique francophone, on utilise cette appellation pour les appareils non reflex mais à objectifs interchangeables. Voir par exemple le premier modèle du genre : Panasonic Lumix DMC-G1 et la page Appareil photographique hybride
- John Hedgecoe (trad. de l'anglais), Le nouveau manuel de la photographie, Paris, Pearson, , 416 p. (ISBN 978-2-7440-9247-3, BNF 42021244), p. 29
- Tom Ang, Toute la photo, Paris, Dunod, , 695 p. (ISBN 978-2-7429-2106-5, BNF 38566800), p. 76
- (en) Vincent Bockaert, « Sensor sizes » [archive], Digital Photography Review
Annexes
Sur les autres projets Wikimedia :
Bibliographie
- André Gunthert, L’image partagée, la photographie numérique, éditions Textuel, 2015 (ISBN 9782845975309).
Articles connexes