Eau
Pour les articles ayant des titres homophones, voir O, Au et Aux.
Eau |
|
|
Identification |
Nom UICPA |
eau |
Synonymes |
monoxyde de dihydrogène, oxyde d'hydrogène, hydrogénol, hydroxyde d'hydrogène, oxyde dihydrogéné, oxydane
|
No CAS |
7732-18-5 |
No ECHA |
100.028.902 |
No CE |
231-791-2 |
PubChem |
962 |
ChEBI |
15377 |
SMILES |
|
InChI |
|
Apparence |
liquide incolorea, inodore et insipide |
Propriétés chimiques |
Formule |
H2O [Isomères] |
Masse molaire2 |
18,015 3 ± 0,000 4 g/mol H 11,19 %, O 88,81 %, 18,015 28 g mol−1 |
pKa |
pKe = 14,0 |
Moment dipolaire |
1,8546 D |
Indice d’iode |
gI2 100g−1 |
Indice d’acide |
mgKOH g−1 |
Indice de saponification |
mgKOH g−1 |
Propriétés physiques |
T° fusion |
0 °C à 1,013 25 bar |
T° ébullition |
100 °C à 1,013 25 bar3, 100,02 °C ± 0,044 |
Solubilité |
g l−1 |
Masse volumique |
1 000,00 kg m−3 à 4 °C 998,30 kg m−3 à 20 °C 958,13 kg m−3 à 100 °C (liquide) 726,69 kg m−3 à 300 °C - 15,5 MPa3 |
Pression de vapeur saturante |
6,112 mbar (glace, 0 °C)5
12,4 mbar (10 °C) 23,4 mbar (20 °C) 42,5 mbar (30 °C) 73,8 mbar (40 °C) 123,5 mbar (50 °C) 199,4 mbar (60 °C)6
|
Viscosité dynamique |
1,002 × 10−3 Pa s à 20 °C 0,547 × 10−3 Pa s à 50 °C 0,281 8 × 10−3 Pa s à 100 °C (liquide) 0,080 4 × 10−3 Pa s à 300 °C - 15 MPa3 |
Point critique |
374,15 °C, 22,12 MPa3,4 |
Point triple |
0,01 °C, 611,2 Pa3,4 |
Conductivité thermique |
0,604 W m−1 K−1 à 20 °C |
Vitesse du son |
1 497 m s−1 à 25 °C8 |
Thermochimie |
S0gaz, 1 bar |
188,7 J K−1 mol−1 |
S0liquide, 1 bar |
69,9 J K−1 mol−1 |
S0solide |
J K−1 mol−1 |
ΔfH0gaz |
−241,818 kJ mol−1 |
ΔfH0liquide |
−285,83 kJ mol−1 |
ΔfH0solide |
−291,84 kJ mol−1 |
ΔfusH° |
6,01 kJ mol−1 |
ΔvapH° |
44,2 kJ mol−1 à 20 °C, 43,990 kJ mol−1 à 25 °C, 40,657 kJ mol−1 à 100 °C, 2,26 MJ kg−1 à 100 °C |
Cp |
4 185,5 J kg−1 K−1 à 15 °C et 101,325 kPa, 75,403 J mol−1 K−1 à 15 °C et 101,325 kPa, 75,366 J mol−1 K−1 à 20 °C et 101,325 kPa, 75,291 J mol−1 K−1 à 25 °C et 101,325 kPa |
PCS |
kJ mol−1 |
PCI |
kJ mol−1 |
Propriétés optiques |
Indice de réfraction |
1,33 |
Constante de Verdet |
4,10 rad T−1 m−1 à 480 nm9 |
Écotoxicologie |
DL50 |
> 90 ml kg−1 (rat, oral)10 |
|
Unités du SI et CNTP, sauf indication contraire. |
modifier |
L'eau est une substance chimique constituée de molécules H2O. Ce composé, très stable, mais aussi très réactif, est un excellent solvant à l'état liquide. Dans de nombreux contextes, le terme eau est employé au sens restreint d'eau à l'état liquide, ou pour désigner une solution aqueuse diluée (eau douce, eau potable, eau de mer, eau de chaux, etc.).
L'eau est ubiquitaire sur Terre et dans l'atmosphère, sous ses trois états, solide (glace), liquide et gazeux (vapeur d'eau). L'eau extraterrestre est également abondante, sous forme de vapeur d'eau dans l'espace et sous forme condensée (solideb ou liquide) à la surface, près de la surface ou à l'intérieur d'un grand nombre d'objets célestes.
L'eau est un constituant biologique important, essentiel sous sa forme liquide pour tous les organismes vivants connusc. Compte tenu de son caractère vital, de son importance dans l'économie et de sa répartition inégale sur Terre, l'eau est une ressource naturelle dont la gestion est l'objet de forts enjeux géopolitiques.
Généralités
L'eau est présente sur Terre sous ses trois états : liquide, solide (
glace) et gazeux (
vapeur d'eau). La vapeur d'eau, invisible, est un composant de l'air. Les
nuages sont des accumulations de gouttelettes d'eau dans l'air.
La formule chimique de l’eau pure est H2O. L’eau que l’on trouve sur Terre est rarement un composé chimique pur, l’eau courante étant une solution d'eau, de sels minéraux et d'autres impuretés. Les chimistes utilisent de l'eau distillée pour leurs solutions, mais cette eau n'est pure qu'à 99 % : il s'agit encore d'une solution aqueuse.
Majoritairement observable sur Terre à l'état liquide, elle possède les propriétés d'un puissant solvant : elle dissout facilement et solubilise rapidement de nombreux corps sous forme d'ions, ainsi que de nombreuses autres molécules gazeusesd, et par exemple les composants de l'air, en particulier l'oxygène ou le dioxyde de carbone. L'expression « solvant universel »11 est toutefois sujette à maintes précautions, beaucoup de matériaux naturels (roches, métaux, etc.) étant non solubles dans l'eau (dans la plupart des cas ou de manière infime).
La surface de la Terre est recouverte à 71 % d’eau12 (97 % d’eau salée et 3 % d’eau douce dans différents réservoirs) sous différentes formes :
- liquide, dans les océans, les lacs, les fleuves et les rivières. Ailleurs que dans les zones humides plus ou moins tourbeuses ou marécageuses, dans les mers et océans, l'eau est présente dans les lagunes, lacs, étangs, mares, fleuves, rivières, ruisseaux, canaux, réseaux de fossés, de watringues ou comme eau interstitielle du sol ;
- gazeuse, sous forme de vapeur d'eau dans l'air. L'humidité de l'air provient de l'évaporation des mers, des plans d'eau et de l'évapotranspiration des plantes ;
- solide, sous forme de glace dans les glaciers dans la banquise, les icebergs, etc.
La circulation de l’eau au sein des différents compartiments terrestres est décrite par le cycle de l'eau. En tant que composé essentiel à la vie, l’eau a une grande importance pour l'Homme13 mais aussi pour toutes les espèces végétales et animales. Source de vie et objet de culte depuis les origines de l'Homme, l'eau est conjointement, dans les sociétés d'abondance comme la France, un produit de l'économie et un élément majeur de l'environnement.
Le corps humain est composé à 65 % d’eau pour un adulte, à 75 % chez les nourrissons et à 94 % chez les embryons de trois jours. Les cellules, quant à elles, sont composées de 70 % à 95 % d'eau. Les animaux sont composés en moyenne de 60 % d'eau et les végétaux à 75 %. On trouve néanmoins des extrêmes : la méduse (98 %) et la graine (10 %)14. L'eau de boisson passe la barrière intestinale et est diffusée par les réseaux sanguins et lymphatiques. Dans les membranes cellulaires, des pores spéciaux dits aquaporines permettent le passage de l'eau de part et d'autre de la membrane, tout en empêchant les ions de pénétrer dans la cellule. En 2009, environ 500 aquaporines étaient identifiées chez les plants et animaux, dont 1315 chez l'humain. Ces pores protéiques complexes « trient » les molécules ayant la même taille que la molécule d’eau, et ne laissent passer que l'eau16.
L'eau a la propriété particulière de présenter une anomalie dilatométrique : sa phase solide est moins dense que sa phase liquide, ce qui fait que la glace flotte17.
Étymologie et usage du mot
Le terme eau est un dérivé très simplifié du latin aqua via les langues d'oïl. Le terme aqua a été ensuite repris pour former quelques mots comme aquarium. Un mélange aqueux est une solution dont le solvant est l'eau. Le préfixe hydro dérive quant à lui du grec ancien ὕδωρ (hudôr) et non pas de ὕδρος (hudros) lequel signifie « serpent à eau » (d'où l'hydre ).
Par « eau », on comprend souvent liquide incolore constitué en majorité d'eau, mais pas uniquement d'eau pure. Suivant sa composition chimique qui induit son origine ou son usage, on précise :
- eau minérale, eau de Seltz, eau de source, eau de mer, eau douce, eau potable, eau de pluie, eau du robinet, eau de table, eau gazeuse, eau plate, etc. ;
- en chimie, on parle d'eau lourde, eau tritiée, eau dure, eau distillée ;
- pour un usage plus ancien, on parle de l'eau-forte pour l’acide nitrique dilué, de l'eau régale pour un mélange d'acides qui dissout l'or, mais aussi d'eau-de-vie constituée d'éthanol dilué d'eau potable ;
- une femme perd ses eaux avant l'accouchement.
Géophysique : l'eau sur Terre et dans l'Univers
Cascades de Jonathan’s Run.
L'eau dans l'Univers
L'eau a été trouvée dans des nuages interstellaires dans notre galaxie, la Voie lactée. On pense que l'eau existe en abondance dans d'autres galaxies aussi, car ses composants, l'hydrogène et l'oxygène, sont parmi les plus abondants dans l'Univers.
Les nuages interstellaires se concentrent éventuellement dans des nébuleuses solaires et des systèmes stellaires tels que le nôtre. L'eau initiale peut alors être trouvée dans les comètes, les planètes, les planètes naines et leurs satellites.
La forme liquide de l'eau est seulement connue sur Terre, bien que des signes indiquent qu'elle soit (ou ait été) présente sous la surface d'Encelade, l'un des satellites naturels de Saturne, sur Europe et à la surface de Mars. Il semblerait qu'il y ait de l'eau sous forme de glace sur la Lune en certains endroits, mais cela reste à confirmer. La raison logique de cette assertion est que de nombreuses comètes y sont tombées et qu'elles contiennent de la glace, d'où la queue qu'on en voit (quand les vents solaires les touchent, laissant une traînée de vapeur). Si l'on découvre de l'eau en phase liquide sur une autre planète, la Terre ne serait alors peut-être pas la seule planète que l'on connaît à abriter la vie.
Origine de l'eau sur Terre
Les avis divergent sur l'origine de l’eau sur la Terre.
Formes de l'eau sur Terre
Le cycle de l'eau (connu scientifiquement sous le nom de cycle hydrologique) se rapporte à l'échange continu de l'eau entre l'hydrosphère, l'atmosphère, l'eau des sols, l'eau de surface, les nappes phréatiques et les plantes.
L'eau liquide est trouvée dans toutes sortes d'étendues d'eau, telles que les océans, les mers, les lacs, et de cours d'eau tels que les fleuves, les rivières, les torrents, les canaux ou les étangs. La majorité de l'eau sur Terre est de l'eau de mer. L'eau est également présente dans l'atmosphère en phase liquide et vapeur. Elle existe aussi dans les eaux souterraines (aquifères).
Répartition de l'eau sur Terre
Volume d'eau contenu dans
les différents réservoirs18
Réservoirs | Volume (106 km3) | Pourcentage du total |
Océans |
1 320 |
97,25 |
Calottes glaciaires et glaciers |
29 |
2,05 |
Eau souterraine |
9,5 |
0,68 |
Lacs |
0,125 |
0,01 |
Humidité des sols |
0,065 |
0,005 |
Atmosphère |
0,013 |
0,001 |
Fleuves et rivières |
0,0017 |
0,000 1 |
Biosphère |
0,000 6 |
0,000 04 |
Le volume approximatif de l'eau de la Terre (toutes les réserves d'eau du monde) est de 1 360 000 000 km3. Dans ce volume :
- 1 320 000 000 km3 (97,2 %) se trouvent dans les océans ;
- 25 000 000 km3 (1,8 %) se trouvent dans les glaciers et les calottes glaciaires ;
- 13 000 000 km3 (0,9 %) sont des eaux souterraines ;
- 250 000 km3 (0,02 %) sous forme d'eau douce dans les lacs, les mers intérieures et les fleuves ;
- l'équivalent de 13 000 km3 (0,001 %) d'eau liquide sous forme de vapeur d'eau atmosphérique à un moment donné.
Si la fraction d'eau sous forme gazeuse est marginale, la Terre a perdu au cours de son histoire un quart de son eau dans l'espace19.
On sait depuis 2014 qu'une partie notable du manteau terrestre principalement constituée de ringwoodite, entre 525 et 660 km de profondeur, pourrait contenir jusqu'à trois fois le volume d'eau des océans actuels (et en serait la source principale). La quantification n'est pas encore définitive mais pourrait faire varier énormément le volume d'eau disponible sur Terre, même si son exploitabilité et sa disponibilité spontanée sont douteuses20,21.
Rôle de l'eau dans l'apparition de la vie
L'eau liquide semble avoir joué, et continue à jouer, un rôle primordial dans l'apparition et la persistance de la vie sur Terre. La forme liquide, contrairement aux états gazeux ou solide, maximise les contacts entre atomes et molécules, augmentant de fait leurs interactions. L'eau est une molécule polaire et un bon solvant, capable de solubiliser de nombreuses molécules. Le cycle de l'eau joue un rôle majeur, notamment par l'érosion des continents, qui permet d'apporter de grandes quantités de minéraux nécessaires à la vie dans les rivières, les lacs et les océans. Le gel de l'eau permet d'éclater les roches et augmente la disponibilité de ces minéraux22.
L'eau durant l'« Anthropocène »
Durant l'« Anthropocène »23, l'humanité a bouleversé le cycle de l'eau, par la surexploitation de certaines nappes, la déforestation, le dérèglement climatique, la canalisation de grands cours d'eau, les grands barrages, l'irrigation à grande échelle24. Elle l'a fait à une vitesse et à une échelle qui ne sont pas comparables avec les événements historiques passés, et avec des effets qui dépassent ceux des grandes forces géologiques24.
Propriétés
Propriétés physiques
Une main dans l'eau courante. La distorsion est due à la
réfraction.
Générales
La température de vaporisation de l'eau dépend directement de la pression atmosphérique, comme le montrent ces formules empiriques :
- pression normalisée dans la troposphère (0–11 km) :
- P r e s s i o n [ P a ] = 101 325 × ( 288 , 15 − 0 , 0065 × A l t i t u d e [ m ] 288 , 15 ) 5 , 255
- P o i n t d ′ e ´ b u l l i t i o n [ K ] ≈ 26 , 307 × ln ( P r e s s i o n [ P a ] ) + 69 , 771
Son point d'ébullition est élevé par rapport à un liquide de poids moléculaire égal. Ceci est dû au fait qu'il faut rompre jusqu'à trois liaisons hydrogène avant que la molécule d'eau puisse s'évaporer. Par exemple, au sommet de l'Everest, l'eau bout à environ 68 °C, à comparer aux 100 °C au niveau de la mer. Réciproquement, les eaux profondes de l'océan près des courants géothermiques (volcans sous-marins par exemple) peuvent atteindre des températures de centaines de degrés et rester liquides.
L'eau est sensible aux fortes différences de potentiel électrique. Il est ainsi possible de créer un pont d'eau liquide de quelques centimètres entre deux béchers d'eau distillée soumis à une forte différence de potentiel25.
Un nouvel « état quantique » de l’eau a été observé quand les molécules d’eau sont alignées dans un nanotube de carbone de 1,6 nanomètre de diamètre et exposées à une diffusion de neutrons. Les protons des atomes d’hydrogène et d’oxygène possèdent alors une énergie supérieure à celle de l’eau libre, en raison d’un état quantique singulier. Ceci pourrait expliquer le caractère exceptionnellement conducteur de l’eau au travers des membranes cellulaires biologiques26.
Radioactivité : elle dépend des métaux et minéraux et de leurs isotopes présent dans l'eau, et peut avoir une origine naturelle ou artificielle (retombées des essais nucléaires, pollution radioactive, fuites, etc.). En France, elle est suivie par l'Institut de radioprotection et de sûreté nucléaire (IRSN), y compris pour l'eau du robinet27.
L'eau comme fluide thermodynamique
L'eau est un fluide thermodynamique d'usage courant, efficace et économique3 :
- l'eau est stable en température jusqu'à une valeur élevée ;
- l'eau a une masse volumique maximale de 1 000 kg/m3 (soit 1 kg/l à l'origine la définition du kilogramme ; exactement 999,975 kg/m3 à 3,98 °C) ;
- l'eau a la capacité thermique à pression constante la plus élevée de tous les liquides (75,711 J mol−1 K−1 soit 4,202 6 kJ kg−1 K−1 à 20 °C). Les océans sont de bons accumulateurs de la chaleur ;
- l'eau a une très faible conductivité thermique (0,604 W/(m⋅K) à 20 °C) ;
- l'eau a la chaleur latente d'évaporation la plus élevée de tous les liquides (44,22 kJ/mol soit 2 454,3 kJ/kg à 20 °C), d'où l'efficacité de la transpiration comme moyen de rafraîchissement ;
- l'eau a une chaleur latente de fusion élevée (6,00 kJ/mol soit 333,0 kJ/kg) ;
- l'eau a la tension superficielle la plus élevée de tous les liquides (72 mN/m à 20 °C) à l'exception du mercure ; dans l'air humide, la formation de gouttelettes est facilitée ; l'eau monte dans un tube capillaire, telle la sève dans les arbres ;
- l'eau est transparente à la lumière visible, ainsi les organismes aquatiques peuvent vivre car la lumière du soleil peut les atteindre ; elle est cependant opaque au rayonnement infrarouge, absorbé par l'hydrogène, l'oxygène et leur liaison ;
- La couleur de l'eau est naturellement bleue en raison de sa vibration moléculaire.
Radiolyse
La radiolyse de l'eau est la dissociation, par décomposition chimique de l'eau (H2O) (liquide ou de vapeur d'eau) en hydrogène et hydroxyle respectivement sous forme de radicaux H· et HO·, sous l'effet d'un rayonnement énergétique intense (rayonnement ionisant). Elle a été expérimentalement démontrée il y a environ un siècle. Elle se fait en passant par plusieurs stades physicochimiques et à des conditions particulières de température et de pression, de concentration du soluté, de pH, de débit de dose, de type et énergie du rayonnement, de présence d'oxygène, de nature de la phase de l'eau (liquide, vapeur, glace). C'est un phénomène encore incomplètement compris et décrit qui pourrait, dans le domaine du nucléaire, des voyages dans l'espace ou pour d'autres domaines, avoir dans le futur des applications techniques nouvelles, entre autres pour la production d'hydrogène28.
Référence dans le système métrique
Référence massique
À l’origine, un décimètre cube (litre) d’eau définissait une masse de un kilogramme (kg). L’eau avait été choisie car elle est simple à trouver et à distiller. Dans notre système actuel de mesure – le Système international d'unités (SI) – cette définition de la masse n’est plus valable depuis 1889, date à laquelle la première Conférence générale des poids et mesures définit le kilogramme comme la masse d’un prototype de platine iridié conservé à Sèvres. Aujourd’hui à 4 °C, la masse volumique est de 0,999 95 kg/L. Cette correspondance reste donc une excellente approximation pour tous les besoins de la vie courante.
Référence de température
- Le système centigrade défini par Celsius (légèrement différent du degré Celsius actuel - voir ci-dessous) fixe le degré 0 sur la température de la glace fondante et définit comme degré 100 la température de l’eau en ébullition sous pression atmosphérique normalee. L’échelle est ensuite graduée de 0° à 100°. C’est ainsi que la température normale du corps humain est en moyenne de 37 °C.
- Le système Fahrenheit fixe originellement le point de solidification de l’eau à 32 °F et son point d’ébullition à 212 °F ; il est désormais aligné sur la température Celsius selon la formule T[°F] = 1,8 T[°C] + 32, la différence avec la première définition étant extrêmement faible.
- Le système kelvin sert pour la mesure absolue de la température thermodynamique ; son unité était jusqu'en 2019 égale à 1/273,16 fois la température absolue du point triple de l’eau (laquelle vaut donc, par réciproque de la définition, 0,01 °C).
- Le système Celsius est défini arbitrairement par une translation d'exactement 273,15 unités par rapport au kelvinf, pour se rapprocher au plus près du degré centigradeg.
Référence de densité
Propriétés chimiques
Forme
Modèles des liaisons hydrogène de l'eau.
La molécule d'eau possède une forme coudée due à la présence de deux doublets non-liants : les deux orbitales non-liantes et les deux orbitales liantes (liaisons O−H) se repoussent et s'approchent de la symétrie tétraédrique (en) que réalisent les quatre orbitales liantes de la molécule CH4. Elle possède donc une structure tétraédrique (type AX2E2 en méthode VSEPR) ; l'angle H-O-H est de 104,5°h et la distance interatomique dO-H vaut 95,7 pm soit 9,57 × 10−11 m.
Polarité
L'eau étant une molécule coudée, sa forme joue un rôle important dans sa polarité. En effet, du fait de sa forme coudée, les barycentres des charges partielles positives et négatives ne sont pas superposés. Cela entraîne une répartition inégale des charges ce qui donne à l'eau ses propriétés de molécules polaires29.
De là il vient que :
- l'électronégativité de l'atome O étant plus haute que celle de H, il y a une polarisation de cette molécule, ce qui en fait un bon solvant. Elle possède, en règle générale, un dipôle électrique permanenti. La polarité de la molécule H2O lui permet de réaliser des liaisons hydrogène intermoléculaires (+20 -25 kJ/mol). Les liaisons hydrogène sont des liaisons faibles, donc très mobiles, qui donnent à l'eau une structure ordonnée à l'origine de ses propriétés particulières ;
- on observe 2 charges partielles négatives (δ−), sur les doublets non liants de l'oxygène qui forment chacune une liaison hydrogène avec un atome d’hydrogène d'une autre molécule portant charge partielle positive (δ+) ;
- et une charge partielle positive (δ+), sur chaque atome d'hydrogène ce qui permet des liaisons hydrogène avec un oxygène d'une autre molécule portant une charge (δ−).
Ce qui explique, par exemple la forme particulièrement ordonnée des cristaux de glace. À quantité égale, la glace flotte sur l'eau (sa densité solide est plus faible que celle liquide).
Solvant
L'eau est un composé amphotère, c'est-à-dire qu'elle peut être une base ou un acide. L'eau peut être protonée, c'est-à-dire capter un ion H+ (autrement dit un proton, d'où le terme protonée) et devenir un ion H3O+ (voir Protonation). À l'inverse, elle peut être déprotonée, c'est-à-dire qu'une autre molécule d'eau peut capter un ion H+ et la transformer en ion OH−. Cependant, ces réactions se produisent très rapidement et sont minimes.
- 2H2O → H3O+ + HO−
Les solvants protiques ou polaires y sont solubles (grâce aux liaisons hydrogène) et les solvants aprotiques ou non-polaires ne le sont pas.
Alimentation humaine
L’eau est le principal constituant du corps humain. La quantité moyenne d’eau contenue dans un organisme adulte est d'environ 65 %, ce qui correspond à environ 45 litres d’eau pour une personne de 70 kilogrammes. Ce pourcentage peut néanmoins varier, plus une personne est maigre, plus la proportion d’eau de son organisme est importante. L'eau dépend également de l’âge : elle diminue avec les années, car plus les tissus vieillissent, plus ils se déshydratent, l’eau étant remplacée par de la graisse.
Dans l’organisme la concentration en eau varie d'un organe à l’autre et selon les cellules31 :
L'organisme humain a besoin d'environ 2,5 litres d'eau par jour (1,5 litre sous forme liquide et 1 litre acquis dans la nourriture absorbée), davantage en cas d'exercice physique ou de forte chaleur ; il ne faut pas attendre d'avoir soif pour en absorber, surtout pour les femmes enceintes et pour les personnes âgées chez qui la sensation de soif est retardée. Sans eau, la mort survient après 2 à 5 jours, sans fournir aucun effort (40 jours sans nourriture en étant au repos).
Chaque jour l'organisme absorbe en moyenne32,j :
Chaque jour, l'organisme en rejette33,j :
- 1 à 2 litres par l'urine (avec un minimum de 0,5 litre pour une personne correctement hydratée en conditions normales) ;
- 0,45 litre par la perspiration et la transpiration (valeurs augmentées avec la chaleur et/ou à l'activité physique) ;
- 0,3 litre (± 20 %) à 0,55 litre (± 10 %) dans un contexte d'activité physique, par la respiration ;
- 0,15 litre (± 10 %) par les selles.
Robinet d'eau public avec pompe manuelle.
L’accès à l’eau est un besoin vital pour toutes les espèces connues mais nombreux sont les animaux qui n’apprécient pas son contact direct.
On distingue huit types :
Les contrôles de qualité y recherchent d'éventuels polluants et substances indésirables, dont depuis peu, des médicaments, résidus de médicaments ou perturbateurs endocriniens34 pour limiter les risques environnementaux et sanitaires des résidus de médicaments sur les milieux aquatiques.
Production d'eau potable
Appareil de purification de l'eau au
XIXe siècle.
De l'eau relativement pure ou potable est nécessaire à beaucoup d’applications industrielles et à la consommation humaine.
En France, le nombre de paramètres qualitatifs de la potabilité est passé entre 1989 et 2003 de 63 à 48 dont 2 paramètres microbiologiques, 26 paramètres chimiques, 18 paramètres indicateurs et 2 paramètres de radioactivité. Rapporté aux quelque 143 000 substances chimiques présentes en Europe, le taux de contrôle est donc de moins de 0,02 %35.
Eau du robinet et eau en bouteille
Corporation des officiers des eaux de Paris.
La communication des acteurs de la chaîne de l'eau en France aborde souvent l'opposition entre consommation d'eau en bouteille ou du robinet, qui est source de quelques polémiques :
- les producteurs d'eau en bouteille mettent en avant la qualité gustative de cette eau (absence de nitrate, entre autres) et l'absence de métaux lourds (plomb, etc.) parfois retrouvés dans l'eau du robinet en présence de canalisations anciennes. Les enjeux économiques relatifs à la commercialisation de l'eau en bouteille ont parfois conduit à distinguer le calcaire et le carbonate de calcium CaCO3 en réalité identiques ; le calcaire étant aussi composé de carbonate de magnésium MgCO3, et tous deux indispensables à l'organisme ;
- les distributeurs d'eau du robinet mettent en avant le mauvais écobilan des bouteilles en plastique (pollution à la production, libération de produits chimiques lors de périodes de chauffe) et de leur transport, etc., ainsi que le coût, plus élevé, de l'eau en bouteille.
En France, les deux types d'eau contiennent des polluants36.
Par ailleurs, l'eau sert aussi à nettoyer la nourriture et les vêtements, à se laver mais aussi pour remplir des piscines (et il faut 60 m3 d'eau pour remplir une piscine privée moyenne37).[source insuffisante]
Prélèvements et consommation par secteur
En France, de 2008 à 2015 les distributeurs d'eau de France métropolitaine fournissent environ 5,5 milliards de mètres cubes d’eau potable par an38, soit, en moyenne, 85 m3 par habitant et par an38, ou 234 litres d’eau par personne et par jour38 dont un tiers vient des eaux de surface38 (20 % de cette eau est perdue via les fuites du réseau de distribution38) ; et au total « plusieurs dizaines de milliards de m3 d’eau sont prélevés chaque année »39 et utilisés comme eau potable (embouteillée ou non), mais aussi pour l'irrigation, l'industrie, l'énergie, les loisirs, le thermalisme, les canaux, l'entretien de voiries, la production de neige artificielle ou bien d'autres activités, mais c'est la production d'énergie qui en utilise le plus (59 % de la consommation totale) devant la consommation humaine (18 %), l'agriculture (irrigation) (12 %) et l'industrie (10 %)40. Une banque nationale des prélèvements sur l'eau41 (BNPE) est disponible en ligne pour le grand-public comme les experts depuis 2015. Elle doit permettre le suivi des prélèvements quantitatifs (par environ 85 000 ouvrages connus en 2015) et d'évaluer la pression sur la ressource en eau (métropole et outre-mer français), avec des données détaillées ou de synthèse téléchargeables (mais « encore à consolider » en 2015)42).
D'un point de vue économique, le secteur de l'eau est généralement considéré comme partie prenante du secteur primaire car exploitant une ressource naturelle ; il est même parfois agrégé au secteur agricole43.
Secteur domestique
Secteur agricole
L’agriculture est le premier secteur de consommation d’eau, notamment pour l’irrigation.
En France, l’agriculture absorbe plus de 70 % de l’eau consommée44, ce qui peut s’expliquer par différentes raisons :
- l’élevage dont le régime alimentaire implique la mobilisation de grandes quantités d’énergie et d’eau par ration produite ;
- l’irrigation massive dans le but d’assurer des rendements maximaux pour des cultures nécessitant énormément d'eau44 ;
- l’accroissement de la population qui nécessite la production de plus grandes quantités de denrées alimentaires ;
- des régimes alimentaires plus riches dus à une orientation croissante du mode de vie « à l’occidentale ».
De ce fait, au début des années 1960, les agriculteurs, pour accroître de manière conséquente leurs rendements, ont eu recours à l’agriculture intensive (utilisation d’engrais chimiques, de pesticides et de produits phytosanitaires). Cette agriculture intensive a eu pour conséquence de polluer les eaux des sols avec de fortes concentrations en azote, phosphore et molécules issues des produits phytosanitaires44. Aujourd’hui, les traitements pour éliminer ces polluants sont complexes, onéreux et souvent difficiles à appliquer. Par conséquent, on s’oriente vers d’autres pratiques agricoles plus respectueuses de l’Homme et de l’environnement comme l’agriculture « intégrée » ou « biologique ». L'agroforesterie et les bocages sont des solutions pour construire des micro-climats et permettre la circulation de l'eau jusqu'à l'intérieur des terres grâce aux phénomènes d'évapotranspiration des végétaux. Pour exemple un hectare de hêtraie, qui consomme de 2 000 à 5 000 tonnes d’eau par an, en restitue 2 000 par évaporation45.
Secteur industriel
L’eau est aussi utilisée dans nombre de processus industriels et de machines, telles que la turbine à vapeur ou l’échangeur de chaleur. Dans l'industrie chimique, elle est utilisée comme solvant ou comme matière première dans des procédés, par exemple sous forme de vapeur pour la production d'acide acrylique46,47,48. Dans l’industrie, les rejets d’eau usée non traitée provoquent des pollutions qui comprennent les rejets de solutions (pollution chimique) et les rejets d’eau de refroidissement (pollution thermique). L’industrie a besoin d’eau pure pour de multiples applications, elle utilise une grande variété de techniques de purification à la fois pour l’apport et le rejet de l’eau.
L’industrie est ainsi grande consommatrice d’eau :
- en Asie du Sud-Est et Pacifique, elle représente plus de 30 % des prélèvements d’eau49. Dans ces régions l'industrie assure désormais 48 % du PIB total et cette proportion est en augmentation constante. La pollution et les déchets industriels mettent en danger les ressources en eau parce qu'ils dégradent et détruisent des écosystèmes à travers le monde. Ce phénomène menace la sécurité de l'eau50 ;
- les industries extractives consomment de plus en plus d'eau, et en particulier l'industrie pétrolière et gazière qui l'utilisent pour augmenter la pression dans les puits afin d'extraire plus d'hydrocarbures et plus rapidement, notamment avec la fracturation hydraulique. Une étude publiée en 2016 ayant porté sur 129 pays a porté sur l'empreinte eau de notre consommation énergétique : elle a montré d'importantes différences (selon les pays et les secteurs) en termes de dépendance aux ressources internationales en eau douce.
Par exemple, si l'industrie pétrolière a une ampleur comparable en Amérique du Nord et en Chine elle consomme en Amérique du Nord trois fois plus d'eau douce internationale. De même selon les données disponibles pour l'UE-28 avec, en moyenne, 86 % de la consommation d'eau douce associée au secteur pétrolier se faisant hors du pays de consommation. Un pays comme la France ne menace pas ses propres ressources puisque son pétrole est importé. Il peut être tenté d'accorder moins d'importance à ce phénomène que la Chine où cette question relève de la sécurité intérieure. Les pressions exercées par des pays riches sur des pays pauvres peuvent conduire à aggraver ou créer des pénuries d'eau et déstabiliser certains équilibres géostratégiques, au détriment de la paix, de la sécurité de l'eau et de l'énergie51. Les agrocarburants ne sont pas de ce point de vue une solution, car quand ils sont issus de plantes cultivées, ou de cultures artificielles d'algues, ils consomment aussi beaucoup d'eau51. Le nucléaire consomme aussi de l'eau, qu'il réchauffe, ainsi en France, environ 60 % des prélèvements d’eau (industrie) servent au refroidissement des centrales nucléaires[réf. nécessaire] ;
- en Suisse, la population s'est accrue depuis 1975 mais sa consommation totale d'eau a diminué : en 1981, 500 litres par habitant et par jour étaient consommés ; en 2011, cette consommation est de 350 litres environ. Cette baisse est due notamment aux efforts de l'industrie52. Une bonne gestion de l’eau est donc possible avec une maîtrise des coûts53. Cependant, avec les canons à neige, l'industrie des loisirs pour les sports d'hiver utilise de plus en plus d'eau en la dégradant54,55.
Interconnexion eau énergie
Lutte contre les incendies
C’est parce que les combustibles se combinent avec l’oxygène de l’air qu’ils brûlent et dégagent de la chaleur. L’eau ne peut pas brûler puisqu’elle est déjà le résultat de la réaction de l’hydrogène avec l’oxygène.
Elle aide à éteindre le feu pour deux raisons :
- lorsqu’un objet est recouvert d’eau, l’oxygène de l’air ne peut pas parvenir jusqu’à lui et activer sa combustion ;
- la seconde est que l’eau peut absorber une grande quantité de chaleur lorsqu’elle se vaporise et, de ce fait, abaisser la température de la matière en combustion au-dessous de son point d’ignition.
Le craquage de l'eau ayant lieu à partir de 850 °C, on évite d'utiliser de l'eau sans additif si la température du brasier dépasse cette température. [réf. nécessaire]
Eaux usées
L'assainissement et l'épuration sont les activités de collecte et traitement des eaux usées (industrielles, domestiques, ou autres) avant leur rejet dans la nature, afin d’éviter la pollution et les nuisances sur l’environnement. L'eau après un premier traitement souvent est désinfectée par ozonation, chloration ou traitement UV, ou encore par microfiltration (sans ajout de produit chimique dans ces derniers cas).
Politique et économie
Le réservoir d'Itzelberg, sur la rivière Brenz (Allemagne).
Aux Pays-Bas, l'eau est un élément essentiel du paysage naturel.
La protection de ce bien commun qu'est la ressource en eau a motivé la création d'un programme de l'ONU (UN-Water), et d'une évaluation annuelle Global Annual Assessment of Sanitation and Drinking-Water (GLAAS)56, coordonné par l'OMS.
La multiplicité de ses usages fait de l'eau une ressource fondamentale des activités humaines. Sa gestion fait l’objet d'une surveillance permanente et affecte les relations entre les États.
Pour faire face à ces questions, un conseil mondial de l'eau, dont le siège est à Marseille, a été fondé en 1996, réunissant des ONG, des gouvernements et des organisations internationales. De manière régulière, un forum mondial de l'eau est organisé pour débattre de ces sujets, mais pas toujours dans la même ville. En parallèle au forum mondial de l'eau, un forum alternatif mondial de l'eau est organisé par des mouvements alternatifs.
En France, les nombreux acteurs de l'eau et leurs missions diffèrent selon les départements et les territoires. Il existait cinq polices de l'eau aujourd'hui coordonnées par les Missions interservice de l'eau57 (MISE). Les Agences de l'eau sont des établissements publics percevant des redevances qui financent des actions de collectivités publiques, d'industriels, d'agriculteurs ou d'autres acteurs pour épurer ou protéger la ressource en eau. La distribution d'eau potable est un service public gérée au niveau communal ou EPCI, soit directement en régie, soit déléguée à une société privée (affermage, concession). L'ONEMA remplace le conseil supérieur de la pêche, avec des missions étendues.
La nouvelle « loi sur l'eau et les milieux aquatiques » (LEMA) de 2007 modifie en profondeur la précédente loi et traduit dans la législation française la « directive-cadre de l'eau » (DCE) européenne.
La gestion de l’eau couvre de nombreuses activités :
La France est le pays des grandes entreprises de l'eau (Suez, Veolia, etc.). Celles-ci prennent une importance mondiale depuis les années 1990. Mais avec le Grenelle de l'Environnement et du grenelle de la mer, et sous l'égide de personnalités telles que Riccardo Petrella, la question de l'eau comme bien public reste posée.
En 2009, un colloque58 a porté sur la régulation et une plus grande transparence des services d'eau en France.
Problématique de l'eau en montagne
Les montagnes couvrent une part importante de la Terre. En Europe (35,5 % du territoire en Europe, 90 % en Suisse et en Norvège) et plus de 95 millions d’Européens y vivaient en 2006. Elles sont de véritables châteaux d’eau et jouent un rôle capital dans la gestion des ressources aquifères car elles concentrent une part importante des précipitations et tous les grands fleuves et leurs principaux affluents y prennent leur source.
En montagne, l'eau est une richesse écologique mais aussi source d'hydroélectricité et de commerce (mise en bouteille d’eau minérale), et le support de sports et loisirs en eaux vives. En Europe, 37 grandes centrales hydrauliques sont implantées en montagne (sur 50, soit 74 %) auxquelles s’ajoutent 59 autres grandes centrales sur 312 (18,9 %).
Les montagnes présentent des situations particulières, car elles sont tout d’abord des zones de risques :
- avec la pente et le relief, conjugués à une végétation souvent rase et fragile du fait d’un climat plus rude, elles sont des zones d’intenses érosions et de concentration rapide des eaux qui forment les crues et les inondations qui peuvent être ravageuses pour les parties basses des bassins et des plaines. Le phénomène est accentué par le surpâturage et la déforestation, par l’imperméabilisation du sol par les constructions, les aires de stationnement et les routes, en particulier dans les zones de fort développement urbain et touristique ;
- à l’inverse, l’abandon des secteurs les plus difficiles par les populations qui pratiquent des activités économiques traditionnelles comme le pastoralisme, a pour conséquences l’arrêt de l’entretien et la destruction des ouvrages collectifs, des zones de terrasses et des systèmes de drainage.
Mais l’eau en montagne, est surtout une source de richesse et de développement. Une meilleure valorisation de ce potentiel par l’aménagement du territoire peut être la source de nouvelles richesses pour l’économie des zones de montagne, mais dans le cadre d’un comportement économe et responsable. Avec le réchauffement climatique, les situations d’évènements extrêmes comme les sécheresses, les inondations et l’érosion accélérée, risquent de se multiplier et d’être, avec la pollution et le gaspillage, d’ici une génération un des principaux facteurs limitant le développement économique et social dans la plupart des pays du monde.
Selon les experts réunis à Megève en dans le cadre de l’« Année internationale de la montagne » avec la participation de la FAO, de l’UNESCO, du Partenariat mondial de l'eau et du Réseau international des organismes de bassin, afin de tirer un diagnostic et de formuler les propositions présentées au forum mondial de l'eau de Kyoto () : « La « solidarité amont-aval » reste trop faible : il vaut mieux aider les montagnes dans le cadre de politiques intégrées de bassins, pour qu’ils assurent la gestion et l’équipement nécessaires des hauts bassins versants. […] Il est impératif en effet de conduire en montagne des actions particulières renforcées d’aménagement et de gestion pour mieux se protéger contre les inondations et l’érosion, lutter contre les pollutions et optimiser les ressources en eau disponibles pour les partager entre les usagers, tant en amont que dans les plaines en aval. »[réf. souhaitée]
Problématique de l'eau et l'urbanisme
Certains territoires connaissent un développement important induit par la mise en service d’infrastructures routières nouvelles et un dynamisme économique. En France, les documents d’urbanisme sont révisés fréquemment pour permettre la construction d’espaces nouveaux[réf. nécessaire]. Or, l'extension des territoires urbanisés génère des impacts sur l’environnement : accroissement des prélèvements pour l’alimentation des populations en eau potable, augmentation des rejets (eaux pluviales et eaux usées), fragmentation des milieux naturels, etc.[réf. souhaitée] Ceux-ci ne sont pas toujours correctement appréhendés au niveau des documents d'urbanisme, qui structurent et planifient l'espace[réf. nécessaire]. Ces réflexions ont été au cœur du Grenelle de l’Environnement en 2007.
Ces impacts doivent être pris en compte en amont, dès la définition des projets structurants à l’échelle d’un territoire. Aussi convient-il de les intégrer dans l’élaboration des documents de planification urbaine (plans locaux d’urbanisme, cartes communales, etc.).
Enjeu géopolitique
L'eau est un objet et un vecteur de confrontations importantes. A ce titre, cette ressource est analysée sous le prisme de la géopolitique afin de rendre compte de son rôle dans le déclenchement de guerres59.
Enjeu sanitaire et social
En 2017, sur 6,4 milliards d'êtres humains, 3,5 milliards de personnes boivent chaque jour de l’eau dangereuse ou de qualité douteuse60. De plus, 2,4 milliards ne disposent pas de système d'assainissement d'eau. En 2018, 2 milliards d'êtres humains dépendent de l'accès à un puits. Il faudrait mobiliser 37,6 milliards de dollars par an pour répondre au défi de l'eau potable pour tous, quand l'aide internationale est à peine de trois milliards60.
L'impossibilité d'accès à l'eau potable d'une grande partie de la population mondiale a des conséquences sanitaires graves. Ainsi, un enfant meurt toutes les cinq secondes de maladies liées à l’eau et à un environnement insalubre61 ; des millions de femmes s'épuisent en corvées d’eau ; entre 40 et 80 millions de personnes ont été déplacées à cause des 47 455 barrages construits dans le monde, dont 22 000 en Chine62[réf. incomplète]. Selon l’ONG Solidarités International, 361 000 enfants de moins de cinq ans meurent chaque année de diarrhée causée par un accès inadéquat à l’Eau, l'Hygiène et l'Assainissement (EHA)63. Toutes causes confondues (diarrhées, choléra, gastro-entérites infectieuses aigües et autres infections), ces maladies hydriques64 représentent selon l'Unicef 1,8 million de victimes chez les moins de cinq ans65. Chaque année, 272 millions de jours de scolarité sont perdus à cause d'infections transmises par l'eau insalubre60.
Symbolique
- Dans la théorie des humeurs corporelles, l’eau était associée au flegme, aussi dénommée pituite en physiologie antique.
- Dans la symbolique occidentale, l’eau symbolise la purification, le renouveau : par exemple, l’eau coulante d’un fleuve.
- L'eau est aussi un symbole de la tradition française dans la célébration des 100 ans de mariage (même si à ce jour aucun couple n'a été recensé comme ayant atteint ce stade).
L’eau a longtemps revêtu plusieurs aspects dans les croyances et les religions des peuples. Ainsi, de la mythologie gréco-romaine aux religions actuelles, l’eau est toujours présente sous différents aspects : destructrice, purificatrice, source de vie, guérisseuse, protectrice ou régénératrice.
L'eau dans les cultures, mythes et religions
Les sciences laissent penser que l’eau est indispensable à la vie. La mythologie et certaines religions ont lié l'eau à la naissance, à la fécondité, à la pureté ou à la purification.
- L’eau est un des quatre éléments classiques mythiques avec le feu, la terre et l’air, et était vue par Empédocle comme l’élément de base de l’univers. Les caractéristiques de l’eau dans ce système sont le froid et l’humidité.
- Plusieurs dieux et déesses romains et grecs sont issus des eaux : ainsi Océan, un Titan, le fleuve qui entoure le monde et son épouse Téthys, une titanide, tous deux issus de l’eau, donnèrent naissance aux dieux fleuves et à plus de trois mille Océanides, leurs filles. D’autres plus célèbres ont leur vie liée à l’eau, tels Vénus (« celle qui sort de la mer ») issue de la mythologie romaine et Amphitrite (déesse de la mer), Poséidon ou Nérée (divinité marine), tous issus de la mythologie grecque.
- Avant Empédocle, Bouddha considérait les quatre éléments comme base de l’univers. Les caractéristiques de l’eau dans ce système sont le lien, le transport, la transmission, la communication, la synthèse. Les molécules d'eau s'allient et se délient des milliards de fois à chaque seconde. Du point de vue de l'unité dans l'approche symbolique, les quatre éléments forment une unité, qui peut être perçue comme la quintessence des quatre éléments. Dans cette perception, la symbolique de la terre (le solide, la structure), du feu (la température) et de l'air (le mouvement) peuvent être vus dans l'eau.
- C’est aussi l’un des cinq éléments chinois avec la terre, le feu, le bois et le métal, associé au Nord et à la couleur noire, et l’un des cinq éléments japonais.
- Pour les chrétiens, l'eau représente un « élément essentiel de purification et de vie », comme le rappelle le pape François dans son message pour la quatrième journée mondiale de prière pour la sauvegarde de la Création consacrée au thème de l'eau. Il mentionne le baptême, sacrement de la renaissance, où l'eau sanctifiée par l’Esprit est la matière par laquelle Dieu nous a vivifiés et renouvelés ; c’est la source bénie d’une vie qui ne meurt plus66.
L'eau destructrice
L’eau revêt cet aspect destructeur notamment lorsqu’on parle de fin du monde ou de genèse. Mais cela ne se limite pas aux religions monothéistes. Ainsi, dans l’épopée de Gilgamesh, une tempête qui dura six jours et sept nuits était à l’origine des inondations et de la destruction de l’humanité. Les Aztèques ont eux aussi cette représentation de l’eau puisque le monde du Soleil d’Eau placé sous le signe de l’épouse de Tlaloc est détruit par un déluge qui rasera même jusqu’aux montagnes. « Et l’Éternel dit : J’exterminerai de la face de la terre l’homme que j’ai créé, depuis l’homme jusqu’au bétail, aux reptiles, et aux oiseaux du ciel ; car je me repens de les avoir faits. » : c’est par cela qu’est désignée la fin du monde dans la genèse judéo-chrétienne, et d’ajouter : « Les eaux grossirent de plus en plus, et toutes les hautes montagnes qui sont sous le ciel entier furent couvertes »67. Le mythe des aborigènes d’Australie est, quant à lui, attaché à l’idée de punition et non pas de destruction, puisqu’une grenouille géante aurait absorbé toute l’eau et asséché la terre mais aurait tout recraché en rigolant aux contorsions d’une anguille. Les marées contribuent lentement aux phénomènes d'érosion et d'engraissement sur les littoraux mais ce sont les grandes inondations et tsunamis qui marquent périodiquement les esprits. Depuis l'ère industrielle, de nombreuses usines et autres facteurs de risques ont été concentrés dans les vallées et sur les littoraux, faisant que le risque technologique peut se combiner avec les risques liés aux manques ou excès d'eau. Le Genpatsu shinsai est par exemple au Japon l'association du risque nucléaire au risque de tsunami, l'occurrence simultanée de deux événements de ce type aggravant fortement leurs conséquences respectives.
L'eau purificatrice
À proximité du tombeau de
Daniel en
Ouzbékistan, de l'eau de source est bue et emportée par les pèlerins.
Cet aspect donne à l’eau un caractère presque sacré dans certaines croyances. En effet, outre la purification extérieure que confère l’eau, il y a aussi cette faculté d’effacer les difficultés et les péchés des croyants à son contact et de laver le croyant de toute souillure. Les exemples sont nombreux, allant de la purification dans le Gange dans l’hindouisme (où beaucoup de rituels sont exécutés au bord de l’eau tels que les funérailles) ou les ablutions à l’eau dans l’Islam jusqu’au baptême dans le christianisme ou l’initiation des prêtres shintoïstes.
L'eau guérisseuse et protectrice
Outre l’aspect purificateur, l’eau s’est étoffée au cours des siècles et des croyances d’une faculté de guérison. Plusieurs signes de culte et d’adoration datant du Néolithique ont été retrouvés près de sources d’eau en Europe. Longtemps, des amulettes d’eau bénite ont été accrochées à l’entrée des maisons pour protéger ses occupants du Mal. On considère que le contact avec certaines eaux peut aller jusqu’à guérir de certaines maladies. L’exemple le plus proche est celui du pèlerinage à Lourdes en France où chaque année des milliers de gens se rendent pour se baigner dans sa source. Parmi les cas de guérison par l’eau de Lourdes, 67 ont été reconnus par l’Église catholique. Les rituels thérapeutiques christianisés des bonnes fontaines en constituent une autre illustration68. Du point de vue de la science, les propriétés curatives ont été démontrées car aujourd’hui l’hydrothérapie est courante dans les soins de certaines maladies.
Le canular du monoxyde de dihydrogène (DHMO)
Le canular du monoxyde de dihydrogène, conçu par Eric Lechner, Lars Norpchen et Matthew Kaufman, consiste à attribuer à l’eau la dénomination scientifique de monoxyde de dihydrogène (DHMO), inconnue des non-initiés, et à tenir à son sujet un discours solennellement scientifique de manière à créer chez l’auditeur une inquiétude injustifiée.
Notes et références
Notes
- L'eau pure est légèrement bleue, mais elle est si transparente que cette couleur n'est perceptible qu'à partir de plusieurs mètres d'épaisseur. Pour plus de détails, voir Couleur de l'eau1.
- À grande profondeur dans les deux planètes géantes glacées du Système solaire, dans les satellites des deux planètes géantes gazeuses et dans les planètes naines, l'eau solide n'est pas de la glace ordinaire mais l'un de ses nombreux polymorphes.
- On ne sait pas quelles formes peut prendre la vie extraterrestre, mais il est probable que l'eau liquide lui soit également indispensable.
- L’eau pure est parfois désignée sous le nom de « solvant universel ». D'où la teneur en matière sèche ou gazeuse des eaux minérales. L'eau fortement minéralisée perd cette capacité de dissolution importante. Elle relargue parfois sa charge de matière transportée, par exemple sous forme de tartres ou roches chimiques dites évaporites.
- Au moment de la création de cette échelle, c'était le contraire : le 0 était sur l'eau en ébullition, et le 100 sur la glace fondante (Leduc et Gervais 1985, p. 26)(Parrochia 1997, p. 97-98)
- Par construction, un écart d'un degré Celsius est donc strictement égal à un écart d'un kelvin.
- La différence entre les deux échelles n'est que de quelques centièmes de degré de 0 à 100 °C.
- Dans la molécule CH4 les quatre doublets sont identiques et forment deux à deux des angles de 109,5° ; dans la molécule H2O les deux doublets liants se repoussent un peu moins que les autres couples de doublets, ce qui explique cet angle de 104,5°, un peu plus faible que celui de la symétrie tétraédrique (en).
- Une molécule d'eau peut cependant n'avoir aucun dipôle électrostatique lorsque ses atomes d'hydrogène sont délocalisés par effet tunnel. C'est le cas pour une unique molécule d'eau piégée dans la structure cristalline d'un béryl à des températures de quelques kelvins30.
Références
- Mathieu, « Dossier - pourquoi la couleur de l'océan est-elle bleue? » [archive], sur Podcast Science, (consulté le ).
- Masse molaire calculée d’après « Atomic weights of the elements 2007 » [archive], sur www.chem.qmul.ac.uk.
- Properties of Water and Steam in SI-Units - 1969 Prepared by Ernst Schmidt, Springer, Verlag Berlin Heidelberg New York - R. Oldenburg München
- (en) « eau » [archive], sur NIST/WebBook [archive]
- (en) Philip E. Ciddor, « Refractive index of air: new equations for the visible and near infrared », Applied Optics, vol. 35, no 9, , p. 1566-1573 (DOI 10.1364/AO.35.001566).
- (en)Entrée water sur GESTIS [archive].
- (en) T. E. Daubert et R. P. Danner, Physical And Thermodynamic Properties Of Pure Chemicals, Pennsylvania, Taylor & Francis, , 736 p. (ISBN 1-56032-270-5).
- (en) W. M Haynes, Handbook of chemistry and physics, CRC, 2010-2011, 91e éd., 2610 p. (ISBN 9781439820773), p. 14-40
- (en) Marvin J. Weber, Handbook of optical materials, CRC Press, , 536 p. (ISBN 978-0-8493-3512-9, lire en ligne [archive]).
- « Substance Name: Water » [archive], sur ChemIDPlus
- « Decouvrir l'eau : proprietes » [archive], sur sagascience.cnrs.fr (consulté le ).
- (en) « World » [archive], sur The World Factbook, Central Intelligence Agency.
- Voir Géopolitique de l'eau pour plus de détails.
- Programme BCPST.
- Pierre Laszlo, « Les aquaporines » dans La Science au présent 2009. Ed. Encyclopaedia Universalis, 2009.
- Passage trans membranaire d'une molécule d'eau [archive], via la protéine aquaporine, Animation produite par le NIH ("Center for Macromolecular Modeling and Bioinformatics")
- « Pourquoi la glace prend-elle plus de place que l'eau liquide ? » [archive], sur Futura, (consulté le ).
- (en) Chapter 8: Introduction to the Hydrosphere [archive], sur PhysicalGeography.net (consulté le 25 mars 2015).
- (en) Sybille Hildebrandt, « The Earth has lost a quarter of its water » [archive], sur http://sciencenordic.com [archive], (consulté le ).
- De gigantesques quantités d'eau enfouies sous nos pieds ? [archive], Science et vie, 19 mars 2014.
- (en) Nathalie Bolfan-Casanova, « Water in the Earth's mantle », Mineralogical magazine, vol. 69, no 3, , p. 229-257 (DOI 10.1180/0026461056930248).
- Francis Rocard, « Système solaire : la ruée vers l’eau » [archive], sur France Culture, (consulté le ).
- (en) « Anthropocene » [archive], sur Encyclopedia of Earth (en) et Welcome to the anthropocene [archive] sur anthropocene.info.
- (en) IGBP ; international Geosphere Biosphere Program [archive] (2013), Visuation de données L'eau dans l'anthropocène [archive] ; document pédagogique produit par IGBP et Globaia illustrant la manière dont l'humanité a bouleversé le cycle global de l'eau sur la planète durant l'anthropocène (animation de 3 min commandé par le Global Water System Project ; http://www.gwsp.org [archive] GWSP]) pour la conférence « open science » Water in the Anthropocene (L'eau dans l'Anthropocène [archive] de Bonn, en 2013)
- En vidéo : de l'eau sculptée avec des champs électriques [archive], Futura-Sciences, 4 octobre 2007 (consulté le 27 avril 2012).
- La Recherche, no 451, avril 2011.
- « La qualité radiologique de l'eau du robinet en France » IRSN, 2008-2009, 43 p., février 2011.
- Christiane Ferradini, Jean-Paul Jay-Gerin, « La radiolyse de l'eau et des solutions aqueuses : historique et actualité », Revue canadienne de chimie, vol. 77, no 9, septembre 1999, résumé [archive]
- Jane Reece, Lisa Urry, Michael Cain, Steven Wassermann, Peter Minorsky, Robert Jackson, Biology, Campbell, , 1263 p. (ISBN 978-0-321-55823-7)
- (en) « Focus: Water Molecule Spreads Out When Caged » [archive], sur physics.aps.org,
- Site du CNRS, page sur l'eau dans l'organisme [archive]
- (en) 4 Water | Dietary Reference Intakes for Water, Potassium, Sodium, Chloride, and Sulfate | The National Academies Press (DOI 10.17226/10925, lire en ligne [archive]), p. 73-
- (en) 4 Water | Dietary Reference Intakes for Water, Potassium, Sodium, Chloride, and Sulfate | The National Academies Press (DOI 10.17226/10925, lire en ligne [archive]), p. 80-
- [PDF] « Campagne nationale d’occurrence des résidus de médicaments dans les eaux destinées à la consommation humaine - Ressources en eaux brutes et eaux traitées »(Archive.org • Wikiwix • Archive.is • http://www.anses.fr/Documents/LABO-Ra-EtudeMedicamentsEaux.pdf" rel="nofollow" class="external text">Google • Que faire ?), rapport ANSES
- Benoît Saint Girons, La qualité de l'eau, Paris, Médicis, , 218 p. (ISBN 978-2-85327-695-5), p. 26
- Sophie Landrin, « L’eau minérale n’est plus épargnée par la pollution », Le Monde, (lire en ligne [archive])
- « 12 euros pour remplir sa piscine » [archive], le Ravi, mars 2013
- La France puise 5,5 milliards de mètres cubes d’eau par an [archive], Journal Le Monde, 16.10.2015, citant une l’étude BIPE 2015 [archive] (15 octobre 2015) sur les services publics d’eau et d’assainissement.
- ONEMA, Communiqué 2015 en ligne : Ouverture de la banque nationale des prélèvements en eau [archive].
- Chiffres de la consommation d'eau en France par secteur sur le site Eaufrance [archive]
- Banque nationale des prélèvements quantitatifs en eau [archive]
- voir p 2/4 chap : « Journée technique du 27 janvier 2015 Connaître et apprendre à utiliser la BNPE », synthèse de journée technique sur la banque nationale des prélèvements en eau (BNPE), dans la lettre Rés'eau Infos de l'ONEMA, no 12, mai 2015.
- « Enseignement agricole - Des débouchés principalement dans les métiers de l'aménagement paysager et de la production agricole » [archive], INSEE (consulté le ).
- Eau et agriculture [archive], sur eaufrance.fr
- « Comprendre la forêt » [archive], sur onf.fr
- (en) « The reaction network in propane oxidation over phase-pure MoVTeNb M1 oxide catalysts », Journal of Catalysis, vol. 311, , p. 369-385. (lire en ligne [archive])
- « Surface chemistry of phase-pure M1 MoVTeNb oxide during operation in selective oxidation of propane to acrylic acid », Journal of Catalysis, vol. 285, , p. 48-60 (lire en ligne [archive])
- (en) Kinetic studies of propane oxidation on Mo and V based mixed oxide catalysts, Berlin, (lire en ligne [archive])
- Banque mondiale 2002 et UN-Water.
- L'eau, une responsabilité partagée, 2e rapport mondial des NU sur la mise en valeur des ressources en eau.
- Petroleum industry’s freshwater use puts pressure on areas with water scarcity issues [archive], "Science for Environment Policy": European Commission DG Environment News Alert Service, edited by SCU, The University of the West of England, Bristopublié 2016-03-10, consulté 2016-03-13
- Indicateur Consommation d'eau - Industrie et artisanat [archive], sur bafu.admin.ch (consulté le 27 avril 2012)
- Introduction aux thématiques de l'Eau [archive], 19 novembre 2012, sur cms2.unige.ch
- Documentaire : La montagne, nouvel Ibiza [archive], ZDF pour Arte, 2014, rediffusé en 2016 (90 min)]
- Felix Hahn, CIPRA-International L’enneigement artificiel dans l’arc alpin [archive] Rapport de synthèse, CIPRA, Alpmedia, PDF, 18 p, consulté 2016-03-13
- GLASS, 2008 [archive]
- « Mission inter-services de l’eau (MISE) - DREAL Centre-Val de Loire » [archive], sur www.centre.developpement-durable.gouv.fr (consulté le )
- Colloque organisé à l’Assemblée nationale le 12 mars 2009, à l’initiative de la Fondation France-Libertés, de la Fédération des distributeurs d’eau indépendants (FDEI) et des Entreprises publiques locales de l’eau, regroupées au sein de l’association Arpege (Propositions faites lors du colloque [archive] et programme [archive])
- Patrice Gourdin, Géopolitiques manuel pratique, Choiseul éd, dl 2010 (ISBN 978-2-36159-000-0 et 2-36159-000-X, OCLC 690353450, lire en ligne [archive])
- « Baromètre de l'eau 2018 », Baromètre de l'eau, (lire en ligne [archive] [PDF]).
- « Le baromètre de l'eau, de l'hygiène et de l'assainissement », Le baromètre de l'eau, de l'hygiène et de l'assainissement, (lire en ligne [archive] [PDF]).
- François Anctil, L'eau et ses enjeux, De Boeck Supérieur, , 264 p. (ISBN 9782807307049, lire en ligne [archive]).
- « L'Eau » [archive], sur solidarites.org
- « Combattre les maladies hydriques » [archive], sur solidarites.org.
- Suzanne Dionnet-Grivet, Géopolitique de l'eau, Paris, Ellipses, , 253 p. (ISBN 978-2-7298-6404-0), p. 45
- Message pour la Journée Mondiale de Prière pour la Sauvegarde de la Création, 1er septembre 2018 [archive]
- Livre de la Genèse, (VI, 7)/ (VII, 19)
Voir aussi
Sur les autres projets Wikimedia :
Bibliographie
- Écologie politique de l'eau, sous la direction de Jean-Philippe Pierron avec la collaboration de Claire Harpet, Hermann Éditeurs, 2017.
- Olivier Hoedeman et Satoko Kishimoto (trad. de l'anglais), L’Eau, un bien public, Paris, éditions Charles Léopold Mayer, , 322 p. (ISBN 978-2-84377-158-3, présentation en ligne [archive], lire en ligne [archive])
- Erik Orsenna, L'Avenir de l'eau, Paris, Fayard, , 411 p. (ISBN 978-2-213-63465-4)
- (fr + pt + ar) Mohamed Larbi Bouguerra, Les Batailles de l'eau : pour un bien commun de l'humanité, Paris, éditions de l'Atelier (en coédition avec onze éditeurs francophones de dix pays), , 240 p. (ISBN 2-7082-3692-X, présentation en ligne [archive])
- Needham, Paul, « Water and the Development of the Concept of Chemical Substance », dans T. Tvedt, and T. Oestigaard, éd., « A History of Water Vol. 4: The Ideas of Water from Antiquity to Modern Times », I.B. Tauris, Londres, 2010, texte intégral [archive].
- Vazken Andréassian et Jean Margat, Rivières & rivaux : les frontières de l'eau, Versailles, Éditions Quae, , 134 p. (ISBN 978-2-7592-1706-9, lire en ligne [archive])
- Pierre-André Magnin et Mirko Saam, « Eaux-là-là! - Tous liés par l'eau!? », Services cantonaux de l'énergie et de l'environnement, 2013. En 16 pages illustrées, cette brochure fait le tour de la problématique de l'eau, également en liaison avec l'énergie. (http://www.energie-environnement.ch/fichiers/eau-la-la/brochure_fr.pdf [archive])
- Éditions Sonobook, « L'Eau dans le monde », livre audio d'après l'ouvrage de La Petite Encyclopédie Larousse, durée : 3 h 42 min, 1 CD MP3, www.sonobook.fr
- Richard Leduc et Raymond Gervais, Connaître la météorologie, Presses Universitaires du Québec, , 305 p. (ISBN 978-2-7605-2044-8, lire en ligne [archive])
- Daniel Parrochia, Météores : Essai sur le ciel et la cité, Editions Champ Vallon, , 250 p. (ISBN 978-2-87673-238-4, lire en ligne [archive])
- Ghislain de Marsily, L'eau, Flammarion, , 129 p.
Articles connexes
Sciences
- Pluie, rosée, goutte, liquide
- Cours d'eau, mer, océan, nappe phréatique
- Brouillard, nuage, brume, glace, neige
- Alcalinité de l'eau
- Inondation, sécheresse, soif
- Hydromorphologie
- Canular du monoxyde de dihydrogène
- Teneur en eau, hygrométrie, humidité
- Épuration des eaux, dessalement
- Pollution de l'eau, marine, par les produits phytosanitaires
- Turbidité, filtration
- Stratification de l'eau
Dans le Wikilivre de Tribologie, on peut trouver des données concernant le frottement sur la glace.
Utilisations
Gestion et réglementation
Art et culture
Liens externes
Une cellule photovoltaïque, ou cellule solaire, est un composant électronique qui, exposé à la lumière, produit de l’électricité grâce à l’effet photovoltaïque. La puissance électrique obtenue est proportionnelle à la puissance lumineuse incidentea et elle dépend du rendement de la cellule. Celle-ci délivre une tension continue et un courant la traverse dès qu'elle est connectée à une charge électrique (en général un onduleur, parfois une simple batterie électrique).
Les cellules photovoltaïques les plus répandues sont constituées de semi-conducteurs, principalement à base de silicium et plus rarement d’autres semi-conducteurs : séléniure de cuivre-indium (CuIn(Se)2, ou CIS), séléniure de cuivre, d'indium et de gallium (CuInGa(Se)2, aussi appelé CIGS), tellurure de cadmium (CdTe), etc. Elles se présentent généralement sous forme de fines plaques d’une dizaine de centimètres de côté.
Les cellules sont souvent réunies dans des modules photovoltaïques ou panneaux solaires, en fonction de la puissance recherchée.
Cellule photovoltaïque de quatre
pouces en silicium polycristallin.
Histoire
Production de cellules photovoltaïques de 1995 à 2013, par pays.
XIXe siècle
Le principe de l'effet photoélectrique (transformation directe d'énergie portée par la lumière en électricité) est appliqué dès 1839 par Antoine Becquerel1 et son fils Edmond Becquerel qui note qu'une chaîne d'éléments conducteurs d'électricité donne naissance à une tension électrique quand elle est éclairée.
La fabrication de la première cellule solaire en matériaux semi-conducteurs est attribuée à Charles Fritts en 18832,3. Cette cellule atteignait un rendement de près de 1 %, et utilisait de l'or et du sélénium, des matériaux coûteux4.
XXe siècle
Le sélénium puis le silicium (qui a finalement supplanté le cadmium-tellure ou le cadmium-indium-sélénium également testés pour des raisons de coût) se sont montrés propice à la production des premières cellules photovoltaïques : posemètres pour la photographie dès 1914, puis générateurs[réf. nécessaire]. Hassan Kamel Al-Sabbah a alors eu pour projet, en 1928, de faire du Moyen-Orient un « Sahara vert », qui plus tard a inspiré le projet Desertec5.
Les faibles rendements des cellules à cette époque ne permettent pas d'applications concrètes des cellules photovoltaïques. Cela change en 1954, où les travaux de Gerald Pearson, Darryl Chapin et Calvin Fuller pour les laboratoires Bell permettent enfin d'aboutir6 à un rendement de 6 %4.
C'est en 1958 que la première application réelle des cellules photovoltaïques est trouvée, avec l'alimentation des émetteurs radio du satellite Vanguard 1. Le rendement de ces panneaux solaires était alors de 9 %4.
Les années 1960 voient le développement du photovoltaïque avec l'essor des satellites spatiaux, puis dans les années 1970 c'est l'alimentation en électricité des lieux reculés qui permet les premières applications au sol7.
XXIe siècle
La recherche porte aujourd'hui sur de nombreux types de matériaux et de structures, ayant pour objectif l'un ou plusieurs de ces buts :
- augmenter l'efficacité de conversion énergétique ;
- diminuer du prix de l'énergie solaire ;
- améliorer la flexibilité d'application ou exploiter une niche de marché ;
- améliorer fiabilité et durée de vie.
Les techniques utilisées vont des polymères/matériaux organiques (éventuellement souples)8 aux matériaux dont les composants sont abondants dans la croûte terrestre, en passant par des technologies telles que les points quantiques et beaucoup d'autres encore.
Principe de fonctionnement
Structure d'une cellule photovoltaïque.
Dans un semi-conducteur exposé à la lumière, un photon d'énergie suffisante arrache un électron à la matrice et crée ainsi un « trou ». En l'absence de dispositif supplémentaire, l'électron trouve rapidement un trou pour se recombiner et l'énergie apportée par le photon est ainsi dissipée. Le principe d'une cellule photovoltaïque est de forcer les électrons et les trous à se diriger chacun vers une face opposée du matériau au lieu de se recombiner en son sein : il apparaîtra une différence de potentiel et donc une tension entre les deux faces, comme dans une pile. L'une des solutions pour atteindre cet objectif, couramment utilisée, est de générer un champ électrique au moyen d'une jonction P-N, c'est-à-dire entre deux couches dopées respectivement P et N.
Typiquement, la couche supérieure de la cellule est composée d'un semi-conducteur dopé Nb. Dans cette couche, il existe une quantité d'électrons libres supérieure à celle du matériau intrinsèque (i.e. non dopé), d'où l'appellation de dopage N, comme négatif (charge de l'électron). Le matériau reste électriquement neutre : c'est le réseau cristallin qui supporte globalement une charge négative. La couche inférieure de la cellule est généralement composée d'un semi-conducteur dopé Pc. Cette couche possédera donc en moyenne une quantité d'électrons libres inférieure à celle du matériau intrinsèque (i.e. non dopé), les électrons sont liés au réseau cristallin qui, en conséquence, est chargé positivement. La conduction électrique est assurée par des trous, positifs (P).
Au moment de la création de la jonction P-N, les électrons libres de la région N diffusent dans la couche P et se recombinent avec les trous de la région P. Il existera ainsi, pendant toute la vie de la jonction, une charge positive de la région N au bord de la jonction (parce que les électrons en sont partis) et une charge négative dans la région P au bord de la jonction (parce que les trous en ont disparu) ; l'ensemble forme la Zone de Charge d'Espace (ZCE) et il existe un champ électrique entre les deux, de N vers P. Ce champ électrique fait de la ZCE une diode, qui ne permet le passage du courant que dans un sens : les électrons peuvent passer de la région P vers la région N, mais pas en sens inverse ; inversement les trous ne passent que de N vers P.
En fonctionnement, un photon arrache un électron à la matrice, créant un électron libre et un trou. Ces porteurs de charge diffusent jusqu'à la zone de charge d'espace. Là, sous l'effet du champ électrique, ils partent chacun à l'opposé : les électrons s'accumulent dans la région N (qui devient le pôle négatif), tandis que les trous s'accumulent dans la couche dopée P (qui devient le pôle positif). Ce phénomène est plus efficace dans la ZCE, où les porteurs de charges (électrons ou trous) sont séparés immédiatement par le champ électrique. Le phénomène est aussi efficace à proximité immédiate de la ZCE : lorsqu'un photon y crée une paire électron-trou, ils se séparent et ont peu de chance de rencontrer leur opposé, alors que si la création a lieu plus loin de la jonction, le nouvel électron (respectivement le trou) conserve une grande chance de se recombiner avant d'atteindre la zone N (respectivement la zone P). La ZCE est très mince, il est ainsi souvent possible de fabriquer des cellules finesd.
D'un point de vue électrique, une cellule photovoltaïque est l'équivalent d'un générateur de courant auquel on a adjoint une diode. Il faut ajouter des contacts électriques (qui laissent passer la lumière en face éclairée : en pratique, on utilise souvent un contact par une grille), une couche antireflet pour assurer une bonne transmission des photons vers l'absorbeur. Pour que la cellule fonctionne, et produise le maximum de courant, on ajuste le gap du semi-conducteur au niveau d'énergie des photons. On peut éventuellement empiler les jonctions, de façon à exploiter au mieux le spectre d'énergie des photons, ce qui donne les cellules multi-jonctions, aussi appelées « cellules tandem ».
Matériau : silicium
Le silicium est actuellement le matériau le plus utilisé pour fabriquer les cellules photovoltaïques. On l'obtient par réduction à partir de silice, composé le plus abondant dans la croûte terrestre et notamment dans le sable ou le quartz. La première étape du processus est la production de silicium dit métallurgique, pur à 98 % seulement, obtenu à partir de morceaux de quartz provenant de galets ou d'un gisement filonien (la technique de production industrielle ne permet pas de partir du sable). Le silicium de qualité photovoltaïque doit être purifié jusqu'à plus de 99,999 %, ce qui s'obtient en transformant le silicium en un composé chimique qui sera distillé puis retransformé en silicium.
Le silicium est produit sous forme de lingots de section ronde ou carrée. Ces lingots sont ensuite sciés en fines plaques, le cas échéant mises au carré, de près de 200 µm d'épaisseur, appelées « wafers ». Après un traitement visant à l'enrichir en éléments dopants (P, As, Sb ou B) et ainsi obtenir du silicium semi-conducteur de type P ou N, les wafers sont « métallisés » : des rubans de métal sont incrustés en surface et reliés à des contacts électriques. Une fois métallisés, les wafers deviennent des cellules photovoltaïques.
La production des cellules photovoltaïques nécessite de l'énergie, et on estime qu'un module photovoltaïque doit fonctionner environ deux à trois ans pour compenser l’énergie nécessaire à sa fabrication (durée qu'on appelle retour énergétique)9,10, selon sa technique de fabrication, c'est-à-dire pour produire autant d'énergie qu'il en a été consommée pour sa fabrication. Les techniques de fabrication et les caractéristiques des principaux types de cellules à base de silicium sont décrits dans les trois paragraphes suivants.
Il existe d'autres types de cellules : les films photovoltaïques ou cellules solaires en couche mince, souples et prometteurs, mais leur utilisation est minoritaire après une baisse drastique des parts de marché dans les années 200011.
Les matériaux et procédés de fabrication font l'objet de programmes de recherche ambitieux pour réduire les coûts de fabrication et de recyclage des cellules photovoltaïques. De fait, en 2006 et 2007, la croissance de la production mondiale de panneaux solaires a été freinée par manque de silicium et les prix des cellules n'ont pas baissé autant qu'espéré. L'industrie cherche donc à faire baisser la quantité de silicium utilisé. Les cellules monocristallines sont passées de 300 μm d'épaisseur à 200, puis 150 μm en 2019, diminuant la quantité de matière et d'énergie nécessaires, mais aussi les prix. En 2019, des cellules de seulement 0,2 μm d'épaisseur sont produites avec un rendement de 20 %, mais le coût des procédés mis en œuvre ne les rendent accessibles que pour les applications spatiales12.
Silicium amorphe
Les cellules photovoltaïques en silicium amorphe sont fabriquées par dépôt sous vide, à partir de plusieurs gaz. L'une des techniques les plus utilisées est le dépôt chimique en phase vapeur assisté par plasma (PECVD). La cellule est gris très foncé. C'est la cellule des calculatrices et des montres dites « solaires ».
Cette technique a comme avantages :
- de fonctionner avec un éclairement faible ou diffus (même par temps couvert, y compris sous éclairage artificiel de 20 à 3 000 lux) ;
- d'être un peu moins chère que les autres techniques ;
- d'être intégrable sur supports souples ou rigides.
Elle a cependant pour inconvénients :
- un rendement faible en plein soleil, de 5 à 7 %13 ;
- une nécessité de couvrir des surfaces plus importantes que lors de l’utilisation de silicium cristallin (ratio Wc/m2 plus faible, environ 60 Wc/m2)14 ;
- une performance qui diminue avec le temps dans les premiers temps d'exposition à la lumière naturelle (3 à 6 mois), pour se stabiliser ensuite (-10 à -20 % selon la structure de la jonction).[réf. nécessaire],15,16
Silicium monocristallin
Cellule photovoltaïque à base de silicium monocristallin.
Le toit, le capot et de grandes parties de la coque extérieure du corps du
Sion sont équipés de cellules de silicium monocristallin.
Lors du refroidissement, le silicium fondu se solidifie en ne formant qu'un seul cristal de grande dimension, sans joint de grains. On découpe ensuite le cristal en fines tranches qui donneront les cellules. Ces cellules sont en général d'un bleu uniforme.
Cette technique a comme avantage un bon rendement, de 16 à 24 % (en 2015) (~150 Wc/m2)14,13,17,18, et un nombre de fabricants élevé. Cependant, elle a un coût élevé, un rendement plus faible sous un faible éclairement ou un éclairement diffus19, et baisse du rendement quand la température augmente.
Silicium polycristallin
Cellule photovoltaïque à base de silicium multicristallin.
Pendant le refroidissement du silicium dans une lingotière, il se forme plusieurs cristallites. La cellule photovoltaïque est d'aspect bleuté, mais pas uniforme, on distingue des motifs créés par les différents cristallites et les joints de grains.
Elle a comme avantages :
- une forme de cellule carréee permettant un meilleur foisonnement dans un module ;
- un bon rendement de conversion, environ 100 Wc/m2 (voire plus)14, cependant un peu moins bon que celui du silicium monocristallin ; rendement de 14 à 18 %17,18 ; et un lingot moins cher à produire que le monocristallin. Cependant, elle a un rendement faible sous un faible éclairement ou soleil diffus.
Le terme « silicium multicristallin » est utilisé par la Commission électrotechnique internationale (réf. IEC TS 61836, vocabulaire international photovoltaïque). Le terme polycristallin est utilisé pour les couches déposées sur un substrat (en petits grains).
Fabrication
Cellule photovoltaïque tandem
Une cellule photovoltaïque tandem est un empilement de deux cellules simples. En combinant deux cellules (couche mince de silicium amorphe sur silicium cristallin par exemple) absorbant dans des domaines spectraux différents, on améliore le rendement théorique par rapport à des cellules simples distinctes, qu'elles soient amorphes, cristallines ou microcristallines. Elle a une sensibilité élevée sur une large plage de longueur d'onde, et un rendement élevé. Son coût est cependant plus élevé et sa réalisation est plus complexe. Des cellules tandem organiques ont atteint un rendement de 12 %20 et 18 % pour un tandem de perovskite et de silicium21.
Cellule photovoltaïque organique
Les cellules photovoltaïques organiques ont au moins leur couche active constituée de molécules organiques. Un rendement de plus de 15 % a été atteint22.
Cellule photovoltaïque multi-jonction
Les cellules multi-jonctions ont été développées pour des applications spatiales, pour lesquelles le paramètre clef n'est pas le rapport puissance/prix (Wc/$) mais la puissance massique, soit le rapport Wc/kg. Le développement a donc porté sur des cellules d'une grande efficacité de conversion. Cette technologie se retrouve également dans la filière photovoltaïque à concentration (CPV), qui bénéficie aussi particulièrement de l'utilisation de cellules de haut rendement.
Les cellules solaires à multi-jonctions sont constituées de plusieurs couches minces déposées par épitaxie en phase vapeur aux organométalliques (EPVOM/MOVPE) ou par Épitaxie par jet moléculaire (EJM/MBE). La cellule multi-jonction typique pour application spatiale est la triple jonction constituée de l'empilement des semi-conducteurs GaInP/GaAs/Ge dont le rendement de conversion avoisine les 30 %23,24,25,26. De manière plus générale, chaque semi-conducteur est caractérisé par une énergie minimum appelée bande interdite, ou gap. Les photons ayant une énergie inférieure à ce gap ne peuvent pas être absorbés par le semi-conducteur et ne contribuent donc pas à la génération d'électricité. Les photons d'énergie supérieure au gap provoquent un échauffement du matériau par mécanisme de thermalisation. Il est donc intéressant de superposer judicieusement des semi-conducteurs de gaps différents, permettant de mieux exploiter le spectre solaire et ainsi d'augmenter l'efficacité des panneaux photovoltaïques. Le rendement record de conversion photovoltaïque est ainsi de 47,1 % et a été mesuré sur une cellule 6-jonctions et sous concentration (x143) au NREL27.
Cellule photovoltaïque CIGS
La technique consiste à fabriquer un matériau semi-conducteur à base de cuivre, d'indium, de gallium et de sélénium. Les attraits de cette technologie par rapport aux technologies basées essentiellement sur le silicium sont la possibilité de contrôler et d'optimiser les propriétés du matériau. Un désir de distanciation de l'utilisation d'éléments chimiques rares tels que l'indium a récemment poussé la recherche vers la fabrication de matériaux similaires mais où l'indium et le gallium sont remplacés par les éléments zinc et étain, plus abondants. Cette technologie, nommée CZTS dû aux éléments présents dans sa structure, n'est cependant pas encore disponible sur le marché.
Cellule à pérovskites
Un domaine de recherche ayant fait l'objet d'une très grande attention durant la dernière décennie est la technologie des pérovskites hybrides organiques-inorganiques, abrégées dans cet article simplement en « perovskite ». Les rendements de conversion de cellules de laboratoire à pérovskites, qui pâtissent encore de problèmes de stabilité, ont été quintuplés en cinq ans pour atteindre environ 20 % en 2015, rendement proche de celui des cellules à base de silicium (25 %). Dans une étude publiée par la revue Science28, des équipes de chercheurs indiquent avoir découvert des anomalies dans la structure du matériau, dont la composition était jusque-là pensée uniforme. Ils proposent de corriger celle-ci afin d’améliorer la circulation des électrons avec un traitement chimique, permettant d’améliorer l’uniformité, la stabilité et l’efficacité de ces matériaux29. En 2017, une équipe de l'École Polytechnique Fédérale de Lausanne publie une étude suggérant que l'instabilité des cellules à pérovskites peut être surmontée grâce à certaines technologies à faible coût, permettant la fabrication de cellules performantes de confection peu coûteuse30.
Usages
Les cellules photovoltaïques sont parfois utilisées seules (éclairage de jardin, calculatrice, etc.) ou bien regroupées sur des modules solaires photovoltaïques.
Elles sont très utilisées en remplacement des piles (dont l'énergie est de loin la plus chère pour l'utilisateur ; même pour le fabricant, un compartiment pile et la pile éventuellement fournie peuvent coûter plus cher qu'une cellule), pourvu que le dispositif ne réclame pas trop d'énergie par rapport à la surface qu'on peut accorder au générateur photovoltaïque, et qu'il y ait assez de lumière pendant l'usage : les cellules ont envahi calculatrices, montres, gadgets, etc. Il est possible d'augmenter leur plage d'utilisation avec un stockage (condensateur ou une batterie). Lorsqu'elles sont utilisées avec un dispositif de stockage d'énergie, il est indispensable de placer une diode en série pour éviter la décharge du système pendant la nuit.
Elles sont utilisées pour produire de l'électricité pour de nombreuses applications (satellites, parcmètres, avion solaire, bateau solaire31...), ainsi que pour alimenter des habitations ou un réseau public de distribution dans le cas des centrales solaires photovoltaïque. Une installation photovoltaïque est avant tout une installation électrique obéissant à des normes strictes qui en France sont éditées par l'UTE32. On citera la norme C15712-1 pour les installations raccordées au réseau et la C15712-2 en cours de rédaction pour les installations des sites isolés (avec stockage d'énergie par batterie). Par ailleurs la C15-100 reste valable et applicable en particulier sur la partie AC33. La particularité d'une installation PV réside dans l'existence de courants continu et alternatif et de sources de danger pouvant venir de plusieurs endroits. À ce titre, une vigilance accrue est conseillée en maintenance ou lors d'un sinistre provoquant l'intervention des services d'urgence.
De nos jours, une incitation à l'équipement solaire photovoltaïque en autoconsommation34 pour les particuliers permet l'octroi d'une prime à l'investissement de 0,39 €/kWh installé. Afin d'éviter les arnaques, certaines associations voient le jour et proposent des simulation de rentabilité solaire photovoltaïque en ligne35.
Fin de vie
Prospective, recherche et développement
Évolution, en Europe, de la production d'énergie solaire en
watts par personne entre 1992 et 2014.
Les différentes techniques du photovoltaïque n'ont pas encore atteint leur plein potentiel et de nombreuses pistes de recherche sont encore à explorer. Il s'agit de diminuer le prix de revient de l'électricité produite et d'augmenter la fiabilité, la durée de vie, la souplesse d'usage, la facilité d'intégration dans des objets, etc.
Incitation à l'innovation
Le manque de silicium purifié ou la pénurie de produits dopant (Le prix de l'indium a décuplé de 2002 à 2009, du fait de sa raréfaction) accroît encore l'incitation à l'innovation sur un marché en forte croissance qui s'annonce colossal, surtout si on parvient à baisser le prix de revient de l'électricité produite et à le rapprocher de celui des combustibles fossiles.
L'enjeu contemporain majeur reste donc d'élaborer des cellules très performantes mais aussi stables (pouvant résister plusieurs années à des conditions météorologiques difficiles), ne nécessitant pas de ressources rares, et facilement réalisables en grandes quantités, par exemple grâce à l'impression 3D30.
De nouveaux développements sont périodiquement annoncés par les sociétés de fabrication, par exemple :
- une alternative au sciage a été développée par Evergreen Solar : c'est le dépôt de silicium encore liquide sur un film où il se cristallise directement à l'épaisseur du wafer ;
- la taille des wafers croit régulièrement. Ceci diminue le nombre de manipulations ;
- on cherche à mieux valoriser toutes les longueurs d'onde du spectre solaire (dont l'infra-rouge, ce qui ouvrirait des perspectives très intéressantes : transformation directe de la lumière d'une flamme en électricité, rafraîchissement).
Intégration dans la vie commune
En 2015 et 2016, un concept de « route solaire » (en anglais wattway) a été proposé en France par la société Colas. Des dalles photovoltaïques de 7 mm d'épaisseur sont collées à une chaussée classique ; 1 km d'une telle route pourrait alimenter l'éclairage public d'une ville de 5 000 habitants selon l'Ademe et le Groupe COLAS ; et 20 m un foyer en électricité (hors chauffage). Ce projet est soutenu par la ministre de l'environnement36. La « route solaire » a été inaugurée officiellement le , dans le village normand de Tourouvre. Jusqu’à ce jour, le concept était déjà expérimenté sur quatre sites pilotes : deux en Vendée, un à Septèmes-les-Vallons, près de Marseille, un dans les Yvelines sur des parkings, ou devant des bâtiments publics37.
Concepts alternatifs
Évolution temporelle des rendements selon le
NREL. Légende : technologies multi-jonction, silicium cristallin, couches minces, technologies émergentes.
Concentration de la lumière
Des concentrateurs (déjà utilisés sur les satellites) sont testés sur terre pour produire des cellules photovoltaïques à concentration (HCPV), associées à des trackers plus performants qui permettraient, en outre, d'alléger les systèmes en divisant le poids de béton par dix et la quantité de métal par deux38. Via des miroirs et des lentilles incorporées dans le panneau, ils focalisent le rayonnement sur l'élément essentiel et coûteux qu'est la cellule photovoltaïque et ses semi-conducteurs.
Fin 2007, Sharp annonce disposer d'un système concentrant jusqu'à 1 100 fois le rayonnement solaire (contre 700 fois pour le précédent record en 2005) ; début 2008, Sunergi atteint 1 600 fois. La concentration permet de diminuer la proportion du panneau consacrée à la production de l'électricité et donc son coût. De plus, ces nouveaux matériaux (les III-V notamment) supportent très bien l'échauffement important dû à la concentration du flux solaire39.
Utilisation de l'infra-rouge
Des panneaux solaires transformant les infrarouges en électricité (cellules thermophotovoltaïques) ont été mis au point par le Boston College de Chestnut Hill (Massachusetts). Une production électrique devient théoriquement possible à partir de toute source de chaleur, même de nuit40. Pour l'instant, seule une partie de la lumière visible, principalement les rayonnements verts et les bleus, est transformée en électricité et le rayonnement infrarouge n'est utilisé que par les panneaux thermiques pour chauffer de l’eau.
Une équipe du MIT, David Bierman, Marin Soljačić et Evelyn Wang, a développé un nouveau type de convertisseur thermophotovoltaïque. Le fonctionnement de leur dispositif consiste d’abord à convertir l’intégralité du spectre lumineux visible en chaleur en utilisant une couche de nanotubes de carbone. La deuxième couche absorbeur/émetteur de cristaux photoniques va concentrer cette chaleur. Lorsque la température atteint 1 000 °C, elle va émettre un nouveau rayonnement. Cette couche de cristaux photoniques étant sélective, elle laisse passer une bande étroite de ce rayonnement en direction d’une cellule photovoltaïque optimisée pour convertir ce rayonnement en électricité41.
Matériaux moins communs
Basés sur le cuivre
D'autres semi-conducteurs (sélénium, association cuivre-indium-sélénium (CIS) en couche mince) sont étudiés. En France, l'institut de recherche et développement sur l'énergie photovoltaïque (IRDEP)42 s'intéresse au CIS au rendement modeste de 12 %, mais à faible coût de fabrication. En 2009, selon ENF, 25 entreprises produisent ce type de panneau solaire, Würth Solar est le principal vendeur avec 15 MWc vendus en 200743. Showa Shell doit mettre en service en septembre 2010 une centrale photovoltaïque de 1 MW en modules « CIS », sur son terminal pétrolier de la Préfecture de Niigata44.
Boîtes quantiques
L'usage de matériaux composés de « boîtes quantiques » permettra d'atteindre 65 % dans le futur (avec un maximum théorique de 87 %)45,46,47,48,49. Les dispositifs à multi-jonctions GaAs sont les cellules les plus efficaces. Spectrolab a obtenu, en décembre 2006, un rendement de 40,7 % d'efficacité et un consortium (dirigé par des chercheurs de l'université du Delaware) a obtenu, en septembre 2007, un rendement de 42,8 %50.
Cellules solaires organiques
Des cellules photovoltaïques en polymères peuvent être fabriquées avec des composés organiques (matières plastiques), pour réaliser des panneaux souples et légers, des tuiles, voiles ou tissus photovoltaïques, espère-t-on à faible coût de fabrication. Pour l'instant, leurs rendements sont faibles (5 % maximum), ainsi peut-être que leur durée de vie, et de nombreux problèmes techniques restent à résoudre. Début 2008, le groupe japonais Fujikura a annoncé51[réf. incomplète] avoir testé une cellule photovoltaïque organique de type Grätzel pendant 1 000 heures à 85 °C et une hygrométrie de 85 %. Elle s'est avérée non seulement plus résistante, mais d'un rendement amélioré de 50 à 70 %, grâce à une surface dépolie qui diffuse aléatoirement la lumière réfléchie à l'intérieur de la cellule où elle libère à nouveau des charges électriques en activant d'autres pigments photosensibles.
Notes et références
Notes
- La tension de la cellule est quasi constante, quoique légèrement décroissante, lorsque le courant la traverse. La puissance électrique répond à la loi P = U ⋅ I
- une petite proportion des atomes du matériau considéré est remplacée par un élément de valence supérieure dans la classification périodique, c’est-à-dire qui possède plus d'électrons sur sa couche de valence. Par exemple, le silicium possède quatre électrons sur sa couche de valence : on peut donc utiliser des éléments de la colonne 15, par exemple le phosphore.
- par un élément de valence inférieure au silicium. Il peut s'agir de bore (B) ou d'un autre élément de la colonne 13.
- On peut, en revanche, lui donner une forme ondulée, comme sur l'exemple : le volume actif est augmenté.
- Coins arrondis dans le cas du silicium monocristallin.
Références
- Raymond Guidot, Histoire des objets : Chronique du design industriel, (ISBN 9782754104067), p.415
- (en) Luque, A. & Hegedus, S., Handbook of photovoltaic science and engineering., John Wiley & Sons, , 1132 p. (ISBN 978-0-470-72169-8)
- (en) « Altermatt Lecture: The PV Principle, 1.4: The first solar cells » [archive], sur pvlighthouse.com.au (consulté le )
- « Histoire condensée du photovoltaïque » [archive], sur futura-sciences.com (consulté le )
- Tonino Amaniera, « Hassan Kamel Al-Sabah il voulait reverdir les déserts », sur qatarinfos.net, (version du 8 septembre 2017 sur l'Internet Archive).
- Christian Ngô, L'énergie : Ressources, technologies et environnement, Dunod, (ISBN 9782100065554)
- « Petite histoire du photovoltaique » [archive], sur cnrs.fr (consulté le )
- « Quand le plastique entre en jeu : la cellule solaire organique » [archive], sur futura-sciences.com (consulté le ).
- (en) Compared assessment of selected environmental indicators of photovoltaic electricity in OECD cities [archive] [PDF], IEA.
- « Copie archivée » (version du 6 août 2018 sur l'Internet Archive), sur eupvplatform.org.
- (en) « NPD Solarbuzz predicts hard times for thin-film PV » [archive du ], sur photon-international.com, .
- (en) Institut Photovoltaïque d’Île-de-France (IPVF), « A 19.9%-efficient ultrathin solar cell based on a 205-nm-thick GaAs absorber and a silver nanostructured back mirror » [archive], sur www.ipvf.fr, Nature, (présentation en ligne [archive], consulté le )
- INES Éducation - Solaire photovoltaïque [archive]
- Rendement suivant les matériaux [archive] [PDF], Ademe.
- D. L. Staebler et C. R. Wronski, « Reversible conductivity changes in discharge-produced amorphous Si », Applied Physics Letters, vol. 31, , p. 292–294 (ISSN 0003-6951, DOI 10.1063/1.89674, lire en ligne [archive], consulté le )
- « Impression, cellule photovoltaïque, énergie solaire, couche mince » [archive], sur grenoble-inp.fr (consulté le ).
- Association HESPUL, « Les technologies de cellules solaires photovoltaïques » [archive], sur www.photovoltaique.info (consulté le )
- « Cellules en silicium monocristallin de SunPower » [archive], sur www.solariflex.com (consulté le )
- Le Silicium Monocristallin [archive] « Copie archivée » (version du 6 août 2018 sur l'Internet Archive), energissimo.fr (consulté en octobre 2013)
- Philippe Passebon, « Des cellules photovoltaïques tandem pérovskite/silicium » [archive], sur Industrie et Technologie, (consulté le ).
- « Rendement : 25,1% pour l’hétérojonction en silicium, 18% pour une cellule tandem à pérovskite » [archive], sur l'écho du solaire, (consulté le ).
- Sophie Hoguin, « Des avancées majeures pour le photovoltaïque organique » [archive], sur techniques-ingenieur.fr, (consulté le ).
- (en) Andreas W. Bett, « Overview about technology perspectives for high efficiency solar cells for space and terrestrial applications », 28th European Photovoltaic Solar Energy Conference and Exhibition, (lire en ligne [archive])
- (en) « SPACE Solar Cells » [archive], sur Azur Space (consulté le )
- (en) « Data Sheets » [archive], sur Spectrolab (en) (consulté le )
- (en) « ZTJ Datasheet » [archive] [PDF], sur SolAero (consulté le ).
- (en) John F. Geisz, Ryan M. France, Kevin L. Schulte et Myles A. Steiner, « Six-junction III–V solar cells with 47.1% conversion efficiency under 143 Suns concentration », Nature Energy, vol. 5, no 4, , p. 326–335 (ISSN 2058-7546, DOI 10.1038/s41560-020-0598-5, lire en ligne [archive], consulté le ).
- (en) Renee Gastineau, « Engineering a better solar cell: UW research pinpoints defects in popular perovskites » [archive], sur washington.edu, (consulté le ).
- « Recherche solaire - Prometteuse découverte sur les pérovskites » [archive], sur energies-renouvelables.org, (consulté le ).
- (en) G. Grancini, C. Roldán-Carmona, I. Zimmermann, E. Mosconi, X. Lee, D. Martineau, S. Narbey, F. Oswald, F. De Angelis, M. Graetzel & Mohammad Khaja Nazeeruddin, « One-Year stable perovskite solar cells by 2D/3D interface engineering », Nature Communications, (DOI 10.1038/ncomms15684, lire en ligne [archive]).
- « L’énergie solaire après Fukushima, la nouvelle donne (Medicilline 2011), Louis Boisgibault » [archive], sur site Les Echos, .
- Commission nationale de normalisation électrotechnique [archive] « Copie archivée » (version du 6 août 2018 sur l'Internet Archive) Union Technique de l’Électricité
- Normes C15, commission U15C, UTE.
- « info énergie renouvelable photovoltaique autoconso Conseil gratuit association » [archive], sur INFO Energies renouvelables (consulté le ).
- infoenergies, « Simulation rentabilité photovoltaïque - calcul des besoins autoconsommation », Info énergies renouvelables, (lire en ligne [archive], consulté le ).
- La ministre de l'Écologie Ségolène Royal a annoncé ce mercredi la création de 1 000 km de routes couvertes de panneaux photovoltaïques producteurs d'électricité. Découvrez comment fonctionne cette "route du futur". [archive] « Copie archivée » (version du 6 août 2018 sur l'Internet Archive), sur tf1.fr
- « La première route solaire du monde inaugurée en France », LExpress.fr, (lire en ligne [archive], consulté le ).
- « HeliosLite, la start-up franco-américaine qui veut « tracker » les photons » [archive], sur cleantechrepublic.com, 10 juin 2014.
- Nikkei Net (2007 12 06) [archive] « Copie archivée » (version du 6 août 2018 sur l'Internet Archive) (en), Bulletin de l'ambassade de France [archive].
- L’énergie de demain sera-t-elle tirée de l'infrarouge ? [archive], sur futurascience.
- (en) James Temple, « This device could be a big boost for making solar power much cheaper », MIT Technology Review, (lire en ligne [archive], consulté le ).
- Institut associant EDF, CNRS et École nationale supérieure de chimie de Paris (ENSCP).
- Famille CIS - Couche mince (en production) [archive] « Copie archivée » (version du 6 août 2018 sur l'Internet Archive)
- « Showa Shell construit une centrale solaire photovoltaïque CIS » [archive], sur bulletins-electroniques.com, .
- « Doubler le rendement des cellules photovoltaïques » [archive], sur enerzine.com,
- (en) Hank Green, « Silicon Nano Crystals Could Triple Solar Efficiency » [archive du ], sur ecogeek.org, (consulté le )
- (en) Randall Parker, « Quantum Dots May Boost Photovoltaic Efficiency To 65% » [archive], sur futurepundit.com,
- (en) Yyonne Carts-Powell, « Research targets more-efficient photovoltaics » [archive], sur laserfocusworld.com,
- (en) Tannith Cattermole, « Harnessing 'hot' electrons could double efficiency of solar cells » [archive], sur gizmag.com,
- (en)UD-Led Team Sets Solar Cell Efficiency Record of 42.8%; Joins DuPont on $100M Project [archive], sur greencarcongress.com, juillet 2007 (consulté le 30 novembre 2017).
Voir aussi
Articles connexes
Liens externes
Sur les autres projets Wikimedia :
Éolienne
Une éolienne est un dispositif qui transforme l'énergie cinétique du vent en énergie mécanique, dite énergie éolienne, laquelle est ensuite le plus souvent transformée en énergie électrique. Les éoliennes produisant de l'électricité sont appelées aérogénérateurs, tandis que les éoliennes qui pompent directement de l'eau sont parfois dénommées éoliennes de pompage ou pompe à vent. Une forme ancienne d'éolienne est le moulin à vent.
Les termes « centrale éolienne », « parc éolien » ou « ferme éolienne » sont utilisés pour décrire les unités de production groupées, installées à terre ou en mer.
Les pays du monde où les champs éoliens sont les plus nombreux sont la Chine, les États-Unis, l'Allemagne, l'Espagne, l'Inde, le Royaume-Uni et, en proportion de la population, le Danemark (voir Production d'énergie éolienne).
Comme l'énergie solaire et d'autres énergies renouvelables intermittentes, l'éolien peut constituer un système d'alimentation autonome, mais il nécessite alors soit une source d'énergie d'appoint pour les périodes moins ventées (par exemple des centrales à gaz), soit un stockage d'énergie de réseau (batteries, stockage hydraulique ou, plus récemment, hydrogène, méthanation, air comprimé), soit encore un réseau électrique intelligent.
Éoliennes en mer photographiées en 2014.
Étymologie
En 1885, Ernest-Sylvain Bollée, inventeur de l'éolienne Bollée, utilise le mot « éolienne » pour la première fois comme nom commun à partir de l'adjectif substantivé (énergie éolienne). Le mot trouve sa place dans le Larousse en 19071.
Historique
L'ancêtre de l'éolienne est le moulin à vent, apparu en Perse dès l'an 620 et suivi de la pompe à vent, apparue au IXe siècle dans l'actuel Afghanistan. De nos jours, ils sont encore utilisés couplés à une pompe à eau, généralement pour drainer et assécher des zones humides ou au contraire irriguer des zones sèches ou permettre l'abreuvage du bétail.
En 1888, Charles Francis Brush construit une grande éolienne pour alimenter sa maison en électricité, avec stockage par batterie d'accumulateurs.
La première éolienne « industrielle » génératrice d'électricité est mise au point par le Danois Poul La Cour en 1890, pour fabriquer de l'hydrogène par électrolyse. Dans les années suivantes, il crée l'éolienne « Lykkegard », dont il vend soixante-douze exemplaires en 19082.
En 1923, le généticien britannique John Burdon Sanderson Haldane écrit :
« Si une éolienne dans le jardin pouvait produire 50 kg de charbon par jour (or, elle peut produire l’équivalent en énergie), nos mines de charbon fermeraient dès demain. Personnellement, je pense que d’ici 400 ans, on aura peut-être résolu le problème de l’énergie en Angleterre de la façon suivante : le pays sera recouvert de rangées d’éoliennes de métal, entraînant des moteurs électriques qui eux-mêmes fourniront un courant à très haute tension à un grand réseau électrique. De grandes centrales judicieuses espacées utiliseront le surplus d’énergie des périodes venteuses pour effectuer la décomposition électrolytique de l’eau en oxygène et en hydrogène. Ces gaz seront liquéfiés et stockés dans de vastes réservoirs à double paroi sous vide, probablement enterrés. (…) Par temps calme, les gaz seraient recombinés dans des moteurs à explosion reliés à des dynamos pour récupérer de l’électricité ou, plus probablement, dans des piles à combustibles3. »
Une éolienne expérimentale de 800 kVA fonctionna de 1955 à 1963 en France, à Nogent-le-Roi dans la Beauce. Elle avait été conçue par le Bureau d'études scientifiques et techniques de Lucien Romani et exploitée pour le compte d'EDF. Simultanément, deux éoliennes Neyrpic de 130 et 1 000 kW furent testées par EDF à Saint-Rémy-des-Landes (Manche)4. Il y eut également une éolienne raccordée au secteur sur les hauteurs d'Alger (Dély-Ibrahim) en 1957.
Cette technologie ayant été quelque peu délaissée par la suite, il faudra attendre les années 1970 et le premier choc pétrolier pour que le Danemark reprenne les installations d'éoliennes.
Description
Éolienne à axe horizontal
Une éolienne à axe horizontal est une hélice perpendiculaire au vent, montée sur un mât. La hauteur est généralement de 20 m pour les petites éoliennes, et supérieure au double de la longueur d'une pale pour les modèles de grande envergure.
En 2017, la plus grande éolienne mesure 187 m de haut pour une puissance de 9,5 MW5. En 2019, le prototype de l'Haliade X, installé à Rotterdam, d'une puissance de 12 MW, atteint 260 m de haut6.
Composition
L'éolienne la plus courante, à axe horizontal, se compose d'un mât, une nacelle et un rotor. Des éléments annexes, comme un poste de livraison pour injecter l'énergie électrique produite au réseau électrique, complètent l'installation.
Une telle éolienne se modélise principalement à partir de ses caractéristiques aérodynamiques, mécaniques et électrotechniques. En pratique, on distingue aussi le « grand éolien », qui concerne les machines de plus de 350 kW7, de l'éolien de moyenne puissance (entre 36 et 350 kW7) et du petit éolien (inférieur à 36 kW7).
Mât
Le mât permet de placer le rotor à une hauteur suffisante pour permettre son mouvement (nécessaire pour les éoliennes à axe horizontal), ou à une hauteur où le vent souffle de façon plus forte et plus régulière qu'au niveau du sol. Le mât abrite généralement une partie des composants électriques et électroniques (modulateur, commande, multiplicateur, générateur, etc.). Les mâts sont généralement en acier, mais des mâts de béton sont de plus en plus utilisés par certains producteurs (par exemple en France, pour environ 1 000 éoliennes montées de 2004 à début 2013 par Enercon, 300 ont un mât de béton)8.
Nacelle
La nacelle est montée au sommet du mât et abrite les composants mécaniques, pneumatiques, certains composants électriques et électroniques nécessaires au fonctionnement de la machine. La nacelle peut tourner pour orienter la machine dans la bonne direction.
Rotor
Le rotor est composé du nez de l'éolienne recevant les pales (en général trois), fixé sur un arbre tournant dans des paliers installés dans la nacelle. Le rotor, solidaire des pales, est entraîné par l'énergie du vent. Il est branché directement ou indirectement (via un multiplicateur de vitesse à engrenages) au système mécanique qui utilise l'énergie recueillie (pompe, générateur électrique, etc.).
Puissance théoriquement récupérable
La puissance du vent contenue dans un cylindre de section S est :
- P c i n e ´ t i q u e = 1 2 . ρ . a . S . V 3
avec :
- V e o l i e n n e = a . V 0.5 ≤ a ≤ 1. V e o l i e n n e : Vitesse du fluide au niveau de l'éolienne
- ρ : masse volumique de l'air (air atmosphérique sec, environ : 1,23 kg/m3 à 15 °C et à pression atmosphérique 1,0132 bar)
- V : vitesse du vent en m/s
Une éolienne ne permet de récupérer qu'une partie de cette puissance, car l'écoulement ne peut pas avoir une vitesse nulle après son passage à travers la turbine (dans le cas contraire, cela reviendrait à « arrêter le vent »).
Formule de Betz
L'énergie récupérablea est inférieure à l'énergie cinétique de l'air situé en amont de l'éolienne, puisque l'air doit conserver une énergie cinétique résiduelle pour qu'il subsiste un écoulement. Albert Betz a démontré que la puissance maximale récupérable est égale aux 16⁄27 de la puissance incidente.
La puissance maximale théorique d'une éolienne est ainsi fixée à :
- P m a x = 16 27 . 1 2 . ρ . S . V 3
- e t a = 2 3 V e o l i e n n e = a . V
soit :
- P m a x = 0 , 37. S . V 3
Où :
-
- P = puissance en watts (W) ;
- S = surface balayée par les pales en mètres carrés (m2) ;
- V = vitesse du vent en mètres par seconde (m/s)
Cette puissance maximale est ensuite affectée du coefficient de performance propre au type et au modèle d'éolienne et au site d'installation. Ce coefficient est en général compris entre 0,20 et 0,70.
Pour le calcul de la puissance d'une éolienne tenant compte de l'énergie cinétique et potentielle, voir : calcul de la puissance d'une turbine type éolien ou hydrolienne.
Production d'énergie électrique
Du fait de l'intermittence du vent et des variations de sa puissance, il est important de distinguer deux notions :
- Puissance nominale
- une des caractéristiques importantes des éoliennes est leur puissance électrique nominale. Ainsi faire référence à une éolienne de 2 MWc (mégawatt-crête) signifie qu'elle est capable de fournir une puissance électrique maximale de 2 × 106 watts). La vitesse de vent minimale pour atteindre cette puissance maximale est de l'ordre de 15 m/s, soit environ 55 km/h : en dessous de cette vitesse, l'éolienne produit moins d'énergie, mais au-dessus, la production n'est pas plus importante et quand la vitesse du vent atteint le seuil de sécurité (souvent aux alentours de 25 à 35 m/s – 90 à 126 km/h), l'éolienne est bridée, voire mise à l'arrêt9. La production réelle d'énergie électrique est donc fonction de la distribution statistique de la vitesse du vent sur le site.
- Facteur de charge
- Rapport entre l'énergie électrique produite sur une période donnée et l'énergie que l'éolienne aurait produite si elle avait fonctionné à sa puissance nominale durant la même période. Cet indicateur est souvent calculé sur une année et exprimé en pour cent (%), c'est d'ailleurs le cas dans la suite de cette section. En moyenne sur l'ensemble de l'Europe, ce facteur de charge a varié entre 17,7 et 21,0 % entre 2003 et 200810, alors qu'en France il a été de 22 % pour les années 2009 et 201011,12. En 2022, la Neue Zürcher Zeitung a calculé le facteur de charge de 18 000 éoliennes en Allemagne sur un total de 28 000. Selon le quotidien suisse, leur facteur de charge est inférieur à 20 %. Seules 15 % des éoliennes ont un facteur de charge qui dépasse 30 %. Deux seulement se trouvent dans le sud de l'Allemagne13.
En 2009, l'éolien représentait 1,3 % de la production mondiale d'électricité :
- En France
- la production électrique via l'éolien représentait 1,5 % de la production totale d'électricité en 200912 et 1,7 % en 201011.
- Au Danemark
- avec un parc de 3 482 MW en 2009 et une production de 24 194 TJ, la production éolienne représentait 18,5 % de la production d'électricité (soit 2,99 % de la consommation totale d'énergie)14.
- Eolienne et parcs d'éoliennes
-
Éoliennes et lignes à haute tension près de Rye, en Angleterre.
-
-
Autres caractéristiques techniques
Pour des raisons de sécurité, il est nécessaire d'immobiliser les pales lorsque le vent est trop fort. En effet, les pales fléchissent sous la force du vent et, par vent trop fort, viendraient percuter le mât. L'inertie de la turbine est à peu près proportionnelle au cube de la longueur des pales alors que la surface résistante au vent est proportionnelle au carré de cette longueur. Les pressions exercées sur une éolienne augmentent donc très rapidement à mesure que sa taille augmente. Ainsi la longueur maximale d'une pale est-elle limitée par la résistance de ses matériaux.
Les pales de grande taille sont réalisées avec des matériaux composites à base de fibre de verre ou de carbone et une résine époxy ou polyester15 ; d'autres matériaux peuvent être utilisés16. Les éoliennes plus petites peuvent être construites dans des matériaux moins chers, tels que la fibre de verre, l'aluminium ou le bois lamellé.
- Éléments d'une éolienne
-
-
-
Segments du mât sur remorques et embase d'une pale.
-
Pales de remplacement mesurant environ 15 m de long.
Les petites éoliennes sont dirigées vers le vent par un aileron arrière, à la manière d'une girouette. Les grandes éoliennes possèdent des capteurs qui détectent la direction du vent et actionnent un moteur qui fait pivoter le rotor.
Chaque pale en rotation se comporte comme un gyroscope, et du fait de la force de gravité qui s'exerce sur elle, elle est soumise à une force de précession qui, étant perpendiculaire à la fois à l'axe de rotation et à la force de gravité, est horizontale. Cette force de précession est donc parallèle à la pale lorsque celle-ci est horizontale, et lui est perpendiculaire lorsque la pale est verticale. À terme, ces changements cycliques de force sur les pales peuvent fatiguer et faire casser la base des pales, ainsi que l'axe de la turbine.
Éolienne de pompage, pour puiser de l'eau.
Quand une éolienne puissante possède plus d'une pale, celles-ci sont perturbées par l'air déplacé par la pale précédente. Le rendement s'en trouve réduit.
Les vibrations diminuent quand le nombre de pales augmente. En plus de fatiguer les mécanismes, certaines vibrations sont audibles et provoquent des nuisances sonores. Cependant, les éoliennes possédant moins de pales, plus grandes, fonctionnent à un nombre de Reynolds plus élevé, et sont par conséquent[réf. nécessaire] plus efficaces. Le prix d'une éolienne augmentant avec le nombre de pales, le nombre optimal pour un système à axe horizontal est donc de trois, car avec deux pales les problèmes de balourd seraient plus importants. En effet le nombre de pales doit être impair pour que l'équilibrage soit optimal17.
Les rotors à nombre pair de pales ne nécessitent pas obligatoirement de fixer individuellement chaque pale sur un moyeu. Aussi, beaucoup d'éoliennes commercialisées ont deux pales, car il est plus facile et plus économique de fabriquer celles-ci d'un seul tenant. Les éoliennes à trois pales, plus silencieuses, doivent généralement être montées sur place.
La plupart des éoliennes artisanales possèdent deux pales, car elles sont fabriquées à partir d'une seule longue pièce de bois ou de métal, montée sur un générateur de récupération, tel qu'un alternateur de voiture ou un moteur de machine à laver.
Comme le mât produit des turbulences derrière lui, le rotor est généralement placé devant le mat. Dans ce cas, le rotor est placé assez loin en avant, et son axe est parfois incliné par rapport à l'horizontale, afin d'éviter que les pales ne viennent heurter le mât. On construit parfois des éoliennes dont le rotor est placé en aval du mât, malgré les problèmes de turbulences, car les pales peuvent ainsi être plus souples et se courber sans risquer de heurter le mât en cas de grand vent, réduisant ainsi leur résistance à l'air.
Les anciens moulins à vent sont équipés de voilures en guise de pales, mais celles-ci ont une espérance de vie très limitée. De plus, leur résistance à l'air est relativement élevée par rapport à la puissance qu'elles reçoivent. Elles font tourner le générateur trop lentement et gaspillent l'énergie potentielle du vent dont la poussée implique qu'elles soient montées sur un mât particulièrement solide. C'est pourquoi on leur préfère aujourd'hui des pales profilées rigides.
Quand une pale est en rotation, la vitesse relative du vent par rapport à la pale est supérieure à sa vitesse propre, et dépend de l'éloignement du point considéré de la pale avec son axe de rotation. Cela explique que le profil et l'orientation de la pale varient dans sa longueur. La composition des forces s'exerçant sur les pales se résume en un couple utile permettant la production d'électricité par l'alternateur, et une force de poussée axiale, répercutée sur le mât par l'intermédiaire d'une butée. Cette poussée peut devenir excessive par vent trop fort ; c'est pourquoi les éoliennes sont alors arrêtées et orientées pour offrir la moindre prise au vent.
Des essais ont été effectués (2004) pour utiliser des pales cylindriques et bénéficier de l'effet Magnus.
Éolienne à axe vertical
Outre les éoliennes classiques à axe horizontal parallèle à la direction du vent, les éoliennes dites « à axe vertical » présentent un axe perpendiculaire à la direction du vent. L'axe est souvent positionné à la verticale, mais des éoliennes de ce type peuvent aussi être positionnées à l'horizontale18,19. Ce type d'éoliennes se décline suivant plusieurs principes.
Le type Darrieus
L'éolienne de type Darrieus repose sur l’effet de portance subi par un profil soumis à l'action d'un vent relatif, tel l'effet qui s'exerce sur l'aile d'un avion. On distingue plusieurs déclinaisons autour de ce principe, depuis le simple rotor cylindrique – deux profils disposés de part et d'autre de l'axe – jusqu'au rotor parabolique où les profils sont recourbés en troposkine et fixés au sommet et à la base de l'axe vertical. Une éolienne de ce type a fonctionné au Québec (au Parc Éole) de 1983 à 1992. De grandes dimensions (110 m de haut), le prototype s'est détérioré lors d'une rafale. Il était conçu pour fournir 4 MW avec un générateur au sol.
Le type Savonius
Éolienne combinant les technologies Darrieus et Savonius,
Noveol.
Le type Savonius, constitué schématiquement de deux ou plusieurs godets demi-cylindriques légèrement désaxés présente un grand nombre d'avantages. Outre son faible encombrement, qui permet d'intégrer l'éolienne aux bâtiments sans en dénaturer l'esthétique, il est peu bruyant. Il démarre à de faibles vitesses de vent et présente un couple élevé quoique variant de façon sinusoïdale au cours de la rotation. Il existe une variante, appelée Savonius hélicoïdal (ou twisted Savonius en anglais), qui permet d'augmenter le rendement en proposant de façon continue une surface d'accroche au vent. Au lieu d'avoir des demi-cylindres verticaux, ceux-ci sont tordus de façon hélicoïdale autour de l'axe de rotation. Du fait de leur faible encombrement au sol, de leur bon rendement et du besoin d'un très faible vent, ils sont utilisés en ville sur les toits des maisons, sur des bateaux, comme le Hornblower Hybrid, ou encore dans la Tour de la Rivière des Perles, une tour à énergie positive. Elles sont également adaptées à une position horizontale, l'axe de rotation restant perpendiculaire au vent et non dans le profil du vent, comme les éoliennes classiques à axe horizontal.
Certain constructeurs ont également conçu des éoliennes intégrant à la fois la technologie Darrieus et la technologie Savonius en cherchant à combiner les avantages de ces deux technologies.
Une déclinaison de ce type d'éolienne est le Moulinet, dont l'anémomètre constitue une bonne illustration. Citons aussi les modèles à écran où on masque le côté « contre-productif » de l'engin. Ce modèle utilise un système d’orientation de l'écran par rapport au vent, supprimant de fait un avantage essentiel des éoliennes à axe vertical. Finalement l'accroissement important de la masse en fonction de la dimension rend l'éolienne de type Savonius peu adaptée à la production de grande taille dans un parc à éoliennes.
Le type à voilure tournante
Le type à voilure tournante (ou panémone) est caractérisé par l'optimisation dynamique du calage des pales en temps réel. Celles-ci se comportent de la même manière que la voile d'un voilier qui ferait un cercle dans l'eau avec un vent déterminé. Les pales reproduisent ainsi fidèlement toutes les allures d'un voilier suivant leur cap tangentiel (angle) par rapport à la direction du vent. Il en résulte que la poussée tangentielle sur les bras du rotor supportant les pales est toujours optimisée. Cette forme de captation de l'énergie éolienne est très ancienne (Iran, Crète…). Ce procédé, qui a reçu la médaille d'argent au Salon international des inventions de Genève en 2006, donne lieu à plusieurs expérimentations21,22.
D'autres modèles sont construits par diverses entreprises pour s'affranchir des limites dues à la taille des pales, à leur vitesse de rotation et au bruit. Le principe est celui d'un rotor d'axe vertical qui tourne au centre d'un stator à ailettes. Ce type de solution réduit considérablement le bruit tout en permettant le fonctionnement avec des vents supérieurs à 220 km/h et quelle que soit leur direction. L'encombrement total est plus faible aussi bien pour l'espace au sol que pour la hauteur. Pour une éolienne de 3 m de diamètre et 2 m de haut, une production de 8 000 kWh/an est annoncée (2007)[réf. nécessaire]. Ce dispositif est installé seulement sur de petites éoliennes ; il modifie les efforts de l'air sur les pales. Il agit de façon à sortir le rotor du lit du vent de façon à diminuer ses effets sur les pales.[pas clair]
- Le type à voilure tournante épicycloïde est caractérisé par des performances identiques au type Darrieus, mais avec des vitesses de rotation plus lentes et un démarrage dès 1 m/s de vent (3,6 km/h). Cette technologie est peu bruyante et peut s'intégrer en milieu urbain23.
Régulation aérodynamique sur les pales
- Le pas variable permet de modifier l'orientation des pales sur le moyeu et permet ainsi de modifier l'énergie récupérée par l'éolienne. Entre autres, il permet d’arrêter l’éolienne afin de la protéger des vents violents (en plaçant les pales en drapeau et en réduisant donc la prise au vent) ou à maximiser le couple transmis au rotor pour la faire démarrer.
- Le pas fixe empêche les pales d'accélérer en utilisant l’effet Stall qui agit comme un frein par le décrochage aérodynamique au niveau de la pale du rotor.
- Les volets (aérofrein ou flaps) s’ouvrent automatiquement, si la vitesse du vent devient excessive ou si un problème est décelé, et ralentissent les pales ou diminuent leur portance en provoquant un décrochage aérodynamique.
- Les spoilers, encastrés dans le bord d'attaque des pales (freinage aérodynamique). Chaque spoiler est maintenu dans son logement par un ressort de rappel et une masse tarés individuellement en fonction de la position du spoiler sur le bord d'attaque de la pale. À partir d'une certaine vitesse linéaire, la force centrifuge provoque l'éjection de tous les spoilers au même moment modifiant ainsi le profil aérodynamique de la pale.
Arrêt par frein à disque automatique
Il ne s’agit plus d’un système de ralentissement, mais d'arrêt complet de l’éolienne.
Ce mécanisme se déclenche automatiquement lorsque la vitesse atteint un certain seuil par l’intermédiaire d’un détecteur de vitesse. En cas de ralentissement du vent, le frein est relâché et l’éolienne fonctionne de nouveau librement. Ce dispositif peut aussi se déclencher lorsqu'un problème de réseau électrique est détecté.
Les éoliennes à pas fixe et régulation Stall comportent souvent, par sécurité, deux freins à disques.
Éoliennes pour sites peu ventés
Les modèles d'éoliennes de classe III, spécialement adaptés aux sites bénéficiant de vitesses de vents moyennes sur un an, allant jusqu’à 7,5 mètres par seconde, ont connu des progrès technologiques importants et présentent des rendements supérieurs de l’ordre de 10 à 25 % par rapport à la précédente génération. Elles sont généralement de plus grande hauteur et possèdent des pales beaucoup plus longues, ce qui leur permet de diminuer le rapport entre la puissance électrique et la surface balayée par les pales, donc d'augmenter significativement la durée d’utilisation des machines (facteur de charge). Leur production est également plus régulière, ce qui limite les difficultés de gestion des pics de puissance par les réseaux d’électricité. Enfin, elles peuvent être installées au plus près des zones de consommation, ce qui permet de limiter les investissements du réseau de distribution. Les sites peu ventés sont également beaucoup plus répandus et souvent beaucoup plus facilement accessibles que les sites de classe I (fortement ventés) ou II (moyennement ventés), ce qui ouvre de nouvelles perspectives sur les marchés internationaux. Le lancement de nombreux modèles est annoncé pour 2017 par Nordex, Gamesa, Enercon, Vestas et GE Wind24.
Caractéristiques techniques
Plage de fonctionnement
Le rendement énergétique et la puissance développée des éoliennes sont fonction de la vitesse du vent. Pour les éoliennes tri-pales, en début de plage de fonctionnement (de 3 à 10 m/s de vent), la puissance est approximativement proportionnelle au cube de cette vitesse, jusqu'à un plafond de vitesse de 10 à 25 m/s déterminé par la capacité du générateur. Les éoliennes tri-pales actuellement commercialisées sont conçues pour fonctionner dans la plage de 11 à 90 km/h (3 à 25 m/s), que ce soit celles d'Enercon25, celles d'Areva pour l'éolien en mer26, ou celles d'Alstom pour les éoliennes terrestres27 comme en mer28. Au-delà de ces vitesses, elles sont progressivement arrêtées pour sécuriser les équipements et minimiser leur usure29.
La Chine a émis une référence technique pour les turbines terrestres dans les zones cycloniques, standard applicable à partir de , mais non obligatoire. Il a été mis au point par le fabricant chinois Windey, qui a développé des turbines pouvant faire face à des vents extrêmement puissants grâce à leur structure mécanique renforcée et à un algorithme de contrôle qui stoppe les éoliennes au-delà d'une vitesse de 70 m/s. Ces turbines ont ainsi résisté au cyclone Haiku le et à ses vents de plus de 60 m/s30.
Facteur de charge
La puissance est représentative du maximum de production possible, mais l'énergie produite dépend de nombreux autres paramètres comme la force du vent ou les opérations de maintenance nécessaires. Le facteur de charge, rapport entre la production effective et la production maximale théorique, est couramment utilisé comme indicateur de l'énergie produite par une installation électrique. Alors qu'une éolienne a, en moyenne, un facteur de charge de 20 %31, celui du solaire photovoltaïque est situé autour de 10 %31, à comparer avec celui du nucléaire : 80 % en moyenne, 73 % en France en 2012 et 76 % en 201132.
Les pays dotés de parcs éoliens en mer ont un facteur de charge plus élevé. Au Danemark en 2012, le facteur de charge de l'éolien en mer atteignait 45 % contre 25 % pour le parc éolien terrestre33.
Critères de choix de sites éoliens
Un mât de mesure permet de connaître le potentiel éolien.
Les critères de choix d'une implantation éolienne dépendent de la taille, puissance et du nombre d'unités. Ils nécessitent la présence d'un vent régulier (cf. atlas éolien) et diverses conditions telles que : proximité d'un réseau électrique pour y raccorder les aérogénérateurs, absence de zones d'exclusion (dont périmètre de monuments historiques, sites classés, zones à phénomènes d'écho en montagnes, paysages, ) et de préférence une zone dite "non-conflit" par les promoteurs de l'éolien (population peu dense et offrant peu de résistance).
Le vent
L'efficacité d'une éolienne dépend notamment de son emplacement. En effet, la puissance fournie augmente avec le cube de la vitesse du ventb, raison pour laquelle les sites sont d'abord choisis en fonction de la vitesse et de la fréquence des vents présents. Un site avec des vents de 30 km/h de moyenne sera huit fois plus productif qu'un autre site avec des vents de 15 km/h de moyenne. Une éolienne fonctionne d'autant mieux que les vents sont réguliers et fréquents.
Un autre critère important pour le choix du site est la constance de la vitesse et de la direction du vent, autrement dit la turbulence du vent. En effet, en règle générale, les éoliennes sont utilisables quand la vitesse du vent est supérieure à une valeur comprise entre 10 et 20 km/h, sans toutefois atteindre des valeurs excessives (supérieures à 90 km/h) qui conduiraient à la destruction de l'éolienne ou à la nécessité de la « débrayer » (pales en drapeau) pour en limiter l'usure. La vitesse du vent doit donc être comprise le plus souvent possible entre ces deux valeurs pour un fonctionnement optimal de l'éolienne. De même, l'axe de rotation de l'éolienne doit rester la majeure partie du temps parallèle à la direction du vent. Même avec un système d'orientation de la nacelle performant, il est donc préférable d'avoir une direction de vent la plus stable possible pour obtenir un rendement optimal (alizés par exemple).
Certains sites proches de grands obstacles sont ainsi à proscrire, car le vent y est trop turbulent (arbres, bâtiments, escarpements complexes en montagne, régions à phénomènes d'écho...).
De manière empirique, on trouve les sites propices à l'installation d'éoliennes en observant les arbres et la végétation. Les sites sont intéressants s'ils sont constamment courbés par les vents, la courbure des arbres, dans le même sens, indiquant la régularité des vents.. Les implantations industrielles utilisent des cartes de la vitesse des vents des atlas éoliens (là où ils existent) ou des données accumulées par une station météorologique proche, le mieux étant d'effectuer la mesure sur le lieu même d'implantation.
En France, un projet est considéré comme économiquement rentable si la vitesse moyenne annuelle du site est supérieure à 6 ou 7 m/s, soit 21 à 25 km/h. Cette rentabilité dépend de nombreux autres facteurs, dont les plus importants sont le coût de connexion au réseau et le coût des fondations (déterminant dans le cas d'un projet en mer) ainsi que les coûts de rachat de l'électricité et de prise en charge des impacts environnementaux (sur la faune, les paysages, par nuisances acoustiques et stroboscopiques).
Certains sites sont particuliers en ce qu'ils augmentent la vitesse du vent et sont donc plus propices à une installation éolienne :
- l'accélération par effet géométrique : lorsque l'air s'engouffre entre deux obstacles comme deux montagnes ou deux grands bâtiments, il est accéléré par effet Bernoulli. De même, lorsqu'il rencontre une colline, l'air est accéléré à son sommet. Ces lieux sont cependant souvent de surface restreinte et peuvent être soumis à des turbulences si la forme des obstacles est irrégulière ;
- la mer et les lacs ne présentent aucun obstacle au vent, aussi, même à basse altitude, les vents ont une vitesse plus importante et sont moins turbulents. La proximité d'une côte escarpée, en revanche, crée des turbulences, usant prématurément certains composants mécaniques de l'éolienne.
De manière générale, il est toujours nécessaire d'effectuer une mesure de vent précise durant plusieurs mois, afin de s'assurer du potentiel éolien du site34. Une étude précise permet ensuite d'extrapoler les données et de déterminer plus ou moins précisément les caractéristiques annuelles du vent (fréquence, vitesse…) et son évolution au cours des années.
Autres critères
Fondation en béton d'une éolienne.
D'autres critères sont pris en compte pour le choix du site :
- La nature du sol : il doit être suffisamment résistant pour supporter les fondations de l'éolienne. Ce critère n'est pas déterminant car dans le cas d'un sol meuble, des pieux seront alors enfoncés sous les fondations de l'éolienne. Il existe aussi des éoliennes haubanées.
- L'accessibilité du site (virages, pente, passage de ponts) doit permettre le transport des gros éléments de l'éolienne (pales, tour, nacelle) et des grues nécessaires au montage. Cette contrainte peut limiter la puissance maximale installable par machine.
- La connexion au réseau électrique. Pour cela, les petites fermes d'éoliennes sont le plus souvent situées à proximité d'un poste de transformation haute tension afin de diminuer le coût de raccordement qui est directement fonction de la distance à ce poste. Pour les grosses fermes éoliennes, le réseau doit être en mesure de supporter l'énergie produite, et son renforcement est parfois nécessaire (renforcement ou création de poste de transformation). Le raccordement est plus coûteux dans le cas des projets en mer, mais les sites sont beaucoup plus ventés et les contraintes beaucoup plus faibles.
- Les éoliennes, selon leur taille, vitesse de rotation et emplacement, peuvent avoir un effet négatif sur les oiseaux ou chauve-souris (collision, dégradation de l'habitat, etc.) notamment si elles sont éclairées de nuit (cf. pollution lumineuse) ou disposées sur un corridor de migration aviaire. Birdlife International a fait un certain nombre de recommandations au Conseil de l'Europe à ce sujet35 : les réserves naturelles, les routes migratoires importantes (cols montagneux), etc. sont des lieux à éviter pour la sauvegarde des oiseaux. La Ligue pour la protection des oiseaux (LPO) a publié en 2017 une étude complète s’intéressant « spécifiquement à la mortalité directe par collision des oiseaux avec les éoliennes », compilant « l’ensemble des suivis environnementaux réalisés sur les parcs éoliens français » et croisant ces données avec la localisation des zones spéciales de conservation et des zones de protection spéciale36. Des études sont également en cours pour mieux apprécier et réduire l'effet des éoliennes sur les chauve-souris37.
- Les éoliennes industrielles de 2 MW ont une puissance sonore de 104 à 108 décibels (dBA) (Vestas V90 ou Enercon E 126)[réf. nécessaire]. La distance entre les éoliennes et les habitations varie selon les pays. Le bruit mesuré en dBa diminue avec la distance et est parfois couvert par le bruit du vent alors que les infrasons et les basses fréquences se propagent sur de longues distances[réf. nécessaire]. En 2006, l’Académie de Médecine française proposait à titre conservatoire une distance minimale de 1 500 m pour les éoliennes de plus de 2,5 MW, dans l'attente d'études sur le volume sonore des éoliennes sur une période de plusieurs semaines et sur les effets de ce bruit sur la santé38. Bien que la taille des éoliennes se soit accrue, la législation française n'a pas évolué et reste à la traîne en comparaison d'autres pays Européens[non neutre]. En juin 2015, le ministère de la Santé finlandais a rendu un rapport dans lequel il préconisait 2 km[réf. nécessaire]. En , l'État libre de Bavière a imposé une distance aux habitations de 10 fois la hauteur de l'éolienne afin de protéger la population des effets néfastes.
- Si les éoliennes de dernière génération sont relativement silencieuses, une étude des effets sonores sur les habitations est recommandée avant l'implantation des parcs éoliens. En fonction des résultats de l'étude, cette implantation peut être modifiée afin notamment de respecter la réglementation (émergence maximale de 5 dBA le jour et 3 dBA la nuit en France39). Les études acoustiques en dbA ne mesurent pas les infrasons[réf. souhaitée]. La distance entre les éoliennes et les habitations est en France au minimum de 500 mètres. Une étude financée par l'industrie éolienne publiée en 2015 a conclu que le niveau de gêne déclaré par les riverains n'était pas corrélé à la distance entre leur habitation et l'éolienne40.
Sur la terre ferme
Dans une installation éolienne, il est préférable de placer la génératrice sur un mât à une hauteur de plus de 10 mètres jusqu'à environ 100 m, de façon à capter des vents plus forts et moins perturbés par la « rugosité » du sol. Dans les zones où le relief est très complexe, il est possible de doubler la quantité d'énergie produite en déplaçant l'installation de seulement quelques dizaines de mètres. Des mesures in situ et des modèles mathématiques permettent d'optimiser le positionnement d'éoliennes.
Pour les zones isolées et exposées aux cyclones
Pour ces zones, des éoliennes spéciales ont été conçues : elles sont haubanées pour pouvoir être couchées au sol en 45 min et sont de plus allégées. Elles peuvent aussi résister aux tremblements de terre les plus courants. Elles ne nécessitent pas de fondations aussi profondes que les autres et se transportent en pièces détachées. Par exemple, sept éoliennes de 275 kW unitaires rendent Terre-de-Bas excédentaire en électricité, lui permettant d'en fournir à la Guadeloupe. De 1990 à 2007, 20 MW de puissance éolienne ont ainsi pu être installés en Guadeloupe. Toutes peuvent être couchées au sol et arrimées, comme ce fut le cas lors des passages des ouragans Ivan et José.
Mi-2007, il y avait environ 500 de ces éoliennes installées dans le monde, pour une puissance totale de 80 MW. La puissance des aérogénérateurs qui les équipent est passée de 30 à 275 kW en dix ans.
Pleine mer
Éoliennes en mer près de Copenhague.
À la condition qu'elles soient implantées assez loin de la côte, les éoliennes en pleine mer (offshore) entraînent moins de conséquences sur le paysage terrestre. En revanche, l'installation d'éoliennes en mer est beaucoup plus coûteuse qu'à terre : les mâts doivent être étudiés pour résister à la force des vagues et du courant, la protection contre la corrosion (particulièrement importante du fait des embruns et du sel) doit être renforcée, l'implantation en mer nécessite des engins spécialisés, le raccordement électrique implique des câbles sous-marins coûteux et fragiles, et les opérations de maintenance peuvent nécessiter de gros moyens. En contrepartie, une éolienne en mer peut fournir jusqu'à 6 MW de puissance (à comparer aux éoliennes terrestres limitées à 3 MW), qui peuvent produire une énergie utile d'environ 15 GWh/an dans des sites bien ventés et avec un facteur de charge de 30 %, soit 2 500 heures/an environ.
Dans les zones où la mer est peu profonde (par exemple au Danemark), il est assez simple de les installer avec un bon rendement. L'ensemble des éoliennes (en pleine mer ou terrestres) du Danemark produit, début 2006, 23 % de l'électricité nécessaire au pays41. Ce pays est précurseur et en tête dans la construction et l'utilisation de l'énergie éolienne, avec un projet lancé dans les années 1970. Aujourd'hui, de grands parcs sont en construction au large de l'Angleterre42, dans l'estuaire de la Tamise, ainsi qu'en Écosse, pour une puissance totale d'environ 4 000 MW.
La France ne possède pas encore de parc en mer en 2018, mais des appels d'offres organisés en 2012 et 2014 ont sélectionné des projets de parcs à St-Nazaire-Guérande (420 à 750 MW), Courseulles-sur-Mer (420 à 500 MW) et Fécamp (480 à 500 MW) et dans la baie de Saint-Brieuc (480 à 500 MW) en 201243, puis en 2014 aux îles d'Yeu et de Noirmoutier (Vendée) et au Tréport (Seine-Maritime), pour 500 MW chacun44. Le parc éolien au large de Dieppe et du Tréport (62 éoliennes, 496 MW) est prévu pour une mise en service en 202145, et celui de Fécamp (83 éoliennes, 498 MW) en 202246.
Les éoliennes flottantes peuvent être installées plus loin des côtes, où l’eau est beaucoup plus profonde et les vents plus forts et plus stables, permettant un facteur de charge plus important. Alors que les turbines terrestres peuvent tourner en moyenne 80 jours par an, les éoliennes flottantes peuvent produire de l’électricité 160 jours par an. Le premier parc éolien de ce type a vu le jour au large de l’Écosse47. Le champ de cinq éoliennes flottantes, chacune d’une taille de 253 mètres et d'un poids de 12 000 tonnes, a une capacité totale de 30 MW, soit la consommation électrique d'environ 22 000 foyers.
Selon le rapport 2019 de l'Agence internationale de l'énergie, l’éolien en mer pourrait attirer 1 000 milliards de dollars d’investissements d’ici à 204048 ; le potentiel éolien en mer permettrait de répondre aux besoins en électricité du monde entier, mais il ne représente aujourd'hui que 0,3 % de la production mondiale. Cette énergie renouvelable pourrait devenir la première source de production d'ici 2040.
Altitude
De nouvelles éoliennes sont capables de s'élever dans le ciel pour atteindre les vents d'altitude, plus puissants et plus réguliers. Pour l'instant, au stade expérimental, elles sont de trois types :
- les ballons éoliens gonflés d'un mélange d'hélium et d'hydrogène emportent leur alternateur à une altitude de 300 m et l'actionnent en tournant sur eux-mêmes. D'après leur constructeur, la puissance de chaque unité pourra atteindre 1 MW ;
- les voiles souples actionnent un alternateur au sol en s'élevant à une altitude de 800 à 1 200 m. Une fois l'altitude atteinte, la voile redescend. Chaque unité pourrait fournir jusqu'à 3 MW ;
- des structures s'élèvent à une altitude entre 5 000 et 10 000 m où le vent fait tourner leurs hélices. La puissance de celles-ci pourrait atteindre 100 MW, mais leur implantation nécessite des accords avec l'aviation pour éviter tout risque de collision49.
Villes
Éolienne urbaine de 2
m de diamètre, d'une puissance de 1,75
kW à
14 m/s, spécialement conçue pour obtenir un très faible niveau sonore (
Saint-Sébastien,
Espagne, 2010). Hauteur du mât : 5,5
m, vitesse de démarrage :
2,5 m/s, durée de vie : 20 ans, conforme au code de l'urbanisme espagnol.
Poteau d'éclairage urbain intégrant éolienne et panneaux solaires à
Weihai, en Chine.
En environnement urbain, où il est difficile d'obtenir de puissants flux d'air, de plus petits équipements peuvent être utilisés pour faire tourner des systèmes basse tension. Des éoliennes sur un toit, fonctionnant dans un système d'énergie distribuée, permettent d'alléger les problèmes d'acheminement de l'énergie et de pallier les pannes de courant. De petites installations telles que des routeurs Wi-Fi peuvent être alimentées par une éolienne portative qui recharge une petite batterie.
En Chine, plusieurs villes dont Weihai, dans la province du Shandong, ou encore l'autoroute de la province de Hubei reliant Jingzhou au barrage des Trois-Gorges, sont équipées de poteaux sur lesquels sont couplés de petits générateurs éoliens silencieux et des panneaux solaires, pour alimenter l'éclairage des lampadaires ; le surplus d'énergie peut être réinjecté dans le circuit électrique de la ville. L'emplacement du poteau d'éclairage est choisi à bon escient (voir photo). Ces installations utilisent généralement des éoliennes à axe horizontal. Il apparaît aujourd'hui des installations du même type, avec une éolienne à axe vertical de type Savonius hélicoïdal (Twisted Savonius) offrant 40 W d'éolien plus 80 W de solaire sur un seul poteau et une forme plus compacte50. Certains hauts gratte-ciel, tels que la Tour de la Rivière des Perles, comprennent des éoliennes dans leur structure, profitant ainsi des vents forts provoqués par les différences de température des structures en verre de ces bâtiments, selon qu'ils sont du côté ombré ou ensoleillé. Du point de vue énergétique, ces éoliennes de type Savonius hélicoïdal bénéficient en outre de l'effet Venturi provoqué par la taille du canal qui les contient lorsque le vent s'y engouffre. L'énergie éolienne est couplée avec l'énergie électrique fournie par les vitres de cette tour qui sont faites de panneaux solaires transparents
Solutions expérimentales
En ville, on pourra envisager l'implantation d'éoliennes à axe vertical, hélicoïdales, à effet Venturi ou un mélange de ces différentes techniques, qui ont un rendement inférieur mais qui produisent de l'électricité même par vent faible et ne font pas de bruit.
Des éoliennes peuvent également être placées sur le toit des tours[réf. souhaitée].
Dans le monde
En 2012, l'énergie éolienne a confirmé son statut de deuxième source} d'électricité renouvelable après l'hydroélectricité : avec une production mondiale de 534,3 TWh, elle représente 11,4 % de la production d'électricité renouvelable et 2,4 % de la production totale d'électricité51.
Poids économique des acteurs de l'industrie éolienne
Une éolienne utilisée pour fournir de l'électricité aux réseaux délivre de l'ordre de 2 MW à l'intérieur des terres et de 5 MW en mer, mais des modèles plus petits sont également disponibles.
C'est ainsi que certains navires sont maintenant équipés d'éoliennes pour faire fonctionner des équipements tels que le conditionnement d'air. Typiquement, il s'agit alors de modèles à axe vertical prévus pour fournir de l'énergie quelle que soit la direction du vent. Une éolienne de ce type délivrant 3 kW tient dans un cube de 2,5 m de côté.
Certaines éoliennes produisent uniquement de l'énergie mécanique, sans production d'électricité, notamment pour le pompage de l'eau dans des lieux isolés. Ce mode de fonctionnement correspond à celui des moulins à vent d'autrefois, qui entraînaient le plus souvent des meules de pierre ; en effet, la plupart des 20 000 moulins à vent à la fin du XVIIIe siècle en France servaient à la minoterie.
Fabricants d'éoliennes
Modèle
Enercon E66. Hauteur : 100
m, puissance : 2
MW (parc d'Assigny).
Montage d'une éolienne en France.
La situation concurrentielle du secteur éolien diffère entre les deux grands segments de marchés : sur celui de l’éolien terrestre, en 2016, la concurrence est largement dispersée avec un nombre d’acteurs important, sans que se dégage un industriel disposant d’une place dominante sur le marché mondial. La plupart des grands acteurs industriels peuvent s’appuyer sur un marché national actif, ce qui leur permet de disposer d’une assise solide pour disputer et gagner des parts de marché sur les marchés internationaux. C’est notamment le cas de GE Wind aux États-Unis, Enercon, Senvion et Nordex en Allemagne, Suzlon en Inde et Goldwind, United Power et Mingyang en Chine. Les autres acteurs sont fragilisés et font l'objet d'un mouvement de consolidation du secteur24.
Le segment de marché de l’éolien en mer, lui, est beaucoup plus restreint et n'a encore qu’un déploiement international limité : principalement cantonné sur quelques marchés en mer du Nord, en mer Baltique et au large des côtes britanniques, il reste aux mains d’une minorité d’acteurs expérimentés, au premier rang desquels le numéro un mondial Siemens Wind Power avec 80 % du marché et MHI Vestas, la filiale commune formée en 2013 par le Danois Vestas, numéro un mondial sur le segment du terrestre, et le Japonais Mitsubishi. D’autres fabricants sont positionnés sur ce marché et ont déjà livré leurs premières machines, mais sont en difficulté car les perspectives de croissance ne sont pour l’instant pas aussi importantes qu’espérées. Depuis 2013, une vague de consolidation affecte ce secteur : rapprochement en 2013 de Vestas et de Mitsubishi, puis en 2014 création d'Adwen, filiale commune d'Areva et de Gamesa. En 2015, le Français Alstom, qui développe l’éolienne en mer Haliade 150, est passé dans le giron de l’Américain GE24.
Dans l'éolien terrestre, l'Allemand Nordex et l'Espagnol Acciona ont annoncé en leur intention de fusionner leurs forces pour entrer dans le top 5 mondial. Les dirigeants de Gamesa ont annoncé le qu’ils étaient entrés en discussion avec Siemens en vue d’un rapprochement de leur activité éolienne, créant le poids lourd du secteur mondial avec environ 15 % de part de marché devant General Electric (11 %) et Vestas (10 %)24. Ces discussions ont abouti à un accord annoncé le : le siège de la nouvelle société sera situé en Espagne et celle-ci restera cotée à la Bourse de Madrid ; Siemens détiendra 59 % de la nouvelle entité et versera un paiement en numéraire de 3,75 euros par action aux actionnaires de Gamesa, soit au total plus d'un milliard d'euros ; Areva aura trois mois pour choisir entre vendre sa participation dans Adwen ou racheter la part de Gamesa puis vendre la totalité de la société à un autre acteur ; General Electric serait intéressé52. En , Siemens et Gamesa ont annoncé une restructuration pouvant concerner jusqu'à 6 000 postes dans 24 pays. Lors de l'annonce de leur union mi-2016, les deux industriels comptaient 21 000 salariés, dont 13 000 issus de Siemens. Le chiffre d'affaires a reculé de 12 % entre avril et , en raison d'une « suspension temporaire » du marché indien, et le groupe prévoit une forte baisse en 201853.
Au premier semestre 2016, Vestas a vu son chiffre d’affaires bondir de 23 %54.
En 2015, selon une étude publiée le par Bloomberg New Energy Finance (BNEF), General Electric a été détrôné par le groupe chinois Goldwind qui a installé 7,8 GW de turbines dans le monde dans l'année, devançant Vestas (7,3 GW) et General Electric (5,9 GW). En 2014, Goldwind était 4e avec 4,5 GW installés. La Chine a représenté en 2015 la moitié du marché mondial et cinq fabricants chinois apparaissent dans le top 10. Siemens est le premier européen du classement 2015, au 4e rang mondial avec 5,7 GW, dont 2,6 GW en mer, segment où il est le leader incontesté, quatre fois plus gros que le numéro deux ; sa fusion en discussion avec l'espagnol Gamesa (3,1 GW) pourrait le porter au 1er rang mondial55.
Les dix premiers fabricants en 2015 étaient24 :
NB : Vestas reste au 1er rang pour le chiffre d'affaires avec 8 400 M€ contre 4 180 M€ pour Goldwind.
General Electric Wind finalise son ascension, Vestas perd sa première place après douze ans de règne ; les Allemands reviennent en force ; les quatre principaux fabricants chinois d'éoliennes Goldwind, United Power, Sinovel et Mingyang sont dans le Top 10, mais aucun ne figure dans le Top 5.
Dans le secteur des éoliennes en mer, deux des principaux fabricants, Areva et Gamesa, ont signé en un accord sur la création d'une coentreprise détenue à parts égales par les deux groupes, avec pour objectif 20 % de part de marché en Europe en 2020, ainsi que de se placer sur le marché asiatique, chinois en particulier, en phase de décollage. Gamesa a un prototype d'éolienne de 5 MW et Areva des machines de 5 à 8 MW, dont 126 exemplaires installés fin 2014, soit 630 MW, et 2,8 GW en portefeuille de projets. En prenant le meilleur de chaque technologie, la coentreprise compte aboutir, à terme, à une seule plate-forme de 5 MW56.
Les principaux fabricants d'éoliennes construisent des machines d'une puissance d'environ 1 à 6 MW. Il existe de très nombreux autres fabricants d'éoliennes, parfois de très petite dimension pour des applications individuelles ou de niche.
Les principaux fabricants d'éoliennes étaient d'abord originaires principalement du Danemark et d'Allemagne, pays qui ont investi très tôt dans ce secteur. En 2010, certains pays augmentent leurs investissements pour combler leur retard, comme les États-Unis avec GE Wind qui a presque doublé ses parts de marché en cinq ans, ou la France avec Areva, qui détenait jusqu'en 2007, 70 % du capital de REpower (12e au classement 2010). Le marché est marqué en 2010 par l'émergence des acteurs asiatiques (8 sur les 15 premiers), qui parviennent à gagner des marchés en Occident.
Liste non exhaustive de fabricants57 :
- Allemagne : Enercon, Nordex, Senvion, Siemens, Fuhrlander, Vensys, Bard, e.n.o. energy, Avantis, Eviag ;
- Belgique : Turbowinds ;
- Canada : Pioneer Power Solutions, AWE ;
- Chine : Goldwind, Windey, Sinovel, DEC, Dongfang, Guangdong Mingyang ;
- Corée du Sud : Unison, Doosan, Samsung, Hyundai ;
- Danemark : Vestas, Norwin ;
- Espagne : Gamesa, Acciona, M Torres, ACSA ;
- États-Unis : GE Wind Energy, SUREnergy, Clipper, Jacobs, Windmatic ;
- Finlande : Winwind ;
- France : Areva Winds (Multibrid), DDIS, Vergnet, Alizeo, Noveol, Alstom Power (Ecotècnia), Naval Group ;
- Inde : Suzlon, NEPC, RRB Energy, Ghodawat, Pioneer Wincon ;
- Italie : Leitwind ;
- Japon : Mitsubishi, Subaru ;
- Norvège : Statoil, Sway, Blaaster ;
- Nouvelle-Zélande : Windflow ;
- Pays-Bas : Lagerwey, EWT, WES, XEMC-Darwind, STX Windpower ;
- Tchéquie : Wikov.
Conséquences sur l'emploi
En , selon le Syndicat des énergies renouvelables (SER), le secteur éolien avait créé durant les cinq années précédentes en moyenne 33 nouveaux emplois par jour en Europe58.
Recherche et développement
Autres productions utilisant l'énergie éolienne
- 2009 : les Néerlandais de Dutch Rainmaker ont fabriqué une éolienne dont l'énergie est utilisée pour condenser la vapeur d'eau présente dans l'air ambiant. Le premier prototype a ainsi condensé 500 litres d'eau douce en 24 heures.
- 2010 : l'institut allemand Fraunhofer explique dans un communiqué avoir réussi à mettre au point un processus de production de méthane à partir de la production en excès des éoliennes59. L'électricité est utilisée pour électrolyser l'eau, produisant du dioxygène (rejeté) et du dihydrogène. Cet hydrogène est recombiné à du CO2 (sans doute par réaction de Sabatier) pour produire du méthane, qui est réintroduit dans le circuit de distribution public de gaz naturel. La première partie de cette réaction était déjà utilisée par Poul La Cour en 1890 (cf. section « Historique »).
Stockage de l'énergie éolienne
Une méthode utilisée pour exploiter et stocker les productions excédentaires des éoliennes consiste à les coupler à des installations de pompage-turbinage au sein de centrales hydro-éoliennes : un parc éolien génère de l'électricité grâce à des aérogénérateurs. Une partie de cette électricité est envoyée sur le réseau pour alimenter les consommateurs, l'excédent est utilisé pour pomper de l'eau vers une retenue d'altitude. Lors des périodes de vent faible, l'eau de la retenue est turbinée dans une centrale hydroélectrique et stockée dans une retenue basse ; l'électricité ainsi obtenue est envoyée sur le réseau.
Un projet de ce type est opérationnel aux Îles Canaries dans l'île de El Hierro depuis 2014. Ce système de 11,5 MW permet d'éviter annuellement le transport de 6 000 tonnes de fioul par tankers, et l'émission de 18 000 tonnes de CO260,61. Sur son premier semestre de fonctionnement, ce système a couvert en moyenne 30,7 % de la demande d'électricité de l'île, selon les données en temps réel publiées par le gestionnaire de réseau Red Eléctrica de España (REE)62.
Une autre technique utilisée pour stocker l'énergie fournie par les éoliennes est la production d'hydrogène vert par électrolyse.
Production d'eau potable
Eole Water est une entreprise française dans le domaine des systèmes de production d’eau par condensation de l’air. Elle a développé des capacités de production d'eau potable à partir de l'énergie éolienne ou solaire63.
Accidents
Les accidents liés aux éoliennes sont relativement rares. Une éolienne de 240 m s'est effondrée en 2021 en Allemagne, sans faire de victime64. En France, une pale d'éolienne s'est détachée de son mat en , également sans faire de victime65. Selon les statistiques réalisées en Allemagne depuis 2005, il n'y a eu que six effondrements d'éoliennes sur 29 715 turbines installées64. Le , un aigle royal, une espèce d'oiseau protégée, est tué par une éolienne de la centrale du Mont-Soleil en Suisse66. Il peut arriver aussi que le feu se déclare au niveau de la turbine d'une éolienne67.
Fin de vie
En fin de vie, ou quand elle devient obsolète, une éolienne peut être remplacée par un modèle plus efficace. Elle est alors soit revendue sur le marché international de l'occasion, soit démantelée68.
Si le recyclage de l'acier composant le mât, du cuivre et des équipements électroniques est maîtrisé, le traitement des pales pose problème du fait de leur composition : composées d’un mélange de fibre de verre et de fibre de carbone liées à l’aide de résine de polyester, elles dégagent à la combustion des microparticules qui obstruent les filtres des incinérateurs69. Divers procédés permettent toutefois de les utiliser comme combustible dans des cimenteries après broyage70 voire d'en recycler les matériaux. Deux procédés sont en cours d'industrialisation en 2022 pour employer des résines, permettant de récupérer les principaux constituants des pales après démantèlement71,72.
En France, depuis 2020, la loi impose à tous les exploitants de parcs éoliens de retirer l'intégralité des fondations lors du démantèlement, sauf dérogation « sur la base d'une étude adressée au préfet démontrant que le bilan environnemental du décaissement total est défavorable, sans que la profondeur excavée ne puisse être inférieure à 2 mètres dans les terrains à usage forestier au titre du document d'urbanisme opposable et 1 m dans les autres cas »73.
Débats sur l'énergie éolienne
Réglementation
En France, l'implantation d'une éolienne domestique est réglementée ; les règles applicables varient selon la taille de l'éolienne. Le site Service-public.fr précise les règles à respecter pour une éolienne d'une hauteur maximale de 12 mètres sans permis de construire, le non-respect de ces règles expose le contrevenant à une amende de 1 200 €. Au-delà de 12 mètres de haut la demande de permis de construire est obligatoire. Toutes les zones ne sont pas susceptibles de recevoir une implantation d'éolienne domestique ; quatre zones principales sont interdites74. D'autres règles sont à prendre en compte. Il est par exemple nécessaire de demander une autorisation de défrichement si le terrain sur lequel l'éolienne va être implantée avait une destination forestière. Pour une éolienne de moins de 50 mètres, une distance d'au moins trois mètres doit être respectée par rapport à la limite séparative du voisinage. Les voisins doivent être informés au préalable de l'installation d'une éolienne. La norme EN 50 308 : « Aérogénérateur, mesures de protection, exigences pour la conception, le fonctionnement et la maintenance » s'applique à l'éolien75.
En ce qui concerne l’acoustique des sites éoliens, l’arrêté ICPE du 76, applicable depuis le , réglemente ce domaine. Cet arrêté concerne l’ensemble des parcs français de travaux publics comme privés, ou des « travaux intéressant les bâtiments et leurs équipements soumis à une procédure de déclaration ou d'autorisation ». Certaines circonstances caractérisent l'atteinte à la tranquillité du voisinage ou l'atteinte à la santé comme « le non-respect des conditions fixées par les autorités compétentes en ce qui concerne soit la réalisation des travaux, soit l'utilisation ou l'exploitation de matériels ou d'équipements », « l'insuffisance de précautions appropriées pour limiter ce bruit », ou encore « un comportement anormalement bruyant ».
Afin de vérifier le bruit provenant des éoliennes, des études de développement77 sont faites dans les futurs parcs éoliens, ces mesures sont prises au niveau des zones à émergence réglementée (ZER) durant une à plusieurs semaines. Le but est ensuite de déterminer le bruit ambiant du site sur lequel les éoliennes seront placées en modélisant au préalable le bruit des futures éoliennes.
De nouvelles mesures sont prises après la construction des éoliennes, ces mesures sont faites en alternant des phases d’arrêts et des phases de fonctionnement des éoliennes. Si durant ces mesures il y a un dépassement de 3 à 5 dB au-dessus des 35 dB il faut calculer un programme de bridage des machines afin de réduire le bruit.
La réglementation ICPE permet au préfet, en cas de plainte des riverains, de demander une expertise sur le site. Si celle-ci démontre que la réglementation en matière de bruit n’a pas été respectée, le parc peut être arrêté. Cependant dans les faits, l’arrêt d'un parc pour non-respect de la réglementation en matière d’acoustique n’a jamais eu lieu.
Notes et références
Notes
- Pour une éolienne sans récupération d'énergie potentielle.
- L'énergie cinétique du vent est de l'ordre de 1/2 m.v2 ; la quantité d'air (masse m) qui passe – par unité de temps – à travers la surface parcourue par les pales (le débit) est proportionnelle à la vitesse v ; c'est ce qui explique le cube.
Références
- Éric Leroy, Le moulin à vent : Homonyme du passé (lire en ligne [archive]).
- (en) DRUID-DIME Winter Conference [archive] [PDF].
- (en) John Burdon Sanderson Haldane, en:Daedalus; or, Science and the Future [« Dédale ou la science de l’avenir »] (Conférence), Université de Cambridge, (lire en ligne [archive]),
trad. fr. : John Burdon Sanderson Haldane et Bertrand Russell (trad. de l'anglais), Dédale & Icare, Paris, Éditions Allia, , 109 p. (ISBN 978-2-84485-977-8).
- L'aérogénérateur 800 kVA BEST - Romani [archive], cavey.org
- « 187 mètres : la plus grande éolienne du monde inaugurée en Angleterre » [archive], sur rtbf.be, (consulté le ).
- Brigitte Bornemann, « Haliade-X 12 vue du ciel de Saint-Nazaire » [archive], sur Énergies de la mer, .
- Quelle est la différence entre le petit et le grand éolien ? [archive], surles-energies-renouvelables.eu (consulté le 5 décembre 2018).
- Systèmes Solaires (journal sur les énergies renouvelables), no spécial « Atlas 2013 des parcs éoliens en France », 2003.
- [PDF]Gamme du fabricant Enercon [archive], sur enercon.de
- (en) Energy - Yearly statistics 2008 [PDF] [archive], Eurostat, pages 12 et 13.
- Bilan électrique français 2010 (RTE) [archive] - 20 janvier 2011, pages 14 et 16 [PDF]
- Bilan électrique français 2009 [archive] [PDF], RTE, 13 janvier 2010, pages 8 et 9.
- (de) « Windkraft in Deutschland: Grosse Versprechen, kleine Erträge » [archive], Neue Zürcher Zeitung, .
- [PDF]Non trouvé le 5 décembre 2018 [archive] - Danish Energy Agency, novembre 2010, pages 5, 9 et 10.
- « Avec quels matériaux sont fabriquées les pales des éoliennes » [archive], sur lenergeek.com, (consulté le ).
- Leon Mishnaevsky Jr., Kim Branner, Helga Nørgaard Petersen, Justine Beauson, Malcolm McGugan et Bent F. Sørensen, « Materials for Wind Turbine Blades : An Overview », Materials, (www.mdpi.com/1996-1944/10/11/1285/pdf).
- Futura-Sciences, « Pourquoi les éoliennes ont-elles 3 pales ? » [archive], sur Futura-Sciences (consulté le )
- « La première éolienne urbaine française a été installée sur un bâtiment collectif dans le pas de Calais » [archive], sur actu-environnement.com, (consulté le ).
- « Des Bordelais créent une éolienne révolutionnaire pour la ville » [archive], sur sudouest.fr, (consulté le ).
- Éolienne à ailes rotatives [archive] - Brevet de Tihomir Čuljak, 2001
- C.P., « Le vent inspire les inventeurs », Le Figaro, (lire en ligne [archive])
- Jean-Pierre Becker, Aérogénérateur à voiles [archive].
- (en) Mechanical innovations [archive], sur adv-tech.fr (consulté le 7 juin 2017).
- Baromètre éolien 2015 [archive], EurObserv'ER, février 2016. [PDF]
- Gamme du fabricant Enercon [archive] [PDF], Enercon.
- L'éolienne M5000 [archive], Areva (consulté le 18 septembre 2013).
- ECO 100 Platform [archive], Alstom (consulté le 18 septembre 2013), p. 4.
- Haliade™ 150 - 6 MW Offshore Wind Turbine [archive] [PDF], Alstom (consulté le 18 septembre 2013), p. 4.
- ADEME, p. 11.
- Nouveau standard en Chine - Éoliennes résistantes aux cyclones [archive], La lettre des énergies renouvelables, 25 juin 2015.
- (en) Energy - Yearly statistics 2008 [archive] [PDF], Eurostat, p. 12-13 pour l'Europe et 152-153 pour la France.
- RTE, p. 22-23.
- Bach, p. 7.
- Mesure de vent avant la mise en place d'une éolienne [archive]
- (en) Position Statement on Wind Farms and Birds [archive] - Birdlife International, 2005 [PDF]
- « Le parc éolien français et ses impacts sur l'avifaune : Étude des suivis de mortalité réalisés en France de 1997 à 2015 » [archive] [PDF], sur eolien-biodiversite.com, .
- Conférence « Impacts des éoliennes sur les oiseaux et chiroptères » du Bureau de coordination énergie éolienne [archive]
- Le retentissement du fonctionnement des éoliennes sur la santé de l’homme [archive], Académie nationale de médecine, 2006.
- Les éoliennes et le bruit [archive] par l'ADEME
- Rachida Boughriet, La distance d'éloignement entre éoliennes et habitations serait un faux problème [archive], sur actu-environnement.com du 8 juillet 2015, consulté le 7 juin 2017
- (en) « Wind powered electricity generating capacity increased by over 150% in the EU25 since 2000 » [archive], communiqué de presse n°66/2006 [PDF], Eurostat, .
- (en) Projet London Array [archive]
- Les premiers champs éoliens offshores français attribués [archive], sur meretmarine.com
- Frédéric de Monicault, « Éolien offshore en Vendée : GDF Suez remporte deux nouveaux parcs » [archive], Le Figaro, .
- « Éoliennes en mer Dieppe Le Tréport » [archive] (consulté le ).
- « Parc éolien en mer de Fécamp » [archive] (consulté le ).
- « Éolien flottant : l’Écosse a choisi l’énergie sans limite » [archive], sur Éoliennes flottantes de Groix et Belle-Île, (consulté le ).
- « L’éolien en mer pourrait répondre à la demande mondiale d’électricité » [archive], Courrier international, (consulté le ).
- Pierre Grumberg, « Le défi des éoliennes volantes », Science et Vie no 1106, novembre 2009.
- (en) 40W vertical wind and solar hybrid system [archive], sur Alibaba.com
- Observ'ER - 15e inventaire [PDF], chap. 2 (« Un aperçu des dynamiques régionales [archive], sur le site de l'Observatoire des énergies renouvelables »).
- Eolien : Siemens et Gamesa fusionnent, Areva au pied du mur [archive], Les Échos, 17 juin 2016.
- Éolien : le géant Siemens Gamesa lance une restructuration massive [archive], Les Échos, 6 novembre 2017.
- Vestas, le danois qui rivalise avec les champions chinois de l’éolien [archive], Les Échos, 18 août 2016.
- Eolien : General Electric détrôné par un groupe chinois [archive], Les Échos, 23 février 2016.
- Offshore - Areva et Gamesa s'unissent [archive], EurObserv'ER, 29 juillet 2014.
- « Fabricants d'éoliennes » [archive], sur The Wind Power, base de données sur les éoliennes et parcs éoliens, (consulté le ).
- communiqué de presse [archive], Syndicat des énergies renouvelables, 7 janvier 2009. [PDF]
- (en) Storing green electricity as natural gas [archive] (communiqué de presse), Institut Fraunhofer, 5 mai 2010.
- (en) El Hierro, an island in the wind [archive] - The Guardian, 19 avril 2011.
- El Hierro, futur Eldorado de l’éolien [archive] - MarcelGreen.com, 22 avril 2011.
- (es) El Hierro - Seguimiento de la demanda de energía eléctrica [archive], Red Eléctrica de España.
- Transformer l'air en eau et la propriété intellectuelle en plus‑value [archive]
- « Une éolienne s’effondre en Allemagne : quelle en est la cause ? » [archive], sur revolution-energetique.com, .
- « Creuse : une pale d'éolienne décrochée de son mât » [archive], sur francetvinfo.fr, .
- Vincent Donzé, « Un aigle royal tué par une éolienne » [archive], Le Matin, (ISSN 1018-3736, consulté le ).
- « À Bourbriac, incendie au sommet d’une éolienne » [archive], Le Télégramme, .
- « Remondis recycle les turbines éoliennes » [archive], sur environnement-magazine.fr, (consulté le ).
- Philippe Gauthier, « Le quart de l’éolien terrestre menacé de démantèlement en Allemagne » [archive], sur Énergie et environnement, (consulté le ).
- Bernard Deboyser, « Cette cimenterie est alimentée en énergie par des pales d’éoliennes en fin de vie » [archive], sur revolution-energetique.com, .
- Félix Gouty, « L'éolien innove pour améliorer son bilan environnemental » [archive], sur actu-environnement.com, (consulté le ).
- Lorraine Veron, « Des pales d’éoliennes recyclables utilisées pour la première fois au monde » [archive], sur revolution-energetique.com, (consulté le ).
- Arrêté du 22 juin 2020 portant modification des prescriptions relatives aux installations de production d'électricité utilisant l'énergie mécanique du vent au sein d'une installation soumise à autorisation au titre de la rubrique 2980 de la législation des installations classées pour la protection de l'environnement [archive].
- Installation d'une éolienne domestique ou agricole [archive], service-public.fr, 13 avril 2018.
- Quelles normes pour les éoliennes de particulier ? [archive], ooreka.fr.
- Arrêté du 26 août 2011 relatif aux installations de production d'électricité utilisant l'énergie mécanique du vent au sein d'une installation soumise à autorisation au titre de la rubrique 2980 de la législation des installations classées pour la protection de l'environnement [archive].
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
Bibliographie
- Fernand Braudel, Civilisation matérielle, Economie et Capitalisme : XVe – XVIIIe siècle : Les Structures du Quotidien, Armand Colin, , 554 p.
- ADEME, Dans l'air du temps, l'énergie éolienne [archive] [PDF] (consulté le 30 septembre 2013).
- (en) « Wind energy barometer 2020 » [archive] [PDF], EurObserv'ER,
- (en) « Global Wind Report 2021 » [archive] [PDF], Global Wind Energy Council (GWEC),
- (en) Paul-Frederik Bach, Wind Power in Denmark, Germany, Ireland, Great Britain, France and Spain - Statistical Survey 2012 [archive] [PDF] (consulté le 7 octobre 2013).
- RTE (Réseau de Transport d'Électricité), Bilan électrique 2012 [archive] [PDF], janvier 2013.
Liens externes
[afficher]
Les plus grandes entreprises de fabrication de turbines éoliennes par puissance installée en 2018 1
|
Cathode
La cathode1 d'un appareil passif parcouru par un courant continu est l'électrode d'où, en sens conventionnel, sort le courant (en courant électronique, électrode où entrent les électrons). Par exemple, pour une diode, c'est l'électrode reliée au pôle négatif du générateur. Pour une pile électrique faisant office de générateur, c'est l'électrode positive2.
Dans une électrolyse active en chimie, avec apport d'énergie électrique, la cathode est par définition là où sont contraints (par le champ électrique) de se diriger les ions positifs ou cations3.
En chimie
La cathode est le siège de la réduction, que l'on qualifie alors de réduction cathodique. Dans une pile électrique qui débite, elle correspond à la borne positive (+) et dans le cas d'un électrolyseur, à la borne négative du générateur extérieur (l'électrolyse peut être vue comme la réaction inverse de celle qui se produit naturellement dans une pile, d'où l'inversion des polarités). Ces deux fonctions alternent dans le cas d'un accumulateur, selon qu'il débite ou qu'il se charge.
Les applications industrielles sont nombreuses : par exemple, la réduction électrolytique de l'aluminium est à la base de la production de l'aluminium; la cathode est un élément essentiel de la cuve d'électrolyse.
Tubes électroniques
Dans un tube électronique (lampe radio) les électrons (qui portent des charges négatives) circulent de la cathode vers l'anode. Ils sont émis par la cathode grâce à l'effet thermoïonique. Celle-ci est constituée d'un petit tube de nickel revêtu d'oxyde de baryum et de strontium, matériaux qui favorisent l'émission d'électrons à des températures inférieures à 1 000 °C. La cathode est chauffée par le filament en tungstène isolé par un revêtement réfractaire glissé à l'intérieur du petit tube. On dit que la cathode est à chauffage indirect. Autrefois les tubes étaient à chauffage direct, c'est-à-dire que la cathode et le filament ne faisaient qu'un. Le filament était en tungstène thorié et devait être chauffé à des températures proches de 1 500 °C.
Les rayons cathodiques sont un flux d'électrons émis par une cathode placée dans un tube renfermant un gaz à très faible pression et accélérés par un champ électrique. C'est l'étude des rayons cathodiques dans les années 1890 qui a permis la découverte de l'électron.
Le tube cathodique ou « tube à rayons cathodiques » est un tube électronique traversé par un faisceau d'électrons émis par une cathode à chauffage indirect et venant frapper un écran électroluminescent.
La presque totalité des téléviseurs et une grande partie des écrans d'ordinateurs étaient, jusqu'au début des années 2000, équipés de tubes cathodiques. Ceux-ci sont remplacés par des technologies plus avantageuses : écran à plasma ou écran à cristaux liquides.
Symboles d'une diode à vide et d'une diode à semiconducteur. La lettre « k » indique la cathode.
Pour une diode à jonction PN, la cathode correspond à la région dopée N.
Voir aussi
Sur les autres projets Wikimedia :
Notes et références
- du grec κατα, cata, vers le bas, et ὁδος, hodos, chemin
- Étymologiquement, la cathode signifie la voie vers le bas ou du bas, car les dispositifs techniques des premières piles plaçaient toujours la cathode en bas et l'anode en haut. On notera que l'interprétation de Michael Faraday, d'habitude si lumineux dans ses conférences, développée dans l'article « anode », est, aux yeux des praticiens, mystique.
- Les électro-chimistes rappellent de façon mnémotechnique dans les cas simples qu'il s'agit de la voie (hôdos en grec scientifique, à l'origine du suffixe ode) forcée des cations (préfixe cat, du préfixe grec cata, soit "bas, en bas, en profondeur"). Les électrons nécessaires à la réaction de réduction des cations ou, d'une manière générale, des composés les plus facilement réductibles sont fournis par la cathode. En effet, les électrons tendent en effet à s'y accumuler à cause de la résistance global du mélange électrolysé. Une expression triviale des techniciens de cathode met en lumière cette description: la cathode grouille d'électrons.
Générateur électrique
Un générateur électrique est un dispositif permettant de produire de l'énergie électrique à partir d'une autre forme d'énergie. Par opposition, un appareil qui consomme de l'énergie électrique s'appelle un récepteur électrique.
Modélisation
Un générateur réel peut se modéliser de deux manières différentes :
Générateur idéal de tension
Symbole d'un générateur idéal de tension dans un circuit.
Le générateur idéal de tension est un modèle théorique. C'est un dipôle capable d'imposer une tension constante quelle que soit la charge reliée à ses bornes. Il est également appelé source de tension.
- En circuit ouvert, la tension qui existe à ses bornes lorsqu'il ne débite aucun courant est la tension à vide. Le générateur de tension est donc un dipôle virtuel dont la tension à ses bornes est toujours égale à la tension à vide quelle que soit la valeur du courant débité.
- Le générateur de tension ne peut être qu'un modèle théorique, car mis en court-circuit, il devrait délivrer un courant infini et donc fournir une puissance également infinie ce qui est irréalisable.
- Un grand nombre de générateurs peuvent être modélisés par l'association d'un générateur idéal de tension et d'une résistance en série qui provoque une chute de tension aux bornes de l'ensemble lorsque le courant débité augmente. Un tel modèle s'appelle modèle de Thévenin d'un générateur réel.
- Il est impossible de placer en parallèle deux générateurs de tension de valeurs différentes, c'est pourquoi :
- il est fortement déconseillé de mettre en parallèle une pile usagée et une pile neuvea ;
- un conducteur parfait de résistance nulle peut être modélisé par un générateur de tension nulle. Court-circuiter un dipôle par un conducteur parfait revient à imposer à ses bornes une tension nulle. C'est pourquoi il ne faut jamais court-circuiter un générateur de tension : cela revient à imposer simultanément deux tensions différentes.
- Un condensateur est un générateur de tension au sens transitoire : il interdit toute discontinuité de la tension à ses bornes :
- lorsqu'on court-circuite un condensateur chargé, le transitoire de courant peut être très violent ;
- lorsqu'un condensateur initialement déchargé est relié en parallèle avec le secteur, la tension de ce dernier est quelconque au moment de la connexion. Il est donc possible qu'elle soit très différente de zéro ; dans ce cas le transitoire de courant est alors très violent et peut produire une étincelle au niveau de l'interrupteur. Ce phénomène est parfois constaté lorsqu'on relie une alimentation à découpage au secteur d'alimentation.
Générateur idéal de courant
Symbole d'un générateur idéal de courant dans un circuit
Pour le générateur idéal de courant, le courant produit est constant, quelle que soit la tension demandée et la charge à alimenter. Il est également appelé source de courant.
C'est également un modèle théorique car l'ouverture d'un circuit comportant un générateur de courant non nul devrait conduire à fournir une tension infinie. Il est impossible de placer en série deux générateurs de courant de valeurs différentes car, cela revient à imposer deux courants différents dans un même fil1.
- Les générateurs réels peuvent être simplement modélisés par l'association d'un générateur idéal de courant et d'une résistance branchée en parallèle. Un tel modèle s'appelle modèle de Norton.
- Un dipôle inductif est un générateur de courant au sens transitoire qui s'oppose à toute variation de l'intensité du courant qui le traverse. Lors de l'ouverture d'un circuit comportant un dipôle inductif traversé par un courant non nul une haute tension peut apparaître pouvant créer un arc électrique au niveau de l’interrupteur (cet arc peut être atténué par un condensateur), comme cela se passe au niveau du rupteur dans les anciens circuits d'allumage des automobiles à essence.
Machine tournante
La très grande majorité des générateurs électriques sont des machines tournantes, c'est-à-dire des systèmes ayant une partie fixe, et une partie mobile tournant dans (ou autour de) la partie fixe. Cependant, la variété de machines tournantes créées au cours des siècles implique des différences importantes dans les différentes technologies et techniques utilisées pour produire le courant, d'une part, et dans les systèmes 'annexes' (onduleurs, électronique de puissance, etc.) éventuellement nécessaires pour leur bon fonctionnement.
Générateur électrostatique
Le générateur électrostatique n'est pas une machine tournante bien qu'elle fasse appel à la rotation d'un disque frottant sur les balais. Cependant ce concept est à l'origine de la conception des machines tournantes.
La machine électrostatique fait appel aux lois de l'électrostatique à la différence des machines dites électromagnétiques. Bien que des moteurs électrostatiques aient été imaginés (ils fonctionnent sur le principe de la réciprocité des générateurs électrostatiques)2, ils n'ont pas eu de succès (mais les nanotechnologies pourraient proposer de tels « nanomoteurs » électrostatiques) ; en revanche, en tant que générateurs de très haute tension, les machines électrostatiques connaissent leur principale application dans le domaine des accélérateurs d'ions ou d'électrons. Elles transforment l'énergie mécanique en énergie électrique dont les caractéristiques sont la très haute tension continue et le microampérage. La puissance des machines du XVIIIe siècle et du XIXe siècle était en effet infime (quelques watts) et les frottements mécaniques ne leur laissaient qu'un très mauvais rendement. La raison en est que la densité maximale d'énergie du champ électrique dans l'air est très faible. Les machines électrostatiques ne peuvent être utilisables (de manière industrielle) que si elles fonctionnent dans un milieu où la densité d'énergie du champ électrique est assez élevée, c'est-à-dire pratiquement dans un gaz comprimé, qui est généralement l'hydrogène ou l'hexafluorure de soufre (SF6), sous des pressions comprises entre 10 et 30 atmosphères3.
Dynamo
Une génératrice de courant continu appelée populairement « dynamo », est, comme beaucoup de générateurs électriques, une machine tournante. Elle fut inventée en 1861 par le Hongrois Ányos Jedlik et améliorée en 1871 par le Belge Zénobe Gramme.
Cette machine étant réversible, elle peut fonctionner aussi bien en génératrice qu'en moteurb. Elle devient facilement un moteur électrique, ce qui implique que, lors de son arrêt, la dynamo doit être déconnectée de sa charge si celle-ci peut lui fournir un courant en retour : batterie d'accumulateurs, autre dynamo. Cette caractéristique a été utilisée dans les petites automobiles des années 1970. Un système de relais y connectait la batterie pour fournir un courant à la dynastar qui faisait démarrer le moteur à combustion interne et passait automatiquement en dynamo lorsque celui-ci atteignait un certain régime.
Alternateur
Générateur électrique de 1920
La découverte en 18324 par Faraday des phénomènes d'induction électromagnétique lui permet d'envisager de produire des tensions et des courants électriques alternatifs à l'aide d'aimants. Pixii, sur les indications d'Ampère, construit la même année une première machine qui sera perfectionnée ensuite (1833 - 1834) par Sexton et Clarke4. Un alternateur est une machine rotative qui convertit l'énergie mécanique fournie au rotor en énergie électrique à courant alternatif.
Plus de 95 % de l’énergie électrique est produite par des alternateurs : machines électromécaniques fournissant des tensions alternatives de fréquence proportionnelle à leur vitesse de rotation. Ces machines sont moins coûteuses et ont un meilleur rendement que les dynamos, machines qui délivrent des tensions continues (rendement de l'ordre de 95 % au lieu de 85 %).
Principe de l'alternateur
Cette machine est constituée d'un rotor (partie tournante) et d'un stator (partie fixe).
- Le rotor
- l'inducteur peut être constitué d'un aimant permanent (générant donc un champ constant), dans ce cas la tension délivrée par la machine n'est pas réglable (si on ne tient pas compte des pertes dans les conducteurs) et sa valeur efficace et sa fréquence varient avec la vitesse de rotation. Plus couramment un électroaimant assure l'induction. Ce bobinage est alimenté en courant continu, soit à l'aide d'un collecteur à bague rotatif (une double bague avec balais) amenant une source extérieure, soit par un excitateur à diodes tournantes et sans balais. Un système de régulation permet l'ajustement de la tension ou de la phase5,cdu courant produit.
- Le stator
- l'induit, est constitué d'enroulements qui vont être le siège de courant électrique alternatif induit par la variation du flux du champ magnétique due au mouvement relatif de l'inducteur par rapport à l'induit.
Différents types d'alternateurs
Alternateurs industriels
Dans les alternateurs industriels, l'induit est constitué de trois enroulements disposés à 360°/3p (p : nombre de paires de pôles) soit 120°/1p pour une paire de pôles et trois enroulements, qui fournissent un système de courants alternatifs triphasés.
Augmenter le nombre de paire de pôle permet de faire baisser la vitesse de rotation de la machine. La fréquence du réseau étant de 50 Hz (50 cycles par seconde, soit 3 000 cycles par minute), les machines synchrones doivent suivre ce rythme pour alimenter le réseau. Augmenter le nombre de pôle permet de réaliser plus de cycles pour un seul tour et comme la fréquence est fixe, on doit ralentir la vitesse de rotation pour respecter les 3 000 cycles à la minute (en 50 Hz).
- Dans les centrales électriques thermiques (nucléaires ou classiques), une turbine à vapeur ou une turbine à gaz tournant à grande vitesse est couplée à un turboalternateur. Ce type de générateur tourne généralement à 1 500 tours/min (rotor à quatre pôles) ou à 3 000 tours/min (rotor à deux pôles), pour les réseaux de distribution à 50 Hz. La puissance électrique fournie par un des turboalternateurs d'une centrale nucléaire peut atteindre 1 800 mégawatts6.
- Les centrales hydrauliques, dont les turbines tournent plus lentement, ont des rotors comportant un nombre important de pôles (14 à 16 pôles). L'axe de rotation de l'arbre peut être vertical ou horizontal et le diamètre de cet arbre est important.
- Les gros groupes électrogènes utilisent généralement un moteur Diesel lent. Dans ce cas, le rotor de l'alternateur ressemble beaucoup à celui d'un alternateur hydraulique, avec un nombre élevé de pôles, un grand diamètre et un grand moment d'inertie absorbant les variations de vitesse de rotation de l'arbre du moteur Diesel.
Alternateurs domestiques
Un alternateur de type « embarqué » (vue éclatée).
Dans les alternateurs domestiques (groupe électrogène monophasé), l'induit est constitué d'un seul enroulement.
Alternateurs embarqués
Les alternateurs embarqués, entre autres sur les véhicules automobiles, sont des alternateurs triphasés munis d'un système de redressement (à diodes), qui délivrent un courant continu sous une tension d'environ 14 V pour les voitures et 28 V pour les camions, fournissant l'énergie électrique du véhicule et rechargeant sa batterie visant à fournir l'énergie lorsque le moteur sera à l'arrêt. L’alternateur doit être associé à un régulateur de tension protégeant la batterie d'une surcharge. Les mal nommées « dynamos » de bicyclettes sont elles aussi des alternateurs, dont l'inducteur est constitué d´un ou plusieurs aimants permanents.
Éolienne
Dans certains cas, par exemple sur certaines éoliennes, le rotor est externe et le stator, fixe, est disposé au centre de la génératrice. Les pales de l'éolienne sont directement reliées au rotor. L'éolienne est un alternateur.
Génératrice asynchrone
Les machines asynchrones en fonctionnement hypersynchrone (fréquence de rotation supérieure à la fréquence de synchronisme) fournissent également de l'énergie au réseau électrique auquel elles sont connectées. Elles ont le désavantage de ne pas pouvoir réguler la tension[réf. nécessaire], à la différence des machines synchrones qui peuvent assurer la stabilité des réseaux électriques. Cependant elles sont de plus en plus utilisées en génératrices de petites, et moyennes, puissances comme sur les éoliennes7 et les micro-barrages grâce au progrès récent de l'électronique de puissance. Une des applications est la machine asynchrone à double alimentation.
Générateur non tournant
Il existe des générateurs électriques ne nécessitant pas de machine tournante, tels que :
Générateur en développement
D'autres technologies de générateurs sont en développement sans avoir encore d'application industrielle à grande échelle :
- générateur utilisant la radioactivité : Le générateur bêtavoltaïque est un prototype utilisant la désintégration de particules radioactives. La différence avec les générateurs conventionnels nucléaires ou à isotope est qu'ils n'utilisent pas la chaleur générée, mais directement les électrons émis par la désintégration de la particule ;
- générateur utilisant l'énergie marine : Des expérimentations sont en cours pour concevoir et valider industriellement des générateurs utilisant l'énergie marine ;
- générateur thermomagnétique destiné à la récupération de la chaleur :Ces générateurs utilisent la convection thermomagnétique (en), c'est-à-dire la variation d'aimantation en fonction de la température. On réalise ainsi des cycles thermodynamiques pour convertir la variation de température en variation d’aimantation. Cette variation est ensuite convertie en énergie mécanique et enfin en énergie électrique8,9,10.
Notes et références
Notes
- Les tensions étant différentes, la pile neuve débitera à travers la pile usagée jusqu'au moment où la tension des deux piles sera identique. Toutes les piles ne supportant ce type de charge, le risque de surchauffe est important.
- Voir l'article Machine à courant continu.
- Un alternateur à rotor bobiné permet dans une certaine plage de fonctionnement le contrôle de P et Q, et donc de la phase.
Références
- Simon Sellem, « Règles d`association des sources dans les convertisseurs statiques » [archive], sur studylibfr.com
- (de) Bollee B., Elektrostatische Motoren, Philips Technische Rundshau, vol. 30, no 617, 1969, p. 175-191.
- Noël J. Felici, Cours d'électrostatique, 1960, Grenoble.
- Alfred Picard, Exposition universelle internationale de 1889 à Paris. Rapport général, vol. 7 : L'outillage et les procédés des industries mécaniques. L'électricité (suite) (groupe VI de l'Exposition universelle de 1889), page 299
- François BERNOT, « Alternateurs synchrones de grande puissance (partie 1) », Technique de l'ingénieur,
- Michel Verrier, Pascal Chay et Mathieu Gabion, « Turboalternateurs », Technique de l'ingénieur, (lire en ligne [archive]).
- [PDF]étude d’une éolienne basée sur une machine asynchrone [archive], sur Cndp.fr - Bases documentaires
- Informations lexicographiques [archive] et étymologiques [archive] de « Thermodynamique » dans le Trésor de la langue française informatisé, sur le site du Centre national de ressources textuelles et lexicales, consulté le=2020-10-06
- (en) Smail Ahmim, Morgan Almanza, Alexandre Pasko, Frédéric Mazaleyrat, Martino LoBue, Thermal energy harvesting system based on magnetocaloric materials, Eur. Phys. J. Appl. Phys. 85, 10902 (2019)
- (en) Convection of paramagnetic fluid in a cube heated and cooled from side walls and placed below a superconducting magnet, The heat transfert society of Japan, coll. « Thermal Science & Engineering Vol.14 No.4 », , 8 p. (lire en ligne [archive])
Annexes
Sur les autres projets Wikimedia :
Articles connexes
Générateur thermoélectrique
Générateur thermoélectrique
Principe de fonctionnement du générateur thermoélectrique composé de matériaux de différents coefficients Seebeck (semi-conducteurs dopés p et dopés n), configuré comme un générateur thermoélectrique.
Un générateur thermoélectrique (GTE ou (en) TEG) est une plaque comportant des semi-conducteurs et utilisant l'effet Peltier pour produire de l'électricité en tirant parti de la différence de températures entre chaque face. Ce type de module est également utilisé pour le refroidissement thermoélectrique.
On appelle l'effet utilisé, l'« effet Peltier–Seebeck », car il dérive des travaux du physicien français Jean-Charles Peltier et du physicien allemand Thomas Johann Seebeck.
Le composant utilise généralement des circuits en cuivre et la partie semi-conductrice en tellurure de bismuth. Cette source d'électricité peut constituer un système d'alimentation autonome ou s'intégrer dans un réseau en tant que générateur intermittent, d'appoint ou de charge continue.
Histoire
En 1821, Thomas Johann Seebeck a redécouvert qu'un gradient thermique formé entre deux conducteurs dissemblables peut produire de l'électricité1,2. Au cœur de l'effet thermoélectrique se trouve le fait qu'un gradient de température dans un matériau conducteur entraîne un flux de chaleur ; cela entraîne la diffusion de porteurs de charge. Le flux de porteurs de charge entre les régions chaudes et froides crée à son tour une différence de tension. En 1834, Jean-Charles Peltier découvrit l'effet inverse, que le fonctionnement un courant électrique à travers la jonction de deux conducteurs différents pourrait, selon la direction du courant, le faire agir comme un réchauffeur ou un refroidisseur3.
Structure
Les générateurs d'énergie thermoélectrique se composent de trois composants principaux : les matériaux thermoélectriques, les modules thermoélectriques et les systèmes thermoélectriques qui s'interfacent avec la source de chaleur4.
Matériaux thermoélectriques
Les matériaux thermoélectriques génèrent de l'énergie directement à partir de la chaleur en convertissant les différences de température en tension électrique. Ces matériaux doivent avoir à la fois une conductivité électrique (σ) et une conductivité thermique (κ) élevées pour être de bons matériaux thermoélectriques. Le fait d'avoir une faible conductivité thermique garantit que lorsqu'un côté est chauffé, l'autre côté reste froid, ce qui contribue à générer une tension élevée dans un gradient de température. La mesure de l'amplitude du flux d'électrons en réponse à une différence de température à travers ce matériau est donnée par le coefficient Seebeck (S). L'efficacité d'un matériau donné à produire une puissance thermoélectrique est simplement estimée par son « facteur de mérite » zT = S2σT/κ.
Pendant de nombreuses années, les trois principaux semi-conducteurs connus pour avoir à la fois une faible conductivité thermique et un facteur de puissance élevé étaient le tellurure de bismuth (Bi2Te3), le tellurure de plomb (PbTe) et le silicium germanium (SiGe). Certains de ces matériaux contiennent des éléments quelque peu rares qui les rendent coûteux.
Aujourd'hui, la conductivité thermique des semi-conducteurs peut être abaissée sans affecter leurs propriétés électriques élevées en utilisant la nanotechnologie. Ceci peut être réalisé en créant des caractéristiques à l'échelle nanométrique comme des particules, des fils ou des interfaces dans des matériaux semi-conducteurs en vrac. Cependant, les procédés de fabrication des nanomatériaux sont encore difficiles.
Avantages thermoélectriques
Les générateurs thermoélectriques sont des dispositifs entièrement à semi-conducteurs qui ne nécessitent aucun fluide pour le carburant ou le refroidissement, ce qui les rend non dépendants de l'orientation, ce qui permet une utilisation dans des applications en apesanteur ou en haute mer5. L'utilisation des semi-conducteurs permet un fonctionnement dans des environnements sévères. Les générateurs thermoélectriques n'ont pas de pièces mobiles, ce qui produit un appareil plus fiable qui n'exige pas d'entretien pendant de longues périodes. La durabilité et la stabilité environnementale ont fait de la thermoélectricité un favori pour les explorateurs de l'espace lointain de la NASA, entre autres applications6. L'un des principaux avantages des générateurs thermoélectriques en dehors de ces applications spécialisées est qu'ils peuvent potentiellement être intégré dans les technologies existantes pour en augmenter l'efficacité et réduire l'impact environnemental en produisant de l'énergie utilisable à partir de la chaleur perdue7.
Module thermoélectrique
Un module thermoélectrique est un circuit contenant des matériaux thermoélectriques qui génèrent directement de l'électricité à partir de la chaleur. Un module thermoélectrique se compose de deux matériaux thermoélectriques dissemblables joints à leurs extrémités : un semi-conducteur de type n (avec des porteurs de charge négatifs) et un semi-conducteur de type p (avec des porteurs de charge positifs). Un courant électrique continu circule dans le circuit lorsqu'il y a une différence de température entre les extrémités des matériaux. En général, l'intensité du courant est directement proportionnelle à la différence de température :
J = − σ S ∇ T
où σ est la conductivité locale, S est le coefficient Seebeck (également appelé thermopuissance), une propriété du matériau local, et ∇ T est le gradient de température.
En application, les modules thermoélectriques dans la production d'énergie fonctionnent dans des conditions mécaniques et thermiques très difficiles. Comme ils fonctionnent dans un gradient de température très élevé, les modules sont soumis à de grandes contraintes et déformations d'origine thermique pendant de longues périodes. Ils sont également soumis à la fatigue mécanique causée par un grand nombre de cycles thermiques.
Ainsi, les jonctions et les matériaux doivent être sélectionnés de manière à ce qu'ils survivent à ces conditions mécaniques et thermiques difficiles. De même, le module doit être conçu de telle sorte que les deux matériaux thermoélectriques soient thermiquement en parallèle, mais électriquement en série. L'efficacité d'un module thermoélectrique est grandement affectée par la géométrie de sa conception.
Conception thermoélectrique
Les générateurs thermoélectriques sont constitués de plusieurs thermopiles, chacune étant composée de nombreux thermocouples constitués d'un matériau de type n et de type p connectés. La disposition des thermocouples se présente généralement sous trois formes principales : planaire, verticale et mixte. La conception planaire implique des thermocouples placés horizontalement sur un substrat entre la source de chaleur et le côté froid, ce qui permet de créer des thermocouples plus longs et plus fins, augmentant ainsi la résistance thermique et le gradient de température et, finalement, la tension de sortie. La conception verticale a des thermocouples disposés verticalement entre la plaque chaude et la plaque froide, ce qui entraîne une forte intégration des thermocouples ainsi qu'une tension de sortie élevée, faisant de cette conception la plus utilisée commercialement. Dans la conception mixte, les thermocouples sont disposés latéralement sur le substrat, tandis que le flux de chaleur est vertical entre les plaques. Des microcavités sous les contacts chauds du dispositif permettent un gradient de température, ce qui permet à la conductivité thermique du substrat d'affecter le gradient et l'efficacité du dispositif8.
Pour les systèmes microélectromécaniques, les générateurs thermoélectriques peuvent être conçus à l'échelle des appareils portatifs pour utiliser la chaleur du corps sous forme de films minces9. Les TEG flexibles pour l'électronique portable peuvent être fabriqués avec de nouveaux polymères par des processus d'fabrication additive ou de projection thermique. Les TGE cylindriques destinés à utiliser la chaleur des pots d'échappement des véhicules peuvent également être fabriqués à l'aide de thermocouples circulaires disposés dans un cylindre10. De nombreux designs de TEG peuvent être réalisés pour les différents dispositifs auxquels ils sont appliqués.
Systèmes thermoélectriques
À l'aide de modules thermoélectriques, un système thermoélectrique produit de l'énergie en absorbant la chaleur d'une source telle qu'un pot d'échappement chaud. Pour fonctionner, le système a besoin d'un grand gradient de température, ce qui n'est pas facile dans les applications du monde réel. Le côté froid doit être refroidi par de l'air ou de l'eau. Des échangeurs de chaleur sont utilisés des deux côtés des modules pour fournir ce chauffage et ce refroidissement.
La conception d'un système thermoélectrique fiable fonctionnant à haute température présente de nombreux défis. L'obtention d'un rendement élevé dans le système nécessite une conception technique poussée pour trouver un équilibre entre le flux de chaleur à travers les modules et la maximisation du gradient de température à travers eux. Pour ce faire, la conception des technologies d'échange de chaleur dans le système est l'un des aspects les plus importants de l'ingénierie TGE. En outre, le système doit minimiser les pertes thermiques dues aux interfaces entre les matériaux à plusieurs endroits. Éviter les grandes chutes de pression entre les sources de chauffage et de refroidissement est un autre défi technique.
Si la production de courant alternatif est nécessaire (comme pour alimenter des équipements fonctionnant au courant alternatif du secteur), le courant continu des modules TE doit être redressé par un onduleur, ce qui réduit l'efficacité et augmente le coût et la complexité du système.
Matériaux pour générateurs thermoélectriques
Seuls quelques matériaux connus à ce jour sont identifiés comme matériaux thermoélectriques. La plupart des matériaux thermoélectriques ont aujourd'hui un zT, le facteur de mérite, d'une valeur d'environ 1, comme le tellurure de bismuth (Bi2Te3) à température ambiante et tellurure de plomb (PbTe) à 500–700 K. Cependant, pour être compétitifs avec d'autres systèmes de production d'énergie, les matériaux TEG doivent avoir un zT de 2–3. La plupart des recherches sur les matériaux thermoélectriques se sont concentrées sur l'augmentation du coefficient Seebeck (S) et la réduction de la conductivité thermique, notamment en manipulant la nanostructure des matériaux thermoélectriques. Étant donné que la conductivité thermique et électrique est en corrélation avec les porteurs de charge, de nouveaux moyens doivent être introduits afin de concilier la contradiction entre une conductivité électrique élevée et une conductivité thermique faible, comme cela est nécessaire11.
Lors de la sélection de matériaux pour la génération thermoélectrique, un certain nombre d'autres facteurs doivent être pris en compte. Pendant le fonctionnement, idéalement, le générateur thermoélectrique a un grand gradient de température à travers lui. La dilatation thermique introduira alors une contrainte dans le dispositif qui peut provoquer une fracture des pattes thermoélectriques ou une séparation du matériau de couplage. Les propriétés mécaniques des matériaux doivent être prises en compte et le coefficient de dilatation thermique des matériaux de type n et p doivent être raisonnablement bien adaptés. Dans le cas d'un système segmenté de générateurs thermoélectriques12, la compatibilité du matériau doit également être prise en compte pour éviter l'incompatibilité du courant relatif, défini comme le rapport entre le courant électrique et le courant thermique de diffusion, entre les couches de segments.
Le facteur de compatibilité d'un matériau est défini comme suit
s = 1 + z T − 1 S T 13
Lorsque le facteur de compatibilité d'un segment à l'autre diffère de plus d'un facteur de deux environ, le dispositif ne fonctionne pas efficacement. Les paramètres du matériau déterminant s (ainsi que zT) dépendent de la température, de sorte que le facteur de compatibilité peut changer du côté chaud au côté froid du dispositif, même dans un seul segment. Ce comportement est appelé autocompatibilité et peut devenir important dans les dispositifs conçus pour une application à grande température.
En général, les matériaux thermoélectriques peuvent être classés en matériaux conventionnels et nouveaux :
Matériaux conventionnels
De nombreux matériaux thermoélectriques sont utilisés dans les applications commerciales actuelles. Ces matériaux peuvent être divisés en trois groupes en fonction de la plage de température de fonctionnement :
- Basse température (jusqu'à environ 450 K) : Alliages à base de bismuth (Bi) en combinaison avec de l'antimoine (Sb), du tellure (Te) ou du sélénium (Se).
- Température intermédiaire (jusqu'à 850 K) : tels que les matériaux à base d'alliages de plomb (Pb).
- Plus haute température (jusqu'à 1 300 K) : matériaux fabriqués à partir d'alliages de silicium-germanium (SiGe)14.
Bien que ces matériaux restent encore la pierre angulaire des applications commerciales et pratiques de la production d'énergie thermoélectrique, des avancées significatives ont été réalisées dans la synthèse de nouveaux matériaux et la fabrication de structures matérielles présentant des performances thermoélectriques améliorées. Les recherches récentes se sont concentrées sur l'amélioration du facteur de mérite (zT) du matériau, et donc du rendement de conversion, en réduisant la conductivité thermique du réseau11.
Nouveaux matériaux
Génération d'électricité en saisissant les deux côtés d'un dispositif thermoélectrique flexible
PEDOT:PSS.
PEDOT : modèle basé sur PSS intégré dans un gant pour générer de l'électricité par la chaleur corporelle
Les chercheurs tentent de développer de nouveaux matériaux thermoélectriques pour la production d'électricité en améliorant le facteur de mérite zT. Il se penchent notamment vers le composé semi-conducteur ß-Zn4Sb3, qui possède une conductivité thermique exceptionnellement faible et présente un zT maximum de 1,3 à une température de 670 K. Ce matériau est également relativement peu coûteux et stable jusqu'à cette température sous vide, et peut être une bonne alternative dans la gamme de température entre les matériaux à base de Bi2Te3 et PbTe11. Parmi les développements les plus passionnants dans les matériaux thermoélectriques, il y a celui du séléniure d'étain monocristallin qui a produit un zT record de 2,6 dans une direction15. D'autres nouveaux matériaux intéressants incluent les skuttérudites, les tétraédrites et les cristaux d'ions excités.
Outre l'amélioration du facteur de mérite, l'accent est de plus en plus mis sur le développement de nouveaux matériaux en augmentant la puissance électrique, en réduisant les coûts et en développant des matériaux respectueux de l'environnement. Par exemple, lorsque le coût du combustible est faible ou presque gratuit, comme dans la récupération de chaleur résiduelle, le coût par watt est uniquement déterminé par la puissance par unité de surface et la période de fonctionnement. En conséquence, il a initié une recherche de matériaux à haute puissance de sortie plutôt qu'à efficacité de conversion. Par exemple, les composés de terres rares YbAl3 ont un faible facteur de mérite, mais ils ont une puissance de sortie au moins double de celle de tout autre matériau et peuvent fonctionner sur la plage de température d'un source de chaleur résiduelle11.
Nouveau traitement
Pour augmenter le facteur de mérite (zT), la conductivité thermique d'un matériau doit être minimisée tandis que sa conductivité électrique et son coefficient Seebeck sont maximisés. Dans la plupart des cas, les méthodes visant à augmenter ou à diminuer une propriété entraînent le même effet sur les autres propriétés en raison de leur interdépendance. Une nouvelle technique de traitement exploite la diffusion de différentes fréquences de Phonons pour réduire sélectivement la conductivité thermique du réseau sans les effets négatifs typiques sur la conductivité électrique dus à la diffusion accrue simultanée des électrons16. Dans un système ternaire bismuth-antimoine-tellure, le frittage en phase liquide est utilisé pour produire des joints de grains semi-cohérents à faible énergie, qui n'ont pas d'effet de diffusion significatif sur les électrons17. La rupture consiste alors à appliquer une pression au liquide lors du frittage, ce qui crée un écoulement transitoire du liquide riche en Te et facilite la formation de dislocations qui réduisent fortement la conductivité du réseau17. La capacité à diminuer sélectivement la conductivité du réseau permet d'obtenir une valeur zT de 1,86, ce qui constitue une amélioration significative par rapport aux générateurs thermoélectriques commerciaux actuels dont la valeur zT est de ~ 0. 3-0,618. Ces améliorations soulignent le fait qu'en plus du développement de nouveaux matériaux pour les applications thermoélectriques, l'utilisation de différentes techniques de traitement pour concevoir la microstructure est un effort viable et utile. En fait, il est souvent judicieux de travailler pour optimiser à la fois la composition et la microstructure19.
Efficacité
L'efficacité habituelle des TGE est d'environ 5 à 8 %. Les appareils plus anciens utilisaient des jonctions bimétalliques et étaient encombrants. Des dispositifs plus récents utilisent des semi-conducteurs hautement dopés à base de tellurure de bismuth (Bi2Te3), tellurure de plomb (PbTe)20, oxyde de calcium manganèse (Ca2Mn3O8)21,22 ou leurs combinaisons23, en fonction de la température. Ce sont des dispositifs de semi-conducteurs et, contrairement aux dynamos, ils n'ont pas de pièces mobiles, à part pour l'usage occasionnel d'un ventilateur ou d'une pompe auxiliaires.
Applications
Les générateurs thermoélectriques ont des usages variés. Ils sont souvent utilisés pour des applications à distance de faible puissance ou lorsque des moteurs thermiques plus volumineux mais plus efficaces, tels que les moteurs Stirling, ne seraient pas possibles. Contrairement aux moteurs thermiques, les composants électriques solid state généralement utilisés pour effectuer la conversion d'énergie thermique en énergie électrique n'ont pas de pièces mécaniques. La conversion de l'énergie thermique en énergie électrique peut être effectuée à l'aide de composants qui ne nécessitent aucun entretien, qui sont intrinsèquement très fiables et qui peuvent être utilisés pour construire des générateurs de grande longévité sans entretien. Les générateurs thermoélectriques sont donc bien adaptés aux équipements dont les besoins en énergie sont faibles ou modestes, dans des endroits éloignés, inhabités ou inaccessibles, comme le sommet des montagnes, le vide spatial ou les profondeurs de l'océan.
Les principales utilisations des générateurs thermoélectriques sont les suivantes :
- Les sondes spatiales, dont le rover Curiosity sur Mars, produisent de l'électricité grâce à un générateur thermoélectrique à radio-isotopes dont la source de chaleur est un élément radioactif.
- La récupération de la chaleur résiduelle. Chaque activité humaine, transport et processus industriel génère de la chaleur résiduelle. Il est possible de réutiliser l'énergie résiduelle des voitures, des avions, des navires, des industries et du corps humain24. Des voitures, la principale source d'énergie est le gaz d'échappement25. Récupérer cette énergie thermique à l'aide d'un générateur thermoélectrique peut augmenter le rendement énergétique du véhicule. Les générateurs thermoélectriques ont été étudiés pour remplacer les alternateurs dans les voitures démontrant une réduction de 3,45 % de la consommation de carburant représentant des milliards de dollars d'économies annuelles26. Les projections des améliorations futures vont jusqu'à une augmentation de 10 % du kilométrage pour les véhicules hybrides27. Des études affirment que les économies d'énergie potentielles pourraient être plus élevées pour les moteurs à essence que pour les moteurs diesel28.
Chez les avions, les tuyères des moteurs ont été identifiées comme le meilleur endroit pour récupérer l'énergie, mais la chaleur des roulements du moteur et le gradient de température existant dans la peau de l'avion ont également été proposés24
- Les cellules solaires n'utilisent que la partie haute fréquence du rayonnement, tandis que l'énergie thermique basse fréquence est gaspillée. Plusieurs brevets concernant l'utilisation de dispositifs thermoélectriques en configuration parallèle ou en cascade avec des cellules solaires ont été déposés24,29. L'idée est d'augmenter l'efficacité du système combiné solaire/thermo-électrique pour convertir le rayonnement solaire en électricité utile.
- Les générateurs thermoélectriques sont principalement utilisés comme générateurs d'énergie à distance et hors réseau pour les sites non habités comme système d'alimentation autonome. Ils constituent le générateur d'électricité le plus fiable dans de telles situations, toujours en raison de l'absence de pièces mobiles (et du peu d'entretien), et de leur fonctionnement jour et nuit, dans toutes les conditions météorologiques et sans batterie de secours. Bien que les systèmes solaires photovoltaïques soient également mis en œuvre dans des sites éloignés, ils peuvent ne pas être une solution adaptée lorsque le rayonnement solaire est faible, c'est-à-dire dans les zones situées à des latitudes élevées où il n'y a pas de neige ou d'ensoleillement, dans les zones où la couverture nuageuse ou arboricole est importante, dans les déserts poussiéreux, les forêts, etc. Les générateurs thermoélectriques sont couramment utilisés sur les gazoducs, par exemple pour la protection cathodique, la radiocommunication et la télémétrie. Sur les gazoducs pour une consommation d'énergie allant jusqu'à 5 kW, les générateurs thermiques sont préférables aux autres sources d'énergie. Les fabricants de générateurs pour gazoducs sont Global Power Technologies (anciennement Global Thermoelectric) (Calgary, Canada) et TELGEN (Russie).
- Les microprocesseurs génèrent de la chaleur perdue. Les chercheurs se sont demandé si une partie de cette énergie pouvait être recyclée30 (voir infra).
- Les générateurs thermoélectriques ont également été étudiés en tant que cellules solaires-thermiques autonomes. L'intégration de générateurs thermoélectriques a été directement intégrée à une cellule solaire thermique avec une efficacité de 4,6 %31.
- La société Maritime Applied Physics Corporation de Baltimore, dans le Maryland, développe un générateur thermoélectrique pour produire de l'énergie électrique sur les fonds marins en eaux profondes en utilisant la différence de température entre l'eau de mer froide et les fluides chauds libérés par les cheminées hydrothermales, les suintements chauds ou les puits géothermiques forés. Les observatoires et les capteurs océaniques utilisés dans les sciences géologiques, environnementales et océaniques, les exploitants des ressources minérales et énergétiques des fonds marins et les militaires ont besoin d'une source d'énergie électrique à haute fiabilité pour les fonds marins. Des études récentes ont révélé que les générateurs thermoélectriques des profondeurs pour les centrales énergétiques à grande échelle sont également économiquement viables32.
- Ann Makosinski de Colombie-Britannique, au Canada, a développé plusieurs dispositifs utilisant des tuiles Peltier pour récolter la chaleur (d'une main humaine33, du front, et d'une boisson chaude34) qui prétend générer suffisamment d'électricité pour alimenter une lampe LED ou charger un appareil mobile, bien que l'inventeur admette que la luminosité de la lampe LED n'est pas compétitive par rapport à celles du marché35.
- Les générateurs thermoélectriques sont utilisés dans les ventilateurs de poêle. Ils sont posés sur le dessus d'un poêle à bois ou à charbon. Le GET est pris en sandwich entre deux puits de chaleur et la différence de température alimente un ventilateur lent qui aide à faire circuler la chaleur du poêle dans la pièce.
Limitations pratiques
Outre le faible rendement et le coût relativement élevé, l'utilisation de dispositifs thermoélectriques dans certains types d'applications pose des problèmes pratiques résultant d'une résistance de sortie électrique relativement élevée, qui augmente l'auto-échauffement, et d'une conductivité thermique relativement faible, qui les rend inadaptés aux applications où l'évacuation de la chaleur est critique, comme dans le cas de l'évacuation de la chaleur d'un dispositif électrique tel que les microprocesseurs.
- Résistance de sortie élevée du générateur : pour obtenir des niveaux de tension de sortie dans la gamme requise par les dispositifs électriques numériques, une approche commune consiste à placer de nombreux éléments thermoélectriques en série dans un module générateur. Les tensions des éléments augmentent, mais leur résistance de sortie aussi. Le théorème du transfert de puissance maximale stipule que la puissance maximale est délivrée à une charge lorsque les résistances de la source et de la charge sont identiques. Pour les charges à faible impédance, proches de zéro ohms, la puissance fournie à la charge diminue à mesure que la résistance du générateur augmente. Pour abaisser la résistance de sortie, certains dispositifs commerciaux placent plus d'éléments individuels en parallèle et moins en série et emploient un régulateur élévateur pour élever la tension à la tension requise par la charge.
- Parce qu'une conductivité thermique très élevée est nécessaire pour transporter l'énergie thermique à partir d'une source de chaleur telle qu'un microprocesseur numérique, la faible conductivité thermique des générateurs thermoélectriques les rend inadaptés pour récupérer la chaleur.
- Dans les applications thermoélectriques refroidies par air, comme la récupération de l'énergie thermique du carter de véhicule à moteur, la grande quantité d'énergie thermique qui doit être dissipée dans l'air ambiant représente un défi important. Lorsque la température du côté froid d'un générateur thermoélectrique augmente, la température différentielle de fonctionnement du dispositif diminue. Au fur et à mesure que la température augmente, la résistance électrique du dispositif s'accroît, entraînant une augmentation de l'auto-échauffement parasite du générateur. Dans les applications automobiles, un radiateur supplémentaire est parfois utilisé pour améliorer l'évacuation de la chaleur, bien que l'utilisation d'une pompe à eau électrique pour faire circuler un liquide de refroidissement ajoute une perte parasite à la puissance de sortie totale du générateur. Le refroidissement par eau du côté froid du générateur thermoélectrique, comme lors de la production d'énergie thermoélectrique à partir du carter chaud d'un moteur de bateau inboard, ne souffrirait pas de cet inconvénient. L'eau est un liquide de refroidissement beaucoup plus facile à utiliser efficacement que l'air.
Marché émergent
Alors que la technologie GTE ((en) TEG) est utilisée dans les applications militaires et aérospatiales depuis des décennies, de nouveaux matériaux thermoélectriques36, et des systèmes sont en cours de développement pour générer de l'électricité en utilisant la chaleur perdue de basse ou haute température, et cela pourrait fournir une importante opportunité dans un futur proche. Ces systèmes peuvent également être évolutifs à n'importe quelle taille et avoir des coûts d'exploitation et de maintenance inférieurs.
En général, les investissements dans la technologie TEG augmentent rapidement. Le marché mondial des générateurs thermoélectriques est estimé à 320 millions de dollars américains en 2015. Une étude récente a estimé que le TEG devrait atteindre 720 millions de dollars en 2021 avec un taux de croissance de 14,5 %. Aujourd'hui, l'Amérique du Nord s'accapare 66 % de la part de marché et continuera d'être le plus grand marché dans un proche avenir37. Cependant, les pays d'Asie-Pacifique et d'Europe devraient croître à des taux relativement plus élevés. Une étude a révélé que le marché Asie-Pacifique croîtrait à un taux de croissance annuel composé (TCAC) de 18,3 % au cours de la période de 2015 à 2020 en raison de la forte demande de générateurs thermoélectriques par les industries automobiles pour augmenter l'efficacité énergétique globale, ainsi comme l'industrialisation croissante dans la région38.
Les générateurs thermoélectriques à petite échelle en sont également aux premiers stades de la recherche dans les technologies portables pour réduire ou remplacer la charge et augmenter la durée de charge. Des études récentes se sont concentrées sur le nouveau développement d'un thermoélectrique inorganique flexible, le séléniure d'argent, sur un substrat en nylon. Les thermoélectriques représentent une synergie particulière avec les appareils portables en récupérant l'énergie directement du corps humain, créant ainsi un appareil auto-alimenté. Un projet a utilisé du séléniure d'argent de type n sur une membrane en nylon. Le séléniure d'argent est un semi-conducteur à bande interdite étroite avec une conductivité électrique élevée et une faible conductivité thermique, ce qui le rend parfait pour les applications thermoélectriques39.
Le marché des TEG basse puissance ou « sub-watt » (c'est-à-dire générant jusqu'à 1 Watt crête) est une part croissante du marché des TEG, capitalisant sur les dernières technologies. Les principales applications sont les capteurs, les applications basse consommation et plus globalement les applications Internet des objets. Une société d'études de marché spécialisée a indiqué que 100 000 unités ont été expédiées en 2014 et s'attend à 9 millions d'unités par an d'ici 202040.
Références
- (de) T. J. Seebeck, « Magnetische Polarisation der Metalle und Erze durch Temperatur-Differenz ["Polarisation magnétique des métaux et des minéraux par les différences de température"] », dans Traités des Académie royale des sciences de Berlin, (lire en ligne [archive]), p. 265–373.
- (de) T. J. Seebeck, « Abhandlungen der Königlichen Akademie der Wissenschaften zu Berlin (Sur la polarisation magnétique des métaux et minéraux par les différences de température) », Annalen der Physik und Chemie, vol. 6, , p. 286 (lire en ligne [archive])
- (en) Jean Charles Athanase Peltier, « Nouvelles expériences sur la caloricité des courants électrique (Nouvelles expériences sur les effets thermiques des courants électriques) », Annales de Chimie et de Physique, vol. 56, , p. 371–386 (lire en ligne [archive])
- (en) « How Thermoelectric Generators Work - Alphabet Energy » [archive], sur Alphabet Energy (consulté le )
- (en) Meng Chen, « The Deep Sea Water and Heat Energy of Thermoelectric Generation Study » [« Étude sur l'eau des mers profondes et l'énergie thermique de la production thermoélectrique »], Meeting Abstracts, The Electrochemical Society, vol. MA2015-01, no 3, , p. 706 (DOI 10.1149/MA2015-01/3/706, résumé [archive])
- (en) « Advanced Thermoelectric Technology: Powering Spacecraft and Instruments to Explore the Solar System » [archive], sur NASA (consulté le )
- (en) Kris Walker, « How Can Thermo Electrical Generators Help the Environment? » [archive] [« Comment les générateurs thermoélectriques peuvent-ils aider l'environnement ? »], sur AZO Clean Tech, (consulté le )
- (en) Nesrine Jaziri, Ayda Boughamoura, Jens Müller, Brahim Mezghani, Fares Tounsi et Mohammed Ismail, « A comprehensive review of Thermoelectric Generators: Technologies and common applications », Energy Reports, vol. 6, , p. 264-287 (ISSN 2352-4847, DOI 10.1016/j.egyr.2019.12.011, S2CID 212902804, lire en ligne [archive])
- (en) Satish Addanki et D. Nedumaran, « Simulation and fabrication of thermoelectric generators for hand held electronic gadgets » [« Simulation et fabrication de générateurs thermoélectriques pour les gadgets électroniques portatifs »], Materials Science and Engineering : B, vol. 251, , p. 114453 (ISSN 0921-5107, DOI 10.1016/j.mseb.2019.114453, S2CID 209724788, résumé [archive])
- (en) Palanisamy Mohan Kumar, Veluru Jagadeesh Babu, Arjun Subramanian, Aishwarya Bandla, Nitish Thakor, Seeram Ramakrishna et He Wei, « The Design of a Thermoelectric Generator and Its Medical Applications » [« La conception d'un générateur thermoélectrique et ses applications médicales »], Designs, vol. 3, no 2, , p. 22 (DOI 10. 3390/designs3020022)
- (en) Basel I. Ismail et Wael H. Ahmed, « Thermoelectric Power Generation Using Waste-Heat Energy as an Alternative Green Technology », Recent Patents on Electrical & Electronic Engineering, vol. 2, no 1, , p. 27–39 (DOI 10.2174/1874476110902010027)
- (en) H. Julian Goldsmid, Introduction to Thermoelectricity, vol. 121, Berlin, Heidelberg, Springer Berlin Heidelberg, (ISBN 978-3-662 -49255-0, DOI 10.1007/978-3-662-49256-7, Bibcode 2016inh..book.....G, résumé [archive])
- (en) G. Snyder, « Efficacité thermoélectrique et compatibilité », Physical Review Letters, vol. 91, no 14, , p. 148301 (PMID 14611561, DOI 10.1103/physrevlett.91 .148301, Bibcode 2003PhRvL..91n8301S, lire en ligne [archive] [PDF])
- (en) Ali Kandemir, Ayberk Ozden, Tahir Cagin et Cem Sevik, « Ingénierie de la conductivité thermique de nanoarchés Si-Ge massifs et unidimensionnels. dimensionnelle de nanoarchitectures Si-Ge », Science et technologie des matériaux avancés, vol. 18, no 1, , p. 187-196 (PMID 28469733, PMCID 5404179, DOI 10. 1080/14686996.2017.1288065, Bibcode 2017STAdM..18..187K)
- (en) M Kanatzidis, « Ultralow thermal conductivity and high thermoelectric figure of merit in Sn Se crystals » [« Conduction thermique ultrafaible et facteur de mérite thermoélectrique élevé dans les cristaux de Sn Se »], Nature, vol. 508, no 7496, , p. 373–377 (PMID 24740068, DOI 10.1038/nature13184, Bibcode 2014Natur.508..373Z, S2CID 205238132)
- (en) Takuma Hori et Junichiro Shiomi, « Tuning phonon transport spectrum for better thermoelectric materials », Science and Technology of Advanced Materials, vol. 20, no 1, , p. 10-25 (PMID 31001366, PMCID 6454406, DOI 10. 1080/14686996.2018.1548884)
- (en) Sang Kim, « Dense dislocation arrays embedded in grain boundaries for high-performance bulk thermoelectrics », Science, vol. 348, no 6230, , p. 109-114 (PMID 25838382, DOI 10. 1126/science.aaa4166, Bibcode 2015Sci...348..109K, S2CID 31412977, lire en ligne [archive] [PDF])
- (en) D.S. Kim, « Solar refrigeration options - a state-of-the-art review », International Journal of Refrigeration, vol. 31, no 1, , p. 3-15 (DOI 10.1016/j.ijrefrig.2007.07.011)
- (en) Oana Cojocaru-Mirédin, « Thermoelectric Materials Design by controlling the microstructure and composition » [archive] [« Conception de matériaux thermoélectriques en contrôlant la microstructure et la composition »], sur Max-Planck Institut (consulté le )
- (en) Kanishka Biswas, Jiaqing He, Ivan D. Blum, Chun-I Wu, Timothy P. Hogan, David N. Seidman, Vinayak P. Dravid et Mercouri G. Kanatzidis, « High-performance bulk thermoelectrics with all-scale hierarchical architectures », Nature, vol. 489, no 7416, , p. 414–418 (PMID 22996556, DOI 10.1038/nature11439, Bibcode 2012Natur.489 .. 414B, S2CID 4394616)
- (en) G. B. Ansell, M. A. Modrick, J. M. Longo, K. R. Poeppeimeler et H. S. Horowitz, « Calcium manganese oxide Ca2Mn3O8 », Acta Crystallographica Section B, International Union of Crystallography, vol. 38, no 6, , p. 1795–1797 (DOI 10. 1107/S0567740882007201, lire en ligne [archive] [PDF])
- (en) « TEG CMO 800°C & Cascade 600°C Hot Side Thermoelectric Power Modules » [archive], sur espressomilkcooler.com
- (en) « High Temp Teg Power Modules » [archive du ]
- (en) P. Fernández-Yáñez, V. Romero, O. Armas et G. Cerretti, « Gestion thermique des générateurs thermoélectriques pour la récupération de l'énergie résiduelle » [« Thermal management of thermoelectric generators for waste energy recovery »], Applied Thermal Engineering, vol. 196, , p. 117291 (ISSN 1359-4311, DOI 10.1016/j.applthermaleng.2021 .117291)
- (en) S. Ezzitouni, P. Fernández-Yáñez, L. Sánchez et O. Armas, « Bilan énergétique global dans un moteur diesel avec un générateur thermoélectrique », Applied Energy, vol. 269, , p. 115139 (ISSN 0306-2619, DOI 10.1016/j.apenergy.2020.115139, S2CID 219428113, lire en ligne [archive])
- (en) Fairbanks John, « Automotive Thermoelectric Generators and HVAC » [archive] [PDF], sur Department of Energy, (consulté le )
- (en) Katie Fehrenbacher, « A startup is finally bringing heat-to-power tech in a big way for vehicles » [archive], sur Fortune (consulté le )
- (en) P. Fernández-Yáñez, O Armas, R. Kiwan, A. Stefanopoulou et A.L. Boehman, « A thermoelectric generator in exhaust systems of spark-ignition and compression-ignition engines. A comparison with an electric turbo-generator » [« Un générateur thermoélectrique dans les systèmes d'échappement des moteurs à allumage commandé et à allumage par compression. Une comparaison avec un turbo-générateur électrique »], Applied Energy, vol. 229, , p. 80-87 (DOI 10.1016/j.apenergy.2018.07.107, S2CID 116417579)
- (en) D. Kraemer, L Hu, A Muto, X Chen, G Chen et M Chiesa, « Photovoltaic-thermoelectric hybrid systems: A general optimization methodology », Applied Physics Letters, vol. 92, no 24, , p. 243503 (DOI 10.1063/1.2947591, Bibcode 2008ApPhL..92x3503K, S2CID 109824202)
- (en) Zhou Yu, Paul Somnath et Bhunia Swarup, Harvesting Wasted Heat in a Microprocessor Using Thermoelectric Generators : Modeling, Analysis and Measurement : 2008 Design, Automation and Test in Europe, (ISBN 978-3-9810801-3-1, DOI 10.1109/DATE.2008.4484669), p. 98-103
- (en) Daniel Kraemer, « High-performance flat-panel solar thermoelectric generators with high thermal concentration » [« Générateurs thermoélectriques solaires plats à haute performance et à forte concentration thermique »], Nature Materials, vol. 10, no 7, , p. 532-538 (PMID 21532584, DOI 10.1038/nmat3013, Bibcode 2011NatMa..10..532K)
- (en) Lipeng Liu, « Faisabilité des centrales électriques à grande échelle basées sur les effets thermoélectriques », New Journal of Physics, vol. 16, no 12, , p. 123019 (DOI 10.1088/1367-2630/16/12/123019, Bibcode 2014NJPh...16l3019L)
- (en) « GSF 2013 : Project : The Hollow Flashlight » [archive], sur Google Science Fair (consulté le )
- (en) « Then-Drink : Capturing Electricity from Beverage » [archive du ], sur Society for Science and the Public (consulté le )
- (en) Emily Chung, « B.C. Girl invents headlamp powered by body heat » [archive], sur CBC News,
- (en) Jan-Hendrik Pöhls, « A new approach finds materials that can turn waste heat into electricity » [archive], sur The Conversation (consulté le )
- (en) « Global Thermoelectric Generator Market is estimated to cross the US $720 million by 2021: by Market Research Engine » [archive], sur www.keyc.com (consulté le )
- (en) « Thermoelectric Generators Market Worth 547.7 Million USD by 2020 » [archive], sur www.prnewswire.com (consulté le )
- (en) Y. Ding, « High performance n-type Ag2Se film on nylon membrane for flexible thermoelectric power generator », Nature Communications, vol. 10, no 841, , p. 841 (PMID 30783113, PMCID 6381183, DOI 10.1038/s41467-019-08835-5)
Articles connexes
Liens externes
Générateur de vapeur
Pour un article plus général, voir Chaudière.
Les générateurs de vapeur chaude Note 1 (GV) sont des composants essentiels des centrales électriques thermiques ou nucléaires, et de certains réseaux de chaleur.
La fonction du générateur de vapeur est d'échanger la chaleur entre le circuit primaire chauffé par le réacteur et le circuit secondaire qui fait tourner la turbine à vapeur — ou bien transporte la chaleur produite dans le cas d'un réseau de chaleur. Les générateurs de vapeur actuels les plus puissants atteignent environ 1 400 mégawatts. Un réacteur à eau pressurisée moderne dispose de 2 à 4 générateurs de vapeur dans l'enceinte de confinement.
Dans le circuit primaire d'un réacteur nucléaire, l'eau monte à 300 °C et 155 bars. Grâce aux générateurs de vapeur, l'eau du circuit secondaire est portée à ébullition, à une pression de 50 à 80 barsNote 2 : la vapeur s'échappe alors sous pression et fait tourner le groupe turbo-alternateur — c'est-à-dire la turbine couplée à l'alternateur — situé dans la salle des machines.
Structure et géométrie
Un générateur de vapeur (GV) tel que ceux équipant les réacteurs nucléaires français est un cylindre d'une vingtaine de mètres de hauteur, renfermant 3 000 à 6 000 tubes1 en forme de U inversé.
L'échange de chaleur se fait par une grande quantité de tubes minces, dans lesquels circule le fluide chaud, et autour desquels circule le fluide à chauffer.
Les tubes ont un diamètre de 2 cm environ, et montent dans le cylindre jusqu'à 10 m. Ils sont fixés à la base sur une plaque dite tubulaire, et sont maintenus à intervalle d'un mètre par des plaques entretoises. Dans la partie courbe en haut des tubes, qui peut avoir jusqu'à 1,5 m de rayon pour les tubes extérieurs, les tubes sont maintenus par des barres anti-vibratoires.
Valeurs palier N4 : 5 610 tubes d'un diamètre de 19,05 mm et d'une épaisseur de 1,09 mm sont répartis au pas triangulaire de 27,43 mm sur la plaque à tubes.
Le faisceau de tubes est enveloppé par une chemise en tôle qui le sépare du retour d'eau extérieur et guide l'émulsion vers un étage de séparation puis de séchage.
Fonctionnement
Générateurs de vapeur à tubes en U équipant les réacteurs à eau sous-pression
Principe du fonctionnement côté secondaire des générateurs de vapeur à tubes en U verticaux
Description fonctionnelle - Taux de circulation
Dans le GV, l'eau du circuit primaire circule dans les tubes. L'entrée dans les tubes se fait sous la plaque tubulaire, dans la branche chaude. Le fluide monte dans les tubes, côté branche chaude, transmet une partie de sa chaleur au circuit secondaire pendant la montée ainsi que dans les cintres, puis redescend côté branche froide.
L'eau du circuit secondaire ("eau alimentaire") entre dans le GV en partie supérieure au-dessus de l'altitude du sommet de faisceau des tubes, généralement sous le niveau d'eau. Elle s'échappe sous forme de vapeur sous pression au sommet du GV.
L'eau alimentaire admise dans le GV sous le niveau d'eau, de façon à prévenir la condensation de la vapeur présente dans le dôme est rapidement dirigée vers le bas du GV où elle se mélange avec l'eau à saturation issue des séparateurs. Le mélange se dirige ensuite sous la chemise vers le faisceau de tubes où il est tout d'abord réchauffé à saturation et ensuite évaporé partiellement. Le "taux de circulation" (noté θ ) est le rapport du débit du mélange diphasique faisceau au débit de vapeur produit. Plus le taux de circulation est élevé plus la température du mélange admis au contact des pièces épaisses et du faisceau de tubes est élevée et meilleur est le brassage de l'eau dans le faisceau de tubes.
Exemple :
- Dans une configuration typique où la pression de la vapeur saturée produite est de 55 bar (soit une température de 270 °C) et où la température d'eau alimentaire est de 170 °C, la température du mélange vaut sensiblement T m e l = 270 × ( θ − 1 ) + 170 θ Un taux de circulation de 3 conduit à Tmel = 237 °C
- Le débit massique d'émulsion dans le faisceau vaut 3 fois la valeur du débit vapeur ; le titre en vapeur de l'émulsion est donc égal à 33 % immédiatement à l'entrée de l'étage de séparation séchage. Soit donc un taux de vide de 93 % 1 t a u x d e v i d e = 1 + ( 1 t i t r e m a s s i q u e − 1 ) × ρ v ρ e . La masse volumique de ce mélange vaut sensiblement 524 kg/m3, dans l'exemple choisi, contre 822 kg/m3 pour le mélange eau alimentaire eau saturée présent dans le retour d'eau.
- Dans les séparateurs l'émulsion est centrifugée de façon à favoriser la séparation dynamique de l'eau ainsi que la séparation gravitaireNote 3,Note 4.
- En aval de l'étage de séparation, une batterie de sécheurs à chicanes permet d'assécher complètement la vapeur.
On s'arrange pour équilibrer la perte de charge de l'émulsion dans le faisceau et l'étage de séparation avec le terme moteur de thermosiphon procuré par l'altitude du niveau. La surface de l'eau (limite entre phase liquide et vapeur) est maintenue à niveau constant par un automatisme agissant sur une vanne réglante du circuit d'eau alimentaire ce qui assure de façon simple la régulation d'ensemble.
La vapeur produite arrive dans un grand collecteur de vapeur où l'on tente de limiter la présence de gouttelettes, toutefois au-dessus de 32 bars toute perte de charge se traduit par une légère condensation. Puis le collecteur se rétrécit et la vitesse de la vapeur augmente tandis que diminue la dimension des tuyaux (qu'il faut aussi calorifuger).
Exemple de calcul simplifié d'un générateur de vapeur
On tente dans ce paragraphe de retrouver de manière simple le dimensionnement général d'un générateur de vapeur de type classique de caractéristiques voisines de celui des réacteurs du palier N4. On effectue tout d'abord un calcul sans tenir compte de la présence du réchauffeur axial qui équipe ce type de GV. On apprécie ensuite le gain sur la pression vapeur ou la surface d'échange apporté par ce perfectionnement.
Le calcul estimatif effectué dans la boite déroulante montre que la conception à économiseur axial retenue pour les GV N4 et EPR fait gagner, toutes choses égales par ailleurs, environ 20 % sur la surface d'échange au prix de quelques tôles et tuyauteries internes non résistantes à la pression. À surface d'échange donnée, le gain sur l'échange thermique se traduit par une pression vapeur accrue de 2,8 bars toutes choses égales d'ailleurs procurant un rendement thermodynamique augmenté et donc à production d’électricité donnée :
- une réduction de la charge thermique de la source froide (environnement moins affecté).
- une meilleure sûreté (puissance résiduelle moindre)
[afficher]
Calcul simplifié d'un générateur de vapeur
Autres technologies
Les générateurs de vapeur de type Babcock sont à tubes droits et simple-passage. Les générateurs des centrales VVER russes sont à axe horizontal, disposition favorable du point de vue de la tenue au séisme.
Certains réacteurs de faible puissance sont également équipés de générateurs de vapeur avec des tubes simple-passage hélicoïdaux2.
Les générateurs de vapeur non nucléaires atteignent des températures de 450 °C et des pressions de 45 bars (45.105Pa).
Maintenance
Les générateurs de vapeur sont soumis à une visite décennale obligatoire conformément au règlement sur les appareils à vapeur3
Contrôle des tubes
Les tubes des générateurs de vapeur constituent la seconde barrière des centrales nucléaires, isolant le fluide primaire, au contact des crayons combustibles, et le fluide secondaire du circuit eau vapeur.
En conséquence, une attention toute particulière est accordée à la vérification de l'étanchéité des tubes au cours des arrêts de tranche.
L'examen non destructif des tubes est fait en fonction de l'historique, et selon un « plan de sondage » permettant de vérifier l'intégralité des tubes en 3 ou 4 visites.
Différents procédés sont utilisés pour contrôler les tubes : remplissage de la partie "secondaire" par de l'hélium pour vérifier leur étanchéité ; utilisation de courants de Foucault pour mesurer l'état mécanique des tubes.
Les tubes (en inconel 690) présentant des défauts, dus par exemple à la corrosion ou à des fissures, sources de fuites, sont bouchés (à leur entrée et sortie) pour éviter que le fluide du circuit primaire ne contamine le circuit secondaire. Le bouchon est en métal plein et il est conçu pour être fixé au tube via des dents ou cannelures venant s'incruster dans la paroi de celui-ci, mais depuis 2008, au moins cinq anomalies de pose des bouchons ont été détectées par EDF au moment de la maintenance de réacteurs à l'arrêt, anomalies qui a déjà conduit « au déplacement des bouchons dans les tubes » ce qui peut potentiellement altérer le générateur de vapeur. Ces anomalies ont mis « en cause la maîtrise de ces opérations ». Elles ont été depuis corrigées selon EDF et l'ASN4.
C'est une opération bien plus complexe, mais le tube peut aussi être réparé (opération appelée manchonnage lors de laquelle des manchons sont introduits non pas à l'extérieur du tube détérioré, mais à l'intérieur, l'étanchéité étant acquise par « dudgeonnage » robotisé et téléopéré, plusieurs "expansion hydraulique" successives (par dudgeon) ; la pièce rapporté est en acier 18MND5 revêtu d’inconel 690 (du côté circuit primaire uniquement5) ;
Ainsi alors qu'un projet prévoyait dans la tranche 5 de la centrale nucléaire de Gravelines de remplacer trois Générateurs de Vapeur, en 2016 EDF a proposé de continuer l'exploitation de la tranche avec ses Générateurs de Vapeur d’origine après épreuve hydraulique du circuit primaire et réparations dites de « manchonnage » des tubes des Générateurs pour conserver l'« intégrité de la seconde barrière »). C'était une première en France mais le groupe Westinghouse (qui a réalisé cette opération en 2017) l'avait déjà pratiqué dans plusieurs centrales d'autres pays (avec 19 000 manchons déjà posés en 15 ans)6. En France "tous les centres de production nucléaire du palier 1 300 MWe d'EDF sont potentiellement concernés" ; EDF a lancé un marché global pour le manchonnage7. Un autre procédé a été breveté en 1985, visant à créer un manchon métallique étanche dans la zone de fuite, par un traitement l'électrodéposition de nickel, par voie humide8.
Les tubes (plusieurs kilomètres dans chaque GV) sont maintenus par des plaques entretoises pour limiter leur vibration. Récemment, un phénomène de colmatage de l'espace restreint entre les tubes et les plaques a été mis en évidence : des oxydes métalliques véhiculés dans l'eau secondaire, tendent à se déposer dans les zones confinées quand l'eau se vaporise au contact du métal chaud. Tout colmatage nuit au fonctionnement du générateur de vapeur à long terme ; il est donc aujourd'hui traité (par nettoyage chimique et/ou à l'eau sous pression).
Incidents
Les incidents liés au générateur de vapeur sont assez fréquents dans l'industrie nucléaire9 :
- Le s'est produit une fuite importante de vapeur radioactive en raison de la rupture d’un tube sur l'un des générateurs de vapeur du réacteur no 2 de la centrale nucléaire d'Indian Point (États-Unis).
- De 2004 à 2007, certains réacteurs des centrales EDF ont subi un colmatage des générateurs de vapeur côté secondaire qui a dû être résolu pour assurer la sécurité du fonctionnement de ces centrales10
- La rupture de tubes de générateur de vapeur peut conduire à une fuite radioactive comme lors de l'incident de à la centrale nucléaire de San Onofre (USA)11.
- Le , EDF a informé l’ASN du basculement d’un générateur de vapeur, en cours de manutention dans le bâtiment du réacteur 2 de la centrale nucléaire de Paluel (76)12.
Avantages et inconvénients
La vapeur d'eau est le mode de déplacement par excellence de l'énergie thermique pour des puissances très élevées (très bonne puissance spécifique de la vapeur et dimension non limitée de l'installation pour certains usages).
Mais la vapeur humide présente des inconvénients : dans les turbines elle augmente l'usure des aubes et dans les transports de chaleur, elle augmente les pertes calorifiques par contact/conductibilité-thermique des condensats avec les parois. Les circuits à vapeur sèche (appelés aussi surchauffées) sont plus complexes à conduire (pression et température plus élevées) mais ne présentent pas ces inconvénients.
Homonymes
On désigne aussi sous le terme "générateur de vapeur" :
- l'appareil qui permet au Hammam moderne de fonctionner.
- une simple chaudière vapeur
- L'ensemble des appareils qui permettent l'adjonction de vapeur dans le four vapeur
- un humidificateur destiné au conditionnement d'air
Notes
- Il existe deux types de vapeurs industrielles : les vapeurs chaudes et les vapeurs froides. Cet article traite des générateurs de vapeur chaude utilisés dans le domaine de l'énergie. Pour le générateur de vapeur froide, voir générateur de brouillard
- Voir l'article sur le Réacteur pressurisé européen
- Le taux de vide du mélange eau vapeur montant dans les colonnes des séparateurs est élevé. Le terme moteur créé par l'écart de poids de colonne d'eau entre le retour d'eau et l'émulsion dans le faisceau est important et le débit diphasique d'émulsion monte dans les séparateurs un peu comme un geyser
- Les modèles de GV à tubes en U les plus récents des différents constructeurs ont dans l'ensemble augmenté le volume consacré à la séparation et à l'assèchement de la vapeur
- Le débit primaire massique est pris égal au débit volumique généré par la pompe que multiplie la masse volumique de l'eau prise à la température du débit passant dans la pompe
- La température d'eau alimentaire étant assez élevée du fait de l'optimisation du cycle vapeur côté turbine qui comporte plusieurs réchauffages de l'eau alimentaire, le taux de circulation retenu assure un complément de réchauffage suffisant pour protéger des chocs thermiques les grosses pièces de forge telles que la plaques tubulaire et les parois résistantes du GV
- Dans l'évaporateur de type ordinaire il n'y a pas de cloisonnement interne au faisceau côté secondaire et le mélange diphasique circule librement et s'homogénéise en température sachant qu'un très faible écart local de température est immédiatement compensé par une condensation ou une ébullition en provenance du fluide au voisinage
- La puissance thermique apportée par les pompes primaires (environ 20 MWth pour 4 pompes) explique l'écart entre cette valeur et la température d'entrée dans la cuve. 40 % de la puissance électrique consommée par la pompe est communiquée au fluide primaire lors du passage dans la pompe, les autres 60 % sont communiqués au fluide primaire tout au long du circuit en fonction des pertes de charge
- Un calcul plus précis obligerait à tenir compte d'un faible titre en eau à la sortie du générateur : typiquement 0,3 % - Dans le jargon des chaudiéristes on dit d'une chaudière qu'elle « prime » si la vapeur produite est chargée d'humidité. Les modèles récents de générateurs de vapeur ont fait l'objet de renforcement des étages de séparation et séchage qui éliminent ce défaut
- Point de tube identique au modèle précédent
- La distance inter tube et l'isthme de matière sont identiques au modèle précédent mais le pas est triangulaire et non plus carré ce qui augmente la compacité du faisceau
- Rappelée à l'article Flux thermique
- La corrélation de Chen apparait comme couvrant une large plage de pressions et températures avec un résultat moyen assez stable parmi celles de la littérature technique
- A remarquer que curieusement l'effet des dépôts sur la paroi secondaire des tubes n'est pas nécessairement négatif car dans la zone évaporatoire ils peuvent favoriser l'ébullition nucléée et améliorer l'échange tout au moins dans la première phase de l'exploitation des appareils
Références
Liens externes
Barrage
Évacuateur de crues du barrage de Matsumoto (préfecture de Nagano, Japon).
L'écologie des
berges des plans d'eau artificiels peut être perturbée par des variations brutales de niveau.
Types
- Barrage submersible
- Généralement nommé chaussée, seuil, levée ou digue ; ce dernier terme est préféré au mot barrage quand il s'agit de canaliser un flot.
- Barrage fluvial
- Il permet de réguler le débit de l'eau, au profit du trafic fluvial, de l'irrigation, d'une prévention relative des catastrophes naturelles (crues, inondations), par la création de lacs artificiels ou de réservoirs. Il permet souvent la production de force motrice (moulin à eau) et d'électricité — on parle alors de barrage hydroélectrique —, à un coût économique acceptable, le coût environnemental étant plus discuté pour les grands projets (source de fragmentation écopaysagère, d'envasements à l'amont du barrage, de dégradation écopaysagères et de l'eau. Les « grands barrages »N 1 sont tous recensés par la Commission internationale des grands barrages (CIGB).
Les conséquences environnementales et sociales d'un barrage varient selon le volume et la hauteur d'eau retenue et selon le contexte biogéographique3 : en noyant des vallées entières, un barrage artificiel peut forcer des populations à se déplacer et bouleverser les écosystèmes locaux. Certains s'intègrent dans un plan d'aménagement de bassin et font l'objet de mesures conservatoires et compensatoires. Souvent la loi ou le droit coutumier imposent un débit réservé (débit minimal réservé aux usagers de l'aval et pour le maintien de l'écosystème aquatique et des espèces en dépendant).
Par extension, on appelle « barrage » tout obstacle placé sur un axe de déplacement, par exemple pour contrôler des personnes et/ou des biens qui circulent (barrage routier, barrage militaire)1.
Aspects sémantiques
En 1821, dans son Précis historique et statistique sur les canaux et rivières navigables de Belgique et d'une partie de la France, B.L. De Rive définit le barrage comme une « digue au moyen de laquelle on soutient une hauteur d'eau constante dans toutes les parties d'une rivière, et qui suffit pour l'espèce de bateaux qui doivent y naviguer, et dont l'effet est de modérer la vitesse et de la ramener au régime uniforme de 1 mètre de pente sur 6 000 mètres de longueur »4.
L'usage courant ne distingue pas toujours le barrage de la digue quand ils sont constitués d'un remblai. On peut ainsi parler de la « digue de l'étang », voire de la « digue du barrage », le mot digue renvoyant alors au seul ouvrage et le mot barrage à l'ensemble de l'aménagement, y compris le plan d'eau. Le barrage construit en maçonnerie (et notamment les barrages-voûtes en béton) est en revanche bien distingué d'une digue.
Depuis 2007 et la publication d'un décret5 définissant les règles de sûreté applicables aux ouvrages hydrauliques, le droit français distingue clairement les digues des barrages :
- les barrages sont les ouvrages pour lesquels il est possible de déterminer deux critères, la hauteur de l'ouvrage, et le volume de l'eau stockée à l'amont de l'ouvrage ;
- les digues sont les ouvrages pour lesquels il est possible de déterminer deux critères, la hauteur de l'ouvrage, et en l'absence de volume d'eau stockée à l'amont de l'ouvrage, la population protégée à l'aval.
En droit français, les barrages sont donc tous les ouvrages permettant de former un plan d'eau, permanent ou non, tandis que les digues sont tous les ouvrages permettant de protéger une population, ou des biens, de l'effet des crues des cours d'eau ou les submersions marines.
À ce titre, lorsque le bief d'un canal est établi sur des remblais et domine ainsi une plaine ou une vallée, il entre dans la définition des barrages : la hauteur est celle du remblai par rapport au sol naturel, le volume d'eau est celui présent dans le bief, c'est-à-dire entre les deux écluses qui le déterminent[réf. nécessaire].
Les retenues collinaires sont des ouvrages de stockage de l'eau remplis par les eaux de surface, les eaux de ruissellement, voire les eaux de pompage. Elles sont considérées, au niveau réglementaire, comme des barrages[réf. nécessaire].
Les barrages de castors sont construits par ces animaux en travers des ruisseaux. Ils leur permettent de conserver un niveau d'eau suffisant en été, de protéger leur gîte contre les prédateurs et de garantir un accès facile aux provisions de branches stockées sous la surface comme réserve hivernale de nourriture[réf. nécessaire].
Histoire
Les barrages existent probablement depuis la préhistoire, notamment en Égypte6 (réserve d'eau potable, d'irrigation, viviers, piscicultures). Le barrage de Sadd el-Kafara d'une longueur de 115 mètres fut construit dans la vallée de Garawi en Égypte vers 3000 av. J.-C. Et, selon N. Schnitter-Reinhardt, le plus ancien barrage poids connu est situé près de Jawa, en Jordanie, vers la fin du IVe millénaire av. J.-C.7. Hérodote cite un barrage construit par le pharaon Ménès, fondateur de la première dynastie, à Koseish, pour alimenter la ville de Memphis.
La première rupture de barrage connue est celle de Sadd el-Kafara, sur le Wadi Garawi, à 30 km au sud du Caire, entre 2650 et 2465 av. J.-C. Elle en a probablement arrêté la construction pendant un millénaire8.
En l'an 560, l'historien byzantin Procope de Césarée mentionne un barrage-voûte en amont, en maçonnerie (barrage de Daras).
Les Romains en construisirent, notamment en Espagne, dans la région de Mérida, avec les barrages d'Almonacid (hauteur 34 m), de Proserpine (hauteur 22 m) et de Cornalvo (hauteur 28 m), ou encore, au Portugal, avec le barrage de Belas.
Chapelets d'étangs créés par des barrages sur petits cours d'eau, du Moyen Âge au
XVIIIe siècle (France, d'après la
carte de Cassini).
Au Moyen Âge, ils se sont fortement développés en Europe, notamment pour alimenter les moulins à eau. Il semble qu'ils aient parfois pu s'appuyer sur des sédiments accumulés en amont d'embâcles naturels, ou sur les lieux de barrages de castors dont la toponymie conserve des traces (par exemple, en France, les mots bief et bièvre, ancien nom de castor, qui pourraient être liés, ou des noms de communes tels que Beuvry, un des anciens noms de castor, ou Labeuvrière, la « castorière »). Les cartes anciennes, de Cassini par exemple, portent témoignage des nombreux barrages de petites rivières faits par les paysans ou les moines locaux, pour conserver l'eau et y élever du poisson ou pour le rouissage du lin ou du chanvre.
En conservant des volumes d'eau et une hauteur d'eau plus importante en saison sèche, ces barrages ont également pu tamponner les fluctuations estivales des nappes (car toutes choses égales par ailleurs, c'est la hauteur d'eau qui contrôle la vitesse de percolation, selon la loi de Darcy).
Au XVIe siècle, les Espagnols réalisèrent de grands barrages en maçonnerie. Le plus remarquable est celui de Tibi, à 18 km au nord d'Alicante, construit en 1594. Haut de 45 m, il est encore utilisé[réf. nécessaire].
En France, à l'est de Toulouse, le barrage de Saint-Ferréol est construit entre 1667 et 1675 pour les besoins de l'alimentation en eau du canal royal du Languedoc (canal dénommé de nos jours « canal du Midi »). Avec une hauteur de 35 m depuis les fondations et une longueur de couronnement de 786 m, les dimensions de ce barrage en font le plus grand au monde à son époque.
Le premier barrage-voûte moderne fut construit par François Zola, père d'Émile Zola, entre 1843 et 1859 près d'Aix-en-Provence.
Effectifs dans le monde
Au cours du XXe siècle, 800 000 barrages ont été construits, dont 52 000 considérés comme de grands barragesN 2, la Chine (46 %), les États-Unis (14 %) et l'Inde (9 %) totalisant près des trois quarts de ces grands barrages9.
Quelques exemples de grands barrages dans le monde
Barrage sur la
Toutle River (comté de Cowlitz, État de Washington (États-Unis), édifié en 1986-1989 par le génie militaire américain non pas pour retenir de l'eau mais pour stocker une partie des sédiments provenant de l'éruption volcanique majeure du
mont Saint Helens en 1980.
Techniques de construction
Généralités
Un barrage est soumis à plusieurs forces. Les plus significatives sont :
Pour résister à ces forces, deux stratégies sont utilisées :
- construire un ouvrage suffisamment massif pour résister par son simple poids, qu'il soit rigide (barrage-poids en béton) ou souple (barrage en remblai) ;
- construire un barrage capable de reporter ces efforts vers des rives ou une fondation rocheuse résistantes (barrage voûte, barrage à voûtes multiples…).
Éléments de calcul
Un barrage est soumis à une force horizontale liée à la pression exercée par l'eau sur sa surface immergée. La pression hydrostatique p en chaque point est fonction de la hauteur d'eau au-dessus de ce point.
- p = ρ g h
où
- ρ est la masse volumique de l'eau, 1 000 kg/m3 ;
- g est la pesanteur, environ 9,81 m/s2 ;
- h est la hauteur d'eau au-dessus du point considéré.
La force F résultante est l'intégrale des pressions hydrostatiques s'exerçant sur la surface immergée du barrage.
- F = ∫ S p d S
Cette formule ne s'intègre pas facilement pour les barrages à géométrie complexe. En revanche, une expression analytique peut être obtenue pour un élément de barrage poids (un « plot », de largeur L et de hauteur immergée constante H ) :
- F = ρ g L ∫ 0 H h d h
d'où :
- F = ρ g L H 2 2
La poussée exercée par l'eau sur un barrage augmente avec le carré de la hauteur de la retenue (ce qui est vrai pour tout type de barrage). Elle ne dépend pas du volume d'eau stocké dans la retenue. Le point d'application de cette force se situe au barycentre du diagramme des pressions, soit généralement au tiers de la hauteur de retenue.
Les calculs ci-dessus ne concernent que les barrages en matériaux rigides (béton, maçonnerie…), quel que soit leur type (poids, voûte, contreforts…). En revanche l'intégration par plots n'intéresse que les barrages de type poids ou contreforts, qui sont régis par la statique du solide. Pour les voûtes, les efforts étant reportés latéralement par des mécanismes de flexion et de compression, un calcul par plots ne prenant en compte que les forces verticales n'est pas suffisant et il est nécessaire de recourir à la résistance des matériaux (déformation élastique) et, souvent, à des méthodes numériques avancées (méthode des éléments finis linéaires voire non-linéaires).
En revanche, en ce qui concerne les barrages en matériaux meubles (sol, terre, enrochements, remblais…), les calculs sont apparentés à des calculs de stabilité de pente des talus qui doivent prendre en compte l'état saturé ou non de ces remblais.
Études hydrauliques
En hydraulique, le modèle réduit est très utilisé pour les études de mécanique des fluides des ouvrages tels que ports, digues, barrages, etc. On utilise dans ces cas-là la similitude du nombre de Froude. Des modèles numériques bi- ou tridimensionnels sont également souvent utilisés.
Types de barrages
Barrage poids
Un barrage poids est un barrage dont la propre masse suffit à s'opposer à la pression exercée par l'eau. Ce sont des barrages souvent relativement épais, dont la forme est généralement simple (leur section s'apparente dans la plupart des cas à un triangle rectangle). On compte deux grandes familles de barrages-poids, les barrages poids-béton, et les barrages en remblai (ces derniers n'étant d'ailleurs généralement pas qualifiés de barrage-poids, mais de barrage en remblai).
Même si les barrages voûtes ou à contrefort requièrent moins de matériaux que les barrages poids, ces derniers sont encore très utilisés de nos jours. Le barrage-poids en béton est choisi lorsque le rocher du site (vallée, rives) est suffisamment résistant pour supporter un tel ouvrage (sinon, on recourt aux barrages en remblai), et lorsque les conditions pour construire un barrage voûte ne sont pas réunies (cf. ci-dessous). Le choix de la technique est donc d'abord géologique : une assez bonne fondation rocheuse est nécessaire. Il faut également disposer des matériaux de construction (granulats, ciment) à proximité.
La technologie des barrages-poids a évolué. Jusqu'au début du XXe siècle (1920-1930), les barrages-poids étaient construits en maçonnerie (il existe beaucoup de barrages de ce type en France, notamment pour l'alimentation en eau des voies navigables). Plus tard, c'est le béton conventionnel qui s'est imposé.
Depuis 1978, une nouvelle technique s'est substituée au béton conventionnel. Il s'agit du béton compacté au rouleau. C'est un béton (granulats, sable, ciment) avec peu d'eau, qui a une consistance granulaire et non semi-liquide. Il se met en place comme un remblai, avec des engins de terrassement. Il présente le principal avantage d'être beaucoup moins cher que le béton classique.
Le barrage de la Grande-Dixence en Suisse, exploité par Alpiq, est le plus haut barrage-poids du monde (285 m).
Barrage en remblai
Long de 2 123
m, le barrage KA-5 est un ouvrage en enrochement de 47
m de hauteur qui ferme le bras Ouest de la
rivière Caniapiscau, pour former le
réservoir de Caniapiscau dans le nord du
Québec. Le barrage est formé d'un noyau de moraine, de plusieurs filtres en pierre tamisée, le tout étant recouvert d'une couche de blocs d'un mètre. Son volume est de 5 620 000
m310.
On appelle barrages en remblai tous les barrages constitués d'un matériau meuble, qu'il soit fin ou grossier (enrochements).
Cette famille regroupe plusieurs catégories, très différentes. Les différences proviennent des types de matériaux utilisés et de la méthode employée pour assurer l'étanchéité.
Le barrage homogène est un barrage en remblai construit avec un matériau suffisamment étanche (argile, limon). C'est la technique la plus ancienne pour les barrages en remblai.
Le barrage à noyau argileux comporte un noyau central en argile (qui assure l'étanchéité), épaulé par des recharges constituées de matériaux plus perméables. Cette technique possède au moins deux avantages sur le barrage homogène :
- les matériaux de recharge sont plus résistants que les matériaux argileux, on peut donc construire des talus plus raides ;
- on contrôle mieux les écoulements qui percolent dans le corps du barrage.
Le barrage à noyau en moraine est souvent utilisé dans les régions marquées par le retrait des glaciers. Ces ouvrages sont généralement constitués d'un noyau imperméable de moraine, récupérée à proximité du site, qui est protégé par des filtres en matériau granulaire. La coupe type d'un barrage en enrochement comprend également une zone de transition située entre le filtre et la recharge11.
Quelques cousins des barrages à noyau : les barrages en remblai à paroi centrale étanche (paroi moulée en béton, paroi en béton bitumineux).
La technique des barrages à masque amont est plus récente. L'étanchéité est assurée par un « masque », construit sur le parement amont du barrage. Ce masque peut être en béton armé (on construit actuellement de nombreux et très grands barrages en enrochements à masque en béton armé), en béton bitumineux, ou constitué d'une membrane mince (les plus fréquentes : membrane PVC, membrane bitumineuse).
Le barrage de Mattmark en Suisse, celui de Šance en République tchèque sont de ce type ; en France, le barrage de Serre-Ponçon (deuxième plus grande retenue d'Europe). Les barrages en enrochement sont les plus fréquents dans le parc de barrages d'Hydro-Québec. Ils représentent 72 % des 600 barrages exploités par l'entreprise en 200212.
Barrage voûte
La poussée de l’eau est reportée sur les flancs de la vallée au moyen d'un mur de béton arqué horizontalement, et parfois verticalement (on la qualifie alors de voûte à double courbure).
La technique de barrage-voûte nécessite une vallée plutôt étroite (même si des barrages-voûtes ont été parfois construits dans des vallées assez larges, poussant cette technologie à ses limites) et un bon rocher de fondation. Même lorsque ces conditions sont réunies, le barrage-voûte est aujourd'hui souvent concurrencé par les barrages-poids en béton ou le barrage en enrochements, dont la mise en œuvre peut être davantage mécanisée.
En raison du relativement faible volume de matériaux nécessaires, c'est une technique très satisfaisante économiquement.
Cependant, la plus grande catastrophe hydraulique survenue en France (Malpasset, au-dessus de Fréjus, le ) concernait un barrage-voûte en cours de mise en eau ; l'un des appuis latéraux de la voûte (et non le barrage lui-même) n'a pas supporté les efforts appliqués par la retenue, ce qui a provoqué la rupture presque totale et très brutale de l'ouvrage, et le déclenchement d'une onde de rupture extrêmement violente, capable d'entraîner des morceaux de la voûte pesant des centaines de tonnes. Cette catastrophe a fait des centaines de victimes, détruit de nombreux immeubles et un pont autoroutier, et ravagé de grandes surfaces agricoles.
Malpasset est le seul cas connu de rupture d'un barrage-voûte. Ce barrage est toujours aujourd'hui dans l'état où il a été laissé après l'accident, et les énormes morceaux du barrage sont toujours abandonnés dans la vallée à l'aval.
Avant cet accident (et, pour certains, aujourd'hui encore), la voûte est considérée comme le plus sûr des barrages. La catastrophe du Vajont en Italie le démontre d'ailleurs : alors qu'une double vague de grande hauteur est passée par-dessus la voûte, à la suite de l'effondrement d'une montagne dans le plan d'eau, le barrage est demeuré intact. L'onde de submersion provoquée par la vague a cependant fait des milliers de victimes.
On rencontre aussi des barrages avec plusieurs voûtes comme le barrage de l'Hongrin en Suisse.
Barrage à contreforts ou multivoûtes
Les voûtes multiples et contreforts du barrage Daniel-Johnson.
Lorsque les appuis sont trop distants, ou lorsque le matériau local est tellement compact qu'une extraction s'avère presque impossible, la technique du barrage à contreforts permet de réaliser un barrage à grande économie de matériaux.
Le mur plat ou multivoûtes (Vezins, Migoëlou ou Bissorte) en béton s’appuie sur des contreforts en béton armé encastrés dans la fondation, qui reportent la poussée de l’eau sur les fondations inférieures et sur les rives.
Un des exemples les plus importants de ce type est le barrage Daniel-Johnson au Québec, complété en 1968 dans le cadre du projet Manic-Outardes. Haut de 214 m et large de 1 312 m, le barrage, conçu par André Coyne13, est soutenu par deux contreforts centraux écartés par 160 m à leur base. Les 13 voûtes latérales forment des demi-cylindres inclinés qui ont 76 m d'entraxe. Au-delà des considérations esthétiques, Hydro-Québec a choisi de construire un barrage en voûtes et contreforts pour des raisons économiques. Selon les études de conception, la construction de l'ouvrage a requis un peu plus de 2,2 millions de mètres cubes de béton, soit cinq fois moins qu'un barrage poids14.
Barrages mobiles à aiguilles
Barrage à aiguilles de Givet - Dépose d'une aiguille
Le barrage mobile ou à niveau constant, a une hauteur limitée ; il est généralement édifié en aval du cours des rivières, de préférence à l’endroit où la pente est la plus faible. On utilise généralement ce type de barrage dans l’aménagement des estuaires et des deltas.
Selon le type de construction le barrage mobile peut être :
- à aiguilles, créé par l’ingénieur Charles Antoine François Poirée en 1834, qui, s’inspirant des anciens pertuis, étendit le système à toute la largeur du lit, améliorant considérablement la navigation fluviale dès la moitié du XIXe siècle. Le premier fut établi par Charles Antoine François Poirée sur l'Yonne, à Basseville, près de Clamecy (Nièvre). Le système Poirée consiste en un rideau de madriers mis verticalement côte à côte et barrant le lit du fleuve. Ces madriers ou aiguilles d’une section de 8 à 10 cm et longs de 2 à 4 m, selon les barrages, viennent s’appuyer contre un butoir (ou heurtoir) du radier (sur le fond) et sur une passerelle métallique constituée de fermettes. Ces fermettes peuvent pivoter pour s’effacer sur le fond en cas de crue et laisser le libre passage aux eaux. Les fermettes sont reliées par une barre d’appui qui retient les aiguilles et une barre de réunion, de plus elles constituent la passerelle de manœuvre. Les aiguilles à leur sommet présentent une forme qui permet une saisie aisée. Néanmoins c’est un travail fastidieux, long et dangereux (il faut plusieurs heures et plusieurs hommes pour mener à bien la tâche). Ce type de barrage est désormais remplacé par des techniques plus modernes et automatiques ; sur certains barrages encore existants, les aiguilles de bois sont remplacées par des aiguilles en aluminium remplies de polystyrène (pour la flottabilité en cas de chute dans la rivière), d’un poids bien moindre et plus facilement manœuvrables ;
- à effacement sur le fond de la rivière (seuil) pour permettre l’écoulement total ou en position intermédiaire pour créer un déversoir.
Barrages mobiles à battant
- À battant ou porte à axe vertical, comme le barrage moderne hollandais (Maeslantkering), ou les portes à la Léonard de Vinci fermant le port-canal de Cesenatico pour empêcher les fortes marées d’envahir les terres.
- À battant à axe horizontal avec possibilité d’échapper en aérien lorsque le débit devient critique, ce qui évite de constituer un obstacle à l'écoulement des eaux en temps de crue. Ce type de barrage est généralement employé pour empêcher l'eau salée de remonter l'estuaire, comme à Volta Scirocco en Italie.
- La partie fixe correspond à une plate-forme (ou radier) étanche.
- Une grande vanne à secteur, qui en position de fermeture totale détermine un battant qui s’appuie sur la plate-forme, pendant qu'en position de soulèvement complet, il laisse l'écoulement complètement libre.
- Une vanne à volet, montée sur la génératrice supérieure de la vanne à secteur, qui permet de régler l’écoulement dans le déversoir et le niveau d’eau désiré en amont du barrage. L'écoulement de l'eau peut se produire par le dessous du battant lorsque la vanne à secteur inférieure est soulevée (ce qui permet aussi de nettoyer la surface de la plate-forme), ou bien par le dessus en déversoir, lorsque la vanne supérieure à volet est abaissée.
- Barrage mobile à gravité, d’un fonctionnement théoriquement très simple, la vanne à gravité ne comporte que peu d’éléments mécaniques. Il s’agit d’un battant, sorte d’enveloppe creuse articulée autour d’une charnière fixée sur un socle de béton.
- En position repos l’enveloppe se remplit d’eau et descend de son propre poids sur le radier.
- En position active, de l’air injecté chasse l’eau et permet au battant de remonter par gravité. La hauteur dépend de la quantité d’air insufflée.
- Un tel procédé est en application dans le Projet MOSE qui doit protéger la lagune de Venise des hautes eaux de l’Adriatique (Acqua alta).
Nouveau barrage à vannes-clapets en construction à
Givet.
- Barrage mobile à clapets, d’un fonctionnement comparable au barrage à mobile à gravité ci-avant à la différence près qu'il est mû par deux vérins hydrauliquesN 3 situés de part et d'autre du clapet. Il respecte parfaitement sa fonction : réguler l'écoulement de la rivière pour maintenir un niveau sensiblement constant dans le bief amont. Son principal inconvénient est d'être excessivement dangereux pour le touriste nautique. Les poissons ne peuvent le remonter que lorsque la rivière est en hautes eaux et le clapet complètement baissé15.
D'autres types de barrages
Un barrage fait à la main sur un ruisseau.
Il existe d'autres catégories de barrages, en général de taille plus réduite.
Les barrages de stériles miniers sont des barrages construits avec des résidus d'exploitation minière pour créer une zone de stockage de ces stériles. Les barrages sont montés au fur et à mesure de l'exploitation de la mine. Ils s'apparentent aux barrages en remblai.
Les barrages de montagne sont des ouvrages destinés à lutter contre les effets de l'érosion torrentielle. Ce sont des ouvrages construits en travers des torrents. Ils peuvent interrompre (partiellement ou complètement) le transport solide ; ils peuvent également fixer le profil en long d'un thalweg en diminuant l'agressivité des écoulements.
Les digues filtrantes sont des ouvrages construits en pierres libres à travers un talweg ou bas-fond dans lequel des eaux de ruissellement se concentrent lors des grandes pluies. La digue sert à freiner la vitesse de l'eau des crues, et elle épand ces eaux sur une superficie au côté amont, action par laquelle l'infiltration est augmentée et des sédiments sont déposés. La superficie inondable constitue un champ cultivable sur laquelle sont obtenus de bons rendements grâce à une meilleure disponibilité en eau et en éléments nutritifs pour les cultures comme le sorgho. En même temps, l'érosion de ravine dans le talweg est arrêtée ou évitée16.
Pompage-turbinage
Le pompage-turbinage est une technique de stockage de l'énergie électrique qui consiste à remonter de l'eau d'un cours d'eau ou d'un bassin, pour la stocker dans des bassins d'accumulation, lorsque la production d'électricité est supérieure à la demande — c'est le pompage —, puis de turbiner l'eau ainsi mise en réserve pour produire de l'énergie électrique lorsque la demande est forte — c'est le turbinage. Elle participe à l'ajustement entre l'offre d'électricité et la demande.
Barrages écrêteurs de crues
Rarement, des barrages sont construits dans le but exclusif de stocker une partie du volume des crues, pour limiter le risque d'inondation. Ces barrages sont construits à distance du lit mineur et le prélèvement est assuré au moyen d'un ouvrage de prise d'eau sur la rivière. Ils sont secs la plupart du temps et ne se remplissent que lors des crues les plus significatives. Un tel dispositif équipe l'agglomération de Belfort-Montbéliard en France.
Éléments constitutifs
Selon le type d'utilisation auquel il est destiné, le barrage pourra comprendre plusieurs éléments constitutifs parmi les suivants :
Machines hydroélectriques
Instrumentation et outils de contrôle
Surveillance métrologique
Un vaste système de mesure est utilisé pour enregistrer la façon dont le barrage réagit à la pression de l'eau et à d'autres influences externes.
- Stations météo : les stations météorologiques fournissent des valeurs de température et de précipitations. Elles sont nécessaires pour évaluer le comportement de l'ouvrage17. Cependant, les valeurs météorologiques sont également nécessaires pour utiliser le contenu de la mémoire[Quoi ?] de manière optimale.
- Mesures géodésiques : des mesures géodésiques sont effectuées au moins une fois par an. Ce sont des mesures absolues de position et de hauteur18,19.
- Mesures d'eau : la mesure de l'eau d'infiltration est particulièrement importante pour les barrages. En effet, le sous-sol des barrages n'est jamais totalement étanche. Les infiltrations souterraines font partie du fonctionnement normal des barrages. La surveillance de l'eau d'infiltration permet de tirer des conclusions sur l'évolution du corps du barrage et du sous-sol du barrage. La pression de l'eau dans la fondation des barrages est d'une importance particulière. Elle agit sur le corps de l’ouvrage à partir du socle rocheux. Un drainage suffisant des eaux d'infiltration assure la stabilité de la barrière. La pression au bas du barrage est constamment mesurée avec des piézomètres et/ou des manomètres20.
- Mesures de déformation : les mesures de déformation reposent sur le principe physique selon lequel toute structure se déforme lorsqu'elle est soumise à une charge. Les murs des barrages sont soumis à des contraintes liées à la pression de l'eau et aux fluctuations de température21. Cependant, les déformations résultantes dans les barrages sont si petites qu'elles ne peuvent pas être vues à l'œil nu. Tous les mouvements sont enregistrés à l'aide de divers instruments spéciaux.
- Mesure d’allongement : le changement de longueur du mur du barrage est enregistré dans différentes directions à l'aide d'instruments tels que les extensomètres à corde vibrante[réf. souhaitée].
- Mesure d'aplomb : un fil à plomb à l'intérieur du mur du barrage est utilisé pour mesurer si la crête du barrage se déplace horizontalement20,22.
- Mesure de l'inclinaison : l'inclinomètre mesure les variations possibles de l'angle d'inclinaison d'un barrage[réf. souhaitée].
- Surveillance des fissures : si une fissure apparaît, l'installation d'un fissuromètre permet d'en quantifier l'évolution ou la stagnation22.
Déversoirs de crue
Le déversoir est une partie du barrage destinée à évacuer un débit depuis le réservoir amont vers un canal de décharge. Il sera notamment utilisé en cas de crue qui pourrait mettre en péril le barrage en faisant augmenter le niveau amont de manière excessive. Certains déversoirs de crue sont équipés de système de vannes permettant de contrôler le débit restitué ; les autres déversoirs, dits « à seuil libre », sont plus fiables en regard des ruptures ou des pannes mécaniques.
Le déversoir est l'un des principaux systèmes assurant la sécurité des ouvrages. Il existe plusieurs types de déversoirs parmi lesquels : le déversoir principal qui permet d'évacuer les crues les plus courantes, les déversoirs auxiliaires qui permettent d'évacuer les excédents de débit du déversoir principal, le déversoir d'urgence qui est défini pour évacuer les crues exceptionnelles (pouvant aller jusqu'à des crues d'occurrence très faible, avec des périodes de retour de plus de 10 000 ans pour certains ouvrages).
La conception d'un déversoir doit répondre à arbitrage entre : les dimensions du déversoir, la quantité d'eau stockée et la quantité d'eau évacuée. Plus cette dernière est grande, plus le déversoir doit être large ou profond. Le déversoir peut être exposé à des problèmes d'érosion, parfois liés à la cavitation ou à la turbulence, qui peuvent entraîner sa destruction.
La gestion de la crue est un arbitrage entre le débit envoyé en aval, et le risque de noyer l'amont de la retenue par la montée des eaux retenues. La réglementation française impose de ne pas aggraver le débit maximum (pic) de la crue.
Bassins dissipateur d'énergie
Sert à dissiper l'énergie présente dans l'eau circulant dans le canal de décharge. Le bassin dissipateur d'énergie permet de prévenir l'érosion à l'aval.
Vie des barrages
Entretien et sûreté des barrages
Accumulation de débris naturels et anthropiques contre le mur d'un barrage.
Un barrage n'est pas un simple mur plus ou moins solide. Il n'est pas inerte et fait l'objet de surveillance sismologique et technique sous plusieurs critères. L'ouvrage vit, travaille et se fatigue en fonction des efforts auxquels il est soumis.
Tout barrage peut être exposé à quatre types de risque, dont il convient d'évaluer, en fonction des circonstances locales, la fréquence et l'importance :
- les défauts de maintenance et de contrôle, eu égard notamment à l'obsolescence des matériaux ;
- les crues ;
- les accidents de terrain, mouvements ou glissements ;
- les séismes.
L'obsolescence des matériaux est principalement liée à la dégradation du béton, qui peut être sujet à deux maladies : l'alcali-réaction (dont souffre le barrage du Chambon, en France) et la réaction sulfatique interne (dont est victime le barrage de Bimont, en France)23.
Généralement, on estime qu'au cours du XXe siècle, 1 % des barrages à travers le monde se sont rompus23.
Pour des raisons de maintenance des ouvrages, les barrages sont régulièrement inspectés. Chaque année, l'aspect extérieur du barrage est examiné, et périodiquement (tous les dix ans en France) la retenue d'eau peut être vidée afin de permettre l'accès à la fois à la partie inférieure de l'ouvrage et aux équipements (conduites d'eau, grilles, vannes, etc.). Cette vidange décennale est aujourd'hui de plus en plus remplacée par des inspections subaquatiques qui permettent de s'affranchir des contraintes environnementales et économiques imposées par une vidange.
Les ouvrages intéressant la sécurité publique sont également auscultés, par des capteurs permettant de mesurer leur comportement (mesures de déplacement, de débit de fuite…). De leur état dépend la sécurité des populations installées en aval.
Pour autant la probabilité de rupture est extrêmement faible : statistiquement, une rupture par an sur un parc mondial de 16 000 barrages, Chine exclue. En Europe, la probabilité est encore plus basse. En fait, le danger est le plus élevé au moment du premier remplissage, le risque étant cependant bien moindre pour les ouvrages en béton que pour ceux en remblai.
En France, les barrages sont classés en catégories, A, B, C selon leur taille et niveau de risque pour la population24 (la catégorie D a été supprimée en 201725)26. Les dispositions réglementaires relatives à la sécurité et à la sûreté des ouvrages hydrauliques sont notamment définies à l'article R214-112 (et suivants) du Code de l'environnement27 avec notamment un classement des digues et barrages et une clarification des mesures devant assurer leur contrôle, leur sécurité et leur maintenance.
Les barrages construits dans les Alpes, dans les années 1950 et 1960, au plus fort de l'âge d'or de la houille blanche, sont aujourd'hui dans une phase de vieillissement qui nécessite des frais de maintenance de plus en plus élevés. EDF estime que la plupart des ouvrages hydrauliques atteignent seulement la moitié de leur espérance de vie mais a annoncé un important programme d'investissements pour la maintenance et la réhabilitation. Selon le rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques français du , les principales inquiétudes résident moins dans les grands ouvrages que dans la multitude de petits barrages en France pour lesquels les niveaux d'entretien et de contrôle sont insuffisants.
Risques de rupture
Catastrophes
Un défaut de conception ou d'entretien peut conduire à une catastrophe : si le barrage cède alors que la retenue d'eau est relativement importante, une onde de rupture peut déferler sur les populations en aval, plus ou moins canalisée par la topographie du thalweg dans lequel le barrage était implanté (voir l'article Catastrophe). En France, une telle catastrophe a eu lieu en 1959 près de Fréjus, au barrage de Malpasset.
Le film La Folie des hommes (2001) relate la catastrophe du barrage de Vajont, en Italie, le . Le film montre les causes et l'enchaînement des évènements qui conduisirent à un glissement de terrain de 270 millions de mètres cubes dans les eaux du lac de retenue du barrage. La vague gigantesque qui s'ensuivit et qui passa sur le barrage sans le rompre fit 2 000 victimes.
La plus meurtrière des catastrophes provoquées par un barrage survint sur celui de Banqiao en Chine en 1975 : l'onde de rupture causa la mort de 26 000 personnes.
Séismes
Les séismes font partie des événements susceptibles de nuire à la stabilité des barrages, surtout dans les régions où le risque sismique est plus élevé. Historiquement, les ruptures causées par des séismes sont très peu nombreuses comparées à celles dues à des défauts de conception. Dans certains contextes géologiques, la mise en eau et la vidange rapide d'un barrage sont des phénomènes qui peuvent eux-mêmes être source de séismes induits.
En France, les grands barrages font l'objet d'une simulation informatique de comportement dans le cas du plus fort séisme historique connu dans la région (souvent estimé d'après des documents anciens, mais n'allant pas au-delà de 500 ans environ). Ainsi le séisme de référence dans les Pyrénées est celui du , de magnitude estimée autour de 6 et dont l'intensité a été de IX à Bagnères-de-Bigorre). Un tel séisme causerait aujourd'hui des dégâts importants dans les Hautes-Pyrénées, mais serait néanmoins supporté par tous les grands barrages[réf. nécessaire].
Les ruptures les plus fréquentes ont concerné des ouvrages en remblai de taille modérée, construits avec des matériaux sableux ou silteux, ou fondés sur des sols de cette nature ; il peut en effet se développer dans ce cas un phénomène appelé thixotropie, qui fait perdre toute résistance au sable ou au silt saturé.
Modélisations
Les progrès de l'informatique et de la modélisation mathématique, ainsi que l'étude de retours d'expérience28) permettent des modélisations de plus en plus réalistes des risques de rupture (instantanée ou phasée) et de leurs effets (écoulement turbulent ou laminaire29), à condition que le modèle soit alimenté par des données géologique et hydrologiques de qualité, de l'« onde de rupture » par exemple, sur la base des équations de Saint-Venant30 appliquées à des radiers ou canaux horizontaux ou inclinés31,32,33.
Ces progrès de la modélisation permettent aussi de mieux prévoir les effets :
- de la démolition d'un barrage (modifications des modes d'écoulements)34 ;
- d'une vidange brutale de barrage35 ;
- de différents types de tsunamis36 ;
- de l'introduction d'un débit constant dans un canal vide37 ;
- d'écoulements incompressibles dans les circuits, canaux et rivières, et autour des structures dans l'environnement38.
Sécurité des barrages en Suisse
Les nombreux accidents survenus par le passé ont mené la Suisse à veiller à leur stricte sécurité de ces infrastructures. Des normes ont été établies concernant, par exemple, le poids des matériaux utilisés, la pression de l'eau, les variations de températures, les crues, le gel, l'accumulation des sédiments ainsi que d'éventuels séismes. Des théodolites calculateurs et des signaux de satellites permettent de mesurer au millimètre près les déplacements et déformations de la structure du barrage. « Les comptes rendus et relevés de mesures sont analysés et interprétés par les spécialistes et par l'Office fédéral de l'énergie21. »
Une alarme permet à la population de se mettre à l'abri si la rupture du barrage est imminente21.
Contrôle des barrages en France
La sûreté de fonctionnement des barrages est de la responsabilité civile et pénale de ses exploitants. Néanmoins, compte tenu du risque et de l'ampleur des conséquences potentielles, le domaine est contrôlé par des services d'État. Les barrages situés dans les concessions hydroélectriques font partie du Domaine Public Hydroélectrique. Les DREAL (ex-DRIRE, division Énergie) sont chargés de la tutelle de ces ouvrages appartenant à l'État et confiés par concession à un aménageur / exploitant. Les MISE (Mission Inter Services sur l'Eau, au sein des DDEA) sont chargées des ouvrages réalisés et exploités sous le régime de l'autorisation (petite hydroélectricité, et ouvrages sans utilisation énergétique).
Après la catastrophe de Malpasset (), le Ministère des Travaux Publics a rédigé la circulaire no 70-15 du , encadrant les missions des services de contrôles et les obligations des exploitants. Le ministère de l'Industrie a complété la circulaire 70-15 par une circulaire BMI (barrages de moyenne importance) le , applicable aux seuls ouvrages concédés. Parallèlement, a été créé le CTPB en 1963 (Comité technique permanent des barrages) devenu en 2007 le Comité technique permanent des barrages et des ouvrages hydrauliques (CTPBOH) réunissant les plus grands experts français, et depuis 1992 les plus grands barrages sont soumis à un PPI (plan particulier d'intervention) où sont analysés les risques (dont les séismes et les glissements de terrain de type barrage de Vajont).
Avec l'ouverture du marché de l'électricité et le changement de statut des principaux exploitants (EDF, CNR, SHEM) les circulaires devenaient inefficaces, et après réflexion commune, une réglementation nouvelle en 200739, reprenant en les accentuant les dispositions mises en place pour ausculter les barrages et analyser leur comportement.
Tous les barrages de plus de deux mètres de hauteur, hydroélectriques ou non, sont juridiquement classés selon deux de leurs caractéristiques géométriques40 :
- H hauteur de l'ouvrage, en mètres (plus grande hauteur mesurée verticalement entre le sommet de l'ouvrage et le terrain naturel à l'aplomb de ce sommet) ;
- H2 . V1/2, avec H hauteur de l'ouvrage en mètres et V volume exprimé en millions de mètres cubes retenu par le barrage à la cote de retenue normale ; ce paramètre conjugue le risque (hauteur) et les conséquences d'une rupture éventuelle (volume)N 4.
Les trois classes sont :
- A : barrages avec H supérieure ou égale à 20 m et H2 × V1/2 supérieur ou égal à 1 500 ;
- B : barrages non classés en A avec H supérieure ou égale à 10 m et H2 × V1/2 supérieur ou égal à 200 ;
- C : barrages non classés en A ou en B, avec H supérieure ou égale à 5 m et H2 × V1/2 supérieur ou égal à 20, ou H supérieur à 2 m et V supérieur à 0,05 et il existe une ou plusieurs habitations à l'aval du barrage, jusqu'à une distance par rapport à celui-ci de 400 mètres.
Une quatrième classe, D, concernant les barrages non classés en A, en B ou en C et de hauteur supérieure à 2 m, existait entre le décret de 200739 et celui du 41.
Les barrages de classe A font l'objet tous les dix ans d'une étude de dangers (EDD), un examen technique complet, etc. (remplaçant l'ancienne visite décennale) et une revue de sûreté (RPS). Les barrages de classe B font l'objet d'une étude de dangers tous les dix ans.
Tous les barrages classés (A, B, C) doivent disposer :
- d'une consigne de crue ;
- d'une consigne d'auscultation et de surveillance (CSA) ;
- d'un dispositif d'auscultation adapté.
Ils font l'objet :
- d'un rapport annuel de l'exploitant, incluant tous les faits notables pour la sûreté ;
- d'une analyse biennale des mesures d'auscultation ;
- d'une déclaration systématique de tout événement significatif pour la sûreté hydraulique (EISH).
Les préfets peuvent durcir les conditions de surveillance des ouvrages, notamment en les surclassant.
Démantèlement des barrages
Le démantèlement des barrages est motivé pour des considérations de sécurité, de coûts et, de plus en plus souvent, environnementales.
Cas des seuils et petits barrages
La moitié des seuils et petits barrages en France n'aurait pas (ou plus) d'usage industriel ni agricole connu42. Le premier barrage hydroélectrique à avoir été démantelé est celui de Kernansquillec à Plounévez-Moëdec, dans les Côtes-d'Armor. « En 1996, la démolition du barrage hydro-électrique, une première en France sur une rivière à saumons, a permis au paysage englouti de refaire surface43. » De même, parce que ne satisfaisant plus aux obligations de sécurité publique, le barrage du Piney (eau potable, maîtrise d'ouvrage communale) à Saint-Chamond a été mis en sécurité en 2000 par percement d'un pertuis au pied du barrage. Le démantèlement de petits barrage et seuils est de plus en plus souvent justifié pour des raisons d'économies de frais d'entretien et pour rétablir une libre circulation des poissons, alors que dans une partie des bassins versant le retour des castors permet de retrouver des barrages de castors, qui freinent le flux de l'eau, et améliore l'hétérogénéité les cours d'eau comme l'alimentation des nappes.
Cas des grands barrages
Le démantèlement des grands barrages est presque toujours justifié par la sécurité (atteinte de la limite de vie du barrage), même si cela permet ensuite, aux écosystèmes fluviaux de fonctionner de manière plus naturelle, en partie car souvent le cours d'eau a été aménagé en aval et en amont. L'investissement initial réalisé par le constructeur, justifié par une utilité publique (eau potable, irrigation et/ou électricité) avec un moyen généralement classé comme participant au développement durable, n'a généralement pas vocation à être abandonné ou détruit tant que le barrage se montre utile. Le financement de démantèlements pour des objectifs piscicoles (essentiellement de loisir) et la planification de moyens durables de remplacement de la production d'énergie ainsi perdue sont généralement inexistants44,45.
Conséquences et impacts des barrages
Impacts environnementaux
Les grands barrages sont de puissants facteurs de fragmentation écologique pour les poissons migrateurs.
Impacts négatifs
Un barrage est facteur de fragmentation écologique quand il freine ou bloque la migration d'espèces aquatiques. Certains pays obligent depuis quelques années les ouvrages neufs (en France, sur les rivières classées « migrateurs » depuis la Loi « Pêche » no 84-512 du ) à inclure des échelles à poissons. Celles-ci restent rares sur les grands ouvrages anciens ou sur les rivières où la présence d'espèces migratrices n'est pas identifiée. Certains ouvrages sont équipés sans obligation, par la volonté de l'exploitant. Certaines échelles à poissons mal conçues ou mal construites peuvent se révéler peu efficaces. Le transport des poissons en camion est parfois l'alternative retenue, par exemple sur la Garonne entre Carbonne et Camon, où une suite de cinq barrages importants aurait nécessité des équipements onéreux, et un trajet restant éprouvant pour le migrateur. Les poissons sont donc « piégés » à une extrémité de la chaîne, identifiés et transportés par camion-citerne à l'autre extrémité.
Si la gestion du barrage n'est pas adéquate, il peut bouleverser le débit naturel et saisonnier du cours d'eau, affecter le niveau des nappes et le transfert des matières en suspension et sédiments. Il peut avoir des effets différés sur les écosystèmes d'une vaste zone en raison de l'inondation de la zone amont, et de la forte modification du régime d'écoulement des eaux de la zone aval, ainsi que de la modification de la qualité des eaux provoquée par la retenue. Le fleuve recueille en aval des eaux ayant dans certains cas servi à l’irrigation des villes et industries, polluées. De nombreuses maladies, provoquées ou favorisées par la pollution de l’eau, ont par exemple fait leur apparition en Égypte46.
Un barrage peut générer une modification des structures écologiques et faciliter des « invasions biologiques ». Un écosystème sub-naturel et plus ou moins équilibré se reconstitue dans ces zones plus ou moins rapidement (en l'espace d'environ 30 ans, un écosystème serait recréé à 99 %[réf. nécessaire], notamment en aval dans les anciennes zones asséchées. Néanmoins, cet écosystème n'est jamais identique à celui d'origine : la disparition des courants en amont, et la très forte diminution du débit en aval, ainsi que la disparition ou le lissage des débits saisonniers provoque généralement la disparition de certaines espèces autochtones. De plus, une étude47 publiée en a confirmé aux États-Unis que dans les bassins versants, les milieux artificiels, que sont les lacs de retenues, étaient beaucoup plus propices au développement d’espèces aquatiques dites « invasives » que les lacs naturels. Cette étude a cherché à corréler dans la région des grands lacs l’importance des invasions biologiques avec la physico-chimie de la masse d’eau, l’intensité et la nature des activités nautiques avec la distribution géographique de cinq espèces non indigènesN 5. L’étude a montré que le risque d’invasion biologique est (pour la région des grands lacs) de 2,4 à 3 fois plus élevé dans les lacs de retenue que dans les lacs naturels (vers 2005/2008). Ce risque a augmenté avec le temps, et la menace augmente pour les lacs naturels car l’augmentation du nombre de retenues touchées a presque partout diminué la distance entre eaux « contaminées » et eaux naturelles. C’est dans ce cas l’homme qui joue le rôle principal de colporteur et en particulier selon Pieter TJ Johnson l'un des auteurs de l'étude, les activités de pêche et de nautisme qui favorisent la dissémination de nombreux organismes, dont la moule zébrée (accrochée sous les bateaux), les myriophylles invasifs accrochés aux remorques porte-bateaux, les éperlans arc-en-ciel et une écrevisse invasive qui a été utilisée comme appât (aujourd’hui interdit).
Alors que l’hydroélectricité est traditionnellement considérée comme une énergie propre, les retenues de barrages peuvent émettre des gaz à effet de serre par la déforestation, la submersion de la végétation dans le réservoir ou l'activité bactériologique dans le réservoir et dans la zone périodiquement exondée qui relâchent d'importantes quantités de dioxyde de carbone et/ou de méthane49,50.
En Égypte, un nouveau risque est apparu à la suite du remplissage du lac Nasser : le risque sismique. Le haut barrage peut résister à une magnitude de 7 sur l'échelle de Richter, mais la ville d'Assouan n’est pas protégée pour des séismes de magnitude supérieure à 546. Le , un tremblement de terre de magnitude 5,4 a secoué la région. À partir de mesures de sismicité et de résistivité électrique du sous-sol, Kebeasy51 a pu montrer que cette imposante masse d’eau retenue par le lac artificiel est bien responsable d’un regain d’activité sismique52.
Impacts positifs
Un lac de barrage peut être un lieu d'accueil d'oiseaux migrateurs, un lieu de reproduction de certaines espèces aquatiques,
Un lac de barrage peut améliorer les conditions d'écoulement en étiage. De plus en plus, les barrages hydroélectriques participent à un soutien d'étiage, permettant une vie estivale de rivières par ailleurs affectées par de nombreux prélèvements (autorisés ou non), d'améliorer le refroidissement des eaux, et la dilution des pollutions en aval. En France, depuis la même Loi Pêche de 1984, tous les obstacles sur les rivières françaises doivent obligatoirement laisser dans le cours d'eau 1/40 du module (moyenne de débit), et 1/10 pour tous les ouvrages neufs ou dont le titre est renouvelé. Afin de mettre fin à cette situation inégalitaire (posant de nombreux problèmes de variation des débits sur un même cours d'eau), la nouvelle loi sur l'eau et les milieux aquatiques53 a fixé au la date limite de délivrance de 1/10 pour tous les ouvrages. Cette LEMA introduit cependant l'exception des barrages de haute chute, assurant le soutien du réseau électrique, auxquels le débit réservé pourra être limité à 1/20 (une liste devant être fixée par décret). De même, sur justification par une étude adaptée, le débit pourra être modulé sur l'année (régime réservé).
Un lac de barrage peut être une source de production d'énergie renouvelable, lorsqu'il s'agit d'un barrage hydroélectrique.
Par exemple, dans le cas de la Chine et du barrage des Trois-Gorges, devenu la plus grande centrale hydroélectrique du monde par sa production annuelle de 84,7 milliards de kilowatts-heures, on a constaté une amélioration de la qualité de l'air dans la région, grâce à l'économie de 50 millions de tonnes de charbon chaque année54.
La conception d’un barrage, comme le haut barrage d'Assouan, permet de gérer ainsi que de rationaliser l’utilisation de la crue du fleuve. Sans cette innovation technologique, dans l’exemple du cas d’Assouan, les périodes de sécheresses et de crues exceptionnelles n’auraient cessé de conditionner la population égyptienne en forte augmentation ; celle-ci doublant tous les 20 ans : 20 millions en 1950, à 40 millions en 1970 ; en continuant ainsi, elle aurait pu atteindre les 80 millions d’Égyptiens en 199055, alors que ce chiffre n’est atteint qu’en 2012. En effet, la réserve d’eau du lac Nasser (157 milliards de mètres cubes), créée grâce à la construction du haut barrage d’Assouan, permit la bonification de plusieurs centaines de milliers d’hectares de terres désertiques56. Le fonctionnement, rendu possible tout au long de l’année, du système d’irrigation a permis un accroissement de la production agricole. Le nombre de récoltes a doublé, même triplé grâce à la gestion des crues, ainsi qu’à la modernisation de l’irrigation et du drainage. La superficie cultivée s’est vue multipliée par deux entre 1970 (avant la création du lac Nasser) et le début des années 200055.
Les barrages d'irrigation ou d'eau potable sont aussi construits pour apporter des bienfaits pour l'agriculture et l'alimentation en eau. Ces impacts doivent donc être pesés au même titre que les inconvénients portés au milieu aquatique ou à la pêche de loisir.
Impacts économiques
La construction d'un barrage a généralement de nombreux impacts économiques. Le barrage Hoover, situé sur le fleuve Colorado aux États-Unis, permit par exemple un développement considérable du Sud-Ouest américain, grâce à la production hydroélectrique et l'irrigation des terres. Ainsi, des villes comme Los Angeles ou Las Vegas n'auraient probablement jamais connu une telle importance sans l'apport en eau permis par le barrage57.
L'érection du barrage des Trois-Gorges a eu de nombreux impacts positifs sur l'économie de la Chine. D'abord, la production d'électricité qu'elle a engendrée profite grandement à ce pays en plein développement économique. Ensuite, la gestion nouvelle de l'eau entraînée par sa construction a eu deux grands effets positifs. D'une part, ce qui était l’un des enjeux principaux du projet, les transferts entre le Sud de la Chine, région des moussons riche en eau, et le Nord clairement défavorisé en matière hydrographique, permet un développement économique et social durable de ces régions du Nord58. D'autre part, la gestion des crues, qui ont autrefois été meurtrières à plusieurs reprises, permet un meilleur développement des régions traversées par le fleuve Bleu, sur lequel est construit le barrage59. Enfin, la navigation des bateaux de plus de 10 000 tonnes s'en est trouvée permise sur le fleuve Bleu, favorisant le commerce, le désenclavement économique de certaines métropoles chinoises, et l’essor du Nord59.
Par ailleurs, en Égypte, le barrage d'Assouan, d’une capacité électrique de 2 100 MW, est également un grand contributeur à l’économie égyptienne55. Cependant, en agriculture, malgré la maîtrise de l’approvisionnement en eau en toutes saisons, dix ans après l’achèvement du barrage, les résultats étaient négatifs : une production agricole insuffisante, une baisse de la fertilité des sols, ainsi que des déséquilibres économiques et sociaux (car la croissance de la population dépasse celle de la production)60. De plus, l’autonomie alimentaire n’est pas atteinte car, par exemple en 2002, l’Égypte ne produisait plus que 25 % du blé qu’elle consommait alors qu’elle en produisait encore 65 % en 196052.
Dans certains cas, les barrages font partie d'un plan d'intégration économique plus large : il en est ainsi pour les barrages de Jirau et de Santo Antônio, sur le fleuve Madeira dans l'État de Rondonia au Brésil. En effet, le plan initial de la construction des barrages en impliquait un autre : un immense programme de développement pour l'Amérique du Sud appelé IIRSA (Initiative for the integration of the regional Infrastructure of South America)61.
Cependant, ce plan d'intégration régional est massivement controversée par de nombreuses organisations non-gouvernementales62.
Impacts socio-culturels
Si de nombreux barrages impliquent des déplacements de population, ce ne fut pas le cas du barrage Hoover, construit dans une zone particulièrement aride de l'Ouest américain. Cependant, celui-ci eut tout de même d'importantes répercussions sur le mode de vie des Indiens Navajos vivant à proximité. En effet, l'économie Navajo, à cette période basée sur l'élevage de moutons et de chèvres, fut menacée lorsque le gouvernement la considéra responsable d'un accroissement de l'apport de limon dans le réservoir du barrage lié à l'érosion des terres causée par l'élevage63. Ainsi, le rachat massif des cheptels par le gouvernement eut d'importantes conséquences sur la structure socio-culturelle des Indiens, modifiant leur mode de vie.
De déplacements de populations, il en est en revanche question dans le cas du barrage des Trois-Gorges. En effet, la construction du barrage a impliqué l'ennoiement de treize villes et 1 500 villages, provoquant de ce fait le déplacement de plus de 1,2 million de personnes. Si l’un des objectifs déclarés par les autorités chinoises était l’amélioration des conditions de vie de ces gens vivant de la petite agriculture et leur emménagement dans des logements flambant neufs, force est de constater que l'entreprise fut un échec64,65.
Mais l'ennoiement ne concerne pas que les villes et villages : de nombreux sites archéologiques ont aussi été engloutis à la suite de la construction du barrage. Dans l’ensemble, c’est près de 230 sites historiques majeurs de la civilisation chinoise qui ont été détruits ou déplacés à cause de la montée des eaux66.
Le même scénario se produisit en Égypte, lors de la construction du barrage d'Assouan, un appel a été lancé par l’UNESCO : d’ici la fin de la construction, la vallée du Nil sera transformée en un immense lac et les temples de Nubie sont menacés d’être submergés par les eaux. Cet appel à la solidarité se traduisit en une prise de conscience universelle et une mobilisation mondiale : en trois ans, les deux temples d’Abou Simbel furent déplacés. D’un point de vue archéologique, un désastre culturel intégral fut évité. Cependant, une grande partie des habitants de la Nubie furent obligés de quitter leurs terres, déracinés, ils furent relocalisés dans des cités nouvelles à Kôm Ombo en Haute-Égypte et à Khashm El Girba en Éthiopie56. Par ailleurs, la population, qui est venue depuis la basse vallée s’installer sur les rives, est maintenant menacée par les inondations autour du lac Nasser. En effet, si le niveau du fleuve ne varie plus que de quelques dizaines de centimètres à Assouan à l’aval du barrage, à l’amont, en revanche, c’est le lac Nasser qui est sujet à des inondations. Malgré son énorme volume, ce lac ne peut absorber les crues les plus fortes du Nil ; en 1998 eut lieu l’inondation la plus grave depuis la construction du barrage, d’un point de vue de destruction de biens et du nombre de victimes. Une autre conséquence négative du haut barrage est liée aux déplacements éoliens de sable qui affectent les populations nubiennes transférées de la vallée amont vers Gharb Assouan, en rive gauche, exposée au risque d’ensablement. Cet aléa était connu avant la construction mais a été négligé46.
Une autre conséquence, contraire aux précédentes, est l'arrivée de nouvelles populations : en effet, la construction d'un barrage nécessite de la main d'œuvre en grande quantité. Dans le cas de nombreux barrages, cette main d'œuvre n'est pas disponible sur place et doit être engagée ailleurs. C'est ainsi que des milliers de travailleurs vinrent habiter à proximité des barrages de Jirau et de Santo Antonio au Brésil. Une fois la construction du barrage achevée, cette importante masse de personne constitue un problème social complexe, car il n'y a souvent pas assez d'emplois dans la zone concernée67.
Notes et références
Notes
- Définis par la CIGB par une hauteur de plus de 15 mètres à partir de la fondation, et un réservoir de plus de trois millions de mètres cubes.
- Ils étaient moins d'une centaine avant 1900.
- Mû par des vérins hydrauliques ou éventuellement par deux treuils étant donné que les efforts sur le clapet sont toujours dans le même sens.
- Cette valeur H2.V1/2 a été introduite par André Goubet, ancien président du CTPB, dès 1995 pour un élargissement du classement de l'époque, dont le décret du était alors le dernier développement.
- Espèces choisies parce que considérées comme très invasives en Amérique du Nord et représentatives de quatre groupes d'organismes aquatiques (plante, crustacé, poisson, mollusque) ; ce sont un myriophylle eurasiatique, la moule zébrée, un crustacé spiny water fleas (Bythotrephes longimanus (en)) qui est source d'une réduction de la diversité planctonique48, l'éperlan arc-en-ciel et une espèce introduite d'écrevisse. Cette étude a porté sur 4 200 lacs naturels et plus de 1 000 lacs de retenue (dans le Wisconsin et le Michigan)
Références
- Informations lexicographiques [archive] et étymologiques [archive] de « barrage » (sens B2) dans le Trésor de la langue française informatisé, sur le site du Centre national de ressources textuelles et lexicales (consulté le ).
- Rôle des barrages [archive], sur icold-cigb.org (consulté le ).
- Charte sur les barrages et l'environnement [archive] [PDF], sur icold-cigb.net
- B.L. De Rive, Précis historique et statistique des canaux et rivières navigables de la Belgique et d'une partie de la France [archive], Éd Leroux, 1835, 636 pages.
- Décret 2007-1735 du .
- A. J. Reinach, « Les Fouilles en Égypte (1909-11) », Revue archéologique, quatrième série, t. 18, , Presses universitaires de France (présentation en ligne [archive]), p. 317-337.
- Patrick Le Delliou, Les barrages, conception et maintenance, Presses Universitaires de Lyon, 2003, 270 pages.
- Jacques Bonnin, L'eau dans l'Antiquité. L'hydraulique avant notre ère, Paris, Éditions Eyrolles, , 450 p. (ISBN 978-2-212-01580-5).
- (en) Ken Conca, Governing water : contentious transnational politics and global institution building, MIT Press, , p. 76.
- Société d'énergie de la Baie James 1987, p. 328-329.
- Société d'énergie de la Baie James 1987, p. 70.
- Hydro-Québec 2003, p. 14.
- (en) « Under the influence - 60 most influential people in the industry », International Water Power and Dam Construction Magazine, (lire en ligne [archive], consulté le )
- Paul Paradis, Manic-Outardes, Montréal, Hydro-Québec, , p. 16
- VNF : Barrage des quatre cheminées [archive], sur le site sn-nord-est.equipement.gouv.fr
- J. C. J. Vlaar et A. J. Wesselink, Aménagement de conservation des eaux et des sols par digues filtrantes ; expérimentations dans la région de Rissiam, Burkina Faso, 1986-1989. Tome I : Aspects techniques et agronomiques, Ouagadougou (BF), Comité Interafricain d'études hydrauliques, , 93-90 p.
- « La surveillance des phénomènes météorologiques » [archive], EDF, (consulté le ).
- « La Surveillance Géodésique des Grands Barrages » [archive], sur wallonia.be, (consulté le ).
- « Géodésie » [archive], sur Hydro-exploitation.ch (consulté le ).
- « Dans les entrailles du barrage de Champagney » [archive], L'Est républicain, (consulté le ).
- « Sécurité avant tout » [archive], sur swissdams.ch (consulté le ).
- « Dans les entrailles de la bête de béton » [archive], Le Progrès, (consulté le ), p. 4.
- Kert et OPCST 2008.
- Voir : Les classes de barrages [archive], ecologie.gouv.fr, (consulté le ).
- Sûreté des barrages : une série de textes en consultation jusqu'au [archive], Environnement Magazine, .
- « Ouvrages hydrauliques, barrages et digues » [archive], sur Ministère de la transition écologique et solidaire, (consulté le ).
- Ministère de la transition écologique et solidaire, « Dispositions communes relatives à la sécurité et à la sûreté des ouvrages hydrauliques autorisés, déclarés et concédés » [archive], sur Légifrance (consulté le ).
- (en) R. Dressler, « Comparison of Theories and Experiments for the Hydraulic Dam-Break Wave. », Proc. Intl Assoc. of Scientific Hydrology (assemblée générale), Rome, Italie, vol. 3, no 38, 1954, p. 319-328
- K. Debiane, « Hydraulique des écoulements laminaires à surface libre dans un canal pour des milieux visqueux ou viscoplastiques : régimes uniformes, graduellement varié, et rupture de barrage. » thèse de Ph.D., Université de Grenoble I, laboratoire de rhéologie INPG-UJF-CNRS, France, 2000, 273 pages
- (en) H. Chanson, « Applications of the Saint-Venant Equations and Method of Characteristics to the Dam Break Wave Problem. », rapport no CH55/05, Dept. of Civil Engineering, The University of Queensland, Brisbane, Australia, (ISBN 1864997966).
- (en) J.M. Piau, « Flow of a Yield Stress Fluid in a Long Domain. Application to Flow on an Inclined Plane. », Jl of Rheology, vol. 40, no 4, 1996, p. 711-723.
- H. Chanson, « Solutions analytiques de l’onde de rupture de barrage sur plan horizontal et incliné », La Houille Blanche, (3), p. 76-86.
- (en) J. Aguirre-Pe, F.P. Plachco, S. Quisca, « Tests and Nume rical One-Dimensional Modelling of a High-Viscosity Fluid Dam-Break Wave. », Jl of Hyd. Res., IAHR, vol. 33, no 1, 1995, p. 17-26.
- J. Estrade, « Contribution à l'étude de la suppression d'un barrage. Phase initiale de l'écoulement. », Bulletin de la Direction des Études et Recherches, Séries A, Nucléaire, Hydraulique et Thermique, EDF Chatou, France, no 1, 1967, p. 3-128.
- Y. Cavaille, « Contribution à l'étude de l'écoulement variable accompagnant la vidange brusque d'une retenue. », Publ. Scient. et Techn. du Ministère de l'Air, no 410, Paris, France, 1965, 165 pages.
- (en) H. Chanson, S. Aoki, M. Maruyama, « Experimental Investigations of Wave Runup Downstream of Nappe Impact. Applications to Flood Wave Resulting from Dam Overtopping and Tsunami Wave Runup. », Coastal/Ocean Engineering Report, no COE00-2, Dept. of Architecture and Civil Eng., Toyohashi University of Technology, Japon, 2000, 38 pages.
- C. Montuori, « Introduction d'un débit constant dans un canal vide. », Proc. 11th IAHR Biennial Congress, Leningrad, Russie, vol. 3, papier 3.55, 1965, p. 1-7, 9
- P.L. Viollet, J.P. Chabaud, P. Esposito, D. Laurence, Mécanique des fluides appliquée. Écoulements incompressibles dans les circuits, canaux et rivières, autour des structures et dans l'environnement, Presses des Ponts et Chaussées, Paris, France, 1998, 367 pages
- Décret no 2007-1735 du 11 décembre 2007 [archive]
- Art. R214-112 du Code de l'environnement [archive].
- Décret no 2015-526 du 12 mai 2015 [archive].
- Erwan Lecomte, « 7 choses à savoir sur les barrages » [archive], Sciences et Avenir, (consulté le ).
- Démantèlement du barrage de Kernansquillec [archive], sur riviere-du-leguer.com
- (en) J. Duda Jeffrey, « Energy and land use: Replacing hydropower with solar », Nature Sustainability, volume 2, 2019, pages 795–796.
- (en) J. Waldman, S. Sharma, S. Afshari, B. Fekete, « Solar-power replacement as a solution for hydropower foregone in US dam removals », Nature Sustainability, vol. 1-7, 2019 (résumé [archive]).
- M. A. Amrawy, J. L. Ballais, « Les risques naturels dans le gouvernorat d'Assouan (Égypte): le rôle du Haut Barrage », Physio-Géo. Géographie, physique, et environnement, volume 8, 2014, pages 121-148.
- (en) Pieter TJ Johnson, Julian D Olden et M Jake Vander Zanden, « Dam invaders: impoundments facilitate biological invasions into freshwaters », Frontiers in Ecology and the Environment, vol. 6, no 7, , p. 357-363 (ISSN 1540-9295, DOI 10.1890/070156).
- N.D. Yan, R. Girard, S. Boudreau, « An introduced invertebrate predator (Bythotrephes) reduces zooplankton species richness », Ecology Letters, no 5, 2002, p. 481–485.
- Catherine Gautier et Jean-Louis Fellous, Eau, pétrole, climat : un monde en panne sèche, Odile Jacob, (lire en ligne [archive]), p. 156
- (en) C. Deshmukh, D. Serça, C. Delon, R Tardif, M. Demarty, C. Jarnot, Y. Meyerfeld, V. Chanudet, P. Guédant, W. Rode, S. Desclou, F. Guérin, [PDF] Physical controls on CH4 emissions from a newly flooded subtropical freshwater hydroelectric reservoir: Nam Theun 2 [archive], Biogeosciences, .
- (en) R.M. Kebeasy, M. Maamon, E.M. Ibrahim, « Aswan lake induced earthquake », Bull. Int. Inst. Seis. Earthquake Eng., Tsukuba, 1982, page 19.
- J. Bethemont, « Le Nil, l’Égypte et les autres », VertigO-la revue électronique en sciences de l'environnement, 4(3), 2003.
- Loi sur l'eau et les milieux aquatiques, dite « LEMA », loi no 2006-1772 du .
- (en) P. H. Gleick, « Three Gorges Dam Project, Yangtze River, China [archive] », The World’s Water 2008-2009 : the biennal report of freshwater ressources, pages 139-150.
- H. Ayeb, « L'Égypte et le barrage d'Assouan », Hérodote (4), 2001, pages 137-151.
- J. Leclant, « Abou Simbel et la Nubie, vingt-cinq ans après », Comptes-rendus des séances de l'Académie des Inscriptions et Belles-Lettres, 130(4), 1986, pages 686-700.
- (en) M. Duchemin, « Water, Power and Tourism: Hoover Dam and the Making of the New West », California History, vol. 86, no 4, 2009, pp. 69-78, 87-89.
- J-P. Bravard, « Un enjeu hydropolitique et environnemental majeur pour la Chine : le transfert Sud-Nord », Hérodote, no 102 : « Géopolitique de l’eau », 2001.
- T. Sanjuan, R. Béreau, « Le barrage des Trois Gorges. Entre pouvoir d’État, gigantisme technique et incidences régionales », Hérodote, 3e trimestre 2001, no 102, pages 19-56.
- M. Lavergne, « L'agriculture égyptienne dix ans après l'achèvement du Haut-Barrage d'Assouan », Bulletin du CEDEJ (14), 1982, p. 111-130.
- (es) Fransisco Wulff, « IIRSA: Vision de negocios del eje Peru-Brasil-Bolivia », Lima, Pérou, 2007.
- (en) T.J. Killeen, « A Perfect Storm in the Amazon Wilderness: Development and Conservation in the Context of the Initiative for the Integration of the Regional Infrastructure of South America (IIRSA) », Advanced in applied Biodiversity science, 7, 2007
- (en) N.E. Flanders, « Native American Sovereignty and Natural Resource Management », Human Ecology, vol. 26, no 3, 1998, p. 425–449.
- F. Padovani, « Les effets sociopolitiques des migrations forcées en Chine liées aux grands travaux hydrauliques. L’exemple du barrage des Trois-Gorges », Les Études du CERI, Paris, no 103, .
- F. Padovani, « Les déplacés des Trois Gorges », Perspectives chinoises, 2006.
- K. Le Mentec, « Barrage des Trois Gorges : les cultes et le patrimoine au cœur des enjeux », Perspectives chinoises, 2006.
- FURNAS (Furnas Centrais Eletricas, S.A.), CNO (Construtora Noberto Odebrecht, S.A.), Leme Engenharia, « Usinas Hidrele ́tricas Santo Antonio e Jirau », Rio de Janeiro, Brésil, 2005.
Annexes
Sur les autres projets Wikimedia :
Bibliographie
: document utilisé comme source pour la rédaction de cet article.
- Rios, Jorge L. Paes - Études en modèles réduits du déversoir de l'usine de Tucuruí - in Congrès International des Grands Barrages - ICOLD - San Francisco, 1986.
- Un grand barrage démantelé en France ? article de Martin Arnould du WWF, L'Écologiste no 20, septembre-octobre-, p. 8 [archive]
- La continuité écologique des cours d'eau [archive]
- Guide pour la réhabilitation des moulins hydrauliques en vue de la production d'électricité, de Michel Heschung. Master en Architecture et Développement durable, 2007, 112 pages, FFAM 10 rue de l'Écharpe 31000 Toulouse. Voir Les ouvrages molinologiques de référence [archive], sur le site moulinsdefrance.org.
- Hydro-Québec, L'électricité, de la centrale à la maison, Montréal, Hydro-Québec, , 46 p. (ISBN 2-550-40950-7)
- Christian Kert, La sécurité des barrages en question, Office parlementaire d'évaluation des choix scientifiques et technologiques, . .
- Dams and the World's Water [archive], CIGB (Commission internationale des grands barrages).
- Société d'énergie de la Baie James, Le complexe hydroélectrique de la Grande Rivière : réalisation de la première phase, Montréal, Société d'énergie de la Baie James / Éditions de la Chenelière, , 496 p. (ISBN 2-89310-010-4).
- L. Peyras, P. Royet, D. Boissier, A. Vergne, Diagnostic et analyse de risques liés au vieillissement des barrages-Développement de méthodes d'aide à l'expertise [archive], Ingénieries-EAT, 2004.
- Décret no 2007-1735 du relatif à la sécurité des ouvrages hydrauliques et au comité technique permanent des barrages et des ouvrages hydrauliques et modifiant le code de l’environnement.
Articles connexes
Liens externes
Turbine hydraulique
Une turbine hydraulique est une machine tournante qui produit une énergie mécanique à partir d'eau en mouvement (cours d'eau ou marée) ou potentiellement en mouvement (barrage). Elle constitue le composant essentiel des centrales hydroélectriques destinées à produire de l'électricité à partir d'un flux d'eau. Elle a été inventée par Benoît Fourneyron en 1832, qui installa sa première machine à Pont-sur-l'Ognon1.
Turbine hydraulique et générateur électrique, vue en coupe.
A=générateur; 1=stator ; 2=rotor;
B=turbine; 3=vannes réglables; 4=pales de la turbine; 5=flux d'eau; 6=axe de rotation de la turbine et du générateur
Classification
On distingue deux types de turbines hydrauliques : les turbines à action et à réaction.
Les turbines à action ou à impulsion transforment la pression hydraulique en énergie cinétique par un dispositif statique (injecteur), avant d'actionner la partie mobile. C'est le cas de2 :
- la turbine Pelton, adaptée aux hautes chutes, avec une roue à augets ;
- la turbine Banki, au flux transversal (l'eau s'écoule au travers des pales de la turbine), est adaptée aux basses vitesses, Efficacité 82 % ;
- la turbine Turgo, conçue pour des hauteurs de chute moyenne ;
- la turbine à vis d'Archimède, adaptée aux basses chutes à débits variables. Efficacité 86 % ;
- la turbine à roue de pression rotatoire, ou roue hydraulique : par réaction, les lames de la turbine sont partiellement immergées et utilisent la pression hydrostatique. Adaptée aux basses chutes et variables débits. Efficacité 85 %3
- la turbine à tourbillons, inventée par l'ingénieur britannique James Thomson4. Utilisée dans un bassin, elle est dotée d’un canal d’amenée qui conduit l’eau de la rivière dans un bassin de rotation circulaire. Un tourbillon / vortex se forme et le rotor tourne en entraînant un générateur qui va produire l’électricité. Adaptée aux basses chutes à débits variables. Efficacité 83 %[réf. nécessaire].
Dans le cas d'une turbine à réaction, la partie mobile provoque au contraire une différence de pression entre l'entrée et la sortie, telles :
- la turbine Francis, utilisée plutôt pour des chutes moyennes, voire hautes, avec une roue à aubes simple ou double, efficacité 90 à 92 % ;
- la turbine Kaplan à écoulement axial avec une roue de type hélice, comme celle d'un bateau, dont les pales peuvent s'orienter en fonction des débits utilisables. Elle est parfaitement adaptée aux basses chutes et forts débits.
- la turbine VLH : la turbine « très basse chute » (de l'anglais Very Low Head Turbine), brevetée en 2003 : type de turbine (Kaplan à ouverture variable) apparu dans les années 2000-2005, afin de protéger l'environnement et en particulier la faune piscicole (anguilles ou saumons en montaison, truites, etc.), dans les fleuves ou rivières (turbine ichtyophile). Ces turbines sont caractérisées, par un grand diamètre de la roue (de 3 à 5 mètres de diamètre), une inclinaison à 45°, une faible vitesse de rotation (34 tr/min), et une faible vitesse d’écoulement de l'eau5,6,7.
La turbine Wells, qui utilise le mouvement de l'air provoqué par le mouvement des vagues à travers un tube vertical, n'est pas à proprement parler une turbine hydraulique.
Choix de conception
Vitesse spécifique
La vitesse spécifique d'une turbine peut être définie comme la vitesse d'une turbine idéale, géométriquement similaire, qui produirait une unité de puissance pour une unité de hauteur de chute.
La vitesse spécifique d'une turbine est donnée par les fabricants (parmi d'autres caractéristiques), et se réfère toujours au point d'efficacité maximale. Ceci permet de réaliser des calculs précis des performances de la turbine pour une plage de hauteurs de chute et de débits.
- n s = Ω P / ρ g H 5 / 4 (sans dimension)
avec :
- Ω : vitesse angulaire (rad/s)
- P : puissance (W)
En donnant aux constantes de cette formule la valeur numérique appropriée, la formule devient :
- n s = 0 , 2626 n P h 5 / 4
avec :
- n la vitesse de rotation en tours par minute,
- P la puissance en kW
- h la hauteur de chute en mètres
La vitesse spécifique ainsi calculée à partir du débit, de la hauteur de chute et de la puissance/vitesse de la génératrice, permet de définir le type de turbine à utiliser ainsi que ses dimensions.
Typiquement les machines bien conçues ont les valeurs suivantes8 :
- Les turbines actives ont le plus bas n s , entre 1 et 10.
- Une turbine Pelton se situe entre 2 et 20.
- Une turbine Banki se situe entre 10 et 60.
Les turbines réactives ont le plus haut n s .
Notes et références
- Benoit Fourneyron: inventeur de la turbine [archive] le Monde - 03/10/2011
- [PDF] Société Hydraulique d’Études et de Missions d'Assistance, « Dimensionnement des turbines » [archive], sur eduscol.education.fr/, (consulté le ).
- Ooreka, « Roue hydraulique » [archive], sur comprendrechoisir.com (consulté le ).
- « La turbine à vortex de Thomson » [archive], sur bea007.over-blog.com, (consulté le ).
- MJ2 Technologies, « Groupe turbo générateur pour très basse chute : Le concept VLH » [archive] [PDF], sur .mp-i.fr, (consulté le ).
- EDF, « La technologie VLH pour la future centrale hydroélectrique du Rondeau » [archive], sur lenergieenquestions.fr, (consulté le ).
- Concours général des lycées 2013, « L'eau, une énergie qui coule de source » [archive] [PDF], sur pedagogie.ac-aix-marseille.fr, (consulté le ).
Voir aussi
Sur les autres projets Wikimedia :
Moulins avec une turbine hydraulique
- Turbine Fontaine de l'ancienne papeterie de Marnay - aujourd'hui le Musée Maurice-Dufresne.
Articles connexes
Liens externes
Pierre Crausse & François Vieillefosse, De l’eau à la lumière, un siècle d’énergie hydroélectrique en France, Toulouse, Nouvelles Éditions Loubatières, 2011, (ISBN 978-2-86266-649-5)
Turbine
Schéma de principe d'un groupe turbine-alternateur.
Une turbine est un dispositif rotatif convertissant partiellement l'énergie interne d'un fluide, liquide (comme l'eau) ou gazeux (vapeur, air, gaz de combustion), en énergie mécanique au moyen d'aubes disposées sur un arbre tournant à grande vitesse.
L'énergie entrante du fluide est caractérisée notamment par sa vitesse, sa pression, son enthalpie. L'énergie mécanique sortante de la turbine entraîne un autre mécanisme rotatif comme un alternateur, un compresseur, une pompe ou tout autre récepteur (exemple un générateur). L'ensemble est alors respectivement appelé turbo-alternateur, turbocompresseur, turbopompe, etc.
Turbine à vapeur
Le
Turbinia, lancé en
1897 fut le premier navire à turbine à vapeur.
Principes généraux de fonctionnement
La turbine à vapeur est un moteur à combustion externe, fonctionnant selon le cycle thermodynamique dit de Clausius-Rankine. Ce cycle se distingue par le changement d’état affectant le fluide moteur qui est en général de la vapeur d'eau.
Ce cycle comprend au moins les étapes suivantes :
Dès que cette vapeur doit être utilisée elle effectue les étapes suivantes :
Le fluide utilisé est donc le même que celui de la machine à vapeur à pistons, mais la turbine en constitue une évolution exploitant les principaux avantages des turbomachines à savoir :
La turbine à vapeur est l’aboutissement d’un type de machines thermiques introduit par les machines à vapeur à piston. Les contraintes inhérentes à leur conception restreignent généralement leur usage à l'industrie. Dans ce cas on obtient de l'électricité bon marché car l'énergie thermique n'est pas « gaspillée » dans un condenseur. Ces turbines sont appelées « turbines à contrepression » et on les rencontre, en particulier, dans les sucreries, entre autres, de cannes à sucre, où le combustible est gratuit et surabondant, à savoir la bagasse, qui est le résidu de l'écrasement de la canne à sucre dont on a extrait le sucre.
Réalisation pratique
Une turbine est constituée d’un rotor comprenant un arbre sur lequel sont fixées des aubes et, d’un stator constitué d’un carter portant des déflecteurs fixes, généralement constitué de deux parties assemblées selon un plan axial. Elle comprend en outre un tore d’admission segmenté et un divergent d’échappement dirigé vers le condenseur. La fonction des déflecteurs fixes est d’assurer tout ou partie de la détente en formant un réseau de tuyères et de modifier la direction de l’écoulement sortant de l’étage précédent.
Une turbine à vapeur comprend un ou plusieurs étages assurant chacun deux fonctions :
- la détente de la vapeur qui correspond à la conversion de l’énergie potentielle de pression en énergie cinétique ;
- la conversion de l’énergie cinétique en couple de rotation de la machine par le biais des aubages mobiles.
Les turbines à vapeur se classent en deux grandes catégories souvent combinées dans une même machine :
- Les turbines à action dans lesquelles la détente se fait uniquement dans les aubages fixes. Elles sont bien adaptées aux étages à forte pression et se prêtent mieux à la régulation de débit. Leur construction est plus coûteuse et réserve leur emploi aux premiers étages de la turbine ;
- Les turbines à réaction dans lesquelles la détente est répartie entre les aubages fixes et mobiles. Le degré de réaction est défini par la répartition de la détente entre les aubages. Elles se prêtent mieux aux étages à basse pression et leur coût est plus faible. Lorsque le degré de réaction d'un étage est de 50 %, la forme des aubages fixes et mobiles est la même ce qui diminue le nombre de moules nécessaires à la fabrication. Par contre pour réaliser la même détente, la turbine à réaction demandera plus d'étages, ce qui augmente la longueur de la ligne d'arbre.
La réalisation des turbines nécessite le recours à des aciers fortement alliés (Cr-Ni-V) pour résister aux contraintes thermiques, mécaniques (force centrifuge) et chimique (corrosion par la vapeur), voire l'utilisation de superalliage à base Ni. Les deux premières contraintes limitent le diamètre et donc le débit admissible aux derniers étages. Ainsi des aubes de plus d’un mètre de longueur posent déjà de sérieux problèmes de réalisation. De plus, l’hétérogénéité radiale des vitesses impose une incidence variable de l’aube qui présente alors une forme gauche dont l’usinage est complexe et dont les contraintes mécaniques limitent la bonne tenue.
En pratique la température est limitée à 550 à 580 °C et le maximum mis en œuvre est de 650 °C. La pression est de l’ordre de 180 bars et atteint 250 bars pour les installations supercritiques.
De ce fait, les turbines de forte puissance comprennent généralement sur un même axe (disposition tandem compound) :
- une turbine haute pression ;
- plusieurs (2 ou 3) turbines basse pression avec soutirages.
Il est ainsi possible d’atteindre des puissances de plus de 1 000 MW avec un rendement de cycle dépassant légèrement 40 %.
À l’autre extrémité, les plus petites turbines ont des puissances de quelques dizaines de kilowatts. Elles comprennent généralement un seul étage et servent à l’entraînement de machines dans l’industrie ou sur des navires. Entre les deux, existe toute une palette de turbines plus ou moins complexes et adaptées à des usages industriels spécifiques (à soutirage, à contrepression, etc.).
Mais il existe également de nombreuses petites turbines équipant les turbocompresseurs des véhicules. Les plus petites turbines étant certainement les Turbines dentaires.
Avantages et inconvénients
Le principal avantage des turbines à vapeur est d’être un moteur à combustion externe. De ce fait, tous les combustibles (gaz, fioul, charbon, déchets, chaleur résiduelle) et notamment les moins chers peuvent être utilisés pour l’alimenter en vapeur. Le chauffage peut même se faire par énergie solaire. Le rendement peut atteindre des valeurs assez élevées d’où des frais de fonctionnement réduits.
Par contre, le coût et la complexité des installations les réservent le plus souvent à des installations de puissance élevée pour bénéficier d’économies d’échelle. Hormis des cas particuliers, les moteurs et turbines à gaz sont mieux adaptés en dessous d’environ 10 MW.
Le refroidissement du condenseur nécessite de plus un important débit d’eau ou des aéroréfrigérants encombrants ce qui limite d’emblée leur domaine d’emploi aux installations fixes ou navales.
Dans les pays nordiques, mais aussi dans certaines grandes agglomérations françaises (Paris, Lyon, Nantes…), on utilise régulièrement la chaleur résiduelle pour réaliser un réseau de chauffage (voir Cogénération). Les conduits acheminent de l'eau chauffée de 80 à 90 °C dans les communes en proximité de centrale et les particuliers ou les entreprises peuvent se connecter à ce réseau pour chauffer les bâtiments.
Rendement
Le rendement croît avec la pression de la vapeur et avec la température de surchauffe. Cependant, l’augmentation de ces caractéristiques est limitée par la teneur en liquide de la vapeur en fin de détente. En effet, la courbe de détente peut atteindre la courbe de saturation avec formation de gouttelettes qui nuisent à l’efficacité des derniers étages de détente mais aussi à sa tenue mécanique. La teneur en eau liquide du mélange doit être limitée à 15 ou 30 %[réf. nécessaire]. In fine, c’est la pression dans le condenseur qui fixe, de ce fait, les pressions et températures limites, admissibles.
Comme n'importe quel autre cycle thermodynamique, le Cycle de Rankine mis en œuvre par les turbines à vapeur est inférieur au cycle de Carnot, et des améliorations ont donc été imaginées pour tendre vers celui-ci. Ainsi, le réchauffage de l’eau, entre le condenseur et la chaudière, par de la vapeur soutirée à différents étages de la turbine, permet de faire tendre la phase de chauffage isobare vers une transformation équivalente sur le plan thermodynamique à une isotherme. L’efficacité du dispositif mais également son coût croissent avec le nombre d’étages de soutirage et d’échangeurs associés ; de ce fait, le nombre d'étages dépasse rarement sept unités. Le gain de rendement est de l’ordre de 5 %[réf. nécessaire]. Ce dispositif impose de plus l’installation d’un réchauffeur d’air sur la chaudière.
D’autre part, afin de permettre d’augmenter la pression et la température malgré le problème de l’humidité en fin de détente, il est possible de renvoyer la vapeur détendue jusqu’à la pression de vapeur saturante vers la chaudière pour procéder à une resurchauffe dans un échangeur de chaleur supplémentaire. Ces étapes peuvent être multipliées pour faire tendre la phase de surchauffe vers une isotherme et donc de s’approcher d’un cycle de Carnot. Dans la pratique, les installations comprennent généralement une seule resurchauffe. Le gain de rendement peut atteindre 5 %[réf. nécessaire].
Le cycle comprend fondamentalement deux changements d’état (évaporation et condensation). Le diagramme de phases de l’eau permet d’envisager un cycle à un seul changement d’état par l’utilisation d’une chaudière supercritique. En effet, au-delà du point critique (environ 220 bars et 350 °C) ne se produit plus de changement d’état et les phases liquides et gazeuses ne peuvent plus être distinguées. Les cycles supercritiques nécessitent généralement une double resurchauffe pour limiter l’humidité en fin de cycle. Le gain de rendement est encore de 2 à 3 %[réf. nécessaire] et se justifie plus facilement avec le renchérissement des combustibles[réf. nécessaire].
Production d'électricité
Du fait de leurs caractéristiques, les turbines à vapeur sont très employées dans les centrales thermiques de moyenne et forte puissance, y compris nucléaires. Dans la gamme de puissance de 1 à 10 MW environ, elles sont utilisées dans les applications de cogénération (incinérateur de déchets et chauffage urbain, process industriel). Il faut également signaler leur usage dans les cycles combinés où elles permettent d'améliorer le rendement global en générant de l'électricité grâce à la chaleur d’échappement des turbines à gaz.
Les turbines à vapeur sont également employées dans le domaine de la propulsion maritime, notamment pour les plus gros vaisseaux (pétroliers, porte-avions et sous-marins nucléaires) mais sont de plus en plus souvent remplacées par des moteurs diesel ou des turbines à gaz. La fonction d’entraînement de machines est également en voie de disparition au profit des moteurs électriques.
Elles n’ont à ce jour trouvé aucune application dans la propulsion routière ou ferroviaire hormis quelques tentatives avortées.
Spécificité des cycles nucléaires
Le cycle à vapeur des centrales nucléaires est particulier. En effet, dans les réacteurs à eau sous pression (REP) actuellement très répandus, la chaleur issue de la fission est évacuée du cœur par un circuit primaire d’eau surchauffée à environ 150 bars et 300 °C. Cette chaleur produit de la vapeur saturée dans le circuit secondaire. En sortie d’étage haute pression, la vapeur subit un séchage (séparation des gouttelettes liquides) et une surchauffe modérée (par de la vapeur en sortie du générateur de vapeur). Du fait de la température limitée de la source chaude, et donc de la vapeur créée, le rendement du cycle reste faible à environ 30 %. Les centrales nucléaires ont des groupes turbo-alternateur très puissants pouvant atteindre 1 450 MW.
L’amélioration du rendement est au cœur des réflexions sur la conception des réacteurs de 4e génération. Elle a également conduit à la réalisation d’autres types de réacteurs que les REP dans les premiers temps de l’énergie nucléaire (UNGG, CANDU, etc.) avec d’autres fluides caloporteurs notamment. Cependant, la sûreté et la fiabilité des REP les rendent actuellement incontournables.
Turbine à gaz de combustion
Une turbine à gaz, appelée aussi plus correctement turbine à combustion (TAC), est une machine tournante thermodynamique appartenant à la famille des moteurs à combustion interne dont le rôle est de produire de l'énergie mécanique grâce à la rotation d'un arbre, doté d'ailettes, qui sont mises en mouvement grâce à l’énergie cinétique générée par le mouvement du gaz lié à la combustion rapide du carburant avec l'air issu du compresseur.
Aéronautique
Les turbines à gaz sont un élément fondamental de l'aviation :
Turbine hydraulique
Turbine hydraulique de type
Francis.
Cette turbine, inventée par Benoît Fourneyron1, est actionnée par l'écoulement de l'eau. Lorsqu'elle est installée en aval d'un barrage hydroélectrique elle entraîne un alternateur qui produit de l'électricité. Elle peut utiliser principalement la pression de l'eau (turbine Francis), la vitesse de l'eau (turbine Pelton) ou encore un gros débit (type groupe bulbe ou turbine Kaplan). Ces turbines sont utilisées selon la hauteur de chute du barrage.
Les turbines hydrauliques se distinguent principalement des moulins à eau par leur immersion complète et permanente dans le courant, ce qui accroit beaucoup leur rendement2.
Réduction ou suppression des effets négatifs pour l'environnement
La législation environnementale américaine impose aux centrales hydroélectriques de réduire la mortalité des poissons qui traversent les turbines. Pour cela le Laboratoire national de l'Idaho a mis en place un programme « Hydropower »3 de développement de turbines « vertes » à technologies avancée (Advanced Turbine Systems et Advanced Technology Turbines, ou ATT), avec comme objectif de maximiser l’utilisation des ressources hydroélectriques « en améliorant ses avantages techniques, sociétaux et environnementaux » tout en réduisant ses coûts et autant que techniquement possible les effets sur l’environnement. Ce programme visait à faire chuter les blessures et la mortalité de poissons traversant les turbines à 2 % ou moins, contre 5 à 10 % pour les meilleures turbines existant au début du programme et contre 30 % voire plus pour les autres turbines4. Ce laboratoire s'est ainsi spécialisé dans la modélisation des effets des centrales sur les poissons, notamment grâce à une « sonde-poisson » (une sorte de simulacre de poisson contenant des capteurs mesurant les contraintes subies lors du passage dans différents types de turbines, sous diverses conditions de vitesse de turbine, de courant d’eau et de pression5). Le labo conduit parallèlement des tests in situ sur la survie cumulée des salmonidés ou anguilles passant par de multiples turbines. Les retours d’expérience alimentent les études de configuration de nouveaux types de turbines visant à supprimer les impacts des turbines sur les poissons, et produire de l'électricité sur des chutes de moindre hauteur.
Ainsi des modèles de « fish-friendly turbines » ont été proposés en 2000-2005, avec 83 à 93 % de survie après 96 h pour les truites arc-en-ciel, 90 à 100 % de survie pour les autres espèces selon ALDEN en 20096,7,8,9 (et testé en 2006), dit « très basse chute » (VLH®2) et « ichtyophile®2 », qui présente comme avantage de fortement diminuer le besoin en génie civil et donc les coûts de travaux, pour une efficacité qui permet d’équiper des très basses chutes (2 à 3 m) ; tout en permettant le passage des poissons sans dommage à travers la turbine (anguilles notamment) grâce à une conception intégrant les résultats d'études de compatibilité des turbines avec la vie des poissons, faites par l'U.S. Army Corps of Engineers, publiés en 199510. Le premier prototype de turbine VLH construit en France l'a été en (sur le Tarn, au Moulin de Troussy à Millau)11,12. Les prises d'eau de ces turbines peuvent en outre aussi être équipées de dispositifs dits d'ichtyocompatibilité (par exemple en France testé à Navarrenx sur le Gave d'Oloron) et améliorés avec l'ONEMA13,14. (Larinier, Thévenet, & Travade, 2008)15, et une échelle à poissons peut leur être associée pour faciliter la remontée (comme sur la centrale de Saint-Géry (2 MW) dans le Lot, rénovée en 201516). Dans les pires conditions les impacts en termes de mortalité immédiate et/ou différée sont divisés par 2 à 3 par rapport à une turbine Kaplan classique fonctionnant dans les mêmes conditions. Les anguilles sont les plus vulnérables en raison de leur longueur et parce que c’est le plus souvent en sortie de turbine qu'elles sont potentiellement tuées17.
Turbine à air
Une turbine à air est un système d'ailette où l'air comprimé vient se détendre et prendre de la vitesse. L'énergie développée par cette turbine est liée à l'équation :
- E = 1 2 . m . v 2
où :
- m : masse d'air déplacée ;
- v : vitesse de l'air déplacée.
Ce genre de turbine est utilisée, entre autres, dans des outils tels que les visseuses ou les perceuses à air comprimé.
Notes et références
- Benoit Fourneyron inventeur de la turbine [archive] - Le Monde, 4 octobre 2011
- Florence HACHEZ-LEROY, « Fourneyron Benoit : Théoricien de la turbine et industriel » [archive], sur universalis.fr (consulté le )
- Idaho National Laboratory ; présentation [archive] du programme Hydropower (la version consultées est celle mise à jour le
- Présentation du projet Hydropower Advanced Turbine Systems [archive], par le Laboratoire national de l'Idaho
- (en)[PDF] Advanced Sensor Fish Device for Improved Turbine Design [archive], note du Pacific Northwest National Laboratory, avec le soutien de l'U.S. Department of Energy Advanced Hydropower Turbine System Program
- ALDEN. (2009). Hydroelectric Turbines Design. ,Lire en ligne [archive], Consulté le avril 5, 2009
- ALSTOM (2009) The fish-friendly turbine : Lire en ligne [archive], sur ALSTOM Hydro Power ,Consulté le avril 2, 2009
- Cada G.F (2001), The Development of Advanced Hydroelectric Turbines to Improve Fish Passage Survival ; Fisheries, Bioengineering feature ; septembre 2001, 26 (9), pp. 14-23.
- Drummond D (2004) Hydropower Gets Greener with Fish-Friendly Turbines From Voith Siemens Hydro Power Generation, 29 mars 2004. , Lire en ligne [archive], Consulté le mars 27, 2009
- Timothée Besse (2009) « Turbines ichtyophiles et dispositifs d’évitement pour les anguilles en avalaison [archive] » ; Tableau de Bord Anguille du Bassin Loire (LOGRAMI) 6 avril 2009 , voir chap4.2 et v p11/20 et suivantes)
- MJ2 Technologies. (2009). Lancement de la gamme industrielle VLH. (M. Technologies, Éd.) Turbines de très basse chute, Very Low Head Turbines, Lettre d'information no 8, février 2009 , p. 1-2.
- Loiseau, F., Davidson, R. A., Coutson, M., & Sabourin, M. (2006). Fish Environment & New turbines design. ALSTOM Power Hydro
- Larinier, M., Thévenet, R., & Travade, F. (2008). Anguilles et ouvrages, Programme R&D 2008-2009. (ONEMA, Éd.)
- ONEMA (2008) Les producteurs d’hydroélectricité signent avec l’Onema et l’Ademe un accord-cadre de Recherche et Développement. Communiqué de Presse, 8 décembre 2008 (2p.)
- Timothée Besse (2009) « Turbines ichtyophiles et dispositifs d’évitement pour les anguilles en avalaison [archive] » ; Tableau de Bord Anguille du Bassin Loire (LOGRAMI) (voir légende de la fig 11) ; voir p 9/20
- Marie-Jo Sader, Accords et désaccords autour de la petite hydroélectricité [archive], sur actu-environnement.com du 15 juin 2015.
Voir aussi
Sur les autres projets Wikimedia :
Bibliographie
- Alain Schrambach (2010), « Moteurs autres que les roues hydrauliques », Moulins de France, numéro spécial « Les Moulins no 23 », , Éd. FFAM
Articles connexes
Liens externes
Turbine à vapeur
Une turbine à vapeur est une machine qui extrait l'énergie thermique de la vapeur sous pression et l'utilise pour produire un travail mécanique de rotation de l'arbre de sortie. La version moderne fut inventée par Sir Charles Parsons en 18841,2.
Parce que la turbine génère un mouvement de rotation, elle est particulièrement bien adaptée pour entraîner un générateur électrique ;– environ 90 % de la production d'électricité aux États-Unis (1996) était faite en utilisant des turbines à vapeur3. La turbine à vapeur est une forme de machine thermique qui doit une grande partie de l'amélioration de son efficacité thermodynamique à l'utilisation de plusieurs étages dans l'expansion de la vapeur, ce qui se traduit par un résultat proche du processus de détente réversible idéale.
Histoire
Une turbine à vapeur industrielle de 1910 (à droite) directement reliée à une
génératrice (à gauche).
Le premier appareil qui peut être classé comme turbine à vapeur n'était guère plus qu'un jouet, le classique Éolipyle, décrit au 1er siècle par le mathématicien grec Héron d'Alexandrie en Égypte romaine4,5. En 1551, Taqi al-Din en Égypte ottomane décrit une turbine à vapeur dont l'application pratique est la rotation d'une broche.[réf. nécessaire] Les turbines à vapeur ont également été décrites par l'italien Giovanni Branca (1629)6 et par John Wilkins en Angleterre (1648)7. Les dispositifs décrits par Taqi al-Din et Wilkins sont aujourd'hui connus comme des tournebroches à vapeur. En 1672, une voiture à turbine à impulsion fut conçue par Ferdinand Verbiest. Une version plus moderne de cette voiture a été produite peu de temps après, à la fin du XVIIIe siècle par un mécanicien inconnu allemand.
La théorie des turbines voit le jour avec les travaux de Segner et d'Euler, qui y consacre deux communications8. À la vapeur utilisée dans l'éolipyle, Segner substitue de l'eau, réalisant ainsi le prototype de la turbine hydraulique9.
La turbine à vapeur moderne fut inventée en 1884 par Sir Charles Parsons, dont le premier modèle était relié à une dynamo qui générait 7,5 kW (10 ch) d'électricité10. L'invention de Parsons rend possible l'électricité bon marché et abondante, et a révolutionné le transport maritime et la marine de guerre11. Le modèle de Parsons est du type à réaction. Sa licence est brevetée et sa turbine est améliorée peu de temps après par un Américain, George Westinghouse. La puissance des turbines Parsons s'est également avérée être extensible à grande échelle. Parsons a eu la satisfaction de voir son invention adoptée par toutes les grandes centrales de ce monde, et la taille des génératrices a augmenté depuis la première de 7,5 kW jusqu'à des unités de 50 000 kW de capacité. Pendant la vie de Parson, la capacité de production d'une unité a été multipliée par environ 10 00012, et la puissance totale des génératrices construites par son cabinet C. A. Parsons and Company et par leurs titulaires, à des fins terrestres uniquement, avait dépassé les trente millions de chevaux-vapeur.
Un certain nombre d'autres variantes de turbines ont été développées pour travailler efficacement avec la vapeur. La turbine de Laval (inventée par Gustaf de Laval) accélérait la vapeur d'eau à pleine vitesse avant de l'envoyer vers des aubes de turbine. La turbine à impulsion de Laval est plus simple, moins coûteuse et n'a pas besoin d'être aussi résistante à la pression. Elle peut fonctionner avec de la vapeur sous pression, mais est nettement moins efficace. Auguste Rateau développa une turbine à pression à impulsion sur la base du principe de Laval dès 189613, obtint un brevet américain en 1903, et appliqua la turbine à un torpilleur français en 1904. Il enseigna à l'École nationale supérieure des mines de Saint-Étienne pendant une décennie jusqu'en 1897, et fonda ensuite une entreprise à succès qui fut incorporée dans Alstom après sa mort. L'un des fondateurs de la théorie moderne de la vapeur et des turbines à gaz fut Aurel Stodola, un ingénieur-physicien slovaque, professeur à l’école Polytechnique (aujourd'hui Institut ETH) de Zurich. Son travail Die Dampfturbinen und ihre Aussichten als Wärmekraftmaschinen (en français : La Turbine à Vapeur et de son utilisation future comme Moteur Thermique) fut publié à Berlin en 1903. Un livre ultérieur, Dampf und Gaz-Turbinen (en français : Turbines à Gaz et à Vapeur), fut publié en 1922.
La turbine Brown-Curtis, de type à impulsion, qui avait été à l'origine développée et brevetée par la société américaine International Curtis Marine Turbine Company, fut développée dans les années 1900, en collaboration avec John Brown & Company. Elle fut utilisée dans des moteurs John Brown de navires marchands et de guerre, y compris des paquebots et navires de guerre de la Royal Navy.
Fabrication
L'industrie actuelle de fabrication de turbines à vapeur est dominée par les fabricants Chinois d'équipements électriques. Harbin Electric, Shanghai Electric et Dongfang Electric, les trois principaux fabricants d'équipements électriques en Chine, détenant collectivement une part majoritaire dans le marché mondial des turbines à vapeur en 2009-10, suivant Platts14. D'autres fabricants, avec des parts de marché minoritaires, sont Bhel, Siemens, Alstom, GE, Doosan Škoda Power, Mitsubishi Heavy Industries, et Toshiba. Le cabinet de conseil Frost & Sullivan projette que la fabrication des turbines à vapeur sera consolidée d'ici à 2020, les fabricants Chinois emportant de plus en plus de marchés à l'extérieur de la Chine15.
Types
Les turbines à vapeur sont produites dans une grande variété de tailles, allant de petites unités < 0,75 kW (<1 ch) (rares, adaptées à certains milieux) utilisées comme entraînement mécanique de pompes, de compresseurs et d'autres équipements à arbre entraîné, jusqu'à 1,5 GW (2 000 000 ch) pour les turbines utilisées pour produire de l'électricité. Il existe plusieurs classifications modernes pour les turbines à vapeur.
Conception à lames et étages
Les pales de turbines sont de deux types, des lames et des tuyères. Les lames se déplacent entièrement sous l'impact de la vapeur et leurs profils ne convergent pas. Il en résulte une diminution de la vitesse de la vapeur et pratiquement pas de chute de pression de la vapeur au cours de son déplacement à travers les lames. Une turbine composée de lames en alternance avec des tuyères fixes est appelée turbine à réaction (ou impulsion), turbine Curtis, turbine Rateau ou turbine Brown-Curtis. Les tuyères paraissent semblables à des lames, mais leurs profils convergent près de la sortie. Il en résulte une chute de pression de la vapeur et un gain de vitesse lorsque la vapeur se déplace dans les tuyères. Les tuyères se déplacent en raison de l'impact de la vapeur et de la réaction due à la haute vitesse de la vapeur à la sortie. Une turbine composée de tuyères en déplacement alternées avec des tuyères fixes est appelée une turbine à réaction, ou turbine Parsons.
Sauf pour des applications basse puissance, les pales de la turbine sont disposées en plusieurs étapes en série, appelé[Quoi ?] le compoundage (en), ce qui améliore grandement l'efficacité à basse vitesse16. Un étage de réaction est une rangée de tuyères fixes suivie par une rangée de tuyères mobiles. Plusieurs étages de réaction divisent la chute de pression de la vapeur entre l'admission et l'échappement en de nombreuses petites chutes, ce qui produit une turbine à pression composée. Les étages d'impulsion peuvent être soit à pression composée, soit à vitesse composée, soit à pression et vitesse composées. Un étage à impulsion à pression composée est une rangée de tuyères fixes, suivie par une rangée de lames mobiles, avec plusieurs étages pour la composition. Elle est également connue comme turbine de Rateau, d'après son inventeur. Un étage à impulsion à vitesse composée (inventée par Curtis et également appelée « roue Curtis ») est une rangée de tuyères fixes, suivie par deux ou plusieurs rangées de lames mobiles en alternance avec des rangées de lames fixes. Cela divise la chute de vitesse à travers l'étage en plusieurs petites chutes17. Une série d'étages à impulsion à vitesse composée est appelée turbine à pression-vitesse composée.
Schéma d'une turbine à vapeur marine AEG vers 1905.
En 1905, lorsque les turbines à vapeur ont été utilisées sur les navires rapides (comme le HMS Dreadnought) et pour des applications de puissance terrestres, il fut déterminé qu'il était souhaitable d'utiliser une ou plusieurs roues Curtis au début d'une turbine multi-étages (où la pression de la vapeur est la plus élevée), suivie par des étages de réaction. Ce fut plus efficace avec de la vapeur sous haute pression en raison de la réduction des fuites entre le rotor de la turbine et le carter18. Ceci est illustré dans le dessin de la turbine à vapeur allemande AEG marine de 1905. La vapeur provenant de chaudières entre par la droite à haute pression à travers un boîtier papillon contrôlé manuellement par un opérateur (dans ce cas, un marin appelé throttleman). Elle passe à travers cinq roues Curtis et de nombreux étages de réaction (les petites lames sur les bords des deux grands rotors du milieu) avant de sortir à basse pression, généralement vers un condenseur. Le condenseur produit un vide qui maximise l'énergie extraite de la vapeur, et condense la vapeur en eau d'alimentation qui retourne à la chaudière. Sur la gauche il y a plusieurs autres étages de réaction (sur deux grands rotors) pour faire tourner la turbine dans le sens inverse pour la marche arrière, avec la vapeur admise par un autre boîtier. Étant donné que les navires sont rarement utilisés en marche arrière et que cette vitesse est forcément limitée, l'efficacité n'est pas une priorité, de sorte que seuls quelques étages sont placés par mesure d'économie.
Les défis de la conception des aubes
Un grand défi de la conception des turbines est de réduire le fluage subi par les aubes. En raison des températures élevées et des fortes contraintes de fonctionnement, les matériaux des turbines à vapeur sont endommagés par ces mécanismes. Comme les températures sont augmentées pour améliorer l'efficacité de la turbine, le fluage devient de plus en plus important. Pour limiter le fluage des aubes, on utilise des revêtements thermiques et des superalliages à renforcement par solution solide et par joints de grains.
Les revêtements de protection sont utilisés pour réduire les dommages thermiques et limiter l'oxydation. Ces revêtements sont souvent des céramiques à base de dioxyde de zirconium stabilisé. Utiliser un revêtement de protection thermique limite la température d'exposition du superalliage de nickel. Cela réduit les mécanismes de fluage dans l'aube. Les revêtements limitant l'oxydation freinent les pertes de rendement causées par une accumulation à l'extérieur des aubes, ce qui est particulièrement important dans un environnement à température élevée19.
Les aubes en alliage base nickel contiennent de l'aluminium et du titane pour améliorer la rigidité et la résistance au fluage. La microstructure de ces alliages est faite de différentes régions de composition. Une dispersion uniforme de la phase gamma-prime – une combinaison de nickel, d'aluminium et de titane - favorise la rigidité et la résistance au fluage de l'aube grâce à sa microstructure20.
Des métaux réfractaires tels que le rhénium et le ruthénium peuvent être ajoutés à l'alliage pour encore améliorer la résistance au fluage. L'ajout de ces éléments réduit la diffusion de la phase gamma prime, préservant ainsi la résistance à la fatigue, la solidité et la résistance au fluage21.
Alimentation en vapeur et conditions d'échappement
Une turbine à vapeur basse pression dans une centrale nucléaire. Ces turbines rejettent de la vapeur à une pression inférieure à la pression atmosphérique.
Ces types comprennent les turbines à condensation, sans condensation, à réchauffage, à extraction et à induction.
Les turbines à condensation sont le plus souvent présentes dans les centrales électriques. Ces turbines reçoivent de la vapeur d'une chaudière qui s'échappe dans un condenseur. La vapeur sortante est bien en dessous de la pression atmosphérique, et est dans un état partiellement condensé, généralement d'une qualité proche de 90 %.
Les turbines sans condensation ou turbines à contre-pression sont les plus largement utilisées pour les processus d'applications de la vapeur. La pression à l'échappement est contrôlée par une vanne de régulation en fonction des besoins du processus. Elles sont généralement trouvées dans les raffineries, les unités de chauffage de quartier, les usines de pâtes et papiers, et les usines de dessalement où de grandes quantités de vapeur à faible pression sont nécessaires.
Les turbines à réchauffage sont également utilisées presque exclusivement dans des centrales électriques. Dans une telle turbine, la vapeur sortant de la section à haute pression de la turbine est retournée à la chaudière où une surchauffe supplémentaire lui est ajoutée. La vapeur revient ensuite dans une section à pression intermédiaire de la turbine et continue son expansion. Utiliser le réchauffage dans un cycle augmente le travail de sortie de la turbine et l'expansion se termine avant que la vapeur ne se condense, ce qui permet de minimiser l'érosion des aubes dans les derniers étages. Dans la plupart des cas, le nombre maximum de réchauffes employé dans un cycle est de 2 car le coût de la surchauffe de la vapeur contrarie l'augmentation du travail obtenu à la sortie de la turbine.
Les turbines à extraction sont communes pour toutes les applications. Dans une turbine à extraction, la vapeur est libérée à différents stades de la turbine, et utilisée pour les besoins du processus industriel ou renvoyée aux réchauffeurs d'eau d'alimentation de la chaudière afin d'améliorer l'efficacité du cycle global. Le flux d'extraction peut être contrôlé par une valve, ou laissé incontrôlé.
Les turbines à induction introduisent de la vapeur à basse pression à un stade intermédiaire pour produire de l'énergie supplémentaire.
Disposition des corps ou des arbres
Arrangement tribord des turbines à vapeur des croiseurs Japonais de classes Furutaka et Aoba.
Ces arrangements comprennent la turbine à un seul corps, la turbine composée en tandem et la turbine composée en croix. Les unités à corps unique sont les plus élémentaires, avec un seul corps et l'arbre directement couplé à un générateur. Les tandem composés sont utilisés lorsque deux ou plusieurs corps sont directement couplés sur un seul générateur. Un arrangement de turbines composées en croix dispose de deux ou plusieurs arbres non alignés entraînant deux ou plusieurs générateurs qui fonctionnent souvent à des vitesses différentes. Une turbine composée en croix est utilisée dans de nombreuses applications de grande taille. Une installation navale typique des années 1930 à 1960 est illustrée ci-contre ; le schéma montre des turbines haute (HP) et basse pression (LP) entraînant un réducteur commun (MG), ou avec une turbine de croisière (CT) couplée à la turbine haute pression.
Rotors à double flux
Un rotor de turbine à double flux. La vapeur pénètre au milieu de l'arbre, et sort à chaque extrémité, équilibrant la force axiale.
La détente de la vapeur donne à la fois une poussée tangentielle et axiale sur l'arbre de la turbine, mais la poussée axiale dans une turbine simple est sans opposition. Pour maintenir la bonne position du rotor et de l'équilibrage, cette force doit être contrecarrée par une force d'opposition. Des paliers de butée (en) peuvent être utilisés pour les roulements de l'arbre, le rotor peut utiliser des faux pistons, il peut être à double flux, la vapeur pénétrant au milieu de l'arbre et s'échappant à ses deux extrémités, ou une combinaison de ces techniques. Dans un rotor à double flux, les aubes dans chaque moitié sont face à face, de sorte que les forces axiales se compensent et que les forces tangentielles agissent ensemble. Cette conception de rotor est également appelée à deux flux, double flux axial, ou double-échappement. Cette disposition est commune dans les corps basse pression des turbines composées22.
Principe de fonctionnement et conception
Une turbine à vapeur idéale est considérée comme un processus isentropique, ou processus à entropie constante, dans lequel l'entropie de la vapeur entrant dans la turbine est égale à l'entropie de la vapeur quittant la turbine. Cependant, en pratique, aucune turbine à vapeur n'est vraiment isentropique, avec une efficacité isentropique se situant entre 20 % et 90 %, suivant l'application de la turbine. L'intérieur d'une turbine comprend plusieurs ensembles d'aubes, ou godets. Un ensemble d'aubes fixes est connecté à l'enveloppe et un ensemble d'aubes en rotation est relié à l'arbre. Les 2 ensembles s'engrènent avec un jeu minimal, la taille et la configuration des ensembles variant afin d'exploiter efficacement l'expansion de la vapeur d'eau à chaque étage.
Efficacité théorique des turbines
Pour maximiser l'efficacité de la turbine, la vapeur est détendue, produisant du travail, en un certain nombre d'étages. Ces étages sont caractérisées par la façon dont l'énergie est extraite et les turbines sont à action ou à réaction. La plupart des turbines à vapeur utilisent un mélange de réaction et d'action, chaque étage se comportant de l'une ou de l'autre façon, mais l'ensemble de la turbine les utilise en même temps. Généralement, les étages basse pression sont de type à réaction et les étages à plus haute pression sont du type à action.
La turbine à action
Une sélection d'aubes de turbine à action.
La turbine à action a des tuyères fixes qui orientent le débit de vapeur en jets à haute vitesse. Ces jets contiennent une importante énergie cinétique, qui est convertie en rotation de l'arbre par la forme des aubes du rotor, lorsque les jets de vapeur changent de direction. Une chute de pression se produit uniquement sur les aubes fixes, avec une augmentation nette de la vitesse de la vapeur à travers l'étage. Pendant que le flux de vapeur traverse la tuyère, la pression d'entrée chute jusqu'à la pression de sortie (donc la pression atmosphérique, ou plus généralement, le vide du condenseur). En raison du taux élevé d'expansion de la vapeur, la vapeur sort de la tuyère à une très grande vitesse. La vapeur qui quitte les aubes mobiles conserve une grande partie de la vitesse maximale qu'avait la vapeur au moment de quitter la tuyère. La perte d'énergie due à cette vitesse de sortie relativement élevée est communément appelée le report de vitesse ou la perte en sortie.
La loi du moment de l'impulsion stipule que la somme des moments des forces extérieures agissant sur un fluide qui occupe temporairement le volume de contrôle est égal au changement net du moment angulaire des flux à travers le volume de contrôle.
Le fluide tourbillonnant pénètre dans le volume de contrôle au rayon r 1 à la vitesse tangentielle V w 1 et le quitte au rayon r 2 à la vitesse tangentielle V w 2 . Les rayons r 1 et r 2 sont mesurés à partir de l'axe du rotor, peuvent être différents et sont plus ou moins perpendiculaires à la section ci-dessous.
Un triangle des vitesses permet une meilleure compréhension de la relation entre les différentes vitesses. Dans la figure ci-dessus, nous avons :
- V 1 et V 2 sont les vitesses absolues à l'entrée et à la sortie respectivement.
- V f 1 et V f 2 sont les vitesses d'écoulement respectivement à l'entrée et à la sortie.
- V w 1 et V w 2 sont les vitesses de tourbillonnement à l'entrée et à la sortie respectivement.
- V r 1 et V r 2 sont les vitesses relatives à l'entrée et à la sortie respectivement.
- U 1 et U 2 (représentés par U) sont les vitesses tangentielles de l'aube à l'entrée et à la sortie respectivement, différentes si les rayons r 1 et r 2 sont différents.
- α Est l'angle de l'aube de guidage et β Est l'angle de l'aube mobile.
Puis, par la loi du moment de l'impulsion, le couple sur le fluide est donné par : T = m ˙ ( r 2 V w 2 − r 1 V w 1 )
Pour une turbine à vapeur à action : r 2 = r 1 = r . Par conséquent, la force tangentielle sur les aubes est F u = m ˙ ( V w 1 − V w 2 ) . Le travail effectué par unité de temps ou la puissance développée : W = T ∗ ω .
Si ω est la vitesse angulaire de rotation de la turbine, alors la vitesse de l'aube est U = ω ∗ r . La puissance développée est alors W = m ˙ U ( Δ V w ) .
Efficacité de l'aube
L'efficacité de l'aube ( η b ) peut être définie comme le rapport entre le travail effectué sur les aubes et l'énergie cinétique fournie au fluide, et est donnée par
η b = W o r k D o n e K i n e t i c E n e r g y S u p p l i e d = 2 U V w V 1 2
Efficacité de l'étage
Tuyère Convergente-divergente
Graphique illustrant l'efficacité de la turbine à Impulsion.
Un étage de turbine à action (ou impulsion) se compose d'un jeu de tuyères et d'une roue mobile. L'efficacité de l'étage est définie par le rapport entre la baisse de l'enthalpie de la tuyère et le travail effectué dans l'étage.
η s t a g e = W o r k d o n e o n b l a d e E n e r g y s u p p l i e d p e r s t a g e = U Δ V w Δ h
Où Δ h = h 2 − h 1 est la baisse spécifique de l'enthalpie de la vapeur dans la tuyère.
Par la première loi de la thermodynamique : h 1 + V 1 2 2 = h 2 + V 2 2 2
En supposant que V 1 est sensiblement moins grand que V 2 , nous obtenons Δ h ≈ V 2 2 2 En outre, l'efficacité de l'étage est le produit de l'efficacité de l'aube et de l'efficacité de la tuyère, ou η s t a g e = η b ∗ η N
L'efficacité de la tuyère est donnée par η N = V 2 2 2 ( h 1 − h 2 ) , où l'enthalpie (en J/kg) de la vapeur à l'entrée de la tuyère est h 1 et l'enthalpie de la vapeur à la sortie de la tuyère est h 2 . Δ V w = V w 1 − ( − V w 2 ) Δ V w = V w 1 + V w 2 Δ V w = V r 1 cos β 1 + V r 2 cos β 2 Δ V w = V r 1 cos β 1 ( 1 + V r 2 cos β 2 V r 1 cos β 1 )
Les ratios des cosinus des angles des aubes à la sortie et à l'entrée peuvent être pris et notés c = cos β 2 cos β 1 . Le rapport des vitesses de la vapeur par rapport à la vitesse de sortie du rotor vers l'entrée de l'aube est défini par le coefficient de frottement k = V r 2 V r 1 .
k < 1 et dépeint la perte de vitesse relative due à la friction lorsque le flux de vapeur coule autour de l'aube ( k = 1 pour des aubes particulièrement lisses).
η b = 2 U Δ V w V 1 2 = 2 U ( cos α 1 − U / V 1 ) ( 1 + k c ) V 1
Le rapport de la vitesse de l'aube à la vitesse absolue de la vapeur à l'entrée est appelé le rapport de vitesse de l'aube ρ = U V 1
η b est maximale lorsque d η b d ρ = 0 ou, d d ρ ( 2 cos α 1 − ρ 2 ( 1 + k c ) ) = 0 . Cela implique que ρ = cos α 1 2 et donc U V 1 = cos α 1 2 . Maintenant ρ o p t = U V 1 = cos α 1 2 (pour une turbine à action d'un seul étage)
Par conséquent, la valeur maximale de l'efficacité de l'étage est obtenue en plaçant la valeur de U V 1 = cos α 1 2 dans l'expression de η b /
Nous obtenons : ( η b ) m a x = 2 ( ρ cos α 1 − ρ 2 ) ( 1 + k c ) = cos 2 α 1 ( 1 + k c ) 2 .
Pour des lames équiangulaires, β 1 = β 2 donc c = 1 et nous obtenons ( η b ) m a x = c o s 2 α 1 ( 1 + k ) 2 . Si le frottement dû à la surface de l'aube est négligé, alors ( η b ) m a x = cos 2 α 1 .
Conclusions sur l'efficacité maximum
( η b ) m a x = cos 2 α 1
1. Pour une vitesse de vapeur donnée, le travail effectué par kg de vapeur sera maximal lorsque cos 2 α 1 = 1 ou α 1 = 0 .
2. Quand α 1 augmente, le travail effectué sur les aubes se réduit, mais en même temps la surface de l'aube se réduit, il y a donc moins de pertes par frottement.
La turbine à réaction
Dans la turbine à réaction, les aubes du rotor sont disposées de manière à former des tuyères convergentes. Ce type de turbine utilise la force de réaction produite lorsque la vapeur accélère à travers les tuyères formées par le rotor. La vapeur est dirigée sur le rotor par les aubes fixes du stator. Elle quitte le stator sous la forme d'un jet qui remplit toute la circonférence du rotor. La vapeur change ensuite de direction et sa vitesse augmente en fonction de la vitesse des aubes. Une chute de pression se produit à travers le stator et le rotor, la vapeur accélérant à travers le stator et décélérant à travers le rotor, sans changement net de la vitesse de la vapeur à travers l'étage mais avec une diminution simultanée de la pression et de la température, reflétant par là même le travail effectué pour entraîner le rotor.
Efficacité des aubes
Énergie d'entrée sur les aubes d'un étage :
E = Δ h est égal à l'énergie cinétique fournie aux aubes fixes (f) + l'énergie cinétique fournie aux aubes mobiles (m).
Ou, E = la chute d'enthalpie sur les aubes fixes, Δ h f + la chute d'enthalpie sur les aubes mobiles, Δ h m .
L'effet de l'expansion de la vapeur sur les aubes mobiles est d'augmenter la vitesse relative à la sortie. Par conséquent, la vitesse relative à la sortie V r 2 est toujours plus grande que la vitesse relative à l'entrée V r 1 .
En termes de vitesse, la chute de l'enthalpie sur les aubes mobiles est donnée par :
Δ h m = V r 2 2 − V r 1 2 2 (elle contribue à un changement de la pression statique)
La chute d'enthalpie dans les aubes fixes, en supposant que la vitesse de la vapeur entrant dans les aubes fixes est égale à la vitesse de la vapeur quittant précédemment les aubes mobiles est donnée par :
Δ h f = V 1 2 − V 0 2 2 où V0 est la vitesse d'entrée de la vapeur dans la tuyère
V 0 est très petit et peut donc être négligé
Par conséquent, Δ h f = V 1 2 2
E = Δ h f + Δ h m
E = V 1 2 2 + V r 2 2 − V r 1 2 2
Un concept de turbine très largement répandu a un degré de réaction de moitié, ou 50 % de réaction, et est connu sous le nom de turbine de Parsons. Elle se compose d'aubes de rotor et de stator symétriques. Pour cette turbine, le triangle des vitesses est similaire et nous avons :
α 1 = β 2 , β 1 = α 2
V 1 = V r 2 , V r 1 = V 2
Pour une turbine de Parsons et obtenant toutes les expressions, nous avons :
E = V 1 2 − V r 1 2 2
À partir du triangle de la vitesse d'entrée nous avons V r 1 2 = V 1 2 + U 2 − 2 U V 1 cos α 1
E = V 1 2 − V 1 2 2 − U 2 2 + 2 U V 1 cos α 1 2
E = V 1 2 − U 2 + 2 U V 1 cos α 1 2
Le travail effectué (par unité de débit massique par seconde) : W = U ∗ Δ V w = U ∗ ( 2 ∗ V 1 cos α 1 − U )
Par conséquent, l'efficacité de l'aube est donnée par
η b = 2 U ( 2 V 1 cos α 1 − U ) V 1 2 − U 2 + 2 V 1 U cos α 1
Condition d'efficacité maximum de l'aube
Comparaison de l'efficacité des turbines à Action (ou Impulsion) et à Réaction.
Si ρ = U V 1 , alors
( η b ) m a x = 2 ρ ( cos α 1 − ρ ) V 1 2 − U 2 + 2 U V 1 cos α 1
Pour un maximum d'efficacité d η b d ρ = 0 , nous obtenons
( 1 − ρ 2 + 2 ρ cos α 1 ) ( 4 cos α 1 − 4 ρ ) − 2 ρ ( 2 cos α 1 − ρ ) ( − 2 ρ + 2 cos α 1 ) = 0
et cela donne finalement ρ o p t = U V 1 = cos α 1
Par conséquent, ( η b ) m a x est trouvé en plaçant la valeur de ρ = cos α 1 dans l'expression de l'efficacité de l'aube
( η b ) r e a c t i o n = 2 cos 2 α 1 1 + cos 2 α 1
( η b ) i m p u l s e = cos 2 α 1
Efficacité de la turbine en pratique
L'efficacité thermique de la turbine à vapeur varie en fonction de la taille de la turbine, de la charge, des pertes dues à la friction et des pertes dues aux jeux entre les étages. Elle atteint des valeurs maximales d'environ 50 % dans une turbine de 1 200 MW ; les turbines plus petites ont généralement une efficacité moindre.
Fonctionnement et entretien
Une installation moderne, une turbine à vapeur avec une génératrice.
En raison de la haute pression dans les circuits de vapeur et des matériaux utilisés, les turbines à vapeur et leurs enveloppes ont une haute inertie thermique. Lors de l'échauffement d'une turbine à vapeur avant son utilisation, les vannes d'arrêt principales de vapeur (après la chaudière) ont un conduit de dérivation pour permettre à la vapeur surchauffée de passer lentement la vanne et de procéder au chauffage du système et de la turbine à vapeur. De même, un vireur (en) est utilisé quand il n'y a pas de vapeur pour donner une rotation lente à la turbine afin d'assurer une température uniforme pour empêcher une expansion non homogène. Après le démarrage de la turbine à l'aide du vireur, permettant au rotor d'adopter un plan droit (sans courbures), on peut déconnecter le système rotatif et la vapeur peut être admise dans la turbine, d'abord aux aubes arrière puis à l'avant, donnant une rotation lente à la turbine, de 10 à 15 tr/min (0,17–0,25 Hz) pour réchauffer lentement la turbine. La procédure de warm-up (préchauffage) pour les grandes turbines à vapeur peut dépasser dix heures.
Pendant le fonctionnement normal, un déséquilibre du rotor peut conduire à des vibrations, qui, en raison de la forte vitesse de rotation, pourraient conduire à la rupture d'une aube de rotor et la faire passer à travers l'enveloppe. Pour réduire ce risque, des efforts considérables sont faits pour équilibrer la turbine. Les turbines sont employées avec de la vapeur de haute qualité : soit de la vapeur surchauffée (sèche) ou de la vapeur saturée avec un degré élevé de séchage. Cela empêche l'impact et l'érosion rapides des aubes qui se produisent lorsque de l'eau condensée est projetée sur les aubes (excès d'humidité). Également, l'eau liquide entrant dans les aubes peut endommager les paliers de butée de l'arbre de la turbine. Pour éviter cela, en plus des contrôles et des chicanes dans les chaudières pour assurer la qualité de la vapeur, des drains de condensation sont installés dans la tuyauterie de vapeur alimentant la turbine.
Les exigences de maintenance des turbines à vapeur modernes sont simples et induisent de faibles coûts d'exploitation, généralement autour de 0,005 $par kWh23; leur durée de vie dépasse généralement les 50 ans.
Régulation de la vitesse
Schéma d'un système de turbine à vapeur couplée à une génératrice
Il est essentiel de contrôler une turbine avec un régulateur, parce que les turbines doivent être démarrées lentement pour éviter de les endommager et certaines applications (telles que la production de courant alternatif) nécessitent un contrôle de vitesse très précis24. L'accélération incontrôlée du rotor de la turbine peut conduire à un emballement, ce qui provoque la fermeture du régulateur et des vannes d'étranglement qui contrôlent le flux de la vapeur. Si ces vannes ne se ferment pas la turbine peut poursuivre son accélération jusqu'à ce qu'elle se désintègre sous l'action de la force centrifuge, souvent de manière catastrophique. Les turbines sont coûteuses, elles nécessitent une fabrication de précision et une qualité particulière des matériaux employés, il faut donc tout mettre en œuvre pour empêcher cela.
En fonctionnement normal, synchronisé avec le réseau électrique, les centrales électriques sont régulées avec un contrôle de la plage de vitesse de cinq pour cent. Cela signifie que la vitesse en pleine charge est de 100 % et la vitesse à vide est de 105 %. C'est nécessaire pour le fonctionnement stable du réseau, sans chasses ni abandons de centrales électriques. En situations normales, les changements de vitesse sont mineurs. Les ajustements de la puissance de sortie sont réalisés en élevant lentement la courbe de vitesse par augmentation de la pression du ressort sur un régulateur centrifuge. C'est une exigence de base pour toutes les centrales électriques, car les anciennes et les nouvelles usines doivent être compatibles et répondre aux variations instantanées de fréquence du réseau électrique sans dépendre de commandes venant de l'extérieur25.
La thermodynamique des turbines à vapeur
La turbine à vapeur fonctionne sur les principes de base de la thermodynamique, utilisant les parties 3 et 4 du cycle de Rankine visibles sur le diagramme ci-contre. La vapeur surchauffée (ou la vapeur saturée sèche, selon l'application) quitte la chaudière à haute température et sous haute pression. À l'entrée de la turbine, la vapeur gagne en énergie cinétique lors de son passage à travers une tuyère (une tuyère fixe dans une turbine à action ou les aubes fixes dans une turbine à réaction). Lorsque la vapeur sort de la tuyère, elle se déplace à grande vitesse vers les aubes du rotor de la turbine. Une force est créée sur les aubes par la pression de la vapeur, les obligeant à se déplacer. Une génératrice électrique ou un autre dispositif peut être placé à l'extrémité de l'arbre, et l'énergie de la vapeur peut maintenant être utilisée. La vapeur quitte la turbine sous forme de vapeur saturée (ou un mélange de liquide-vapeur en fonction de l'application) à une température et une pression plus basse qu'en entrant, et est envoyée dans le condenseur pour être refroidie26. La première loi nous permet de trouver une formule pour la vitesse à laquelle le travail est développé par unité de masse. En supposant qu'il n'y ait pas de transfert de chaleur vers l'environnement et que les variations des énergies potentielle et cinétique sont négligeables par rapport à la variation spécifique de l'enthalpie, nous arrivons à l'équation suivante :
- W ˙ m ˙ = h 3 − h 4
où
- Ẇ est la vitesse à laquelle le travail est produit par unité de temps
- ṁ est le débit massique à travers la turbine
Rendement isentropique
Pour mesurer l'efficacité d'une turbine, nous pouvons regarder son efficacité isentropique. On compare la performance de la turbine avec la performance qui serait celle d'une turbine isentropique idéale27. Lors du calcul de ce rendement, les pertes de chaleur dans l'environnement sont supposées être nulles. Les pressions et températures de départ sont les mêmes pour les deux turbines, mais à la sortie de la turbine réelle, le contenu énergétique (l'enthalpie spécifique) est supérieur à celui de la turbine idéale à cause de l'irréversibilité dans la turbine réelle. L'enthalpie spécifique est évaluée à la même pression pour les turbines réelle et idéale afin de permettre une bonne comparaison entre les deux.
Le rendement isentropique est déterminé en divisant travail réel par le travail idéal.
- η t = h 3 − h 4 h 3 − h 4 s
où
- h3 est l'enthalpie spécifique au point 3
- h4 est l'enthalpie spécifique au point 4 pour la turbine réelle
- h4s est l'enthalpie spécifique au point 4s pour la turbine isentropique
(notez que le diagramme ci-contre ne montre pas le point 4s : il est à la verticale en-dessous du point 3).
Entraînement Direct
Une turbine à vapeur à entraînement direct de 5
MW fonctionnant à la
biomasse
La production d'électricité utilise de grandes turbines à vapeur entraînant des générateurs électriques pour produire la majorité (environ 80 %) de l'électricité mondiale. L'avènement des grandes turbines à vapeur a rendu pratique la production d'électricité au cœur de grandes centrales, alors que les moteurs à vapeur à pistons devenaient très encombrants, et fonctionnent à basses vitesses. La plupart des centrales sont des centrales à combustibles fossiles et des centrales nucléaires ; certaines installations utilisent la vapeur géothermique, ou de l'énergie solaire concentrée (CSP) afin de produire la vapeur. Les turbines à vapeur peuvent également être utilisées directement pour entraîner de grandes pompes centrifuges, comme les pompes d'alimentation en eau dans une centrale thermique.
Les turbines utilisées pour la production d'électricité sont le plus souvent directement couplées à leur générateur (turbo-alternateur). Comme les générateurs doivent tourner à vitesse constante et synchrone avec la fréquence du réseau électrique, les plus courantes sont les vitesses de 3 000 tr/min pour produire du 50 Hz et de 3 600 tr/min pour du 60 Hz. Comme les réacteurs nucléaires travaillent à des températures plus basses que les centrales à combustible fossile et produisent une vapeur de qualité inférieure, les groupes électrogènes à turbine peuvent être agencés dans ce cas pour fonctionner à la moitié de ces vitesses, mais avec des génératrices à quatre pôles (au lieu de deux) afin de réduire l'érosion des pales de la turbine28.
Propulsion navale
Turbinia, en 1894, le premier navire à turbine à vapeur
Des turbines de haute et de basse pression pour les
SS Maui.
Turbine Parsons du destroyer Polonais
Wicher de 1928.
Dans les bateaux à vapeur, les avantages des turbines à vapeur sur les moteurs à pistons sont leur plus petite taille, la faible maintenance, un poids plus léger, et moins de vibrations. Une turbine à vapeur est efficace uniquement en fonctionnant à une vitesse de plusieurs milliers de tr/min, tandis que les hélices les plus efficaces sont créées pour des vitesses inférieures à 300 tr/min ; par conséquent, des réducteurs précis (donc chers) sont généralement nécessaires, bien que de nombreux premiers navires pendant la Première Guerre mondiale, comme le Turbinia, avaient une turbine à vapeur à prise directe sur l'arbre de transmission. Une alternative est une transmission turbo-électrique, dans laquelle un générateur électrique alimenté par la turbine à haute vitesse est utilisé pour entraîner un ou plusieurs moteurs électriques à vitesse lente connectés aux arbres de transmission; la fabrication d'engrenages de précision pouvant être un goulot d'étranglement de la production en temps de guerre. L'entraînement turbo-électrique était le plus utilisé dans les grands bâtiments américains conçus pendant la première Guerre Mondiale et dans certains paquebots rapides, et a encore été utilisé dans certains transports de troupes et destroyers de production de masse durant la Seconde Guerre mondiale.
La hausse du coût des turbines et de ses engrenages de réduction ou d'un générateur/moteur fixe est compensée par la baisse des exigences de l'entretien et la plus petite taille de la turbine par rapport à un moteur à pistons ayant une puissance équivalente, bien que les coûts de carburant soient plus élevés que ceux d'un moteur Diesel parce que les turbines à vapeur ont une plus faible efficacité thermique. Pour réduire les coûts de carburant, l'efficacité thermique de ces deux types de moteurs a été améliorée au fil des ans. Aujourd'hui, l'efficacité de la propulsion par turbine à vapeur n'a pas encore dépassé 50 %, alors que les moteurs Diesel dépassent régulièrement les 50 %, en particulier dans les applications marines29,30,31. Les centrales à moteurs Diesel ont également des coûts d'exploitation réduits parce que moins d'opérateurs sont nécessaires. La vapeur est donc de moins en moins utilisée dans les nouveaux navires. Une exception concerne les méthaniers qui trouvent souvent qu'il est plus économique d'employer du gaz d'évaporation avec une turbine à vapeur que de le re-liquéfier.
Les navires et sous-marins à propulsion nucléaire utilisent un réacteur nucléaire pour produire de la vapeur pour les turbines. L'énergie nucléaire est souvent choisie là où le diesel serait peu pratique (comme dans le sous-marin) ou là où la logistique de ravitaillement poserait d'importants problèmes (par exemple, les brise-glaces). Il a été estimé que la quantité de combustible du réacteur des sous-marins de la classe Vanguard de la Royal Navy est suffisante pour effectuer 40 tours du monde, donc pour l'ensemble de la durée de vie. La propulsion nucléaire n'a été appliquée qu'à très peu de navires commerciaux en raison des coûts de maintenance et des contrôles réglementaires requis sur les systèmes nucléaires et les cycles du combustible.
Début du développement
Le développement de la turbine à vapeur de propulsion marine entre 1894 et 1935 était dominé par le problème de la réconciliation de l'efficacité à haute vitesse des turbines avec l'efficacité à basse vitesse (moins de 300 tr/min) des hélices des navires à un coût global pouvant soutenir la concurrence des moteurs à pistons. En 1894, des engrenages de réduction efficace ne sont pas disponibles aux fortes puissances requises par les navires, et l'entraînement direct est nécessaire. Dans Turbinia, qui a l'entraînement direct à chaque arbre d'hélice, l'efficacité de la vitesse de la turbine a pu être réduite après les premiers essais, en dirigeant le flux de vapeur à travers les trois turbines à entraînement direct (une sur chaque axe) en série, totalisant probablement environ 200 étages de turbines en série. Il y avait également trois hélices sur chaque arbre pour le fonctionnement à haute vitesse32 Les arbres à haute vitesses de l'époque sont représentés par un des premiers destroyers à turbine, l'USS Smith lancé en 1909, qui utilisait des turbines à entraînement direct et dont les trois arbres tournaient à 724 tr/min à 28.35 nœuds33. L'utilisation de turbines dans plusieurs boîtiers se passant la vapeur les uns aux autres en série est devenue la norme dans la plupart des applications de propulsion marine et est une forme de composition en croix. La première turbine était appelée à haute pression (HP), la dernière turbine étant la basse pression (LP), et la turbine centrale avait une pression intermédiaire (IP). Beaucoup plus tard, un autre arrangement que Turbinia pouvait être vu sur le Queen Mary à Long Beach, en Californie, lancé en 1934, dans lequel chaque arbre est propulsé par quatre turbines en série reliées aux extrémités des deux arbres d'entrée d'un simple réducteur. Ce sont la HP, la 1re IP, la 2e IP, et la turbine LP.
Machinerie de Croisière et engrenages réducteurs
La quête de l'économie est encore plus importante lorsque la vitesse de croisière est considérée. La vitesse de croisière est d'environ la moitié de la vitesse maximale d'un navire de guerre et utilise 20 à 25 % de sa puissance maximale. C'est une vitesse utilisée pour les longs voyages, lorsque l'économie de carburant est souhaitée. Bien que cela réduise la vitesse des hélices dans leur plage d'efficacité, l'efficacité énergétique de la turbine était considérablement réduite, et les premiers navires à turbine avaient une faible plage de croisière. Une solution qui s'est avérée utile pendant la majeure partie de l'ère des turbines à vapeur de propulsion fut la turbine de croisière : c'était une turbine supplémentaire qui ajoutait encore plus d'étages, et n'était pas utilisée aux vitesses élevées. Les réducteurs devenant disponibles vers 1911, certains navires, notamment le cuirassé USS Nevada, avait un réducteur sur la turbine de croisière, tout en conservant des turbines principales à entraînement direct. Les réducteurs permettaient aux turbines d'opérer dans leur zone d'efficacité à une vitesse beaucoup plus élevée que l'arbre direct, mais étaient coûteux à fabriquer.
Les turbines de croisière concurrençaient les moteurs à pistons en matière d'économie de carburant. Un exemple de moteurs à pistons utilisés sur les navires rapides a été le célèbre Titanic de 1911, qui avec ses sœurs RMS Olympic et HMHS Britannic avait des moteurs (à pistons) à triple expansion sur les deux arbres extérieurs, et une turbine LP sur l'arbre central. Après l'adoption de turbines sur la classe Delaware lancée en 1909, la Marine des États-Unis est revenue aux machines à pistons sur les navires de la classe New York de 1912, puis retourna aux turbines sur le Nevada en 1914. La sympathie pour les machines à mouvement alternatif était surtout due au fait que l'US Navy n'avait pas planifié de navires importants dépassant 21 nœuds jusqu'après la première Guerre Mondiale, et la vitesse de pointe était moins importante que l'économique en croisière. Les États-Unis avaient acquis les territoires des Philippines et de Hawaï en 1898, mais il lui manquait un réseau mondial de stations de charbon comme celui de la Royal Navy britannique. L'US Navy, entre 1900 et 1940, avait un plus grand besoin d'économie de carburant de toutes les nations, d'autant que la perspective d'une guerre avec le Japon se posa à la suite de la première Guerre Mondiale. Ce besoin s'aggrava par le fait de ne pas lancer de croiseurs entre 1908 et 1920, de sorte que les destroyers durent effectuer de longues missions généralement affectées à des croiseurs. Diverses solutions de croisière furent donc montées sur les destroyers américains lancés entre 1908 et 1916, parmi lesquelles des petits moteurs à pistons et des turbines de croisière à réducteurs ou à prise directe, sur un ou deux arbres. Mais dès que les turbines prouvèrent leur économie en coût initial et en carburant, elles furent rapidement adoptées, avec des turbines de croisière sur la plupart des navires. À partir de 1915, tous les nouveaux destroyers de la Royal Navy étaient à turbines, et les États-Unis suivirent dès 1917.
Pour la Royal Navy, la vitesse était une priorité jusqu'à ce que la bataille du Jutland de la mi-1916 montre que dans les croiseurs de bataille trop de blindage avait été sacrifié à sa poursuite. Les Britanniques utilisaient exclusivement des navires de guerre à turbines dès 1906. Parce qu'ils estimaient qu'une grande autonomie de croisière était souhaitable compte tenu de leur empire mondial, certains navires de guerre, notamment de la classe Queen Elizabeth, furent équipés de turbines de croisière à partir de 1912 à, après quelques précédentes installations expérimentales.
Dans l'US Navy, la classe Mahan, lancée en 1935-36, introduit la double réduction. Cette nouvelle augmentation de la vitesse de la turbine par rapport à celle de l'arbre permit a des turbines plus petites de prendre l'avantage sur la réduction simple. Les pressions de vapeur et les températures étaient également progressivement en hausse, allant de 300 psi/425 F (2.07 MPa/218 C)(température de saturation) sur la classe classe Wickes de l'ère de la Première Guerre Mondiale à 615 psi/850 F (4.25 MPa/454 C) de la vapeur sursaturée (en) sur certains destroyers de classe Fletcher de la seconde Guerre Mondiale, et les navires suivants34,35. Une configuration standard émergea, consistant en une turbine haute pression axiale (parfois avec une turbine de croisière associée) et une turbine basse pression double axe, reliée à un réducteur double. Cet arrangement s'imposa durant toute l'ère de la vapeur dans la Marine américaine et a également été utilisé dans certains plans de la Marine Royale36,37. Les machines à cette configuration peuvent être vues sur de nombreux navires de guerre préservés de la période de la seconde Guerre Mondiale dans plusieurs pays38. Lorsque la construction de navires de la Marine américaine reprit au début des années 1950, la plupart des navires de surface et des porte-avions utilisaient de la vapeur à 1 200 psi/950 F (8.28 MPa/510 C)39, jusqu'à la fin des navires de guerre à vapeur avec la classe Knox du début des années 1970. Les amphibies et les navires auxiliaires ont continué à utiliser de la vapeur à 600 psi (4.14 MPa) après la seconde Guerre Mondiale, avec USS Iwo Jima, lancé en 2001, qui est peut-être le dernier vaisseau à vapeur non-nucléaire construit pour la Marine américaine.
Propulsion Turbo-électrique
La Propulsion Turbo-électrique a été introduite sur le cuirassé USS New Mexico, lancé en 1917. Au cours des huit années suivantes, l'US Navy a lancé cinq autres cuirassés turbo-électriques, et deux porte-avions (initialement commandés comme classe Lexington).Dix autres navires importants turbo-électriques étaient prévus, mais annulés à cause des limites imposées par le Traité Naval de Washington. Bien que le New-Mexico ait été réaménagé avec des turbines à réducteur lors d'une mise à jour en 1931-33, les autres navires turbo-électriques conservèrent le système tout au long de leur carrière. Ce système utilise deux grandes turbines à vapeur entraînant des génératrices qui entraînent à leur tour des moteurs électriques sur chacun des quatre axes. Le système est moins coûteux que les réducteurs de vitesse et rend les navires plus maniables au port, ayant des arbres capables d'inverser leur rotation rapidement et fournissant plus de puissance qu'avec la plupart des systèmes à engrenages. Certains paquebots ont également été construits avec une turbo-propulsion électrique, ainsi que des transports de troupes et une production de masse de destroyer escorteurs durant la seconde Guerre Mondiale. Toutefois, lorsque les États-Unis conçurent les "cruisers conventionnels", en commençant par l'USS Pensacola lancé en 1927, les turbines à réducteur ont été utilisées pour limiter le poids, et sont restées en usage sur tous les navires à vapeur suivants.
Utilisation actuelle
Depuis les années 1980, les turbines à vapeur ont été remplacées par des turbines à gaz sur les navires rapides et par des moteurs Diesel sur les autres; avec comme exceptions notoires les navires et sous-marins à propulsion nucléaire et les méthaniers40. Certains navires auxiliaires continuent à utiliser la propulsion vapeur. Dans la Marine des États-Unis, la propulsion classique à turbine à vapeur est encore en usage sur tous navires d'assaut amphibies de la classe Wasp. La Marine Américaine exploite également les turbines à vapeur sur leurs porte-avions à propulsion nucléaire classe Nimitz et classe Gerald R. Ford, ainsi que sur l'ensemble de leurs sous-marins nucléaires (classe Ohio, classe Los Angeles, classe Seawolf, et classe Virginia). La Royal Navy a déclassé sa dernière classe de navires de guerre de surface à vapeur, le HMS Intrepid de la classe Fearless, en 2002. En 2013, la Marine française a terminé son ère vapeur avec le déclassement de sa dernière frégate de la classe Tourville.
Parmi les autres marines de haute mer, la Marine russe opère actuellement un porte-avions à vapeur classe Kuznetsov et des destroyers classe Sovremenny. La Marine indienne exploite actuellement l'INS Vikramaditya, une modification de classe Kiev; elle exploite également trois classe Brahmaputra mises en service au début des années 2000 et deux classe Godavari actuellement destinées au déclassement.
La plupart des autres forces navales ont mis à la retraite ou re-motorisé leurs navires de guerre à vapeur en 2010. En 2017, la JMSDF déclassa son dernier classique à vapeur, le navire classe Shirane JS Kurama. La Marine Chinoise exploite actuellement des porte-avions russes classe Kuznetsov à vapeur et des destroyers classe Sovremenny; avec également à vapeur, des destroyers classe Luda. À compter de 2017, la Marine mexicaine exploite actuellement quatre frégates à vapeur de l'ex - classe Knox et de deux frégates à vapeur de l'ex - classe Bronstein. La Royal Thai Navy, la Marine Égyptienne et la Marine de la République de Chine respectivement opèrent une, deux et six frégates ex - classe Knox. La Marine péruvienne exploite actuellement l'ancien croiseur néerlandais classe De Zeven Provinciën BAP Almirante Grau; la Marine équatorienne exploite actuellement deux frégates à vapeur classe Condell (classe Leander modifiée).
Les locomotives
Une locomotive à moteur à turbine à vapeur est une locomotive à vapeur entraînée par une turbine à vapeur.
Les principaux avantages d'une turbine à vapeur dans les locomotives sont un meilleur équilibre de rotation et des coups de marteau réduits sur la voie. Cependant, l'inconvénient principal est le manque de souplesse pour faire varier rapidement la puissance de sortie, de sorte que les locomotives à turbine étaient mieux adaptées pour les trains longue distance avec une puissance de sortie constante41.
La première turbine à vapeur ferroviaire a été construite en 1908 pour l'Officine Meccaniche Miani Silvestri Grodona Comi, Milan, Italie. En 1924 Krupp construisit la turbine à vapeur des locomotives T18 001, opérationnelle en 1929, pour la Deutsche Reichsbahn.
Les tests
Des codes de test britanniques, allemands, nationaux et internationaux sont utilisés pour normaliser les procédures et les définitions employées pour tester les turbines à vapeur. Le choix des codes de test à utiliser résulte d'un accord entre l'acheteur et le fabricant, et a une certaine importance pour la conception de la turbine et des systèmes associés. Aux États-Unis, l'ASME a réalisé plusieurs codes de test de performances des turbines à vapeur. Citons les ASME PTC 6-2004 pour les Turbines à Vapeur isolées, ASME PTC 6.2-2011 pour les Turbines à Vapeur en Cycles Combinés et PTC 6S-1988, les « Procédures de Routine de Test de Performance des Turbines à Vapeur ». Les codes de test de performances ASME ont acquis une reconnaissance et une acceptation internationales pour les essais des turbines à vapeur. La plus importante caractéristique distinctive des codes de tests de performances de l'ASME, y compris PTC 6, est que l'incertitude des tests des mesures de performance indique la qualité de l'examen, et ne doit pas être utilisée comme une tolérance commerciale42.
Références
- A Stodola (1927) Steam and Gas Turbines.
- (en) Encyclopædia Britannica, « Sir Charles Algernon Parsons (British engineer) - Britannica Online Encyclopedia » [archive], Britannica.com, (consulté le )
- (en) Wendell H. Wiser, Energy resources : occurrence, production, conversion, use, Birkhäuser, , 377 p. (ISBN 978-0-387-98744-6, lire en ligne [archive]), p. 190
- A new look at Heron's 'steam engine'" (1992-06-25).
- O'Connor, J. J.; E. F. Robertson (1999).
- "Power plant engineering [archive]".
- Taqi al-Din and the First Steam Turbine, 1551 A.D. [archive], web page, accessed on line October 23, 2009; this web page refers to Ahmad Y Hassan (1976), Taqi al-Din and Arabic Mechanical Engineering, p. 34-5, Institute for the History of Arabic Science, University of Aleppo.
- Leonhard Euler, « Recherches sur l’effet d’une machine hydraulique proposée par M. Segner, professeur a Gœttingue », Mémoires de l'Académie des Sciences et des Belles-Lettres de Berlin, et Leonhard Euler, « Application de la machine hydraulique de M. Segner à toutes sortes d’ouvrages et de ses avantages sur les autres machines hydrauliques dont on se sert ordinairement », Mémoires de l'Académie des Sciences et des Belles-Lettres de Berlin, . Cf. à ce sujet Michel Blay et Robert Halleux, La Science classique : XVIe : XVIIIe siècle : Dictionnaire critique, Flammarion, , 870 p. (ISBN 978-2-08-211566-7 et 2-08-211566-6), p. 246.
- D'après (en) F. A. Lyman, « A practical hero », Mechanical Engineering, , p. 36-38 (lire en ligne [archive]).
- (en) « Engineering » [archive], sur Birrcastle (consulté le )
- (en) « Turbines » [archive], sur asme (consulté le )
- (en) Sir Charles A. Parsons, « The Steam Turbine »(Archive.org • Wikiwix • Archive.is • http://www.history.rochester.edu/steam/parsons/part1.html" rel="nofollow" class="external text">Google • Que faire ?)
- « Ouvrage inexistant sur Google Books »(Archive.org • Wikiwix • Archive.is • https://books.google.co.uk/books?id=mwkIBgAAQBAJ&pg=PA9&lpg=PA9&dq=Rateau+1896&source=bl&ots=b8hxVrEMpC&sig=OoVAnvt0qFubqTmJxxahQB_xXPM&hl=en&sa=X&ved=0ahUKEwiDwbKGk6rJAhVBDxQKHbClDIkQ6AEIJjAE#v=onepage&q=Rateau%201896&f=false" rel="nofollow" class="external text">Google • Que faire ?).
- (en) « Capital Goods: China Losing Its Shine » [archive], Societe General
- (en) « Global gas and steam turbine market to reach $43.5bn by 2020 », Power Engineering International, (lire en ligne [archive])
- (en) Parsons, Sir Charles A., "The Steam Turbine", p. 7-8
- (en)Parsons, Sir Charles A., "The Steam Turbine", p. 20-22
- (en) Parsons, Sir Charles A., "The Steam Turbine", p. 23-25
- (en) Y. Tamarin, Protective Coatings for Turbine Blades, ASM International, (ISBN 978-1-61503-070-5, lire en ligne [archive])
- (en) H.K.D.H. Bhadeshia, « Nickel Based Superalloys » [archive], University of Cambridge, (consulté le ).
- (en) Fahamsyah H Latief et Koji Kakehi, « Effects of Re content and crystallographic orientation on creep behavior of aluminized Ni-base single crystal superalloys », Materials & Design, vol. 49, , p. 485–492 (ISSN 0261-3069, DOI 10.1016/j.matdes.2013.01.022)
- (en) « Steam Turbines (Course No. M-3006) » [archive], PhD Engineer (consulté le )
- (en) Energy and Environmental Analysis, « Technology Characterization: Steam Turbines (2008) » [archive] [PDF], Report prepared for U.S. Environmental Protection Agency, sur Report prepared for U.S. Environmental Protection Agency, (consulté le ), p. 13
- Jerry C. Whitaker, AC power systems handbook, Boca Raton, FL, Taylor and Francis, , 428 p. (ISBN 978-0-8493-4034-5), p. 35
- Speed Droop and Power Generation.
- Roymech, http://www.roymech.co.uk/Related/Thermos/Thermos_Steam_Turbine.html [archive]
- "Fundamentals of Engineering Thermodynamics" Moran and Shapiro, Published by Wiley
- Alexander Leyzerovich, Wet-steam Turbines for Nuclear Power Plants, Tulsa OK, PennWell Books, , 456 p. (ISBN 978-1-59370-032-4, lire en ligne [archive]), p. 111
- « MCC CFXUpdate23 LO A/W.qxd » [archive] [PDF] (consulté le )
- « New Benchmarks for Steam Turbine Efficiency - Power Engineering » [archive], Pepei.pennnet.com (consulté le )
- https://www.mhi.co.jp/technology/review/pdf/e451/e451021.pdf [archive]
- Parsons, Sir Charles A., "The Steam Turbine", p. 26-31
- Friedman, Norman, "US Destroyers, an Illustrated Design History, Revised Edition, Naval Institute Press, Annapolis: 2004, p. 23-24.
- Destroyer History Foundation, "1,500 tonner" web page [archive]
- Friedman, p. 472
- Bowie, David, "Cruising Turbines of the Y-100 Naval Propulsion Machinery" [archive]
- The Leander Project turbine page [archive]
- Historic Naval Ships Association website [archive]
- Friedman, p. 477
- « Mitsubishi Heavy starts construction of first Sayaendo series LNG carrier » [archive],
- Streeter, Tony: 'Testing the Limit' (Steam Railway Magazine: 2007, 336), p. 85
- William P. Sanders (ed), Turbine Steam Path Mechanical Design and Manufacture, Volume Iiia (PennWell Books, 2004) (ISBN 1-59370-009-1) page 292
Voir aussi
Bibliographie
- La houille blanche. Économie industrielle, les turbines à vapeur, description et classification. 1912. Lire en ligne [archive]
Articles connexes
- Portail du génie mécanique
- Portail de la production industrielle
- Portail de l’énergie
-
Turbine à gaz
Une turbine à gaz, ou plus exactement turbine à combustiona (TAC)1 est une machine tournante thermodynamique appartenant à la famille des moteurs à combustion interne.
Une telle turbine sert à produire soit du travail, par l’entraînement en rotation d'un arbre lui-même couplé à une machine industrielle ou à une hélice (hélicoptère ou propfan, par exemple), soit de la propulsion, par détente des gaz en sortie de turbine dans une tuyère, comme dans un turboréacteur. Les deux principes peuvent être regroupés, notamment dans un turboréacteur à double flux.
Fonctionnement
Comme la plupart des moteurs thermiques , qu'ils soient terrestres, marins ou aériens, une turbine à gaz utilise le dioxygène de l'air ambiant comme comburant. Elle fait subir au mélange gazeux des transformations suivant trois phases successives :
- Compression de l'air, élevant sa pression et sa températureb ;
- Ajout d'une quantité idoine de carburant, afin d’obtenir la combustion complète du mélange ;
- Combustion quasi instantanée du mélange comburant (air) et combustible (gazeux ou liquide pulvérisé), produisant une augmentation brutale de la pression et du volume de celui-ci2 et mettant en rotation rapide la turbine.
L'énergie cinétique de la turbine est alors convertie en travail, entraînant la rotation rapide de son arbre et produisant la puissance mécanique utilisable (comme dans un turbomoteur ou un turbopropulseur)1.
Terminologie
La dénomination française « turbine à gaz » peut porter à confusion. En effet, ce type de machine peut utiliser soit du combustible gazeux (gaz naturel, butane, propane, gaz de cokerie, etc.), soit du combustible liquide, depuis les plus volatils (naphta, alcool, en passant par le kérosène ou le fioul domestique), jusqu'aux combustibles plus visqueux (fiouls lourds ou résiduels et même pétrole brut). L'appellation turbine à combustion permet d'éviter cette ambiguïté.
La dénomination « turbine à gaz » fait référence au caractère gazeux (gas en anglais) du mélange carburant-comburant entrant en combustionc, par opposition aux turbines à vapeur, dans lesquelles le fluide moteur (de la vapeur d'eau, steam en anglais) se condense en liquide.
Le turboréacteur est constitué d'une turbine à combustion particulière qui utilise le principe de la réaction pour propulser certains types d'avions dans le domaine subsonique ou supersonique.
Principe de fonctionnement
La turbine à combustion est un moteurs thermiques réalisant les différentes phases de son cycle thermodynamique dans une succession d’organes traversés par un fluide moteur gazeux en écoulement continu. C’est une différence fondamentale par rapport aux moteurs à pistons, qui réalisent une succession temporelle des phases dans un même organe (généralement un cylindre).
Dans sa forme la plus simple, la turbine à combustion fonctionne selon le cycle dit de Joule (ou de Brayton) comprenant successivement et schématiquement :
Le rendement est le rapport du travail utile (travail de détente moins travail de compression) à la chaleur fournie par la source chaude. Le rendement théorique croit avec le taux de compression et la température de combustion. Il est supérieur à celui du cycle Diesel car sa détente n’est pas écourtée, et si la veine d'échappement est bien conçue, elle permet de récupérer une partie non négligeable de l'énergie cinétique des gaz chauds sortant des aubages de turbine.
La turbine à combustion est le plus souvent à cycle ouvert et à combustion interne. Dans ce cas, la phase de refroidissement est extérieure à la machine et se fait par mélange à l’atmosphère. La turbine à combustion peut également être à cycle fermé et à combustion externe. Le chauffage et le refroidissement sont alors assurés par des échangeurs de chaleur. Cette disposition plus complexe permet l’utilisation de gaz particuliers ou de travailler avec une pression basse différente de l’ambiante.
Le cycle de base décrit plus haut peut être amélioré par différents organes complémentaires :
- récupération de chaleur à l’échappement : les gaz très chauds détendus en sortie de turbine traversent un échangeur de chaleur pour préchauffer l’air comprimé avant son admission dans la chambre de combustion ;
- compression refroidie : la compression comprend deux étages (ou plus) séparés par un échangeur (air/air ou air/eau) refroidissant l’air. La puissance nécessaire à la compression s’en trouve réduite au bénéfice du rendement ;
- combustion étagée : la détente comprend deux étages (ou plus) séparés par un ou des réchauffages additionnels. La puissance fournie est accrue d’où amélioration du rendement.
Les deux dernières dispositions visent à tendre vers des transformations isothermes en lieu et place des adiabatiques et se justifient surtout sur les machines à taux de compression élevé. Les trois dispositifs peuvent être présents indépendamment ou simultanément. Dans ce cas, on retrouve le cycle d'Ericsson qui, comme le cycle de Stirling, présente un rendement théorique égal au rendement maximal du cycle de Carnot. Cette supériorité théorique par rapport aux cycles Otto et Diesel est cependant contrebalancée par l’impossibilité pratique de réaliser les transformations isothermes. Dans tous les cas, ces dispositifs sont réservés aux installations stationnaires du fait de l’encombrement et du poids des échangeurs gaz/gaz.
Principes
Coupe longitudinale d'une turbine à combustion : principaux organes (voir description).
Se reporter à l'image ci-contre.
- Le compresseur (« C »), constitué d'un ensemble d'ailettes fixes (stator) et mobiles (rotor ), comprime l'air extérieur (« E »), simplement filtré, jusqu'à 10 à 15 bars, voire 30 bars pour certains modèles. D'autres types de machines utilisent un compresseur centrifuge et non axial.
- Du combustible (« G ») (gazeux ou liquide pulvérisé), est injecté dans la (les) chambre(s) de combustion (« Ch ») où il se mélange à l'air comprimé pour entretenir une combustion continue.
- Les gaz chauds se détendent en traversant la turbine (« T »), où l'énergie thermique et cinétique des gaz chauds est transformée en énergie mécanique. La turbine est constituée d'une ou plusieurs roues également munies d'ailettes précédées d'aubages fixes (directrices). Les gaz de combustion s'échappent par la cheminée (Ec) à travers un diffuseur.
- Le mouvement de rotation de la turbine est communiqué à l'arbre (« A »), qui actionne d'une part le compresseur, d'autre part une charge qui n'est autre qu'un appareil (machine) récepteur(ice) (pompe, alternateur, compresseur, hélice, …) accouplé à son extrémité.
Pour la mise en route, on utilise un moteur de lancement (« M ») qui joue le rôle de démarreur ; dans certaines configurations, c'est l'alternateur du groupe lui-même qui est utilisé en moteur pendant la phase de lancement.
Le réglage de la puissance est possible en agissant sur le débit de l'air en entrée et sur l'injection du carburant. Le réglage de la vitesse de rotation n'est possible que si l'organe entraîné le permet. En effet, dans le cas d'un alternateur connecté à un réseau électrique à fréquence fixe (par exemple 50 ou 60 Hz), cette fréquence impose une vitesse également fixe : le débit de carburant est alors ajusté par le système de régulation pour produire l’énergie réclamée par le réseau électrique.
Dans certaines machines, en particulier heavy duty modernes, la charge est entraînée par l'arbre côté compresseur, ce qui permet de placer un diffuseur très efficace en ligne à la sortie des gaz chauds avant de les envoyer à la cheminée ou à la chaudière de récupération. Cela permet également de diminuer fortement les problèmes d'alignement relatif de la turbine et de la charge entre l'état froid et l'état chaud du groupe.
Pour fonctionner, l'ensemble compresseur-turbine décrit ci-dessus a besoin de composants auxiliaires, tels que les systèmes de lancement et l'antigivrage, les pompes à huile de lubrification, les pompes à huile haute pression de régulation, les pompes de soulèvement des paliers et les pompes de virage, le réducteur des auxiliaires, le compresseur d'air d'atomisation, les pompes d'eau de refroidissement, les réfrigérants d'huile et d'air d'atomisation, les pompes à combustible liquide, les vannes de régulation de combustible (liquide et/ou gazeux), les aéroréfrigérants... Selon les types de machines, certains de ces composants sont entraînés soit mécaniquement par le réducteur des auxiliaires, soit par moteurs électriques.
Rendement
Le rendement faible de la turbine à combustion (25 à 35 %[réf. nécessaire]) est dû au fait que, comme dans un moteur à pistons, une partie de l'énergie fournie par le combustible est nécessaire pour entraîner le compresseur et une autre perdue sous forme de chaleur dans les gaz d'échappement. Il est possible d'améliorer légèrement le rendement en augmentant la température dans la chambre de combustion (plus de 1 200 °C), mais on se heurte alors au problème de tenue des matériaux utilisés pour la réalisation de la turbine. C'est en récupérant la chaleur des gaz d'échappement que le rendement global de la machine peut dépasser 50 %. On utilise pour cela la chaleur des gaz d'échappement (à plus de 500 °C) pour produire de la vapeur dans une chaudière ou pour le chauffage. La vapeur produite est ensuite utilisée de deux manières :
Une autre possibilité d'augmenter le rendement de la turbine est de réchauffer les gaz en sortie des étages de compression (avant les chambres de combustion) en les faisant passer dans un échangeur situé dans le flux des gaz d'échappement. On arrive ainsi à se rapprocher des rendements d'un moteur Diesel semi-rapide[réf. nécessaire]. C'est par exemple le principe de fonctionnement de la turbine WR21 (en) de Rolls-Royce.
Pollution
Des efforts importants ont été entrepris par les constructeurs pour limiter la pollution de l'air par les turbines à gaz, en particulier en réduisant les rejets d'oxyde d'azote (NOx), produit si la température de combustion dépasse 1 300 °C. Cette température peut être contrôlée par injection d'eau ou de vapeur d'eau dans le système de combustion.
L'utilisation de gaz naturel (contenant généralement peu de soufre) ou de combustible liquide sans soufre permet une émission plus faible de dioxyde de soufre (SO2) ; des chambres de combustion particulières avec des injecteurs spécifiques permettent une émission faible de monoxyde de carbone (CO)[réf. souhaitée]. Les modèles peu polluants sont surtout installés par les pays développés, tandis que les turbines à gaz de conception moins sophistiquée et de prix (installation et maintenance) moins élevé sont préférées par les pays en voie de développement.
Réalisation pratique
La phase de compression est réalisée par un compresseur d’air axial ou centrifuge. Le travail de compression peut être réduit par pulvérisation d’eau à l’admission.[réf. nécessaire] L’air comprimé est réparti en trois flux :
- une alimentation stœchiométrique vers le brûleur alimenté en carburant gazeux ou liquide ;
- un flux refroidissant la paroi de la chambre de combustion et mélangé aux produits de combustion du brûleur ;
- un flux destiné au refroidissement des différents étages de la turbine (stator et/ou rotor).
Contrairement au moteur à piston, la combustion d'une turbine a gaz est continue et il faut donc limiter la température à une valeur acceptable pour les matériaux par un large excès d’air (1 300 °C en nominal avec 2 000 °C en courte pointed). Ceci est très pénalisant pour le rendement, qui est maximum vers 4 500 °C, température à laquelle la production de NOx est non négligeable (le même problème se pose pour les moteurs thermiques aerobies).
Certaines machines utilisent une injection de vapeur dans les produits de combustion avant ou à l'entrée de la turbine, dans le but d'augmenter le débit et donc la puissance de celle-ci. La vapeur est produite par une chaudière de récupération chauffée par l’échappement. Il s’agit en fait d’un cycle combiné simplifié. L'injection de vapeur permet également de limiter la teneur en oxydes d'azote (NOx) à l'échappement.
La turbine généralement de type axial comprend un ou plusieurs étages de détente. Contrairement aux turbines à vapeur, il s’agit toujours de turbines à réaction. Deux grands types de turbines à gaz sont à distinguer :
- simple arbre : le compresseur et l’ensemble des étages de détente sont regroupés sur le même arbre entraînant également l’organe récepteur ;
- double arbre : le compresseur est sur le même arbre que les étages de turbine strictement nécessaires à son entraînement, les autres étages de turbine étant groupés sur un second arbre solidaire de la machine entraînée.
La seconde disposition plus complexe permet un meilleur fonctionnement à charge partielle et variable ce qui est le cas des moteurs destinés à la propulsion ou à l'entraînement de pompes ou de compresseurs (oléoducs ou gazoducs). Les turbines à simple arbre sont adaptées à la production électrique qui se fait à régime constant et charge plus élevée.
La réalisation de la turbine et notamment le premier étage, situé derrière le système de combustion, pose des problèmes métallurgiques liés à la température élevée et aux contraintes dues à la détente et à la force centrifuge s’exerçant sur les aubages mobiles. Elle nécessite l’emploi d’aciers fortement alliés (Cr-Ni-Va) et un refroidissement énergique par de l’air de charge prélevé sur le compresseur. L’utilisation de matériaux céramiques et de monocristaux permettent d'augmenter la température depuis les années 2010.
On fabrique des turbines à gaz de puissance unitaire allant de quelques kilowatts à plusieurs centaines de mégawatts.
Limites techniques et avantages
Bien que théoriquement supérieure au moteur Diesel, la turbine à combustion présente de sévères limitations dues aux contraintes techniques de sa réalisation. Ces principales limites sont les suivantes :
- taux de compression (et donc rendement) limité par le nombre d’étages de compression nécessaires, mais les machines « heavy duty » récentes dépassent maintenant un taux de compression de 19 ;
- baisse importante de rendement des compresseurs centrifuges à une vitesse de rotation plus faible que la vitesse nominale ;
- baisse progressive de la puissance disponible lorsque la température de l'air extérieur augmente. On estime que la puissance diminue de 1 % pour chaque degré d'élévation ; ceci est dû à la diminution du débit massique de l'air ambiant quand sa température augmente ;
- température de combustion (et donc rendement) limitée par la résistance mécanique des aubages fixes et mobiles de la turbine ;
- chute importante du rendement à charge partielle en particulier pour les machines à simple arbre ;
- coût d’usinage des aubages, notamment ceux de la turbine ;
- encombrement important des filtres d'aspiration d'air. Cet inconvénient est particulièrement pénalisant à bord des navires ;
- la plupart des turbines à gaz ne peuvent pas brûler de fioul lourd, contrairement au moteur Diesel ; elles utilisent alors du gaz naturel, du biogaz ou du gazole, voire du kérosène. Toutefois, les turbines à gaz heavy duty peuvent brûler du fioul lourd, voire du pétrole brut ; ceci peut nécessiter le réchauffage du combustible afin d'en diminuer la viscosité avant sa pulvérisation dans les injecteurs ; certains fiouls lourds nécessitent également l'injection d'inhibiteur pour protéger les aubes de la corrosion à chaud due au vanadium souvent contenu dans le pétrole brut4.
Les avantages inhérents à ce type de machine sont les suivants :
- puissance massique et puissance volumique très élevées ;
- possibilité de démarrage, prise et variation de charge 0 à 100 % très rapidement ; à titre d'exemple, la centrale thermique de Gennevilliers (France), de 200 MW et construite en 1992 dans la région parisienne5, peut arriver à vitesse nominale (3 000 tr/min) six minutes après l'ordre de démarrage depuis l'arrêt complet, fournir les premiers 100 MW en quelques secondes, et les 100 MW restants en six minutes[réf. nécessaire] ;
- simplicité apparente de construction (un rotor dans un carter et un brûleur) et équilibrage (peu de vibrations) ;
- pollution limitée en HC, CO et NOx du fait du contrôle de l'excès d’air et de la température limitée ;
- aptitude à la récupération de chaleur (cogénération) ;
- coûts de maintenance inférieurs aux moteurs pistons ;
- longévité en marche stationnaire ;
- aptitude potentielle à utiliser des combustibles liquides ou gazeux variés et de moindre qualité (ex. : gaz pauvre) ;
- meilleure aptitude aux arrêts et démarrages fréquents que les turbines à vapeur ;
- peu de génie civil nécessaire pour sa mise en œuvre et facilité de transport en colis standardisés pour les machines de puissance unitaire inférieure à 100 MW ;
- facilité de standardiser les composants « nobles » (aubages fixes et mobiles), ce qui permet de construire les machines en avance sans connaître les conditions finales d'utilisation sur site ;
- possibilité d'entraîner des machines (pompes ou compresseurs) à vitesse variable sans grande perte de rendement pour les turbines à deux arbres, ce qui permet l'utilisation dans les lignes d'oléoducs ou de gazoducs.
Applications
Les turbines à combustion contribuent dans une large mesure aux motorisations actuelles. Leur avantage de légèreté en impose l’usage dans l’aéronautique, tandis que dans le domaine des fortes puissances (production d’électricité) elles se démarquent par leur adaptation à des cycles combinés ou de cogénération très performants, ainsi qu'à des variations rapides de puissance nécessaires dans les réseaux utilisant des sources d'énergie intermittentes.
Propulsion
Les moteurs à pistons ont eu longtemps leur puissance limitée à environ 10 MW pour des raisons de masse et d’encombrement. Le moteur Wärtsilä-Sulzer 14RT-flex96C atteint 84,42 MW en 2008 mais avec des dimensions telles qu'il ne peut être utilisé qu'en fixe ou sur de très gros navires (pétrolier, porte conteneurs, etc.). En revanche, étant donné sa vitesse de rotation très lente, elle peut être modulée assez facilement.
Les applications des turbines à gaz découlent directement de leurs avantages spécifiques. Ainsi, la puissance massique élevée se prête bien à la propulsion aéronautique, en particulier sur les avions (turboréacteurs et turbopropulseurs) et les hélicoptères. La propulsion navale fait également appel aux turbines à gaz, notamment pour les navires à grande vitesse (ferry rapide, frégates, porte-aéronefs). Il existe enfin des exemples d’applications à la propulsion ferroviaire comme les « turbotrains » de la SNCF (Élément à turbine à gaz et la Rame à turbine à gaz, utilisés entre 1972 et 2004 en France) et à des véhicules militaires comme des chars d’assaut (turbomoteurs des T-80 soviétiques ou des M1 Abrams américains).
Par contre, la turbine à combustion est mal adaptée aux véhicules routiers. En effet, les variations de charge et de régime sont trop importantes et trop rapides pour être réalisables avec un rendement correct. De plus, le rendement atteint difficilement 30 % pour des moteurs compacts et de faible puissance alors que les Diesel actuels dépassent 40 %. Par contre, elles pourraient trouver un regain d’intérêt pour les chaînes de propulsion hybrides en particulier sur les poids lourds, où l’installation des échangeurs (notamment récupérateur sur échappement) est moins problématique[réf. nécessaire].
Production d'électricité
L’autre grand domaine d’emploi des turbines à gaz est la production d'électricité au moyen d'un alternateur. En effet, il s’agit d’applications à vitesse de rotation constante et à charge soit relativement constante, dans le cas des machines à rendement élevé et utilisées en « base », soit au contraire à charge très variable, pour les machines utilisées en secours de réseaux et pour lesquelles la sécurité du réseau est plus importante que le rendement. La puissance varie de quelques centaines de kilowatts à plus de 300 MW, atteignant 570 MW en 20226. Les machines les plus puissantes sont en général associées à des turbines à vapeur dans des cycles combinés, permettant au rendement global de la centrale de dépasser 60 %6 et lui donnant une aptitude à compenser les variations rapides de puissance instantanée des sources d'énergie intermittentes telles que les machines éoliennes (par exemple en cas de variation brutale du vent) ou les parcs photovoltaïques (par exemple en cas de passage de nuages). En cycle simple, le rendement est de l’ordre de 30 à 35 % et peut atteindre 44 % pour les grosses machines6. Dans les faibles puissances, le rendement est même inférieur à 30 %, mais on met alors à profit l’aptitude des turbines à combustion pour la récupération de chaleur dans des applications de cogénération (production simultanée d’électricité et de chaleur) ou de cycle combiné (production de vapeur qui entraîne une turbine à vapeur faisant elle aussi tourner un alternateur)[réf. nécessaire]. Cependant ces avantages sont à contrebalancer par le coût élevé des combustibles utilisés (gaz naturel ou gazole), par comparaison au charbon utilisé dans les centrales à charbon.
Les infrastructures et le génie civil nécessaires pour une centrale électrique équipée de turbines à gaz sont réduits, ce qui permet d'installer en quelques mois une centrale tout près du lieu d'utilisation de l'électricité (ville, usine) ou de la source de combustible (port, forage, raffinerie…). Turbine et alternateur sont acheminés sous forme de modules compacts et complets qu'il suffit d'assembler et de raccorder aux réseaux dans des climats où la température extérieure peut aller de −40 à +50 °C.
L'installation d'un groupe électrogène à turbine à combustion peut s'accompagner d'une installation en cogénération, afin de récupérer les quantités importantes d'énergie (environ 50 à 65 % de l'énergie consommée) contenues dans les gaz d'échappement. La principale application de ce type consiste à injecter ces gaz, éventuellement après passage dans un tunnel de post-combustion, dans une chaudière de récupération, avec production d'eau chaude ou de vapeur.
Moteur stationnaire
Les industries pétrolière et gazière utilisent des turbines à gaz pour entraîner des pompes pour les pipelines et des compresseurs pour les gazoducs.
Turbocompresseur (moteur à pistons)
Le terme « turbocompresseur » (appelé couramment « turbo » dans le domaine automobile) a deux significations :
- une turbine à gaz indépendante du moteur à pistons entraînant un compresseur d'air à aubes (centrifuge en général) ;
- une turbine actionnée par les gaz d'échappement qui entraîne sur son axe un compresseur d'air d'admission d'un moteur à combustion interne comme un moteur à pistons.
Le « turbo » désigne donc l'ensemble d'une TURBINE actionnée par les gaz d’échappement d’un moteur à pistons et dont le travail sert à entraîner sur son axe un compresseur « centrifuge » qui comprime l’air d'admission du moteur. Ce dispositif représente une amélioration importante du moteur classique notamment sur les points suivants :
- augmentation de la puissance massique et du rendement, par une puissance supérieure à volume de cylindrée égale et à consommation égale. Afin de maximiser cet effet, il est nécessaire de refroidir l’air comprimé par un échangeur de type air/air ou air/eau (un intercooler en anglais) pour rendre à l'air d'admission sa densité (ou volume massique) et donc son efficacité en tant que comburant gazeux additionné d'un brouillard de gazole injecté ;
- suppression de l’inconvénient de la détente écourtée des cycles Otto et Diesel d’où amélioration de rendement. L’amélioration du rendement est plus limitée sur les moteurs à essence car les risques d’auto-inflammation prématurée (et non plus commandée par le boîtier électronique de gestion de l'allumage des bougies et d'injection du carburant) du mélange comprimé carburant/comburant (cliquetis) imposent de réduire sensiblement le taux de compression du moteur proprement dit pour éviter une surchauffe des pistons, d’où une perte de rendement.
Le moteur turbocompressé combine donc un moteur à pistons et une mini turbine à gaz (ici les gaz inertes d'échappement remplacent la vapeur sous pression pour entraîner la turbine) qui entraîne elle-même sur son axe un mini compresseur d'air centrifuge pour alimenter le moteur. Donc ceci induit un apport supplémentaire de gaz (air) d'admission sans utiliser une quelconque énergie au moteur lui-même. L'énergie utile pour faire fonctionner ce couple turbine-compresseur ou turbocompresseur est prélevée à la sortie des gaz d'échappement (perdus sur un moteur sans turbocompresseur). D'où la réduction du bruit à la sortie du tube d'échappement car l'énergie, la pression de ces gaz (perdus) a été absorbée et utilisée par le turbocompresseur.
L'adoption d'une turbine à combustion indépendante comme compresseur d'air d'admission apporte encore un surplus de puissance mais consomme beaucoup de carburant et réduit le rendement de l'ensemble.
Sur le char Leclerc français, une turbine d'hélicoptère tourne en parallèle du moteur pour envoyer de l'air d'admission comprimé en grande quantité dans les pistons. Elle est autonome, et non plus entraînée par la force (perdue) des gaz d'échappement, bien que ceux-ci soient réinjectés dans la turbine pour améliorer le processus et donc le rendement global. La turbine tire son énergie de fonctionnement du même carburant que le moteur à pistons du char, le gazole (en aéronautique, le kérosène utilisé comme carburant dans les turboréacteurs et les turbines à gaz — turbopropulseurs à hélices et hélicoptères — ressemble à du gazole, si ce n'est une différence de raffinage qui lui apporte, entre autres, une meilleure résistance aux températures extrêmement basses rencontrées en haute altitude, le carburant ne devant pas se figer dans les réservoirs pendant le vol). Le carburant commun alimente donc la turbine à combustion (par injection de brouillard de gazole préchauffé) et le moteur à pistons qui double ainsi sa puissance effective.
Le problème majeur du turbocompresseur est le même que pour les autres turbines à gaz, à savoir la gestion de la marche à faible charge ou en régime transitoire. Il est en grande partie résolu grâce aux turbocompresseurs dits « à géométrie variable » munis d’aubages fixes sur les roues mais à géométrie variable dans les couloirs d'écoulement. Ce qui apporte la possibilité de faire varier le flux de sortie en fonction du flux variable généré par la vitesse de rotation variable de la roue du compresseur (qui est faible à bas régime moteur). En d'autres termes, c'est comme si vous pinciez le bout d'un tuyau d'eau : le jet d'eau serait plus fort et plus vif alors que le flux d'eau dans le tuyau resterait le même (faible).
Notes et références
Notes
- Le combustible n'est pas nécessairement un gaz et peut être tout produit inflammable rapidement en le combinant à de l'air (gaz ou tout liquide, voire solide, vaporisé).
- Pression, volume et température sont liés par l'équation d'état du gaz, voir PV=nRT.
- Le mélange d'air et de combustible liquide pulvérisé dans la chambre de combustion est, à proprement parler, un aérosol.
- Avec le risque de production de NOx.
Références
- Renaud Gicquel, « Turbines à gaz » [archive], sur École nationale supérieure des mines de Paris (consulté le ).
- « La combustion dans le diagramme décalé » [archive] [PDF], sur Mines ParisTech, Marine nationale (consulté le ).
- « La centrale électrique de Bouchain entre au Guiness Book des records pour sa performance » [archive], sur France 3 Hauts-de-France (consulté le ).
- (en) « Gas Turbine Vanadium Inhibition » (81-GT-187), ASME 1981 International Gas Turbine Conference and Products Show, Houston, Texas, USA, ASME, vol. 2 « Coal, Biomass and Alternative Fuels; Combustion and Fuels; Oil and Gas Applications; Cycle Innovations », 9-12 mars 1981 (ISBN 978-0-7918-7962-7, lire en ligne [archive]) : « Introduction ».
- Centre d’exploitation des turbines à combustion [archive], EDF (consulté le 16 avril 2021).
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
Liens externes
[afficher]
Composants, systèmes et terminologie des moteurs à réaction
|
-
Turbine Francis
Coupe d'une turbine Francis. Dans la volute en forme de spirale, l'eau pénètre radialement dans la turbine et en sort axialement au centre vers le bas.
Une turbine Francis est une turbine hydraulique de type « à réaction ». Elle est adaptée à des hauteurs de chute moyennes (de 30 à 300 mètres), pour des puissances et débits moyens ou forts (tel le barrage d'Itaipu), à savoir de quelques kilowatts à plusieurs centaines de mégawatts pour des débits de 10 à 700 m3/sNote 1.
Principe de fonctionnement
Une turbine Francis est une turbine dans laquelle le fluide entre sous une grande pression et transmet son énergie aux pales solidaires du rotor. Une partie de l'énergie est transmise par le fluide sur les pales en raison du changement de pression tandis que le reste de l'énergie est extraite par la spirale qui entoure la turbine. À la sortie, le fluide a une vitesse faible et peu d'énergie. La forme du tube de sortie est conçue pour décélérer le fluide, et le faire remonter en pression1.
Caractéristiques
Les caractéristiques habituelles des turbines Francis sont les suivantes2 :
- diamètre de la roue : de quelques décimètres à une dizaine de mètres ;
- nombre d'aubes : 11 à 17Note 2 ;
- vitesse de rotation : de 70 à 3 000 tr/min ;
- rendement énergétique : de 80 à 95 %3.
La plus forte puissance atteinte par une turbine Francis est de 800 MW. Elle est fabriquée par Alstom. D'un diamètre de 10 mètres, et pesant chacune 450 tonnes, elles équipent le barrage des Trois-Gorges, sur le fleuve Yangzi Jiang, en Chine4, et plus récemment le barrage de Xiangjiaba, sur le même fleuve5.
Histoire
Ce système a été proposé par le Français Jean-Victor Poncelet à la fin des années 1820. En 1826, l'inventeur et industriel français Benoît Fourneyron améliora le système en augmentant le rendement (80 %) par la modification de la circulation de l'eau, en la dirigeant radialement à travers la roue.
Aux États-Unis, en 1838, ce système fut breveté par le nord-américain Samuel B. Howd, puis popularisé par l’anglo-américain James B. Francis, dont il porte le nom. Il installa ses premières turbines en 1848 à l'usine de Pawtucket Gatehouse (en), à Lowell dans le Massachusetts. Dans les années 1860, cette turbine commença à supplanter la roue hydraulique.
En 1918, la papeterie de Chappes fut équipée d'une turbine Francis de type « Singrün » qui fonctionna jusqu'en 2004. La même année, ce type de turbine fut utilisé sur la centrale des Vernes à Livet-et-Gavet. Cette centrale est aujourd'hui classée monument historique.
Au Canada, il s'agit de la turbine la plus utilisée dans le parc de production d'Hydro-Québec6.
- Différentes turbines Francis
-
Pawtucket Gatehouse, la première usine à turbines Francis, installée en 1848, par James Bicheno Francis, à Lowell, Massachusetts
-
Turbine Francis, de fabrication suisse, à Zurich
-
-
Démolition d'une ancienne turbine Francis, datant de 1918
-
Turbine Francis de la première centrale hydroélectrique de Bergerac mise en service en 1892.
La plus puissante de France se trouve à la centrale du Pouget : turbine Francis de 286 MW accouplée à un alternateur de 275 MVA, sous 444 mètres de chute7.
Contrôle de flux
Le contrôle de flux se fait au niveau du distributeur par l'orientation des ailettes de guide ou directrices (en anglais guide vanes) par rapport aux ailettes fixes ou aubes (en anglais stay vanes) situées sur la roue (en anglais runner). Ce sont des éléments essentiels de la turbine qui permettent de transférer convenablement l'énergie du flux à la roue, tout en évitant l'apparition du phénomène destructeur de cavitation8.
- Contrôle de flux
-
Coupe d'une turbine Francis : circulation du fluide, entrée radiale, sortie axiale
-
Directrices, en position débit minimum
-
Directrices, en position débit maximum
Phénomène de cavitation
Le phénomène de cavitation peut provoquer l'érosion prématurée des aubes au niveau du bord d'attaque9. La cavitation provoque une chute du rendement de la turbine, ou de la hauteur absorbée, et l’apparition de vibrations sur la structure mécanique, accompagnées d'un bruit intense. Ce phénomène peut nécessiter l'arrêt de la turbine et de lourds travaux de maintenance et de réparation, engendrant des conséquences économiques importantes (arrêt de la production, frais de maintenance sur site ou de réparation lourde en atelier, etc.)
- Turbines Francis érodées par la cavitation
-
Turbine Francis de 1956, bords d'attaque des aubes érodés par la cavitation
-
Turbine Francis aux aubes érodées par la cavitation, après de précédentes réparations par apport et soudage d'acier inoxydable
Maintenance hydraulique
Les équipements hydrauliques des centrales françaises, concédées par l'état à EDF ou à ses filiales, sont présents dans 447 centrales hydroélectriques. On y trouve en particulier des turbines Francis et leurs composants (rotors, aubes, vannes, robinets, paliers, etc). Tous les éléments touchant à l'équipement hydraulique de ces centrales sont entretenus et maintenus par une unité interne d'EDF, le Service de Réparation Hydraulique10, qui effectue des opérations de rechargement métallique par soudage, de meulage pour remise au profil (en atelier ou sur site), ainsi que des travaux d'usinage.
Notes et références
Notes
- Cf le document en référence, issu du Service de Réparation Hydraulique d'EDF, en page 4 : les turbines prises en charge par le SRH
- Une aube comporte deux faces: l'extrados et l'intrados, comme une aile d'avion. L'eau coulant plus vite près de l'extrados, il en résulte une dépression qui génère le couple moteur. L'arête de sortie d'une aube s'appelle le bord de fuite alors que l'arête d'entrée de l'aube s'appelle le bord d'attaque
Références
- (en) World News (WN) Network, « Francis turbineté » [archive], sur wn.com, (consulté le )
- [PDF]« De quoi est faite une turbine Francis? » [archive], sur angelfire.com (consulté le ).
- [PDF] Gino Blommaert - Ecole Polytechnique Fédérale de Lausanne, « Thèse de doctorat : Étude du comportement dynamique des turbines Francis : contrôle actif de leur stabilité de fonctionnement » [archive], sur epfl.ch, (consulté le ).
- Alstom, « Turbines hydroélectriques Francis » [archive], sur alstom.com (consulté le ).
- [PDF](en)Alstom, « Xiang Jia Ba, Francis Hydro Power Plant » [archive], sur alstom.com (consulté le ).
- Hydro-Québec, « Turbine Francis » [archive], sur hydroquebec.com, (consulté le ).
- Tpebarrages, « Les turbines à réaction : la turbine Francis » [archive], sur jimdo.com (consulté le ).
- (en) R. Dadfar, B. Firoozabadi, G. Ahmadi, université de technologie de Sharif, « Effect of Different Configurations on 3-D Analysis of Flow Through Stay Vanes and Guide Vanes of a Francis Turbine » [archive], sur sid.ir, (consulté le ).
- (en) Paul Bourdon - Ecole Polytechnique Fédérale de Lausanne, « Détection vibratoire de l'érosion de cavitation des turbines Francis : Thèse de doctorat » [archive], sur epfl.ch, année 2000 (consulté le ).
Annexes
Articles connexes
Liens externes
Sur les autres projets Wikimedia :
[masquer]
|
Production d'hydroélectricité |
|
|
Équipement hydroélectrique |
|
Hydroélectricité par pays |
|
Principaux acteurs |
|
-
Turbine Kaplan
Pour les articles homonymes, voir Kaplan.
Une turbine Kaplan est une turbine hydraulique à hélice, de type « réaction » qui a été inventée en 1912 par l'ingénieur autrichien Viktor Kaplan.
Caractéristiques
Elle est adaptée pour les faibles chutes de 2 à 25 mètres de hauteurNote 1, et les très grands débits de 70 à 800 m3/s.
La turbine Kaplan se différencie des autres turbines à hélices, par ses pales orientables, dont on peut faire varier le pas pendant le fonctionnement. Cela lui permet d'avoir un rendement énergétique élevé pour des débits d'eau variables. Son rendement atteint normalement entre 90 % et 95 %1.
La turbine Kaplan est une évolution technique de la turbine Francis. Son invention a permis la production d'énergie efficace lorsque la turbine Francis ne pouvait pas être utilisée. Les diamètres peuvent varier entre 2 et 11 mètres avec une plage de la rotation de la turbine, pouvant varier de 50 à 250 tr/min, pour une puissance installée jusqu'à 250 MW.
Histoire
Première turbine Kaplan, conservée au Musée des techniques de Vienne, Autriche
En 1910, l'ingénieur autrichien Viktor Kaplan, vivant à Brno, en Tchécoslovaquie, propose un autre modèle de turbine, afin de répondre au rendement médiocre de la turbine Francis, dans le cas de chute de faible hauteur. Cette turbine à axe vertical, à rotor en hélice, possède des aubes à pas variable. Entre 1912 et 1913, Il dépose les quatre brevets autrichiens, de ses principales inventions :
- le (ÖP No. 74388), pour une forme d'aube d'une roue primaire de turbine,
- le (ÖP No. 74244), pour un dispositif complémentaire de réglage des pales du rotor,
- un autre brevet concernant la conception de l'espace entre la roue de guidage et le rotor,
- un autre brevet concernant la fabrication des pales2.
La première turbine Kaplan est créée en 1918, puis fabriquée par la Société Stahlhütte Ignas Storek à Brno, puis installée en 1919 dans une unité de démonstration à Poděbrady, en Tchécoslovaquie.
La deuxième turbine est installée dans une usine textile (appartenant à la famille de Viktor Kaplan), à Velm-Götzendorf, en Autriche, d'une puissance de 25,8 ch pour une hauteur de chute de 2,3 mètres et tournant à une vitesse de 800 tours/min (celle-ci fonctionnera jusqu'en 1955, et est visible depuis, au Musée des techniques de Vienne, Autriche). Cependant, Viktor Kaplan, est obligé d'arrêter ses recherches en 1922, pour des raisons de santé.
En 1922, la société allemande Voith installe des turbines Kaplan en rivière d'une puissance de 800 kW. Le développement des turbines Kaplan est cependant arrêté, en 1926, à cause de l'apparition du phénomène destructeur de la cavitation, pendant le fonctionnement de la turbineNote 2.
En 1926, une société suédoise résout le problème, en créant un dispositif de servo-direction à commande hydraulique, permettant l'ajustement dynamique de l'angle de rotation des pales du rotor, avant que la cavitation n'apparaisse. Cette même année est installée, à Lilla Edet, en Suède, une turbine au rotor de 5,8 mètres de diamètre et d'une puissance de 10 000 ch pour une hauteur de chute de 6,5 mètres.
- La Turbine Kaplan
-
Plan de coupe (Société Voith)
-
Les pivots à la base de la pale, permettent la modification dynamique de l'angle de rotation, afin d'éviter l'apparition du phénomène de cavitation. Le moyeu contient les vérins hydrauliques permettant ce réglage dynamique (Usine hydroélecrique de Plave, au nord de Nova Gorica, Slovénie)
-
Applications
Les turbines Kaplan sont maintenant largement utilisées dans le monde entier, dans le cas de fort débit, ou de faible hauteur de chute.
Le phénomène de cavitation
Une érosion prématurée peut se rencontrer dans l'utilisation d'une turbine, provoquée par la cavitation3. Cela peut conduire à l'arrêt prématuré de la turbine concernée, pour pouvoir effectuer de lourds travaux de maintenance et de réparations, et aussi des conséquences économiques importantes (arrêt de production, frais de maintenance sur site, ou de réparation lourde en atelier, etc.). La cavitation s'accompagne également d'une chute du rendement de la turbine, ou de la hauteur absorbée, d'une génération de vibrations de la structure mécanique, accompagnées d'un bruit intense.
La maintenance hydraulique
Les équipements hydrauliques des centrales françaises, concédées par l'État à EDF ou à ses filiales, sont présents dans 447 centrales hydroélectriques. On y trouve en particulier des turbines Kaplan et leurs composants (rotors, aubes, pales, vérins, vannes, robinets, paliers, etc.). Tous les éléments touchant à l'équipement hydraulique sont entretenus et maintenus par une unité interne d'EDF, le Service de Réparation Hydraulique4, qui effectue des opérations de rechargement métallique par soudage, de meulage pour remise au profil, soit en atelier ou sur site, ainsi que des travaux d'usinage.
Le groupe bulbe
Histoire
Réversibilité d'un groupe bulbe
Une évolution de la turbine Kaplan réside dans le groupe bulbe.
- Un premier brevet est déposé par G. Khune, pour une turbine tubulaire, le ;
- Un second brevet est déposé le , par J. Haefele, pour une turbine à écoulement axial horizontal ;
- Ce n'est que le , qu'est déposé, par Huguenin, un brevet pour un premier groupe bulbe.
Ces 3 brevets, sont acquis par Escher Wyss, le fabricant suisse de turbines, à Zurich. Le dernier brevet homologué le , est exploité par Arno Fisher, qui en , met en service deux groupes bulbes, d'une puissance de 168 kW, à Röstín, en Poméranie, (actuellement en Pologne), sur le fleuve Parsęta, qui fonctionneront jusqu'en 5.
Développement
Plan de coupe d'un groupe bulbe, à l'usine marémotrice de la Rance, le distributeur en amont de l'hélice
Le développement industriel a démarré en 1950. En France, c’est en 1960, avec l'usine marémotrice de la Rance, inaugurée le , que la production électrique a débuté, avec un ensemble de 24 groupes bulbes, d'une puissance unitaire de 10 MW, soit une puissance installée de 240 MW6,7. En Corée du sud, c'est la centrale marémotrice de Sihwa, équipée d'un ensemble de 10 groupes bulbes, d'une puissance unitaire de 25,4 MW, soit une puissance installée de 254 MW, qui est la plus puissante installation de ce type au monde, depuis .
Dans ce type de machine, turbine et alternateur sont couplés selon un axe horizontal, à l’intérieur d’une enveloppe profilée, immergée dans le flux d’eau. Cette disposition, qui a pour avantage de donner à l’écoulement un tracé rectiligne, est particulièrement adaptée aux très basses chutes, et aux forts débits8.
Cette évolution technologique a permis l'amélioration de l'écoulement hydraulique, sans changement de direction, d'où une augmentation du rendement, ainsi qu'une réduction des dimensions et donc une diminution des coûts9, ce qui a contribué à son essor, partout à travers le monde. En France, les centrales les plus importantes, équipées en groupes bulbes, se rencontrent, dans la vallée du Rhône, sur l'Isère, sur le Tarn, sur la Moselle, sur la Truyère, sur la Dordogne, sur le Rhin, sur le Lot ou sur la Garonne10.
La plus forte puissance atteinte par un groupe bulbe, est de 60 MW11.
Fonctionnement réversible
Le groupe bulbe est par nature réversible, du fait de l'écoulement axial et de la symétrie des adductions amont et aval, et peut fonctionner en pompe ou en turbine dans les deux sens d'écoulement. C'est le cas, par exemple, dans les usines marémotrices, en fonction de la marée, et permis grâce à l'orientation des pales12.
Le distributeur (grille fixe constituée d'un aubage mobile avec 20 directrices), en amont de l'hélice joue un rôle important. Il permet d'utiliser la hauteur de la chute pour contraindre le fluide à traverser les directrices, orientées de manière à générer un tourbillon. L'énergie potentielle de hauteur est ainsi transformée en vitesse tangentielle (qui s'ajoute dans le meilleur des cas, à 60 % de la vitesse axiale du fluide)13.
En fonctionnement inverse, le distributeur n'est plus en amont mais en aval de l'hélice, ce qui engendre une diminution du rendement de l'ordre de 10 %. Le distributeur ne joue plus son rôle et les directrices doivent être bloquées en position de pleine ouverture et verrouillées14.
La turbine VLH (Very Low Head Turbine)
La turbine « très basse chute » (Turbine VLH ou de l'anglais Very Low Head Turbine, brevetée en 2003) : type de turbine (évolution de la turbine Kaplan à ouverture variable), conçu pour protéger l'environnement et en particulier la faune piscicole (saumons en dévalaison, anguilles en dévalaison, truites, cyprinidés toutes espèces halieutiques etc), dans les fleuves ou rivières15.
Caractéristiques
Les turbines VLH sont caractérisées par16 :
- une installation dans une passe, de faible hauteur, de 1,5 à 4,5 m, avec un génie civil réduit,
- un fonctionnement discret (visuel et sonore) dans l'environnement (rural ou urbain),
- un grand diamètre de la roue (de 3,15 à 5 mètres de diamètre),
- 8 pales à ouverture variable, permettant l'obturation totale autonome, et l'arrêt de la machine
- une inclinaison entre 35° et 45° qui facilite la maintenance et le relevage par basculement, dans la passe,
- une structure autoportante permettant un assemblage complet en usine et une installation très rapide,
- un dispositif d’effacement permettant la mise hors d’eau du groupe, pour maintenance,
- une faible vitesse de rotation, de l'ordre de 30 à 50 tr/min,
- une faible vitesse d’écoulement de l'eau, de 1 m/s,
- des débits importants de 10 à 27 m3/s et par machine
- une gamme de puissance, de 100 à 500 kW (au réseau),
- une faible mortalité piscicole : turbine "ichtyophile " (amie des poissons)17.
Développement
Turbines VLH de la centrale du Rondeau à Échirolles
Ces turbines VLH sont conçues et fabriquées en France, par la société MJ2 Technologies et tiennent compte :
- des faibles possibilités de développement d'installations hydroélectriques d'envergure ;
- des contraintes environnementales, et de protection de la faune piscicole ;
- de la possibilité d'intégrer ces équipements sur des sites existants :
- soit en remplacement, d'un ouvrage existant (comme sur la Mayenne)18,19 ;
- soit en complément d'un ouvrage existant, par l'installation du nouvel équipement, dans le canal d'évacuation de la précédente installation, permettant ainsi d'optimiser le potentiel énergétique global du site (comme à Échirolles, dans l'Isère, sur le Drac inférieur, à la centrale du Rondeau20) ;
La « petite hydraulique », affiche un potentiel relativement important, qui a été estimé, en France, à 1 000 MW de capacité21,22.
Notes et références
Notes
- Cf. le document en référence, issu du Service de Réparation Hydraulique d'EDF, en page 4 : les turbines prises en charge par le SRH
- En raison de la rotation rapide de l'hélice dans l'eau, une zone de basse pression se crée sous la surface d'aspiration de la pale, et des bulles de vapeur d'eau se forment et disparaissent à une fréquence très élevée, provoquant des micro-claquements, qui érodent la surface des pales et les détruisent
Références
- (en) World News (WN) Network, « Kaplan turbine » [archive], sur wn.com, (consulté le ).
- (de) Technischesmuseum.at, « Erste (kommerziell genutzte) Kaplan-Turbine : Première turbine Kaplan (commerciale) » [archive], sur technischesmuseum.at (consulté le ).
- Jean-Pierre Durel, « Comment éviter les effets de la cavitation sur une turbine Kaplan » [archive] [PDF], sur freehostia.com (consulté le ).
- EDF - SRH, « Le service de réparation hydraulique (SRH) d'EDF » [archive] [PDF], sur edf.com, (consulté le ).
- C. Thirriot - Institut national polytechnique de Toulouse - La houille blanche N°3, « Comparaison entre turbine Kaplan et groupe bulbe » [archive] [PDF], sur shf-lhb.org, (consulté le ).
- « Le fonctionnement d'une usine marémotrice » [archive] (consulté le ).
- GEH - EDF, « Le Groupe d'Exploitation Hydraulique Ouest » [archive] [PDF], sur blogspot.fr, (consulté le ).
- « La turbine Kaplan » [archive], sur hydrelect.info, (consulté le ).
- P. Cazenave - La houille blanche N°3, « L'utilisation des groupes bulbes dans les aménagements de basse chute » [archive] [PDF], sur shf-lhb.org, (consulté le ).
- J. Cotillon - La houille blanche N°2/3, « Les groupes bulbes : de Röstin en Avignon : l'essor d'une technique » [archive] [PDF], sur shf-lhb.org, (consulté le ).
- « Turbines hydroélectriques bulbe » [archive], sur alstom.com (consulté le ).
- André Lacoste - La houille blanche N°7/8, « Exploitation et entretien des groupes bulbes » [archive] [PDF], sur shf-lhb.org, (consulté le ).
- Mecaflux Heliciel, « Captage d'énergie hydraulique par turbine hélice ou kaplan : La relation distributeur et hélice » [archive], sur heliciel.com (consulté le ).
- ENSEEIHT, « Les bulbes, le cœur du système » [archive], sur hmf.enseeiht.fr (consulté le ).
- MJ2 Technologies, « Groupe turbo générateur pour très basse chute : Le concept VLH » [archive] [PDF], sur mp-i.fr, (consulté le ).
- MJ2 Technologies, « Turbine VLH » [archive], sur vlh-turbine.com (consulté le ).
- Timothée Besse - ERT Biodiversité Fonctionnelle et Gestion des Territoires - Rennes, « Tableau de Bord Anguille du Bassin Loire : Turbines ichtyophiles et dispositifs d'évitement pour anguilles en avalaison » [archive] [PDF], sur observatoire-poissons-migrateurs-bretagne.fr, (consulté le ).
- Concours général des lycées 2013, « L'eau, une énergie qui coule de source » [archive] [PDF], sur ac-aix-marseille.fr, (consulté le ).
- Concours général des lycées 2013, « L'eau, une énergie qui coule de source (corrigé) » [archive] [PDF], sur education.fr, (consulté le ).
- Ludovic Dupin, L'Usine nouvelle, « EDF inaugure une centrale hydraulique située en pleine ville » [archive], sur usinenouvelle.com, (consulté le ).
- EDF L'énergie en questions, « Un appel d'offres pour développer la petite hydro-électricité » [archive], sur lenergieenquestions.fr, (consulté le ).
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
[masquer]
|
Production d'hydroélectricité |
|
|
Équipement hydroélectrique |
|
Hydroélectricité par pays |
|
Principaux acteurs |
|
-
Turbine de Tesla
La turbine de Tesla est un type de turbine sans pales breveté par Nikola Tesla en 1913. Elle utilise l'effet de couche limite et non l'impact d'un fluide contre des pales comme c'est le cas dans une turbine conventionnelle. La turbine de Tesla est également connue sous les noms de turbine à couche limite, turbine à cohésion, et en anglais : boundary layer turbine, cohesion-type turbine, et Prandtl layer turbine (d'après Ludwig Prandtl). Un des souhaits d'application de Tesla pour cette turbine était l'énergie géothermique, qui est décrite dans On Future Motive Power1.
Description
Une turbine de Tesla consiste en un jeu de disques lisses, avec des buses appliquant un gaz sous pression sur les bords des disques. Le gaz exerce un frottement sur le disque, par un phénomène de viscosité et d'adhésion de la couche limite du gaz. À mesure que le gaz ralentit et cède de l'énergie aux disques, il spirale vers l'échappement central. Puisque le rotor n'a pas d'aspérités, il est très robuste.
Turbine de Tesla: concept sans pales
Tesla écrit : « Cette turbine est un moteur efficace capable de démarrer par lui-même qui peut s'employer comme turbine à vapeur ou à fluide mixte librement, sans modification de sa construction et est très pratique de par cet aspect. Quelques changements divergeant de ce modèle de turbine, à chaque fois imposés par les circonstances, se proposeront sûrement spontanément, mais le développement suivant ces lignes générales sera certainement jugé très rentable par les propriétaires d'une centrale à vapeur tout en permettant la réutilisation de leur ancienne installation. Cependant, les meilleurs résultats économiques dans le cadre du développement de l'exploitation de la vapeur par la turbine de Tesla sera obtenue dans des centrales spécifiquement adaptées. »
Cette turbine peut également être utilisée efficacement par des usines de condensation opérant à vide poussé. Dans ce cas, grâce au très grand ratio d'expansion, le mélange d'échappement sera à une température relativement basse, adaptée à l'admission dans le condenseur.
Vue d'un système à turbine de Tesla
Toutes les plaques et les rondelles sont fixées sur un arbre fileté aux extrémités, et équipé d'écrous pour serrer l'ensemble. Cette construction permet une libre expansion et contraction de chaque plaque individuellement, sous l'influence variable de la chaleur ou de la force centrifuge. Une plus grande surface de plaque, et donc plus de puissance sont obtenus pour une épaisseur donnée. La torsion est virtuellement éliminée et de plus faibles marges latérales peuvent être utilisées, ce qui diminue les fuites et les pertes de friction. L'équilibrage dynamique est facilité et le fonctionnement est plus silencieux. Comme les disques ne sont pas rigidement fixés, ils sont protégés contre les dommages qui pourraient sinon être causés par les vibrations ou une vitesse excessive.
La turbine de Tesla est conçue pour fonctionner dans une installation utilisant un mélange de vapeur et de produits de combustion. Une installation à turbine de Tesla comme illustrée ci-contre est :
- capable de démarrer avec seulement de la vapeur,
- adaptée pour travailler avec des fluides à haute température.
Une turbine de Tesla efficace nécessite un faible espacement entre les disques. Par exemple, un modèle à vapeur doit maintenir un écart inter-disque de 0,4 mm. Les disques doivent être les plus lisses possibles pour minimiser la surface et les pertes. Les disques doivent également être les plus fins possibles, pour éviter la traînée et les turbulences sur les bords. Malheureusement, éviter que les disques ne se tordent ou se voilent était une difficulté majeure à l'époque de Tesla. On pense que cette incapacité à éviter la distorsion des disques a contribué à l'échec commercial de ces turbines, car la technologie métallurgique de l'époque n'était pas capable de fournir des disques d'une qualité et d'une rigidité suffisante.
Pompe
Si un jeu de disques similaires et un boîtier en forme de volute (et non circulaire comme dans une turbine) sont utilisés, l'appareil peut être employé comme pompe. Dans cette configuration, un moteur est accouplé à l'arbre. Le fluide entre près du centre, reçoit de l'énergie par les disques en rotation, et sort à la périphérie. La turbine de Tesla n'utilise pas la friction dans son sens conventionnel ; précisément, elle l'évite, et utilise l'adhésion (effet Coandă) et la viscosité à la place. Elle utilise l'effet de couche limite sur les disques.
Des disques lisses ont été originellement proposés, mais ils produisaient un faible couple de démarrage. Tesla a par la suite découvert qu'un rotor lisse avec de petites rondelles reliant les disques en 12 à 24 points le long du périmètre d'un disque de 25 cm et un second anneau de 6 à 12 rondelles plus proche du centre apportait une amélioration significative du couple de démarrage, sans compromettre l'efficacité.
Applications
Les brevets de Tesla indiquent que l'appareil est prévu pour l'utilisation de fluides comme agents moteurs, et non comme appareil de propulsion ou de compression de fluides (bien que l'appareil puisse être utilisé pour ces applications). En 2006, la turbine de Tesla n'a pas été pleinement utilisée commercialement depuis son invention. Tesla lui-même ne remporta pas de grand contrat de production. Le principal défaut de l'époque, comme indiqué, était la faible connaissance des matériaux et des comportements à haute température. Les meilleures techniques de métallurgie de l'époque ne pouvaient éviter que les disques vibrent et se tordent lors du fonctionnement.
Aujourd'hui, beaucoup d'expérimentations d'amateurs ont été conduites avec des turbines de Tesla, y compris des turbines à vapeur (utilisant la vapeur produite par une chaudière, voire par énergie solaire) ou des turbocompresseurs d'automobile. Une application actuellement proposée est l'utilisation comme pompe à déchets, pour les eaux usées ou les machines-outils (pour l'huile de coupe chargée de copeaux), où une pompe à turbine traditionnelle se bloque rapidement. L'entreprise Discflo produit actuellement des pompes à disque pour ces applications.
Rendement
À l'époque de Tesla, le rendement des turbines conventionnelles était faible car les théories de mécanique des fluides nécessaires à la conception de pales efficaces n'existaient pas encore, et la faible qualité des matériaux disponibles à cette époque pour construire de telles pales entraînait de sévères limitations sur les vitesses et les températures de fonctionnement. Le rendement d'une turbine à vapeur conventionnelle est lié à la différence de température entre l'admission et l'échappement (voir Rendement de Carnot). Ceci nécessite que les matériaux utilisés pour la construire soient capables de supporter des températures très élevées pour atteindre un rendement raisonnable.
Le concept de Tesla contourne les principaux inconvénients de la turbine à pales. Il souffre cependant d'autres problèmes comme les pertes par cisaillement ou encore la limitation du débit balayé. Quelques-uns des avantages de la turbine de Tesla reposent dans des applications à débit relativement faible, ou lorsque de petites puissances sont demandées. Les disques doivent être aussi fins que possible sur les bords pour ne pas introduire de turbulence lorsque le fluide quitte les disques. Ceci se traduit par la nécessité d'augmenter le nombre de disques à mesure que le flux augmente [réf. nécessaire]. Le rendement de ce système est maximal quand l'espacement inter-disques approche l'épaisseur de la couche limite, et comme cette dernière dépend de la viscosité et du régime d'écoulement, l'affirmation qu'une conception unique peut être utilisé efficacement pour divers carburants et fluides est abusive.[réf. souhaitée] Une turbine de Tesla ne diffère d'une turbine conventionnelle que par le mécanisme utilisé pour transférer l'énergie à l'arbre. Diverses analyses montrent que le débit entre les disques doit être maintenu relativement faible pour maintenir le rendement, ceci est induit par le rapport de la section cylindrique entre l'entrée du fluide et sa sortie.[réf. souhaitée] Le rendement de la turbine de Tesla diminue lorsque la charge (c'est-à-dire le couple sur l'arbre) augmente. [réf. souhaitée] Sous une faible charge, la spirale empruntée par le fluide se déplaçant de l'admission à l'échappement est une spirale serrée, effectuant de nombreuses rotations. En charge, le nombre de rotations chute et la spirale se raccourcit progressivement. Ceci augmente les pertes par cisaillement et réduit le rendement
Le rendement de détente d'une turbine de Tesla fonctionnant avec un gaz est estimé supérieur à 60 %, avec un maximum à 95 % (selon les affirmations de Nikola Tesla). Les turbines qui équipent actuellement les centrales thermiques ou les turboréacteurs ont un rendement supérieur à 80 % en condition normale de fonctionnement [réf. nécessaire]. Des études complémentaires, notamment des diagrammes HS (enthalpie entropie) seraient nécessaires pour une caractérisation paramétrique de la turbine.
Dans les années 1950, Warren Rice a essayé de recréer les expériences de Tesla, mais il n'a pas effectué ces essais avec une pompe construite en parfaite conformité avec la conception brevetée par Tesla (ce n'était pas, en plus, une turbine Tesla à étages multiples, et elle n'avait pas d'injecteur tel que dessiné par Tesla)2. Son système n'était qu'une seule étape expérimentale qui utilisait l'air comme fluide de fonctionnement. Les turbines de l'essai de Rice, comme il l'a écrit dans ces premiers rapports, ont eu un rendement global de 36 % à 41 % pour un seul étage3.
Dans son travail final sur la turbine de Tesla et édité juste avant sa retraite, Rice a conduit une analyse du volume de l'écoulement laminaire dans des turbines à disques multiples. Ce document, publié en 1991 dans « Tesla Turbomachinery »4 revendique, pour cette conception, une efficacité très élevée du rotor (par opposition à l'efficacité globale du dispositif). Cet article énonce : En utilisant convenablement les résultats analytiques, l'efficacité du rotor entraîné par la couche limite peut être très élevée, et dépasser 95 %. Cependant, pour atteindre une efficacité de rotor élevée, le débit doit être faible ce qui signifie que l'efficacité élevée du rotor est obtenue au prix de l'augmentation du nombre de disques et donc d'une taille plus importante du dispositif.5 Les turbines à pales modernes à étages multiples atteignent une efficacité typique de 60 % - 90 % [réf. nécessaire]. Le rotor à volute correspondant aux machines de type Tesla de taille raisonnable employant des fluides courants (vapeur, gaz, et eau) devrait aussi atteindre cette gamme d'efficacité (voire plus haute)6.
Notes et références
- Nikola Tesla, On Future Motive Power [archive].
- Debunking the Debunker, Don Lancaster Again Puts His Foot In [archive], Tesla Engine Builders Association.
- Debunking the Debunker, Don Lancaster
- Interesting facts about Tesla QnA: I've heard stories about the Tesla turbine that cite a figure of 95% efficiency. Do you have any information regarding this claim? And, why haven't these devices been utilized in the mainstream? [archive]. Twenty First Century Books.
- Rice, Warren, Tesla Turbomachinery [archive]. Conference Proceedings of the IV International Tesla Symposium, September 22-25, 1991. Serbian Academy of Sciences and Arts, Belgrade, Yugoslavia. (PDF)
- Warren Rice, Tesla Turbomachinery.
Voir aussi
Liens externes
- Brevets
Tesla
Autres
- (en) Brevet U.S. 6726442 [archive], Disc turbine inlet to assist self-starting, Letourneau (February 11, 2002)
- (en) Brevet U.S. 6682077 [archive], Labyrinth seal for disc turbine, Letourneau (February 13, 2002)
- (en) Brevet U.S. 6692232 [archive], Rotor assembly for disc turbine, Letourneau (March 15, 2002)
- (en) Brevet U.S. 6973792 [archive], Method of and apparatus for a multi-stage boundary layer engine and process cell, Hicks (December 13, 2005)
- Photos
- Kits
- Couche limite
- Sites sur la turbine de Tesla
- Redmond, Stephen, Building a Disk Turbine [archive].
- Debunking the Debunker Part I [archive] -- Part II [archive]. Tesla Engine Builders Association (TEBA).
- Germano, Frank D., « Tesla's Bladeless Boundary Disk Turbine and Pump [archive] ». International Turbine And Power.
- Swithenbank, Alan, « The Tesla Boundary Layer Turbine [archive] ». July 19, 2003.
- « Tesla turbine [archive] ». RS Designs. (original [archive] German)
- Hayes, Jeffery A., Boundary-layer breakthrough - the Tesla bladeless turbine [archive].
- Tesla turbine [archive], de l'Uncle Taz Library.
- Tesla Turbine Kit, Turbo-Generator [archive], par OBI Laser Products.
- Tesla Turbine [archive], par Gyroscopes Online
- Gary L. Peterson, « Nikola Tesla's Disk Turbing [archive] Tomorrow's Gas Engine ». Feed Line No. 7, édité par Twenty First Century Books [archive]
- Jeff Hayes, « Tesla's Engine — A New Dimension For Power [archive] », édité par Twenty First Century Books [archive]; Hayes participe aussi à la Tesla Engine Builder's Association [archive] déjà citée
- Hayes, Jeffery A., « Boundary-layer breakthrough - the Tesla bladeless turbine [archive] », de Zero Point Physics, Vacuum Energy, Scalar Physics [archive], qui affirme que Toutes les grandes compagnies automobiles travaillent aujourd'hui sur des véhicules à lévitation.
- Tesla turbine [archive]. Par Sterling Allan et Chris Horianopolous, de Greater Things [archive], un site Web de Sterling Allen de Manti (Utah) qui parle de « nouvelles formes d'énergie » ; voir aussi Pure Energy Systems Wiki [archive]
- Tesla Turbine Wiki [archive] dédié aux turbines de Tesla - pour publier information, projects et expériences, observations, etc.
-
Turbine d'expansion
Aube d'un turbodétendeur attaquée par la corrosion et déformée par les hautes températures.
Schéma de principe d'une turbine d'expansion entraînant un compresseur.
Une turbine d'expansion, également appelée turbodétendeur ou turbine de détente, est une turbine centrifuge ou à écoulement axial, à travers laquelle un gaz à haute pression est détendu pour produire un travail qui est souvent utilisé pour entraîner un compresseur ou un générateur1,2,3 ; les turbodétendeurs sont aussi l'étage essentiel du procédé Claude de liquéfaction de gaz4 tels que l'oxygène, l'azote, l'hélium, l'argon et le krypton5,6. Les turbines d'expansion sont largement utilisées comme sources de réfrigération dans des processus industriels tels que l'extraction d'éthane et d'autres hydrocarbures du gaz naturel7[source insuffisante].
La détente d'un gaz dans une turbine à expansion peut être considérée en première approximation comme un processus isentropique, c'est-à-dire un processus à entropie constante. En sortie de turbine, le gaz possède une pression inférieure à la pression d'entrée et il subit par ailleurs un refroidissement. La température de sortie dépend de la température d'entrée, de la différence de pression ainsi que des propriétés physiques du gaz. Du fait de la chute de température, une liquéfaction partielle du gaz détendu est possible.
Les turbodétendeurs actuellement en service ont une puissance qui varie d'environ 750 W à 7,5 MW.
Histoire
L'utilisation d'une machine à expansion pour créer de manière isentropique de basses températures a été suggérée par Carl Wilhelm Siemens (cycle Siemens), un ingénieur allemand en 1857. Environ trois décennies plus tard, en 1885, le belge Ernest Solvay a tenté d'utiliser une machine similaire, mais n'a pu atteindre des températures inférieures à −98 °C en raison de problèmes de lubrification de la machine à de telles températures2.
En 1902, Georges Claude, un ingénieur français, a utilisé avec succès une machine à expansion pour liquéfier de l'air. Il a utilisé un joint en cuir dégraissé et brûlé comme joint de piston sans aucune lubrification. Avec une pression d'entrée de seulement 40 bar (4 MPa), Claude a pu réaliser une détente quasi-isentropique avec une température de sortie plus basse que ce qui avait été atteint jusqu'alors2.
Les premiers turbodétendeurs semblent avoir été conçus vers 1934 ou 1935 par Guido Zerkowitz, un ingénieur italien travaillant pour la firme allemande Linde AG8,9.
En 1939, le physicien russe Pyotr Kapitsa a perfectionné la conception des turbodétendeurs centrifuges. Son premier prototype était en métal Monel, avec un diamètre extérieur de seulement 8 cm, fonctionnait à 40 000 tours par minute et pouvait détendre 1 000 mètres cubes d'air par heure. Il utilisait une pompe à eau comme frein et avait un rendement entre 79 et 83 %2,9. La plupart des turbines à expansion à usage industriel depuis lors sont basés sur la conception de Kapitsa, et les turbodétendeurs centrifuges sont utilisés pour la presque totalité des procédés de liquéfaction et de basse température des gaz industriels. La production d'oxygène liquide a ainsi révolutionné la production d'acier grâce au procédé LD.
En 1978, Pyotr Kapitsa a reçu le prix Nobel de physique pour l'ensemble de ses travaux dans le domaine de la physique des basses températures10.
En 1983, San Diego Gas and Electric a été parmi les premiers distributeurs de gaz à installer une turbine d'expansion dans une station de régulation de pression du gaz naturel, récupérant ainsi une partie de l'énergie injectée à la compression11.
Types de turbines d'expansion
Les turbines d'expansion peuvent être classées suivant le dispositif entraîné par la turbine ou le type de paliers utilisés.
Les trois principaux dispositifs pouvant être couplés à un turbodétendeur sont un compresseur centrifuge, un générateur électrique ou un frein hydraulique. Avec un compresseur centrifuge ou un générateur électrique, la puissance de l'arbre provenant de la turbine est récupérée soit pour re-comprimer le gaz détendu (compresseur), soit pour générer de l'énergie électrique.
Les freins hydrauliques sont utilisés pour les turbines d'expansion de petite taille lorsque la mise en œuvre d'un autre système de récupération de l'énergie n'est pas rentable économiquement.
Les paliers utilisés sont soit des paliers à huile, soit des paliers magnétiques.
Il faut également noter la nouvelle technologie Quasiturbine12, qui est une turbine rotative à déplacement positif.
Usages
Bien que les turbines d'expansion soient couramment utilisés dans les procédés basse température, elles sont aussi utilisées dans de nombreux autres domaines. Cette section traite de l'un des procédés courant à basse température, l'extraction d'hydrocarbures liquides du gaz naturel, ainsi que de certains autres usages.
Schéma de principe d'un déméthaniseur extrayant des hydrocarbures du gaz naturel.
À la sortie d'un puits le gaz naturel brut se compose principalement de méthane (CH4), la molécule d'hydrocarbure la plus courte et la plus légère, ainsi que de diverses quantités d'hydrocarbures gazeux plus lourds tels que l'éthane (C2H6), le propane (C3H8), de n-butane (n-C4H10), d'isobutane (i-C4H10), de pentanes ainsi que d'autres hydrocarbures de masse moléculaire supérieure. Le gaz brut contient également diverses quantités de gaz acides tels que le dioxyde de carbone (CO2), le sulfure d'hydrogène (H2S) et des mercaptans tels que le méthanethiol (CH3SH) et l'éthanethiol (C2H5SH).
Lorsqu'ils sont transformés en sous-produits finis (voir traitement du gaz naturel), ces hydrocarbures plus lourds sont appelés condensat de gaz naturel. L'extraction de ce condensat implique souvent une turbine d'expansion13 et une colonne de distillation à basse température (appelée déméthaniseur) comme le montre la figure. Le gaz d'entrée du déméthaniseur est d'abord refroidi à environ −51 °C dans un échangeur de chaleur (appelé cold box - boîte froide), ce qui entraîne une condensation partielle. Le mélange gaz-liquide résultant est ensuite séparé en un flux gazeux et un flux liquide.
La phase liquide en sortie du séparateur gaz – liquide traverse une vanne et subit une évaporation flash en passant d'une pression absolue de 62 bar à 21 bar (6,2 à 2,1 MPa). Ce processus isenthalpique entraîne une baisse de la température du flux d'environ −51 °C à environ −81 °C. Ce flux est ensuite injecté dans le déméthaniseur.
Le phase gazeuse en sortie du séparateur gaz – liquide entre dans la turbine d'expansion, où elle subit une expansion isentropique d'une pression absolue de 62 bar à 21 bar, ce qui abaisse la température du flux gazeux d'environ −51 °C à environ −91 °C avant son entrée dans le déméthaniseur alimenter le système de chauffage à reflux nécessaire à la distillation.
Le liquide contenu en section supérieure du déméthaniseur (à environ −90 °C) est renvoyé vers la cold box, où il est réchauffé à environ 0 °C en refroidissant le gaz d'entrée, puis est renvoyé dans la partie inférieure du déméthaniseur. Un autre flux liquide de la section inférieure du déméthaniseur (à environ 2 °C) est acheminé à travers la cold box et renvoyé au déméthaniseur à environ 12 °C. En effet, le gaz d'entrée fournit la chaleur nécessaire pour "re-bouillir" le liquide en partie inférieure du déméthaniseur. La turbine d'expansion fournit la réfrigération nécessaire pour alimenter le système de chauffage à reflux en partie haute du déméthaniseur.
Le gaz produit en partie haute du déméthaniseur à environ −90 °C est du gaz naturel traité de qualité appropriée pour être distribué par gazoduc aux consommateurs finaux. Il est acheminé à travers la cold box, où il est réchauffé en refroidissant le gaz d'admission. Il est ensuite comprimé en deux étapes, premièrement par un compresseur entraîné par une turbine d'expansion puis par un second compresseur entraîné par un moteur électrique avant d'être injecté dans le gazoduc.
Le condensat est produit dans le fond du déméthaniseur et est également réchauffé dans la cold box, où il refroidit le gaz d'entrée, avant de quitter le système.
Production d'électricité
Schéma de principe d'un système de production électrique utilisant une turbine d'expansion.
La figure représente un système de génération d'électricité qui utilise une source de chaleur et une turbine d'expansion. Différentes sources de chaleur peuvent être utilisées telles que de l'eau chaude géothermique ou les gaz d'échappement d'un moteur à combustion interne par exemple.
Le fluide de travail circulant dans le système (généralement un composé organique tel que le R-134a) est pompé à haute pression, puis vaporisé dans l'évaporateur par échange de chaleur avec la source de chaleur. La vapeur à haute pression en sortie d'échangeur s'écoule vers la turbine d'expansion, où elle subit une détente isentropique et sort sous forme de mélange liquide-vapeur, qui est ensuite condensé au niveau d'un second échangeur de chaleur avec la source froide. Le liquide condensé est pompé vers l'évaporateur pour terminer le cycle.
Le système présenté sur le schéma est un cycle de Rankine tel qu'utilisé dans les centrales thermiques à combustibles fossiles, l'eau étant le fluide de travail et la source de chaleur étant la combustion du gaz naturel, du fioul ou du charbon utilisé pour générer de la vapeur à haute pression. La vapeur à haute pression subit alors une détente isentropique dans une turbine à vapeur classique. La vapeur d'échappement de la turbine à vapeur est ensuite condensée en eau liquide, qui est ensuite pompée vers le générateur de vapeur pour terminer le cycle.
Lorsque le fluide de travail est un composé organique tel que le R-134a, le cycle de Rankine est parfois appelé cycle de Rankine organique (ORC)14,15,16.
Système de réfrigération
Schéma de principe d'un système de réfrigération utilisant une turbine d'expansion, un
compresseur et un moteur.
Un système de réfrigération utilise un compresseur, un turbine d'expansion et un moteur électrique.
Selon les conditions de fonctionnement, la turbine d'expansion réduit la charge sur le moteur électrique de 6 à 15% par rapport à un système de réfrigération à compression de vapeur conventionnel qui utilise un détendeur plutôt qu'un turbodétendeur17.
Le système utilise un réfrigérant à haute pression (c'est-à-dire un réfrigérant dont le point d'ébullition est bas dans les conditions normales de température et de pression, CNTP) tel que17 :
Comme le montre la figure, le réfrigérant sous forme vapeur est compressé ce qui augmente sa pression et qui entraîne également une augmentation de sa température. La vapeur chaude retourne à l'état liquide dans le condenseur.
La phase liquide s'écoule ensuite à travers le turbodétendeur, où la chute de pression due à l'expansion isentropique entraîne sa vaporisation partielle. En sortie de turbine se trouve un mélange liquide-vapeur à basse température. Le mélange liquide-vapeur circule ensuite dans l'évaporateur, où il est vaporisé par la chaleur absorbée provenant de l'espace à refroidir. Le réfrigérant vaporisé s'écoule ensuite vers l'entrée du compresseur pour terminer le cycle.
Récupération de puissance dans un craqueur catalytique à lit fluidisé
Schéma de principe d'un système de récupération d'énergie dans une unité de craquage catalytique à lit fluidisé.
Le gaz d'échappement d'un régénérateur catalytique d'un craqueur catalytique à lit fluidisé possède une température d'environ 715 °C et une pression relative d'environ 240 kPa. Il est constitué principalement de monoxyde de carbone (CO), de dioxyde de carbone (CO2) et de diazote (N2). Bien qu'il ait traversé deux cyclones (situés à l'intérieur du régénérateur) toutes les particules fines ne sont pas éliminées à la sortie du régénérateur.
La figure montre comment l'énergie est récupérée et utilisée en acheminant les gaz de combustion en sortie du régénérateur à travers une turbine d'expansion. Le gaz est acheminé à travers un séparateur de catalyseurs secondaire contenant des tubes tourbillonnaires conçus pour éliminer 70 à 90% particules fines résiduelles18. Cette étape est nécessaire pour éviter les dommages que pourraient causer par érosion ces particules sur la turbine.
Comme le montre la figure, la détente des gaz de combustion à travers une turbine d'expansion fournit une puissance suffisante pour entraîner le compresseur d'air de combustion du régénérateur. Le groupe convertisseur du système de récupération peut consommer ou produire de l'énergie électrique. Si la détente des fumées ne fournit pas suffisamment de puissance pour entraîner le compresseur d'air, le groupe convertisseur fournit la puissance supplémentaire nécessaire. Si la détente fournit plus de puissance que nécessaire pour entraîner le compresseur d'air, le groupe convertisseur transforme l'excédent de puissance mécanique en énergie électrique qui peut ensuite être utilisé pour d'autres procédés dans la raffinerie19. La turbine à vapeur est utilisée pour entraîner le compresseur d'air du régénérateur lors des démarrages du craqueur catalytique à lit fluidisé jusqu'à ce qu'il y ait suffisamment de gaz de combustion pour prendre en charge cette tâche.
Les gaz de combustion détendus sont ensuite acheminés à travers une chaudière à vapeur (appelée chaudière à CO), où le monoxyde de carbone contenu dans les gaz de combustion est brûlé comme combustible pour fournir de la vapeur à raffinerie19.
Les fumées de la chaudière à CO sont traitées dans un précipitateur électrostatique (ESP) pour éliminer les particules résiduelles. L'ESP élimine les particules de 2 à 20 micromètres des gaz de combustion19.
Voir également
Références
- (en) Heinz Bloch et Claire Soares, Turboexpanders and Process Applications, Gulf Professional Publishing, , 515 p. (ISBN 0-88415-509-9, lire en ligne [archive]).
- (en) Frank G. Kerry, Industrial Gas Handbook : Gas Separation and Purification, CRC Press, , 552 p. (ISBN 978-0-8493-9005-0 et 0-8493-9005-2).
- (en) Thomas Flynn, Cryogenics Engineering, New York, CRC Press, , 895 p. (ISBN 0-8247-5367-4).
- J. Ph. Pérez et A. M. Romulus, Thermodynamique, fondements et applications, Masson, (ISBN 2225842655), « 16. Production des très basses températures », p. 266-267.
- (en)BOC (NZ) publication [archive]: use search function for keyword "expansion".
- US Department of Energy Hydrogen Program [archive].
- (en) « Hydrocarbon gas processing » [archive], United States Patent 6915662, sur freepatentsonline.com, (consulté le ).
- (en) Turbine for Low Temperature Gas Separation, U.S. Patent 2,165,994, July 1939 (Continuation of an application in March 1934), Guido Zerkowitz, Linde AG United States Patent US2165994 [archive] (this website requires registration).
- (en) Ebbe Almqvist, History of Industrial Gases, Dordrecht/London, Springer, , 440 p. (ISBN 0-306-47277-5, lire en ligne [archive]), p. 165
- Pyotr Kapitsa, The Nobel Prize in Physics 1978 [archive].
- Turboexpanders: Harnessing the Hidden Potential of Our Natural Gas Distribution System [archive].
- Quasiturbine Expander: Harnessing mechanical energy from pressured gas and steam system [archive].
- Gas Processes 2002, Hydrocarbon Processing, pages 83–84, May 2002 (schematic flow diagrams and descriptions of the NGL-Pro and NGL recovery processes).
- ORC Technology for Waste Heat Applications [archive]
- The Integrated Rankine Cycle Project [archive].
- The Rankine Cycle Turbogenerator at Altheim, Austria [archive].
- Refrigeration apparatus with expansion turbine, European patent EP 0 676 600 B1, September 6, 2000, Joost J. Brasz, Carrier Corporation EP 0 676 600 B1 [archive] (this website requires registration).
- (en) Alex C. Hoffnab et Lewis E. Stein, Gas Cyclones and Swirl Tubes : Principles, Design and Operation, Berlin, Springer, , 334 p. (ISBN 3-540-43326-0)
Liens externes
-
Dynamo
Exemples de dynamo
La dynamo était utilisée pour produire l'électricité dans les automobiles jusque dans les années 1960a. Depuis, un alternateur, dont le courant alternatif est redressé par des diodes, la remplace.
On appelle souvent, de manière abusive, « dynamo » le générateur électrique de bicyclette qui produit un courant alternatif alors qu'une dynamo produit un courant continu1.
On appelle dynamo terrestre le mécanisme qui transforme l'énergie des courants turbulents de particules chargées électriquement circulant entre le noyau et le manteau en un champ magnétique. Entre autres effets, ce champ permet de dévier les particules du vent solaire (constitué de particules électriquement chargées sensibles aux champs magnétiques), protégeant ainsi la Terre d'un flux important de rayonnements ionisants qui, à défaut, aurait empêché le développement de la vie, telle qu'on la connait, sur Terre.
Principe
La dynamo met en œuvre l'induction électromagnétique. En faisant tourner une bobine dans le champ magnétique d'un aimant permanent ou d'un électro-aimant, on produit une tension induite dans les fils de celle-ci. Cette tension est collectée grâce à des balais situés sur la ligne neutre, lesquels sont reliés à des collecteurs. La tension ainsi collectée est appliquée à un circuit fermé, ce qui génère un courant induit2.
Jalons historiques
Historiquement, grâce à Étienne Œhmichen, la dynamo a été utilisée pour produire l'électricité dans les automobiles jusque dans les années 1960. Les progrès de l’électronique et plus particulièrement de diodes électroniques fiables et compactes a permis d'utiliser un ensemble alternateur + redresseur plus compact et plus fiableb.
Les premiers appareils électriques, les tubes des postes de radio, les accumulateurs des automobiles demandaient souvent du courant continu qu'on n'obtenait pas avec un bon rendement à partir de courant alternatif tant qu'on ne disposait pas de diodes (à tubes puis à semi-conducteurs) pour faire des redresseurs, d'où la préférence accordée primitivement à la dynamo qui redresse le courant à la source par des commutations mécaniques. En revanche, la tension du courant continu ne peut pas être augmentée ou abaissée avec un transformateur, ce qui a disqualifié très facilement les machines produisant initialement du courant continu.
Ce sont souvent des dynamos qui servent à recharger les gadgets électriques à alimentation manuelle que l'écologie a remis à la mode : récepteurs de radio, lampes-torches et chargeurs de batterie de matériel portable. Dans ces appareils, une dynamo mue par une manivelle recharge un accumulateur ou un super-condensateur (moins sujet au vieillissement qu'un accumulateur).
- En 1861, Anyos Jedlik formule le concept de dynamo auto-excitatrice.
- En 1866, Werner Siemens découvre le principe de la dynamo-électrique.
- En 1868, l'anglais Henry Wilde (en) réalise la première machine dynamoélectrique ou dynamo. Il remplace, à la suite des travaux de Werner Siemens, l'aimant permanent par un électro-aimant alimenté par une machine auxiliaire.
- En 1869, l'inventeur belge Zénobe Gramme, rend possible la réalisation des génératrices3 à courant continu en créant le collecteur. Il améliore les premières versions archaïques d'alternateurs (1867) et devient célèbre en retrouvant le principe de l'induit en anneau de Pacinotti.
- En 1871, il présente à l'Académie des sciences de Paris la première génératrice industrielle de courant continu, que l'on appela machine de Gramme et qui constitue en fait ce qu'on appellera plus tard une magnéto4. Son invention sera commercialisée grâce à Hippolyte Fontaine.
Anneau de Pacinotti-Gramme avec la lettre B représentant les contacts de sortie du courant
Notes et références
Notes
- L'usure des "charbons", et du collecteur, de la dynamo historique nécessitait leur changement régulier sous peine de dégradation voire de destruction, du collecteur
Références
- Frédéric Sarrat, Contribution à l'étude générale des dynamos auto-excitatrices à courant continu, Paris, (BNF 31299615).
Annexes
Bibliographie
- Mikhail Kostenko et Ludvik Piotrovski, Machines électriques, tomes I et II, Éditions de Moscou (Mir), 1969, (réédité en 1979), 1348 p.
Articles connexes
-
Machine synchrone
Machine triphasée, le rotor est alimenté en courant continu.
Une machine synchrone est une machine électrique tournante dans laquelle le rotor tourne de façon synchrone avec le champ tournant du stator.
Par exemple, le rotor d'une machine synchrone alimentée par un réseau électrique tourne exactement de manière synchrone avec le champ tournant spécifié par la fréquence de ce réseau.
La machine synchrone se distingue donc de la machine asynchrone dont le rotor est en retard sur le champ tournant en fonctionnement moteur et en avance en fonctionnement générateur. Une autre caractéristique distinctive est que, contrairement à la machine asynchrone, un champ d'excitation supplémentaire est nécessaire pour le fonctionnement.
La machine synchrone peut fonctionner en tant que moteur électrique et générateur électrique1 pour :
- soit produire un courant électrique dont la fréquence est déterminée par la vitesse de rotation du rotor : fonctionnement en « générateur électrique » dans deux quadrants du plan couple-vitesse2,3,4. L'alternateur est une application particulière de la machine synchrone, fonctionnant en générateur dans un seul quadrant du plan couple-vitesse ;
- soit absorber un courant électrique dont la fréquence détermine la vitesse de rotation du rotor : fonctionnement « moteur »5,6,4.
Au-delà de quelques kilowatts, les machines synchrones sont généralement des machines triphasées. Le rotor, souvent appelé « roue polaire », est alimenté par une source de courant continu ou équipé d'aimants permanents.
Invention
La machine synchrone est inventée par Nikola Tesla. Son concept figure dans un dépôt de sept brevets du où il en décrit plusieurs variantes ainsi que le principe du courant alternatif biphasé et triphasé et leur distribution7. Tesla aurait développé cette idée de machine électrique quand il était étudiant à l'École polytechnique de Graz7 (1875-1876).
Principes généraux
Description
La machine synchrone se compose d'une partie tournante, le rotor, et d'une partie fixe, le stator. Le rotor peut se composer d'aimants permanents ou être constitué d'un bobinage alimenté en courant continu par l'intermédiaire de bagues collectrices et de balais le tout constituant un électroaimant1,8,6,9.
Lorsque la machine est utilisée en génératrice, pour produire du courant, on utilise une force extérieure pour faire tourner le rotor : son champ magnétique, en tournant, induit un courant électrique alternatif dans les bobines du stator. La vitesse de ce champ tournant est appelée « vitesse de synchronisme ».
Pour le fonctionnement en tant que moteur, par exemple dans le cas d'un stator comportant trois phases, le simple fait de les relier aux trois phases d'une alimentation en courant alternatif triphasé produit un champ magnétique tournant d'amplitude constante, la vitesse de rotation étant égale à la fréquence de l'alimentation. C'est dans ce cas l'alimentation qui fixe la vitesse de synchronisme.
Si l'on place dans ce champ un aimant ou un électroaimant monté sur un axe, celui-ci va « s'accrocher » au champ tournant et entrer en rotation avec lui. Dans le cas des machines dites à « réluctance synchrone », il est même possible d'utiliser un rotor constitué d'un simple empilement de tôles ferromagnétiques, ne possédant pas d'aimantation propre, et dans lequel ne circule aucun courant.
Il convient ici de signaler une erreur commune dans les vulgarisations que l'on peut trouver sur la machine électrique : il est souvent dit que le champ magnétique du stator interagit avec le champ du rotor pour le pousser ou le tirer. Ceci est physiquement impossible, car les champs magnétiques n'interagissent pas entre eux. Plus exactement, pour faire tourner le rotor, il faut arriver à produire une force (ou un couple de forces), et on ne trouvera pas dans un cours de physique de formule combinant directement deux champs pour donner une force10.
En revanche, on trouvera facilement qu'il est possible de produire une force en faisant agir un champ magnétique sur un courant électrique (force de Laplace). Il s'agit bien d'une action directe du champ sur le courant lui-même et non sur le champ produit par le courant, car la formule serait alors très différente. On peut synthétiser l'effet de l'ensemble des courants circulant dans un objet, avec leur position, direction sens et intensité en un vecteur dit « moment magnétique ». Contrairement au champ magnétique, il est lié à l'objet dans lequel circulent les courants et ne se propage pas à l'extérieur. Ce concept est en particulier applicable aux courants circulant dans les bobinages d'un rotor constitué d'électroaimants. Mais bien qu'en apparence il n'y ait pas de courant dans les aimants permanents, ceux-ci produisent également un moment magnétique.
C'est alors l'action du champ magnétique du stator sur le moment magnétique du rotor qui produit le moment mécanique du couple qui va provoquer la rotation de la machine. En première approche, le champ magnétique du rotor ne joue aucun rôle dans l'effet moteur, et va même plutôt le contrarier en induisant une force contre-électromotrice dans le stator, qui s'oppose partiellement à l'alimentation.
Cas du rotor constitué d'un aimant permanent
Bien qu'aucun courant ne soit injecté dans un tel aimant, les électrons circulant sur leur orbites constituent l'équivalent de petits circuits électriques et produisent donc un moment magnétique. De plus les particules subatomiques (électrons, protons et même neutrons) sont dotées d'un moment magnétique quantique intrinsèque. Bien entendu, ceci est vrai pour tous les corps matériels. Ce qui fait la particularité des aimants et des matériaux ferromagnétiques en général, c'est la possibilité d'orienter l'ensemble des moments élémentaires dans une même direction, alors que dans les autres matériaux ils restent disposés de façon aléatoire, produisant une résultante moyenne nulle. L'alignement des domaines magnétiques élémentaires sur une direction commune permet ainsi aux aimants de présenter un moment magnétique d'ensemble important, sur lequel le champ magnétique du stator va pouvoir agir pour produire le couple entraînant la machine.
Relation entre la fréquence d'alimentation de la machine et sa vitesse de rotation
- On désigne par n s la vitesse de rotation du champ statorique dans la machine.
- On désigne par n la vitesse de rotation de la machine.
La fréquence de synchronisme est toujours un sous-multiple entier de la fréquence de l'alimentation électrique, ceci en fonction du nombre de paires de pôles magnétiques constitutifs du stator1. Exemple :
- en 50 Hz c'est un sous-multiple de 3 000 tr/min, soit : 3 000 (une paire de pôles) ; 1 500 (deux paires de pôles) ; 1 000 (trois paires de pôles) 750 (quatre paires de pôles), etc.
Soit p le nombre de paires de pôles de la machine et f la fréquence de l'alimentation. On a :
- n s = f p en tr/s ou n s = 60 f p en tr/min.
Méthodes de démarrage
Il n'est pas possible de faire démarrer correctement, sans aide extérieure, une machine synchrone en connectant ses enroulements statoriques directement sur un réseau alternatif. Ceci parce que l'inertie du rotor l'empêche de prendre immédiatement la vitesse du champ qui tourne autour de lui, et l'amène à percevoir un couple résultant de moyenne faible ou nulle. Mais, si l'on n'entraîne pas le rotor par une force extérieure, il est possible de la faire tourner en alimentant ses enroulements statoriques par un courant alternatif dont la fréquence augmente progressivement de zéro à la fréquence de synchronisme et en faisant en sorte que la tension aux bornes des enroulements soit proportionnelle à la fréquence. Sa vitesse de synchronisme sera directement liée à la fréquence de l'alimentation électrique.
Une autre approche est d'utiliser une machine pourvue d'une cage d'écureuil au rotor de la machine synchrone pour y jouer le rôle d'amortisseur Leblanc afin de démarrer en mode asynchrone et de passer ensuite en mode synchrone lorsque la vitesse est suffisamment proche de la valeur finale11.
Un autre moyen est de réaliser l'auto-pilotage de la machine, c'est-à-dire de maintenir l'orthogonalité du flux magnétique rotorique par rapport au flux statorique12, par exemple, en disposant sur son axe un capteur qui délivre une information de la position du rotor. Cette information est traitée par un convertisseur électronique qui fournit le courant statorique à la machine, en phase avec sa force contre-électromotrice12. Cette méthode permet d'obtenir un fonctionnement identique à celle d'une machine à courant continu avec l'avantage de la suppression du collecteur et des balais12.
Machine synchrone triphasée
Mise en équation
Méthode utilisée
Notations
- Toutes les grandeurs statoriques sont repérées soit par l'indice S soit par des indices en majuscules.
- Toutes les grandeurs rotoriques sont repérées soit par l'indice r soit par des indices en minuscules.
L'angle θ ( t ) = Ω m . t correspond au décalage angulaire entre le stator et le rotor.
- L S ; L r : Inductances propres d'un enroulement du stator ; d'un enroulement du rotor.
- M S : Inductance mutuelle entre deux enroulements du stator.
- M r S : Valeur maximale de l'inductance mutuelle entre l'enroulement du rotor et un du stator (correspondant à une position pour laquelle θ = 0 ± 2π/3 ).
Hypothèse
La mise en équation n'est opérable que pour une machine à pôles lisses et dont le circuit magnétique est non saturé. Pour les autres machines, on apportera des correctifs permettant (avec plus ou moins d'exactitude) la prise en compte de leurs complexités.
Pour la suite on considère une machine pour laquelle :
- son circuit magnétique est homogène (entrefer constant) et non saturé. De ce fait, les diverses inductances sont constantes (entrefer constant) ;
- les courants des trois phases statoriques ont la même valeur efficace IS (la machine est assimilable à un récepteur triphasé parfaitement équilibré) ;
- elle possède une seule paire de pôles (machine bipolaire). Les machines multipolaires se ramènent à une machine bipolaire au prix d'une transformation angulaire.
Représentation schématique de la machine.
Les courants
Au stator
On fixe l'origine des temps de manière à pouvoir écrire :
- i A ( t ) = I S 2 ⋅ cos α S
On en déduit les courants des deux autres phases du stator :
- i B ( t ) = I S 2 ⋅ cos ( α S − 2 π 3 )
- i C ( t ) = I S 2 ⋅ cos ( α S + 2 π 3 )
Avec : α S = ω S ⋅ t , et ω S : pulsation des courants statoriques.
Au rotor
Au rotor, il n'y a que le courant continu Ir alimentant la bobine du rotor par l'intermédiaire d'un contact glissant sur deux bagues collectrices.
Il n'y a pas de glissement dans le cas d'une machine synchrone.
Remarque
- Si le rotor est constitué d'un aimant, on considérera une bobine produisant un moment magnétique équivalent, c’est-à-dire traversée par un courant Ir que l'on détermine à l'aide de la méthode d'Hopkinson (application du théorème d'Ampère à un circuit magnétique).
- C’est-à-dire :
- L a la longueur de l'aimant
- S a ; S b respectivement la section moyenne de l'aimant et celle de la bobine
- On pose :
- M b = M a
- N I r . S b = H . L a . S a
- En supposant que la bobine et l'aimant ont la même section, on obtient :
- N I r = B r . L a μ 0
Les flux
Flux à travers un enroulement statorique
- Φ A = L S i A + M S i B + M S i C + M r S cos θ ⋅ I r ,
Comme :
- i A + i B + i C = 0 , alors M S i B + M S i C = − M S i A ,
- Φ A = ( L S − M S ) i A + M r S cos θ ⋅ I r ,
On pose
- ( L S − M S ) = L S : inductance cyclique
L'expression du flux devient alors
- Φ A = L S i A + M r S cos θ I r
l'expression du nombre complexe représentant le flux est
- Φ _ A = L S i _ A + M r S I _ r
avec I _ r la représentation complexe d'un courant sinusoïdal « fictif » de valeur maximale I r et de pulsation θ = ω t .
En toute rigueur, cette substitution n'est valable qu'en régime établi : aucune modification de la charge ou de l'alimentation. C'est une condition nécessaire pour affirmer que la fréquence de rotation est exactement égale à la fréquence de l'alimentation.
Flux à travers un enroulement rotorique
Le flux traversant le rotor est le résultat de deux champ magnétiques :
- le champ tournant, créé par les enroulements statoriques ;
- le champ propre, créé par l'enroulement rotorique qui est constant (courant continu) mais qui tourne mécaniquement à la même vitesse que le précédent (machine synchrone). Avec la même limite qu'au paragraphe précédent : aucune modification de la charge ou de l'alimentation.
Les tensions
Tension aux bornes d'une phase du stator
- V A = R S . I A + d Φ A d t
- V _ A = ( R S + j ω S L S ) I _ A + j ω S M r S I _ r
On pose E a v la tension à vide, c’est-à-dire la tension lorsque I _ A = 0 (tension créée par le seul champ rotorique)
- V _ A = ( R S + j ω S L S ) I _ A + E _ a v
Modélisation
Il existe plusieurs modèles équivalents de la machine synchrone suivant le nombre de paramètres dont on veut tenir compte.
Le modèle équivalent de Behn-Eschenburg
Le modèle de Behn Eschenburg ne s'applique que si la machine est non saturée et à pôles lisses. C'est le plus simple, il ne tient compte d'aucune saturation ni variation de l'entrefer. Il consiste à remplacer chaque phase de la machine par un ensemble de trois dipôles en série tels que la tension aux bornes de ce dipôle est égale à :
- E _ a v = ( R S + j ω S L S ) I _ A + V _ A = ( R S + j X S ) I _ A + V _ A
avec :
- R S et X S constants et indépendants du fonctionnement de la machine.
- E _ a v = k ω I r uniquement proportionnelle à la fréquence de rotation et au courant d'excitation (courant rotorique).
Ce modèle convient bien aux gros turboalternateurs de forte puissance. On peut encore simplifier le modèle (et les calculs qui en découlent) en négligeant R S devant X S .
Le modèle équivalent de Potier
Détermination des paramètres du triangle de Potier.
Ce modèle est plus complet que celui de Behn-Eschenburg. Il tient compte de la saturation en faisant varier le courant d'excitation en fonction du courant traversant les bobines du stator. Cette modification du courant excitateur fait varier la fcem.
Dans ce modèle on a :
- i r = i r v − α . I
- E = V + R . I + j . ω . λ . I
Le modèle de Blondel à deux réluctances
Il permet de prendre en compte les variations angulaires de réluctance des machines synchrones à pôles saillants.
Stabilité statique
La stabilité en régime dynamique du réseau électrique est son aptitude à éviter tout régime oscillatoire divergent et à revenir à un état stable acceptable. Ceci inclut l’intervention éventuelle des protections et automatismes divers fonction des perturbations envisagées13.
Schéma électrique équivalent d'un générateur synchrone.
La puissance active délivrée par une machine synchrone à ses bornes est égale à :
- P a c t i v e = U b o r n e s ∗ I ∗ cos ϕ = E ⋅ U b o r n e s X g e n e r a t e u r ⋅ sin δ
Avec les notations du schéma ci-contre, c'est-à-dire E la tension électromotrice du générateur, X g e n e r a t e u r son impédance, I le courant, U b o r n e s la tension à ses bornes, ϕ le déphasage entre courant et tension et δ l'angle interne du générateur, autrement dit l'angle entre Ubornes et E.
Deux angles internes sont possibles quand la puissance délivrée par le générateur est égale à la puissance mécanique qui lui est fournie.
Les flèches en vert indiquent la direction que prend l'angle interne dans les différentes zones. On voit clairement que le point A est stable, le point B ne l'est pas
14
Ce générateur reçoit une puissance mécanique, typiquement d'une turbine, notée Pm. À l'équilibre, la puissance entrante, mécanique, est égale à la puissance sortante, électrique. On néglige ici les pertes13. Pour cet équilibre deux angles internes sont possibles (cf. image).
L'angle interne du générateur est régi par l'équation suivante13 :
- J ⋅ ω m p ⋅ d 2 δ d t 2 = P m − P e
Où ω m est la vitesse mécanique du rotor, J le moment d'inertie du rotor, p le nombre de pôles du générateur et Pe la puissance électrique. D'après cette équation si la puissance mécanique est supérieure à la puissance électrique consommée, alors l'angle interne augmente et inversement. On en déduit le diagramme ci-contre quant à la direction que prend l'angle interne en cas de petite variation autour du point d'équilibre.
Utilisations
Les générateurs synchrones sont utilisés dans l'industrie de l'énergie pour fournir de l'énergie électrique sur une large plage de puissance. Ils fournissent de la puissance active et de la puissance réactive simultanément (généralement du cos phi inductif 0,8 au cos phi capacitif 0,9 ou en tant que déphaseur ne fournissant que de la puissance réactive) et suivent les exigences du réseau électrique du gestionnaire. Le comportement de la puissance réactive est réglé par le courant d'excitation. Via le processus de synchronisation, le générateur synchrone est connecté au secteur. En mode générateur, la machine tourne généralement à une vitesse très peu variable, en fonction de la fréquence du réseau.
-
-
-
Bagues collectrices et balais sur le rotor d'une machine synchrone.
-
Les machines synchrones sont aussi utilisées de différentes manières comme machines d'entraînement dans l'industrie, comme entraînements pour bateaux et trains ou pour pompes et compresseurs. Les machines synchrones, doivent souvent être à vitesse variable. Afin de pouvoir réguler en continu la vitesse d'une machine synchrone, l'électronique de puissance utilise un convertisseur de fréquence.
Notes et références
- M. Kostenko et L. Piotrovski (trad. Ch. Bir), Machines électriques — Machines à courant alternatif, t. II, Moscou, Éditions Mir, , 3e éd. (1re éd. 1969), 766 p., p. 16-43.
- Les quadrants II ou IV du plan couple-vitesse (dit des « quatre quadrants »), figurant dans l'article « Quadrant (mathématiques) », avec la vitesse en ordonnée et le couple en abscisse. Comme toutes les machines électriques — qui sont par nature réversibles —, une machine synchrone passe sans discontinuité du fonctionnement « moteur » au fonctionnement « générateur » par simple inversion du signe du couple (charge entraînée ou entraînante, par exemple pendant les phases d'accélération ou de freinage) ou du signe de la vitesse (inversion du sens de rotation).
- Paul Landercy, « Le fonctionnement en quatre quadrants d’un entraînement à variation de vitesse » [archive] [PDF], sur assets.cdnsw.com, (consulté le ).
- Robert Chauprade, Francis Milsant, Commande électronique des moteurs à courant alternatif – À l'usage de l'enseignement supérieur, écoles d'ingénieurs, facultés, CNAM, Paris, éd. Eyrolles, coll. « Ingénieurs EEA », 1980, 200 p., p. 86-92.
- Dans les quadrants I ou III du plan couple-vitesse défini dans la note ci-dessus.
- Patrick Abati, « Description d'un moteur synchrone » [archive], sitelec.org, 7 septembre 2001, consulté le 28 mars 2012.
- Pavel 2013, p. 18-28.
- Max Marty, Daniel Dixneuf, Delphine Garcia Gilabert, Principes d'électrotechnique – Cours et exercices corrigés, Paris, Dunod, coll. « Sciences sup », , 684 p. (ISBN 978-2100526338, lire en ligne [archive]), p. 73-132.
- Charles Harel, Machines électriques et essais de Machines, Paris, Société française des électriciens – École supérieure d'électricité, , 298 p., p. 155-186.
- Il existe des formules donnant la force entre deux aimants à partir du seul champ, mais le principe physique sous-jacent est tout de même une action du champ de chaque aimant sur le moment magnétique de l'autre, et c'est en tout état de cause différent du cas de deux champs libres dans l'espace interagissant directement entre eux.
- Patrick Abati, « Circuits magnétiques des machines — Machines synchrones » [archive], sitelec.org, 23 février 2002, consulté le 11 octobre 2022.
- (en) P. Zimmermann, « Electronically Commutated D.C. Feed Drives for Machines Tools », Robert Bosch GmbH – Geschäftsbereich Industrieaurüstung, Erbach, Germany, p. 69-86, dans Proceding of PCI Motorcon, septembre 1982, p. 78-81.
- « Stabilité dynamique des réseaux électriques industriels » [archive] (consulté le ) [PDF].
- Diagramme inspiré du polycopié Grundlagen der Hochspannungs- und Energieübertragungstechnik de la TU Munich, p. 246.
Bibliographie
: document utilisé comme source pour la rédaction de cet article.
- M. Kostenko et L. Piotrovski (trad. Ch. Bir), Machines électriques — Machines à courant alternatif, t. II, Moscou, Éditions Mir, , 3e éd. (1re éd. 1969), 766 p.
- Ilarion Pavel, « L'invention du moteur synchrone par Nikola Tesla » [archive] [PDF], sur bibnum.education.fr [archive], bibnum [archive], .
Annexes
Articles connexes
Liens externes
-
Alternateur d'Alexanderson
Alternateur d'Alexanderson à la station radio de Grimeton en Suède.
Un alternateur d'Alexanderson est une machine électrique rotative inventée par Ernst Alexanderson pour produire un courant alternatif à haute fréquence — jusqu'à 10 kHz(17,2kHz en
ce qui concerne l'alternateur de Grimeton, en Suède) — destinée aux communications radioélectriques. Cet appareil est inscrit sur la liste des évènements importants de l'IEEE.
Historique
Premières réalisations
En 1891, Frederick Thomas Trouton donne une conférence dans laquelle il établit que si un alternateur électrique tournait à une vitesse suffisante pour produire des alternances de tension rapides, il produirait de l'énergie HF qui se transmettrait sans fil1.
Nikola Tesla travaille sur des alternateurs qui permettent des fréquences de sortie de 50 000 Hz2. Un précurseur de l'alternateur d'Alexanderson, au début de 1896, produit une onde continue dans la fréquence des ondes longues se trouvant dans les bandes VLF et LF2,3.
Productions
En 1904, Reginald Fessenden signe avec General Electric pour la fabrication d'un alternateur capable de produire une fréquence de 100 000 Hz en onde continue. L'alternateur est conçu par Ernst Alexanderson. L'alternateur d'Alexanderson est très utilisé pour les radiocommunications en ondes longues par les stations côtières, mais est trop important et trop lourd pour être embarqué à bord des navires.
1906 voit apparaître les premiers alternateurs de 50 kW. L'un est destiné à Reginald Fessenden à Brant Rock (Massachusetts), un autre à John Hays Hammond, Jr. à Gloucester (Massachusetts), et un, enfin, à la branche américaine de la société Marconi à New Brunswick (New Jersey).
Alexanderson obtient un brevet en 1911 pour son appareil. L'alternateur d'Alexanderson vient juste après l'émetteur à éclateur rotatif de Fessenden et est le deuxième système capable de transmettre la voix humaine en modulation d'amplitude. Jusqu'à la découverte de l'oscillateur à tubes électroniques dans les années 1920, l'alternateur d'Alexanderson joue un rôle très important en permettant de transmettre la voix avec de fortes puissances. Le dernier alternateur d'Alexanderson, encore en état de fonctionner, se trouve à la station radio de Grimeton en Suède.
Stations
(en) New Brunswick [archive] (New Jersey), USA |
WII |
13 761 |
21,8 |
|
1918 |
1948 |
1953 |
À l'origine, un alternateur de 50 kW. |
WRT |
13 274 |
22,6 |
|
1920 |
1948 |
1953 |
|
(en) Marion [archive], Massachusetts, USA |
WQR |
13 423 |
22,3 |
|
1920 |
1932 |
|
|
WSO |
11 623 |
25,8 |
|
1922 |
1932 |
|
Haiku (Hawaï) après 1942. |
(en) Bolinas [archive], Californie, USA |
KET |
13 100 |
22,9 |
|
1920 |
1930 |
1946 |
|
KET |
15 600 |
19,2 |
|
1921 |
1930 |
|
Haiku (Hawaï) après 1942. |
(en) Radio Central [archive], Rocky Point, New York, USA |
WQK |
16 484 |
18,1 |
|
1921 |
1948 |
1951 |
|
WSS |
15 957 |
18,8 |
|
1921 |
1948 |
|
Marion après 1949 |
(en) Kahuku [archive], Hawaï, USA |
KGI |
16 120 |
18,6 |
|
1920 |
1930 |
1938 |
|
KIE |
16 667 |
18 |
|
1921 |
1930 |
1938 |
|
(en) Tuckerton [archive], NY, USA |
WCI |
16 304 |
18,4 |
|
1921 |
1948 |
1955 |
À l'origine, un alternateur de Goldschmidt. |
WGG |
13 575 |
22,1 |
|
1922 |
1948 |
1955 |
|
(en) Caernarfon [archive], Pays de Galles, UK |
MUU |
14 111 |
21,2 |
|
1921 |
|
1939 |
|
GLC |
9 592 |
31,3 |
|
1921 |
|
1939 |
|
(en) Radio Kootwijk, Apeldoorn, Pays–Bas |
PCG |
12 500 |
24 |
400 |
1923 |
1925 |
WWII |
Remplacée par une station à ondes courtes en 1925. Les émetteurs ont été détruits au cours de la Seconde Guerre mondiale4. |
PCG |
6 250 |
48 |
400 |
1923 |
1925 |
WWII |
Remplacée par une station à ondes courtes en 1925. Les émetteurs ont été détruits au cours de la Seconde Guerre mondiale4. |
Varsovie, Pologne |
AXO |
21 127 |
14,2 |
|
1923 |
|
|
Détruite au cours de la Seconde Guerre mondiale. |
AXL |
18 293 |
16,4 |
|
1923 |
|
|
Détruite au cours de la Seconde Guerre mondiale. |
Grimeton, Suède |
SAQ |
17 442 |
17,2 |
|
1924 |
|
|
À l'origine 18 600 m, toujours opérationnelle. Inscrite au Patrimoine mondial de l'Unesco. |
|
|
|
|
1924 |
1960 |
1960 |
Couplage en parallèle. |
(en) Monte Grande [archive], Buenos Aires, Argentine |
LPZ |
16 700 |
18 |
500 |
1924 |
1931 |
|
|
LPZ |
8 350 |
36 |
500 |
1924 |
1931 |
|
|
Pernambuco, Recife, Brazil |
|
|
|
|
never |
|
|
Livrée en 1924 |
|
|
|
|
never |
|
|
Livrée en 1924 |
- Notes sur les stations de l'US Navy
Démarrées en 1942, quatre stations sont opérées par l'US Navy (marine de guerre des États–Unis) :
- • la station de Haiku (Hawaï) jusqu'en 1958 ;
- • celle de Bolinas (Californie) jusqu'en 1946 ;
- • de Marion (Massachusetts) jusqu'en 1948 ;
- • de Tuckerton (État de New York) jusqu'en 1948.
Deux alternateurs sont livrés à Hawaï en 1942, provenant de Marion et Bolinas. Haiku en reçoit un tandis que l'autre est livré à l'île de Guam, mais il retourne à Haiku après la Seconde Guerre mondiale. En 1943, Haiku met en œuvre le premier alternateur de 200 kW. Le deuxième gros alternateur démarre à Haiku en 1949. Ces deux alternateurs sont vendus « pour les pièces » en 1969, peut–être à la Kreger Company of California. La station de Marion est transférée à l'US Air Force et est utilisée jusqu'en 1957 pour la transmission des bulletins météorologiques en Arctique, au Groenland, au Labrador et en Islande. Un des alternateurs est envoyé à la casse, le second est remis à l'US office of standard (bureau de normalisation américain). Les deux machines du Brésil n'ont jamais été utilisées en raison de problèmes d'organisation locaux, elles ont été retournées à Radio Central à Rocky Point (État de New York) peu après 1946.
Principe de fonctionnement
L'alternateur d'Alexanderson est basé sur la réluctance variable (un peu comme un capteur de guitare électrique) qui fait varier le champ magnétique reliant deux bobines. L'alternateur possède un stator circulaire en fer feuilleté qui supporte deux séries de bobines disposées en croissant. La première série de bobines est alimentée en courant continu et produit un champ magnétique dans l'espace vide du stator. La seconde série produit une tension alternative aux fréquences radio. Le rotor est un disque en fer feuilleté avec des trous ou des fentes autour de sa circonférence. Ces ouvertures sont remplies d'un matériau non–magnétique pour diminuer la traînée aérodynamique. Le rotor ne possède aucun bobinage ou connexion électrique.
Quand le rotor tourne, soit c'est une partie en fer du disque qui se trouve dans l'espace inter–électrodes et un fort champ magnétique parcourt l'espace, soit c'est une partie non–magnétique et le champ magnétique est beaucoup plus faible. Ces changements de flux génèrent une tension dans la deuxième série de bobines du stator.
Les bobines HF du final sont toutes reliées entre elles par un transformateur de sortie dont l'enroulement du secondaire est lui-même connecté au circuit de l'antenne. La modulation de la voix en radiotéléphonie, ou la radiotélégraphie, sont produites par un amplificateur magnétique qui est également employé pour la modulation d'amplitude.
La fréquence de l'émission radioélectrique d'un alternateur d'Alexanderson exprimée en hertz est le produit du nombre de paires d'électrodes du stator par la vitesse de rotation du rotor en tours par seconde. Par conséquent, si on veut augmenter la fréquence d'émission, il faut, soit augmenter le nombre de paires d'électrodes du stator, soit la vitesse de rotation du rotor, soit les deux.
Performances
Un gros alternateur d'Alexanderson peut atteindre une puissance de sortie HF de 200 kW et nécessite un refroidissement à eau ou à huile. Ce type d'appareil possède 600 paires d'électrodes sur les enroulements du stator et doit tourner à 2 170 tours par minute pour une fréquence de sortie de 21,7 kHz. Pour obtenir des fréquences plus élevées, la vitesse de rotation du rotor pourra être amenée jusqu'à 20 000 tours par minute.
Contrairement à l'émetteur à étincelles et à l'émetteur à arcs de Valdemar Poulsen5 également utilisés à cette époque, l'alternateur d'Alexanderson génère une onde continue de grande pureté.
Avec un émetteur à étincelles, l'énergie électromagnétique s'étale sur de larges bandes latérales et transmet en réalité sur plusieurs fréquences à la fois. Avec un émetteur à onde continue comme l'alternateur d'Alexanderson l'énergie est concentrée sur une seule fréquence et augmente d'autant l'efficacité de l'émission.
La fréquence d'émission est directement liée à la vitesse du rotor ce qui a conduit à utiliser un régulateur de vitesse automatique pour obtenir une fréquence d'émission stable. Ce système de régulation doit compenser les variations de vitesse du rotor dues aux différences de charge de l'alternateur au moment de la manipulation télégraphique.
Inconvénients
En raison des très hautes vitesses de rotation d'un alternateur d'Alexanderson par rapport à un alternateur conventionnel, il faut un entretien permanent assuré par du personnel qualifié. Il est indispensable de prévoir un refroidissement efficace à eau ou à huile et une excellente lubrification ce qui est difficile avec les lubrifiants de l'époque. En effet, les premières éditions du Admiralty Handbook of Wireless Telegraphy de la Marine britannique (manuel de télégraphie sans fil du ministère de la Marine) décrit ce problème avec beaucoup de précision, sans doute pour justifier le choix de la Royal Navy d'avoir rejeté cette technologie. En revanche l'US Navy l'utilise largement.
On peut aussi noter que chaque changement de fréquence est une opération longue et compliquée. De plus, contrairement à l'émetteur à étincelles, on ne peut pas couper la porteuse comme on le souhaite ce qui exclut, par exemple, de pouvoir « écouter entre les signaux » (c'est–à–dire de stopper la transmission entre chaque signal pour écouter s'il y a une réponse). Il y a aussi le risque de faire repérer le bâtiment par un navire ennemi.
À cause de la limite du nombre d'électrodes et de la vitesse de rotation de la machine, l'alternateur d'Alexanderson est, au mieux, capable d'émettre dans le bas de la bande des ondes moyennes ; l'émission en ondes courtes ou en micro-ondes est physiquement impossible.
Notes et références
- (en) earlyradiohistory.us 1892alt.htm [archive] Histoire des débuts de la radio aux États–Unis.
- (en) Brevet U.S. 447920 [archive], Method of Operating Arc-Lamps, 10 mars 1891, description d'un alternateur qui produit ce qui, en ce temps-là, est appelé « courant haute fréquence » — 10 000 cycles par seconde.
- (en) Leland Anderson, Nikola Tesla On His Work With Alternating Currents and Their Application to Wireless Telegraphy, Telephony, and Transmission of Power (Travaux de Nikola Tesla sur les courants aklternatifs et leur application à la télegraphie sans fil), Sun Publishing Company, LC 92-60482, (ISBN 0-9632652-0-2)
- (nl) Histoire du PCG [archive], Pays-Bas
- Un émetteur à arcs est un dispositif qui était utilisé pour convertir du courant continu en énergie radio-électrique. (en) On peut consulter l'article de la Wikipédia anglophone : Arc converter.
Sources
- (en) Article sur les générateurs radio historiques. [archive]
- (en) David Fisher et Marshall Fisher, Tube, the Invention of Television (Le tube électronique, l'invention de la télévision) Counterpoint, Washington, USA, (1996) (ISBN 1-887178-17-1)
- (en) Hammond, John Winthrop. Men and Volts, the Story of General Electric (Hommes et volts, l'histoire de l'électricité), publié en 1941. Citation : Alexanderson alternator pages 351, 372.
- (en) Notes sur les débats de l'Institut de la Marine américaine selon les dossiers de M.G. Abernathy.
- (en) Lettre du capitaine G. Warren Clark, retraité de l'US Navy, à M.G. Abernathy.
- (en) Lettre du capitaine du corvette Francis J. Kishima du corps de Garde-côtes américains, station d'Hawaï, à Monsieur Mayes.
- (en) Station radio de Yosami, 1929 [archive]
Brevets
Liens externes
-
Alternateur à commutation de flux
Un alternateur à commutation de flux est une forme d'alternateur à haute vitesse mis en rotation par les flux de gaz, d'un réacteur, qui entraine une turbine. Ce type d'alternateur est de conception simple, robuste et capable d'une vitesse de rotation élevée. Leur usage est notamment répandu dans les missiles.
Animation d'un alternateur avec un rotor à six pôles, les flèches indiquent le sens des flux magnétiques.
Principe
La rotation de la couronne dentée génère une variation du sens des flux magnétiques. Cette variation de flux génère une variation de tension, dans les bobines qu'il traverse. La fréquence de cette variation de tension est directement liée a la vitesse de rotation du rotor et au nombre de dents sur la couronnes1.
Du fait de la vitesse élevée obtenue par la mise en rotation, générée par la vitesse de la turbine, entraînant l'alternateur, mise en rotation par le flux de gaz du réacteur, peu de dents sont nécessaires au bon fonctionnement. La fréquence étant lié à la vitesse d'éjection des gaz elle varie dans le temps et atteint 0 tr/min lorsque le flux de gaz s’arrête. Si l'engin à besoin d'électricité après l'extinction du réacteur il faut prévoir un dispositif de stockage de l'énergie électrique.
Utilisation
Pouvant être utilisé dans tout engin, ayant besoin d’énergie électrique et générant un flux de fluide suffisamment puissant pour mettre en rotation la turbine. Utilisé essentiellement dans les missiles du fait du peu de composant, de l'absence d'entretien et de sa fiabilité mème aux températures élevées.
Avantages
- Peu de pièces en rotations; uniquement la turbine et la roue dentée
- Bobinages, fils et connecteur électriques uniquement sur le stator.
Inconvénients
- Puissance produite directement lié à l'énergie du flux de gaz. Arrêt de la production d’électricité dès que l'énergie du flux de gaz du réacteur est insuffisant pour entraîner la turbine et le rotor de l'alternateur pour que celui-ci produise suffisamment d'énergie électrique.
Notes et références
Annexes
Articles connexes
-
Énergie libre
L'énergie libre F (appelée aussi énergie de Helmholtz) est, en thermodynamique, une fonction d'état extensive dont la variation permet d'obtenir le travail utile susceptible d'être fourni par un système thermodynamique fermé, à température constante, au cours d'une transformation réversible. En anglais, cette grandeur est appelée énergie libre de Helmholtz et est généralement représentée par la lettre A dans les équations.
Cette fonction ne doit pas être confondue avec la fonction enthalpie libre G (énergie libre de Gibbs des anglo-saxons), qui s'applique aux systèmes évoluant à la température T et à pression constante (cas des réactions effectuées à l'air libre).
L'énergie libre est souvent utilisée dans l'étude des explosions qui induisent une variation de pression ou encore dans la calorimétrie à volume constant effectuée dans une bombe calorimétrique.
Néanmoins le rôle de la fonction F est beaucoup moins important en thermochimie que celui de la fonction enthalpie libre qui est la fonction phare, indispensable à l’étude des équilibres chimiques.
Cette fonction, qui n'est en fait rien d'autre que le logarithme de la fonction de partition, joue un rôle fondamental en physique théorique.
Définition
Considérons une transformation irréversible effectuée à la température T et à volume V constant. S’il n’y a pas de montage électrochimique, il n’y a pas de travail électrique. Comme V est constant, le travail des forces de pression est nul donc, en appliquant le premier principe, Δ U syst = Q irrév .
Appliquons alors le second principe : S créée = Δ S syst + Δ S ext > 0
Le système échange avec le milieu extérieur Q irrév . Si on se place du côté du milieu extérieur, celui-ci reçoit − Q irrév = − Δ U syst et la variation d’entropie du milieu extérieur devient égale à
Δ S ext = − Q irrév T = − Δ U syst T
d’où S créée = Δ S syst − Δ U syst T > 0.
Multiplions par − T :
− T S créée = − T Δ S syst + Δ U syst < 0.
On définit ainsi la fonction énergie libre :
F = U − T S
Pour une transformation effectuée à T et V constants, on obtient :
( Δ F syst ) T , V = Δ U syst − T Δ S syst = − T S créée < 0.
Si la transformation est réversible, S créée = 0 et ( Δ F syst ) T , V = 0.
En revanche, si la transformation est irréversible, S créée > 0 et donc ( Δ F syst ) T , V < 0.
La transformation réelle à
T et
V constants ne peut s’effectuer qu’avec une diminution de l’énergie libre du système.
Différentielle de F
F = U − T S ⇔ d F = d U − T d S − S d T
Appliquons le premier principe
d U = δ Q + δ W fp + δ W ′ = δ Q − P . d V + δ W ′
où δ W fp = − P . d V est le travail des forces de pression et δ W ′ représente tout autre forme de travail, comme le travail électrique dans un montage de pile.
Appliquons le second principe
δ Q r e ´ v = T . d S
d U s'exprime donc :
d U = T . d S − P . d V + δ W r e ´ v ′
d'où :
d F = − P . d V − S . d T + δ W r e ´ v ′
Si la température est constante :
d F = − P . d V + δ W r e ´ v ′ '
Dans le cas d'une transformation réelle donc irréversible :
d F < − P . d V + δ W i r r e ´ v ′
Et pour une transformation finie entre deux états d'équilibre :
Δ F < W fp + W i r r e ´ v ′
On montre bien que la variation de la fonction F est égale au travail fourni par le système si la transformation est effectuée à T constante et si elle est réversible.
Dans le cas d'une transformation à volume constant et travail W ′ nul :
Δ F < 0
plus précisément :
( Δ F syst ) T , V = − T . S c r e ´ e ´ e < 0
La transformation réelle à T et V constants ne peut s’effectuer qu’avec une diminution de l’énergie libre du système. On peut donc identifier F à un potentiel thermodynamique du système lors d'une transformation isotherme et isochore.
Remarque : voir à titre de comparaison Enthalpie libre; potentiel thermodynamique défini à T et P constants.
Relations utiles à partir de F ou de ses différentielles
- Relation de Maxwell : S = − ( ∂ F ∂ T ) V
- Relation de Gibbs-Helmholtz : il existe une relation analogue à celle de Gibbs-Helmholtz concernant F : ( ∂ ( F T ) ∂ T ) V = − U T 2
- Potentiel chimique : une définition du potentiel chimique peut être donnée à partir d'une différentielle partielle de F . μ i = ( ∂ F ∂ n i ) V , T , n j ≠ i
Unité
L'unité de mesure de l'énergie libre dans le Système international est le joule. En effet, du fait de la relation F = U - TS, F est homogène à U qui est une énergie.
Voir aussi
Sur les autres projets Wikimedia :
Autres fonctions d'état
Références
-
Énergie libre (homonymie)
Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom.
Énergie libre peut faire référence à :
Physique
Biophysique
- Principe de l'énergie libre, modèle d'explication des capacités d'adaptation et de maintien des systèmes biologiques en état de quasi-équilibre.
Industrie
Autres
-
Énergie du point zéro
L'énergie du point zéro est la plus faible énergie possible qu'un système physique quantique puisse avoir ; cela correspond à son énergie quand il est dans son état fondamental, c'est-à-dire lorsque toute autre forme d'énergie a été retirée1,2.
Tous les systèmes mécaniques quantiques subissent des fluctuations même quand ils sont à leur état fondamental (auquel est associée une énergie du point zéro), une conséquence de leur nature ondulatoire. Le principe d'incertitude implique que chaque système physique possède un point zéro pour son énergie, supérieure au minimum de son puits de potentiel classique. Aux échelles macroscopiques, cette énergie est négligeable car les fluctuations s'annulent sur de grands volumes. Cette énergie possède cependant des effets physiques microscopiques comme l'effet Casimir, l'émission spontanée de photons par des atomes, la création de paires de particules/antiparticules, ou une agitation minimale des molécules.
Ceci implique notamment que la température du zéro absolu ne peut être atteinte microscopiquement, à cause de l'agitation minimale de la matière ou l'existence d'une énergie de point zéro. Cela entraîne du mouvement même au zéro absolu. Par exemple, l'hélium liquide ne gèle pas sous la pression atmosphérique, quelle que soit la température, à cause de son énergie du point zéro.
Le concept d'énergie du point zéro a été développé par Max Planck en Allemagne en 1911 comme terme correcteur ajouté à l'équation de sa théorie quantique originale datant de 1900. Le terme énergie du point zéro est une traduction du mot allemand « Nullpunktsenergie ».
L'énergie du vide est le cas particulier où le « système physique » est vide.
Cas général
Un système classique peut être immobile à son énergie minimum dans un potentiel classique. Un système quantique dans ce même potentiel est décrit par une fonction d'onde, qui est délocalisée et reste en mouvement quantique perpétuel sans aucune dissipation, suivant le principe d'Heisenberg, avec une énergie cinétique qui croit comme l'inverse de la dimension de localisation quantique décrivant ce mouvement. Dans l'état fondamental cette énergie de localisation est appelée énergie de point zéro, qui est associée à un mouvement de point zéro quantique.
Par exemple un oscillateur harmonique quantique a un état fondamental d'énergie de point zéro fondamentale moitié de sa fréquence classique multipliée par la constante de Planck.
ϵ = h ν 2
Cette propriété se retrouve dans les ondes acoustiques qui sont quantiques dans les déplacements atomiques et appelées phonons avec un mouvement de point zéro collectif des atomes qui est observé sur chaque atome par rayons X et radiocristallographie sous forme d'une imprécision de position.
Lorsque les atomes sont très légers et dans un faible potentiel interatomique comme pour les héliums 3 et 4, l'énergie de point zéro est suffisante pour donner une amplitude de mouvement de point zéro si grande par rapport aux distances interatomiques que l'hélium ne peut plus se solidifier et reste liquide à pression nulle.
Une caractéristique de cette agitation de point zéro, très différente d'une agitation classique thermique désordonnée, est qu'elle est décrite par une fonction d'onde quantique collective cohérente, avec des mouvements perpétuels sans aucune dissipation, sans viscosité ni résistance. En tenant compte de la statistique des atomes d'hélium 3 ou 4, ce liquide dans son mouvement de point zéro quantique devient superfluide, s'écoulant sans dissipation3, avec des écoulements quantiques perpétuels sans aucune dissipation4, du fait qu'ils sont dans leur état fondamental quantique collectif de mouvement de point zéro. Ce mouvement est observé à l'état macroscopique comme un superfluide ou un supraconducteur5.
Cas du vide
Tous les champs quantiques, comme le champ électromagnétique avec ses photons quantiques, dans le vide, ont aussi un mouvement de point zéro dont on observe les variations, comme révélés dans l'expérience de l'effet Casimir, sous forme d'une force entre deux plaques ou matériaux.
Notes et références
- Calphysics Institute : Énergie du point zéro et champ du point zéro [archive].
- « L'énergie du vide », sur media4.obspm.fr (archivé) (consulté le ).
- (en) V. F. Vinen, « THE PHYSICS OF SUPERFLUID HELIUM » [archive].
- (en) John Emsley, Nature's building blocks : an A-Z guide to the elements, Oxford New York, Oxford University Press, , 538 p. (ISBN 978-0-19-850341-5, OCLC 46984609, lire en ligne [archive]), p. 175–179.
Voir aussi
Articles connexes
Bibliographie
- C. Cohen-Tannoudji, B. Diu et F. Laloë, Mécanique quantique [détail de l’édition].
- Albert Messiah, Mécanique quantique [détail des éditions].
- Lev Landau et Evgueni Lifchits, Physique théorique, t. 3 : Mécanique quantique [détail des éditions].
- Lev Landau et Evgueni Lifchits, Physique théorique, t. 4 : Électrodynamique quantique [détail des éditions].
- J. L. Basdevant et J. Dalibard, Mécanique quantique [détail des éditions].
- Richard P Feynman, Robert B Leighton, Matthew Sands, B Equer et al., Le cours de physique de Feynman : Mécanique quantique, Paris, InterÉditions, , 506 p. (ISBN 978-2-7296-0030-3, OCLC 19098281).
- Yves Ayant et Elie Belorizky, Cours de mécanique quantique, Paris, Dunod, , 348 p. (ISBN 978-2-04-009794-3, OCLC 23828778, BNF 35398893).
- (en) Ramamurti Shankar, Principles of quantum mechanics, New York, Plenum Press, , 2e éd., 675 p. (ISBN 978-0-306-44790-7, OCLC 636583653), chap. 7.
-
La Dynamique de l’électron
Aller à la navigationAller à la recherche
LA DYNAMIQUE DE L’ÉLECTRON
I. — Introduction.
Les principes généraux de la Dynamique, qui ont, depuis Newton, servi de fondement à la Science physique et qui paraissaient inébranlables, sont-ils sur le point d’être abandonnés ou tout au moins d’être profondément modifiés ? C’est ce que bien des personnes se demandent depuis quelques années. La découverte du radium aurait, d’après elles, renversé les dogmes scientifiques que l’on croyait les plus solides : d’une part, l’impossibilité de la transmutation des métaux ; d’autre part, les postulats fondamentaux de la Mécanique. Peut-être s’est-on trop hâté de considérer ces nouveautés comme définitivement établies et de briser nos idoles d’hier ; peut-être conviendrait-il, avant de prendre parti, d’attendre des expériences plus nombreuses et plus probantes. Il n’en est pas moins nécessaire, dès aujourd’hui, de connaître les doctrines nouvelles et les arguments, déjà très sérieux, sur lesquels elles s’appuient.
Rappelons d’abord en quelques mots en quoi consistent ces principes :
A. Le mouvement d’un point matériel isolé et soustrait à toute force extérieure est rectiligne et uniforme ; c’est le principe d’inertie : pas d’accélération sans force ;
B. L’accélération d’un point mobile a même direction que la résultante de toutes les forces auxquelles ce point est soumis ; elle est égale au quotient de cette résultante par un coefficient appelé masse du point mobile.
La masse d’un point mobile, ainsi définie, est une constante ; elle ne dépend pas de la vitesse acquise par ce point ; elle est la même si la force, étant parallèle à cette vitesse, tend seulement à accélérer ou à retarder le mouvement du point, ou si, au contraire, étant perpendiculaire à cette vitesse, elle tend à faire dévier ce mouvement vers la droite, ou la gauche, c’est-à-dire à courber la trajectoire ;
C. Toutes les forces subies par un point matériel proviennent de l’action d’autres points matériels ; elles ne dépendent que des positions et des vitesses relatives de ces différents points matériels.
En combinant les deux principes B et C, on arrive au principe du mouvement relatif, en vertu duquel les lois du mouvement d’un système sont les mêmes soit que l’on rapporte ce système à des axes fixes, soit qu’on le rapporte à des axes mobiles animés d’un mouvement de translation rectiligne et uniforme, de sorte qu’il est impossible de distinguer le mouvement absolu d’un mouvement relatif par rapport à de pareils axes mobiles ;
D. Si un point matériel A agit sur un autre point matériel B, le corps B réagit sur A, et ces deux actions sont deux forces égales et directement opposées. C’est le principe de l’égalité de l’action et de la réaction, ou, plus brièvement, le principe de réaction.
Les observations astronomiques, les phénomènes physiques les plus habituels, semblent avoir apporté à ces principes une confirmation complète, constante et très précise. C’est vrai, dit-on maintenant, mais c’est parce qu’on n’a jamais opéré qu’avec de faibles vitesses ; Mercure, par exemple, qui est la planète la plus rapide, ne fait guère que 100 kilomètres par seconde. Cet astre se comporterait-il de la même manière, s’il allait mille fois plus vite ? On voit qu’il n’y a pas encore lieu de s’inquiéter ; quels que puissent être les progrès de l’automobilisme, il s’écoulera encore longtemps avant qu’on doive renoncer à appliquer à nos machines les principes classiques de la Dynamique.
Comment donc est-on parvenu à réaliser des vitesses mille fois plus grandes que celles de Mercure, égales, par exemple, au dixième et au tiers de la vitesse de la lumière, ou se rapprochant plus encore de cette vitesse ? C’est à l’aide des rayons cathodiques et des rayons du radium.
On sait que le radium émet trois sortes de rayons, que l’on désigne par les trois lettres grecques α, β, γ ; dans ce qui va suivre, sauf mention expresse du contraire, il s’agira toujours des rayons β, qui sont analogues aux rayons cathodiques.
Après la découverte des rayons cathodiques, deux théories se trouvèrent en présence : Crookes attribuait les phénomènes à un véritable bombardement moléculaire ; Hertz, à des ondulations particulières de l’éther. C’était un renouvellement du débat qui avait divisé les physiciens il y a un siècle à propos de la lumière ; Crookes reprenait la théorie de l’émission, abandonnée pour la lumière ; Hertz tenait pour la théorie ondulatoire. Les faits semblent donner raison à Crookes.
On a reconnu, en premier lieu, que les rayons cathodiques transportent avec eux une charge électrique négative ; ils sont déviés par un champ magnétique et par un champ électrique ; et ces déviations sont précisément celles que produiraient ces mêmes champs sur des projectiles animés d’une très grande vitesse et fortement chargés d’électricité. Ces deux déviations dépendent de deux quantités : la vitesse, d’une part, et le rapport de la charge électrique du projectile à sa masse, d’autre part ; on ne peut connaître la valeur absolue de cette masse, ni celle de la charge, mais seulement leur rapport ; il est clair, en effet, que, si l’on double à la fois la charge et la masse, sans changer la vitesse, on doublera la force qui tend à dévier le projectile ; mais, comme sa masse est également doublée, l’accélération et la déviation observable ne seront pas changées. L’observation des deux déviations nous fournira donc deux équations pour déterminer ces deux inconnues. On trouve une vitesse de 10 000 à 30 000 kilomètres par seconde ; quant au rapport de la charge à la masse, il est très grand. On peut le comparer au rapport correspondant en ce qui concerne l’ion hydrogène dans l’électrolyse ; on trouve alors qu’un projectile cathodique transporte environ mille fois plus d’électricité que n’en transporterait une masse égale d’hydrogène dans un électrolyte.
Pour confirmer ces vues, il faudrait une mesure directe de cette vitesse, que l’on comparerait avec la vitesse ainsi calculée. Des expériences anciennes de J.-J. Thomson avaient donné des résultats plus de cent fois trop faibles ; mais elles étaient sujettes à certaines causes d’erreur. La question a été reprise par Wiechert dans un dispositif où l’on utilise les oscillations hertziennes ; on a trouvé des résultats concordant avec la théorie, au moins comme ordre de grandeur ; il y aurait un grand intérêt à reprendre ces expériences. Quoi qu’il en soit, la théorie des ondulations paraît impuissante à rendre compte de cet ensemble de faits.
Les mêmes calculs, faits sur les rayons β du radium, ont donné des vitesses encore plus considérables : 100 000, 200 000 kilomètres ou plus encore. Ces vitesses dépassent de beaucoup toutes celles que nous connaissions. La lumière, il est vrai, on le sait depuis longtemps, fait 300 000 kilomètres par seconde ; mais elle n’est pas un transport de matière, tandis que, si l’on adopte la théorie de l’émission pour les rayons cathodiques, il y aurait des molécules matérielles réellement animées des vitesses en question, et il convient de rechercher si les lois ordinaires de la Mécanique leur sont encore applicables.
II. — Masse longitudinale et Masse transversale.
On sait que les courants électriques donnent lieu aux phénomènes d’induction, en particulier à la self-induction. Quand un courant croît, il se développe une force électromotrice de self-induction qui tend à s’opposer au courant ; au contraire, quand le courant décroît, la force électromotrice de self-induction tend à maintenir le courant. La self-induction s’oppose donc à toute variation de l’intensité du courant, de même qu’en Mécanique l’inertie d’un corps s’oppose à toute variation de sa vitesse. La self-induction est une véritable inertie. Tout se passe comme si le courant ne pouvait s’établir sans mettre en mouvement l’éther environnant et comme si l’inertie de cet éther tendait, en conséquence, à maintenir constante l’intensité de ce courant. Il faudrait vaincre cette inertie pour établir le courant, il faudrait la vaincre encore pour le faire cesser.
Un rayon cathodique, qui est une pluie de projectiles chargés d’électricité négative, peut être assimilé à un courant ; sans doute, ce courant diffère, au premier abord tout au moins, des courants de conduction ordinaire, où la matière est immobile et où l’électricité circule à travers la matière. C’est un courant de convection, où l’électricité, attachée à un véhicule matériel, est emportée par le mouvement de ce véhicule. Mais Rowland a démontré que les courants de convection produisent les mêmes effets magnétiques que les courants de conduction ; ils doivent produire aussi les mêmes effets d’induction. D’abord, s’il n’en était pas ainsi, le principe de la conservation de l’énergie serait violé ; d’ailleurs, Crémieu et Pender ont employé une méthode où l’on mettait en évidence directement ces effets d’induction.
Si la vitesse d’un corpuscule cathodique vient à varier, l’intensité du courant correspondant variera également, et il se développera des effets de self-induction qui tendront à s’opposer à cette variation. Ces corpuscules doivent donc posséder une double inertie : leur inertie propre d’abord, et l’inertie apparente due à la self-induction qui produit les mêmes effets. Ils auront donc une masse totale apparente, composée de leur masse réelle et d’une masse fictive d’origine électromagnétique. Le calcul montre que cette masse fictive varie avec la vitesse, et que la force d’inertie de self-induction n’est pas la même quand la vitesse du projectile s’accélère ou se ralentit, ou bien quand elle est déviée ; il en est donc de même de la force d’inertie apparente totale.
La masse totale apparente n’est donc pas la même quand la force réelle appliquée au corpuscule est parallèle à sa vitesse et tend à en faire varier la grandeur, et quand cette force est perpendiculaire à la vitesse et tend à en faire varier la direction. Il faut donc distinguer la masse totale longitudinale et la masse totale transversale. Ces deux masses totales dépendent, d’ailleurs, de la vitesse. Voilà ce qui résulte des travaux théoriques d’Abraham.
Dans les mesures dont nous parlions au chapitre précédent, qu’est-ce qu’on détermine en mesurant les deux déviations ? C’est la vitesse d’une part, et d’autre part le rapport de la charge à la masse transversale totale. Comment, dans ces conditions, faire, dans cette masse totale, la part de la masse réelle et celle de la masse fictive électromagnétique ? Si l’on n’avait que les rayons cathodiques proprement dits, il n’y faudrait pas songer ; mais, heureusement, on a les rayons du radium qui, nous l’avons vu, sont notablement plus rapides. Ces rayons ne sont pas tous identiques et ne se comportent pas de la même manière sous l’action d’un champ électrique et magnétique. On trouve que la déviation électrique est fonction de la déviation magnétique, et l’on peut, en recevant sur une plaque sensible des rayons du radium qui ont subi l’action des deux champs, photographier la courbe qui représente la relation entre ces deux déviations. C’est ce qu’a fait Kaufmann, qui en a déduit la relation entre la vitesse et le rapport de la charge à la masse apparente totale, rapport que nous appellerons ε.
On pourrait supposer qu’il existe plusieurs espèces de rayons, caractérisés chacun par une vitesse déterminée, par une charge déterminée et par une masse déterminée. Mais cette hypothèse est peu vraisemblable ; pour quelle raison, en effet, tous les corpuscules de même masse prendraient-ils toujours la même vitesse ? Il est plus naturel de supposer que la charge ainsi que la masse réelle sont les mêmes pour tous les projectiles, et que ceux-ci ne diffèrent que par leur vitesse. Si le rapport ε est fonction de la vitesse, ce n’est pas parce que la masse réelle varie avec cette vitesse ; mais, comme la masse fictive électromagnétique dépend de cette vitesse, la masse totale apparente, seule observable, doit en dépendre, bien que la masse réelle n’en dépende pas et soit constante.
Les calculs d’Abraham nous font connaître la loi suivant laquelle la masse fictive varie en fonction de la vitesse ; l’expérience de Kaufmann nous fait connaître la loi de variation de la masse totale. La comparaison de ces deux lois nous permettra donc de déterminer le rapport de la masse réelle à la masse totale.
Telle est la méthode dont s’est servi Kaufmann pour déterminer ce rapport. Le résultat est bien surprenant : la masse réelle est nulle.
On s’est trouvé ainsi conduit à des conceptions tout à fait inattendues. On a étendu à tous les corps ce qu’on n’avait démontré que pour les corpuscules cathodiques. Ce que nous appelons masse ne serait qu’une apparence ; toute inertie serait d’origine électromagnétique. Mais alors la masse ne serait plus constante, elle augmenterait avec la vitesse ; sensiblement constante pour des vitesses pouvant aller jusqu’à 1 000 kilomètres par seconde, elle croîtrait ensuite et deviendrait infinie pour la vitesse de la lumière. La masse transversale ne serait plus égale à la masse longitudinale : elles seraient seulement à peu près égales si la vitesse n’est pas trop grande. Le principe B de la Mécanique ne serait plus vrai.
III. — Les Rayons-Canaux.
Au point où nous en sommes, cette conclusion peut sembler prématurée. Peut-on appliquer à la matière tout entière ce qui n’a été établi que pour ces corpuscules si légers, qui ne sont qu’une émanation de la matière et peut-être pas de la vraie matière ? Mais, avant d’aborder cette question, il est nécessaire de dire un mot d’une autre sorte de rayons. Je veux parler d’abord des rayons-canaux, les Kanalstrahlen de Goldstein. La cathode, en même temps que les rayons cathodiques chargés d’électricité négative, émet des rayons-canaux chargés d’électricité positive. En général, ces rayons-canaux, n’étant pas repoussés par la cathode, restent confinés dans le voisinage immédiat de cette cathode, où ils constituent la « couche chamois », qu’il n’est pas très aisé d’apercevoir ; mais, si la cathode est percée de trous, et si elle obstrue presque complètement le tube, les rayons-canaux vont se propager en arrière de la cathode, dans le sens opposé à celui des rayons cathodiques, et il deviendra possible de les étudier. C’est ainsi qu’on a pu mettre en évidence leur charge positive et montrer que les déviations magnétiques et électriques existent encore, comme pour les rayons cathodiques, mais sont beaucoup plus faibles.
Le radium émet également des rayons analogues aux rayons-canaux, et relativement très absorbables, que l’on appelle les rayons α.
On peut, comme pour les rayons cathodiques, mesurer les deux déviations et en déduire la vitesse et le rapport ε. Les résultats sont moins constants que pour les rayons cathodiques, mais la vitesse est plus faible ainsi que le rapport ε ; les corpuscules positifs sont moins chargés que les corpuscules négatifs ; ou si, ce qui est plus naturel, on suppose que les charges sont égales et de signe contraire, les corpuscules positifs sont beaucoup plus gros. Ces corpuscules, chargés les uns positivement, les autres négativement, ont reçu le nom d’électrons.
IV. — La Théorie de Lorentz.
Mais les électrons ne manifestent pas seulement leur existence dans ces rayons où ils nous apparaissent animés de vitesses énormes. Nous allons les voir dans des rôles bien différents, et ce sont eux qui nous rendront compte des principaux phénomènes de l’Optique et de l’Électricité. La brillante synthèse dont nous allons dire un mot est due à Lorentz.
La matière est tout entière formée d’électrons portant des charges énormes et, si elle nous semble neutre, c’est que les charges de signe contraire de ces électrons se compensent. On peut se représenter, par exemple, une sorte de système solaire formé d’un gros électron positif, autour duquel graviteraient de nombreuses petites planètes qui seraient des électrons négatifs, attirés par l’électricité de nom contraire qui charge l’électron central. Les charges négatives de ces planètes compenseraient la charge positive de ce Soleil, de sorte que la somme algébrique de toutes ces charges serait nulle.
Tous ces électrons baigneraient dans l’éther. L’éther serait partout identique à lui-même, et les perturbations s’y propageraient suivant les mêmes lois que la lumière ou les oscillations hertziennes dans le vide. En dehors des électrons et de l’éther, il n’y aurait rien. Quand une onde lumineuse pénétrerait dans une partie de l’éther où les électrons seraient nombreux, ces électrons se mettraient en mouvement sous l’influence de la perturbation de l’éther, et ils réagiraient ensuite sur l’éther. C’est ainsi que s’expliqueraient la réfraction, la dispersion, la double réfraction et l’absorption. De même, si un électron se mettait en mouvement pour une cause quelconque, il troublerait l’éther autour de lui et donnerait naissance à des ondes lumineuses, ce qui expliquerait l’émission de la lumière par les corps incandescents.
Dans certains corps, les métaux par exemple, nous aurions des électrons immobiles, entre lesquels circuleraient des électrons mobiles jouissant d’une entière liberté, sauf celle de sortir du corps métallique et de franchir la surface qui le sépare du vide extérieur, ou de l’air, ou de tout autre corps non métallique. Ces électrons mobiles se comportent alors, à l’intérieur du corps métallique, comme le font, d’après la théorie cinétique des gaz, les molécules d’un gaz à l’intérieur du vase où ce gaz est renfermé. Mais, sous l’influence d’une différence de potentiel, les électrons mobiles négatifs tendraient à aller tous d’un côté, et les électrons mobiles positifs de l’autre. C’est ce qui produirait les courants électriques, et c’est pour cela que ces corps seraient conducteurs. D’autre part, les vitesses de nos électrons seraient d’autant plus grandes que la température serait plus élevée, si nous acceptons l’assimilation avec la théorie cinétique des gaz. Quand un de ces électrons mobiles rencontrerait la surface du corps métallique, surface qu’il ne peut franchir, il se réfléchirait, comme une bille de billard qui a touché la bande, et sa vitesse subirait un brusque changement de direction. Mais, quand un électron change de direction, ainsi que nous le verrons plus loin, il devient la source d’une onde lumineuse, et c’est pour cela que les métaux chauds sont incandescents.
Dans d’autres corps, les diélectriques et les corps transparents, les électrons mobiles jouissent d’une liberté beaucoup moins grande. Ils restent comme attachés à des électrons fixes qui les attirent. Plus ils s’en éloignent, plus cette attraction devient grande et tend à les ramener en arrière. Ils ne peuvent donc subir que de petits écarts ; ils ne peuvent plus circuler, mais seulement osciller autour de leur position moyenne. C’est pour cette raison que ces corps ne seraient pas conducteurs ; ils seraient d’ailleurs le plus souvent transparents, et ils seraient réfringents parce que les vibrations lumineuses se communiqueraient aux électrons mobiles, susceptibles d’oscillation, et qu’il en résulterait une perturbation.
Je ne puis donner ici le détail des calculs ; je me bornerai à dire que cette théorie rend compte de tous les faits connus, et qu’elle en a fait prévoir de nouveaux, tels que le phénomène de Zeeman.
V. — Conséquences mécaniques.
Maintenant, nous pouvons envisager deux hypothèses : 1o Les électrons positifs possèdent une masse réelle, beaucoup plus grande que leur masse fictive électromagnétique ; les électrons négatifs sont seuls dépourvus de masse réelle. On pourrait même supposer qu’en dehors des électrons des deux signes, il y a des atomes neutres qui n’ont plus d’autre masse que leur masse réelle. Dans ce cas, la Mécanique n’est pas atteinte ; nous n’avons pas besoin de toucher à ses lois ; la masse réelle est constante ; seulement les mouvements sont troublés par les effets de self-induction, ce qu’on a toujours su ; ces perturbations sont d’ailleurs à peu près négligeables, sauf pour les électrons négatifs, qui, n’ayant pas de masse réelle, ne sont pas de la vraie matière.
2o Mais il y a un autre point de vue ; on peut supposer qu’il n’y a pas d’atome neutre, et que les électrons positifs sont dépourvus de masse réelle au même titre que les électrons négatifs. Mais alors, la masse réelle s’évanouissant, ou bien le mot masse n’aura plus aucun sens, ou bien il faudra qu’il désigne la masse fictive électromagnétique ; dans ce cas, la masse ne sera plus constante, la masse transversale ne sera plus égale à la masse longitudinale, les principes de la Mécanique seront renversés.
Un mot d’explication d’abord. Nous avons dit que, pour une même charge, la masse totale d’un électron positif est beaucoup plus grande que celle d’un électron négatif. Et alors il est naturel de penser que cette différence s’explique parce que l’électron positif a, outre sa masse fictive, une masse réelle considérable ; ce qui nous ramènerait à la première hypothèse. Mais on peut admettre également que la masse réelle est nulle pour les uns comme pour les autres, mais que la masse fictive de l’électron positif est beaucoup plus grande, parce que cet électron est beaucoup plus petit. Je dis bien : beaucoup plus petit. Et, en effet, dans cette hypothèse, l’inertie est d’origine exclusivement électromagnétique ; elle se réduit à l’inertie de l’éther ; les électrons ne sont plus rien par eux-mêmes ; ils sont seulement des trous dans l’éther, et autour desquels s’agite l’éther ; plus ces trous seront petits, plus il y aura d’éther, plus par conséquent l’inertie de l’éther sera grande.
Comment décider entre ces deux hypothèses ? En opérant sur les rayons-canaux comme Kaufmann l’a fait sur les rayons β ? C’est impossible ; la vitesse de ces rayons est beaucoup trop faible. Chacun devra-t-il donc se décider d’après son tempérament, les conservateurs allant d’un côté et les amis du nouveau de l’autre ? Peut-être ; mais, pour bien faire comprendre les arguments des novateurs, il faut faire intervenir d’autres considérations.
VI. — L’Aberration.
On sait en quoi consiste le phénomène de l’aberration, découvert par Bradley. La lumière émanée d’une étoile met un certain temps pour parcourir une lunette ; pendant ce temps, la lunette, entraînée par le mouvement de la Terre, s’est déplacée. Si donc on braquait la lunette dans la direction vraie de l’étoile, l’image se formerait au point qu’occupait la croisée des fils du réticule quand la lumière a atteint l’objectif ; et cette croisée ne serait plus en ce même point quand la lumière atteindrait le plan du réticule. On serait donc conduit à dépointer la lunette pour ramener l’image sur la croisée des fils. Il en résulte que l’astronome ne pointera pas la lunette dans la direction de la vitesse absolue de la lumière, c’est-à-dire sur la position vraie de l’étoile, mais bien dans la direction de la vitesse relative de la lumière par rapport à la Terre, c’est-à-dire sur ce qu’on appelle la position apparente de l’étoile. Sur la figure 1, nous avons représenté en AB la vitesse absolue de la lumière (changée de sens, puisque l’observateur est en A et l’étoile à une grande distance dans la direction AB), en BD la vitesse de la Terre, en AD la vitesse relative de la lumière (changée de sens) ; l’astronome devrait pointer son instrument dans la direction AB : il le pointe dans la direction AD.
La grandeur de AB, c’est-à-dire la vitesse de la lumière, est connue ; on pourrait donc croire que nous avons le moyen de calculer BD, c’est-à-dire la vitesse absolue de la Terre. (Je m’expliquerai tout à l’heure sur ce mot absolu.) Il n’en est rien ; nous connaissons bien la position apparente de l’étoile, c’est-à-dire la direction AD que nous observons ; mais nous ne connaissons pas sa position vraie : nous ne connaissons AB qu’en grandeur et pas en direction.
Si donc la vitesse absolue de la Terre était rectiligne et uniforme, nous n’aurions jamais soupçonné le phénomène de l’aberration ; mais elle est variable ; elle se compose de deux parties : la vitesse du système solaire, qui est rectiligne et uniforme et que je représente en BC ; la vitesse de la Terre par
Fig. 1. rapport au Soleil, qui est variable et que je représente en CD, de telle façon que la résultante soit représentée en BD.
Comme BC est constant, la direction AC est invariable ; elle définit la position apparente moyenne de l’étoile, tandis que la direction AD, qui est variable, définit la position apparente actuelle, qui décrit une petite ellipse autour de la position apparente moyenne, et c’est cette ellipse qu’on observe.
Nous connaissons CD en grandeur et en direction d’après les lois de Kepler et notre connaissance de la distance du Soleil ; nous connaissons AC et AD en direction et nous pouvons, par conséquent, construire le triangle ACD ; connaissant AC, nous aurons la vitesse de la lumière (représentée par AB), puisque, BC étant supposé très petit au regard de AB, AC diffère très peu de AB. La vitesse relative de la Terre par rapport au Soleil est seule intervenue.
Halte-là ! toutefois. Nous avons regardé AC comme égal à AB ; cela n’est pas rigoureux, cela n’est qu’approché ; poussons l’approximation un peu plus loin. Les dimensions de l’ellipse décrite pendant une année par la position apparente d’une étoile dépendent du rapport de CD, qui est connue, à la longueur AC ; l’observation nous fait donc connaître cette dernière longueur. Comparons les grands axes de l’ellipse pour les différentes étoiles : nous aurons pour chacune d’elles le moyen de déterminer AC en grandeur et en direction. La longueur AB est constante (c’est la vitesse de la lumière), de sorte que les points B correspondant aux diverses étoiles seront tous sur une sphère de centre A. Comme BC est constant en grandeur et direction, les points C correspondant aux différentes étoiles seront tous sur une sphère de rayon AB et de centre A′, le vecteur AA′ étant égal et parallèle à BC. Si alors on avait pu déterminer, comme nous venons de le dire, les différents points C, on connaîtrait cette sphère, son centre A′ et, par conséquent, la grandeur et la direction de la vitesse absolue BC.
On aurait donc un moyen de déterminer la vitesse absolue de la Terre ; cela serait peut-être moins choquant qu’il ne semble d’abord ; il ne s’agit pas, en effet, de la vitesse par rapport à un espace absolu vide, mais de la vitesse par rapport à l’éther, que l’on regarde par définition comme étant en repos absolu.
D’ailleurs, ce moyen est purement théorique. En effet, l’aberration est très petite ; les variations possibles de l’ellipse d’aberration sont beaucoup plus petites encore, et, si nous regardons l’aberration comme du premier ordre, elles doivent donc être regardées comme du second ordre : un millième de seconde environ ; elles sont absolument inappréciables pour nos instruments. Nous verrons enfin plus loin pourquoi la théorie précédente doit être rejetée, et pourquoi nous ne pourrions déterminer BC quand même nos instruments seraient dix mille fois plus précis !
On pourrait songer à un autre moyen, et l’on y a songé en effet. La vitesse de la lumière n’est pas la même dans l’eau que dans l’air ; ne pourrait-on comparer les deux positions apparentes d’une étoile vue à travers une lunette tantôt pleine d’air, tantôt pleine d’eau ? Les résultats ont été négatifs ; les lois apparentes de la réflexion et de la réfraction ne sont pas altérées par le mouvement de la Terre. Ce phénomène comporte deux explications :
1o On pourrait supposer que l’éther n’est pas en repos, mais qu’il est entraîné par les corps en mouvement. Il ne serait pas étonnant alors que les phénomènes de réfraction ne fussent pas altérés par le mouvement de la Terre, puisque tout, prismes, lunettes et éther, est entraîné à la fois dans une même translation. Quant à l’aberration elle-même, elle s’expliquerait par une sorte de réfraction qui se produirait à la surface de séparation de l’éther en repos dans les espaces interstellaires et de l’éther entraîné par le mouvement de la Terre. C’est sur cette hypothèse (entraînement total de l’éther) qu’est fondée la théorie de Hertz sur l’Électrodynamique des corps en mouvement ;
2o Fresnel suppose, au contraire, que l’éther est en repos absolu dans le vide, en repos presque absolu dans l’air, quelle que soit la vitesse de cet air, et qu’il est partiellement entraîné par les milieux réfringents. Lorentz a donné à cette théorie une forme plus satisfaisante. Pour lui, l’éther est en repos, les électrons seuls sont en mouvement ; dans le vide, où l’éther entre seul en jeu, dans l’air, où il entre presque seul en jeu, l’entraînement est nul ou presque nul ; dans les milieux réfringents, où la perturbation est produite à la fois par les vibrations de l’éther et par celles des électrons mis en branle par l’agitation de l’éther, les ondulations se trouvent partiellement entraînées.
Pour décider entre les deux hypothèses, nous avons l’expérience de Fizeau, qui a comparé, par des mesures de franges d’interférence, la vitesse de la lumière dans l’air en repos ou en mouvement, ainsi que dans l’eau en repos ou en mouvement. Ces expériences ont confirmé l’hypothèse de l’entraînement partiel de Fresnel. Elles ont été reprises avec le même résultat par Michelson. La théorie de Hertz doit donc être rejetée.
VII. — Le Principe de Relativité.
Mais si l’éther n’est pas entraîné par le mouvement de la Terre, est-il possible de mettre en évidence, par le moyen des phénomènes optiques, la vitesse absolue de la Terre, ou plutôt sa vitesse par rapport à l’éther immobile ? L’expérience a répondu négativement, et cependant on a varié les procédés expérimentaux de toutes les manières possibles. Quel que soit le moyen qu’on emploie, on ne pourra jamais déceler que des vitesses relatives, j’entends les vitesses de certains corps matériels par rapport à d’autres corps matériels. En effet, si la source de lumière et les appareils d’observation sont sur la Terre et participent à son mouvement, les résultats expérimentaux ont toujours été les mêmes, quelle que soit l’orientation de l’appareil par rapport à la direction du mouvement orbital de la Terre. Si l’aberration astronomique se produit, c’est que la source, qui est une étoile, est en mouvement par rapport à l’observateur.
Les hypothèses faites jusqu’ici rendent parfaitement compte de ce résultat général, si l’on néglige les quantités très petites de l’ordre du carré de l’aberration. L’explication s’appuie sur la notion du temps local, que je vais chercher à faire comprendre, et qui a été introduite par Lorentz. Supposons deux observateurs, placés l’un en A, l’autre en B, et voulant régler leurs montres par le moyen de signaux optiques. Ils conviennent que B enverra un signal à A quand sa montre marquera une heure déterminée, et A remet sa montre à l’heure au moment où il aperçoit le signal. Si l’on opérait seulement de la sorte, il y aurait une erreur systématique, car comme la lumière met un certain temps t pour aller de B en A, la montre de A va retarder d’un temps t sur celle de B. Cette erreur est aisée à corriger. Il suffit de croiser les signaux. Il faut que A envoie à son tour des signaux à B : et, après ce nouveau réglage, ce sera la montre de B qui retardera d’un temps t sur celle de A. Il suffira alors de prendre la moyenne arithmétique entre les deux réglages.
Mais cette façon d’opérer suppose que la lumière met le même temps pour aller de A en B et pour revenir de B en A. Cela est vrai si les observateurs sont immobiles ; cela ne l’est plus s’ils sont entraînés dans une translation commune, parce qu’alors A, par exemple, ira au-devant de la lumière qui vient de B, tandis que B fuira devant la lumière qui vient de A. Si donc les observateurs sont entraînés dans une translation commune et s’ils ne s’en doutent pas, leur réglage sera défectueux ; leurs montres n’indiqueront pas le même temps ; chacune d’elles indiquera le temps local, convenant au point où elle se trouve.
Les deux observateurs n’auront aucun moyen de s’en apercevoir, si l’éther immobile ne peut leur transmettre que des signaux lumineux, marchant tous avec la même vitesse, et si les autres signaux qu’ils pourraient s’envoyer leur sont transmis par des milieux entraînés avec eux dans leur translation. Le phénomène que chacun d’eux observera sera soit en avance, soit en retard ; il ne se produira pas au même moment que si la translation n’existait pas ; mais, comme on l’observera avec une montre mal réglée, on ne s’en apercevra pas et les apparences ne seront pas altérées.
Il résulte de là que la compensation est facile à expliquer tant qu’on néglige le carré de l’aberration, et longtemps les expériences ont été trop peu précises pour qu’il y eût lieu d’en tenir compte. Mais un jour Michelson a imaginé un procédé beaucoup plus délicat : il a fait interférer des rayons qui avaient parcouru des trajets différents après s’être réfléchis sur des miroirs ; chacun des trajets approchant d’un mètre et les franges d’interférence permettant d’apprécier des différences d’une fraction de millième de millimètre, on ne pouvait plus négliger le carré de l’aberration, et cependant les résultats furent encore négatifs. La théorie demandait donc à être complétée, et elle l’a été par l’hypothèse de Lorentz et Fitz-Gerald.
Ces deux physiciens supposent que tous les corps entraînés dans une translation subissent une contraction dans le sens de cette translation, tandis que leurs dimensions perpendiculaires à cette translation demeurent invariables. Cette contraction est la même pour tous les corps ; elle est d’ailleurs très faible, d’environ un deux cent millionième pour une vitesse comme celle de la Terre. Nos instruments de mesure ne pourraient d’ailleurs la déceler, même s’ils étaient beaucoup plus précis ; les mètres avec lesquels nous mesurons subissent, en effet, la même contraction que les objets à mesurer. Si un corps s’applique exactement sur le mètre, quand on oriente le corps et, par conséquent, le mètre dans le sens du mouvement de la Terre, il ne cessera pas de s’appliquer exactement sur le mètre dans une autre orientation, et cela bien que le corps et le mètre aient changé de longueur en même temps que d’orientation, et précisément parce que le changement est le même pour l’un et pour l’autre. Mais il n’en est pas de même si nous mesurons une longueur non plus avec un mètre, mais par le temps que la lumière met à la parcourir, et c’est précisément ce qu’a fait Michelson.
Un corps sphérique, lorsqu’il est en repos, prendra ainsi la forme d’un ellipsoïde de révolution aplati lorsqu’il sera en mouvement ; mais l’observateur le croira toujours sphérique, parce qu’il a subi lui-même une déformation analogue, ainsi que tous les objets qui lui servent de points de repère. Au contraire, les surfaces d’ondes de la lumière, qui sont restées rigoureusement sphériques, lui paraîtront des ellipsoïdes allongés.
Que va-t-il se passer alors ? Supposons un observateur et une source entraînés ensemble dans la translation : les surfaces d’onde émanées de la source seront des sphères ayant pour centres les positions successives de la source ; la distance de ce centre à la position actuelle de la source sera proportionnelle au temps écoulé depuis l’émission, c’est-à-dire au rayon de la sphère. Toutes ces sphères seront donc homothétiques l’une de l’autre, par rapport à la position actuelle S de la source. Mais, pour notre observateur, à cause de la contraction, toutes ces sphères paraîtront des ellipsoïdes allongés ; et tous ces ellipsoïdes seront encore homothétiques par rapport au point S ; l’excentricité de tous ces ellipsoïdes est la même et dépend seulement de la vitesse de la Terre. Nous choisirons la loi de contraction, de façon que le point S soit au foyer de la section méridienne de l’ellipsoïde.
Comment allons-nous faire alors, pour évaluer le temps que met la lumière pour aller de B en A ? Je représente en A et en B (fig. 2) les positions apparentes de ces deux points. Je construis un ellipsoïde semblable aux ellipsoïdes des ondes que nous venons de définir et ayant son grand axe dans la direction du mouvement de la Terre. Je construis cet ellipsoïde de façon qu’il passe par B et ait son foyer en A.
D’après une propriété bien connue de l’ellipsoïde, on a une relation entre la distance apparente AB des deux points et sa projection AB′ ; cette relation est :
AB + e . AB′ = OQ 1 − e 2 .
Mais le demi-petit axe de l’ellipsoïde, qui en est la dimension inaltérée, est égal à V t , V étant la vitesse de la lumière et t la durée de transmission ; d’où :
AB + e . AB′ = V t 1 − e 2 .
L’excentricité e est une constante ne dépendant que de la vitesse de la Terre ; nous avons donc une relation linéaire entre AB, AB′ et t . Mais AB′ est la différence des abscisses des points A et B. Supposons que la différence
Fig. 2. entre le temps vrai et le temps local en un point quelconque soit égale à l’abscisse de ce point multipliée par la constante :
e V 1 − e 2 ;
la durée apparente de transmission sera
τ = t − AB′ e V 1 − e 2
d’où :
AB = V t 1 − e 2 ;
C’est-à-dire que la durée apparente de transmission est proportionnelle à la distance apparente. Cette fois, la compensation est rigoureuse, et c’est ce qui explique l’expérience de Michelson.
J’ai dit plus haut que, d’après les théories ordinaires, les observations de l’aberration astronomique pourraient nous faire connaître la vitesse absolue de la Terre, si nos instruments étaient mille fois plus précis. Il me faut modifier cette conclusion. Oui, les angles observés seraient modifiés par l’effet de cette vitesse absolue, mais les cercles divisés dont nous nous servons pour mesurer les angles seraient déformés par la translation : ils deviendraient des ellipses ; il en résulterait une erreur sur l’angle mesuré, et cette seconde erreur compenserait exactement la première.
Cette hypothèse de Lorentz et Fitz-Gerald paraîtra au premier abord fort extraordinaire ; tout ce que nous pouvons dire pour le moment en sa faveur, c’est qu’elle n’est que la traduction immédiate du résultat expérimental de Michelson, si l’on définit les longueurs par les temps que la lumière met à les parcourir.
Quoi qu’il en soit, il est impossible d’échapper à cette impression que le principe de relativité est une loi générale de la Nature, qu’on ne pourra jamais par aucun moyen imaginable mettre en évidence que des vitesses relatives, et j’entends par là non pas seulement les vitesses des corps par rapport à l’éther, mais les vitesses des corps les uns par rapport aux autres. Trop d’expériences diverses ont donné des résultats concordants pour qu’on ne se sente pas tenté d’attribuer à ce principe de relativité une valeur comparable à celle du principe d’équivalence, par exemple. Il convient, en tout cas, de voir à quelles conséquences nous conduirait cette façon de voir et de soumettre ensuite ces conséquences au contrôle de l’expérience.
VIII. — Le Principe de Réaction.
Voyons ce que devient, dans la théorie de Lorentz, le principe de l’égalité de l’action et de la réaction. Voilà un électron A qui entre en mouvement pour une cause quelconque ; il produit une perturbation dans l’éther ; au bout d’un certain temps, cette perturbation atteint un autre électron B, qui sera dérangé de sa position d’équilibre. Dans ces conditions, il ne peut y avoir égalité entre l’action et la réaction, au moins si l’on ne considère pas l’éther, mais seulement les électrons qui sont seuls observables, puisque notre matière est formée d’électrons.
En effet, c’est l’électron A qui a dérangé l’électron B ; alors même que l’électron B réagirait sur A, cette réaction pourrait être égale à l’action, mais elle ne saurait, en aucun cas, être simultanée, puisque l’électron B ne pourrait entrer en mouvement qu’après un certain temps, nécessaire pour la propagation. Si l’on soumet le problème à un calcul plus précis, on arrive au résultat suivant : Supposons un excitateur de Hertz placé au foyer d’un miroir parabolique auquel il est lié mécaniquement ; cet excitateur émet des ondes électromagnétiques, et le miroir renvoie toutes ces ondes dans la même direction ; l’excitateur va donc rayonner de l’énergie dans une direction déterminée. Eh bien, le calcul montre que l’excitateur va reculer comme un canon qui a envoyé un projectile. Dans le cas du canon, le recul est le résultat naturel de l’égalité de l’action et de la réaction. Le canon recule, parce que le projectile sur lequel il a agi réagit sur lui.
Mais ici, il n’en est plus de même. Ce que nous avons envoyé au loin, ce n’est plus un projectile matériel : c’est de l’énergie, et l’énergie n’a pas de masse ; il n’y a pas de contre-partie. Et, au lieu d’un excitateur, nous aurions pu considérer tout simplement une lampe avec un réflecteur concentrant ses rayons dans une seule direction.
Il est vrai que, si l’énergie émanée de l’excitateur ou de la lampe vient à atteindre un objet matériel, cet objet va subir une poussée mécanique comme s’il avait été atteint par un projectile véritable, et cette poussée sera égale au recul de l’excitateur et de la lampe, s’il ne s’est pas perdu d’énergie en route et si l’objet absorbe cette énergie en totalité. On serait donc tenté de dire qu’il y a encore compensation entre l’action et la réaction. Mais cette compensation, alors même qu’elle est complète, est toujours retardée. Elle ne se produit jamais si la lumière, après avoir quitté la source, erre dans les espaces interstellaires sans jamais rencontrer un corps matériel ; elle est incomplète, si le corps qu’elle frappe n’est pas parfaitement absorbant.
Ces actions mécaniques sont-elles trop petites pour être mesurées, ou bien sont-elles accessibles à l’expérience ? Ces actions ne sont autre chose que celles qui sont dues aux pressions Maxwell-Bartholi ; Maxwell avait prévu ces pressions par des calculs relatifs à l’Électrostatique et au Magnétisme ; Bartholi était arrivé au même résultat par des considérations de Thermodynamique.
C’est de cette façon que s’expliquent les queues des comètes. De petites particules se détachent du noyau de la comète ; elles sont frappées par la lumière du Soleil, qui les repousse comme ferait une pluie de projectiles venant du Soleil. La masse de ces particules est tellement petite que cette répulsion l’emporte sur l’attraction newtonienne ; elles vont donc former les queues en s’éloignant du Soleil.
La vérification expérimentale directe n’était pas aisée à obtenir. La première tentative a conduit à la construction du radiomètre. Mais cet appareil tourne à l’envers, dans le sens opposé au sens théorique, et l’explication de sa rotation, découverte depuis, est toute différente. On a réussi enfin, en poussant plus loin le vide d’une part, et d’autre part en ne noircissant pas l’une des faces des palettes et dirigeant un faisceau lumineux sur l’une des faces. Les effets radiométriques et les autres causes perturbatrices sont éliminés par une série de précautions minutieuses, et l’on obtient une déviation qui est fort petite, mais qui est, paraît-il, conforme à la théorie.
Les mêmes effets de la pression Maxwell-Bartholi sont prévus également par la théorie de Hertz, dont nous avons parlé plus haut, et par celle de Lorentz. Mais il y a une différence. Supposons que l’énergie, sous forme de lumière par exemple, aille d’une source lumineuse à un corps quelconque à travers un milieu transparent. La pression de Maxwell-Bartholi agira, non seulement sur la source au départ, et sur le corps éclairé à l’arrivée, mais sur la matière du milieu transparent qu’elle traverse. Au moment où l’onde lumineuse atteindra une région nouvelle de ce milieu, cette pression poussera en avant la matière qui s’y trouve répandue et la ramènera en arrière quand l’onde quittera cette région. De sorte que le recul de la source a pour contre-partie la marche en avant de la matière transparente qui est au contact de cette source ; un peu plus tard, le recul de cette même matière a pour contre-partie la marche en avant de la matière transparente qui se trouve un peu plus loin, et ainsi de suite.
Seulement la compensation est-elle parfaite ? L’action de la pression Maxwell-Bartholi sur la matière du milieu transparent est-elle égale à sa réaction sur la source, et cela quelle que soit cette matière ? Ou bien cette action est-elle d’autant plus petite que le milieu est moins réfringent et plus raréfié, pour devenir nulle dans le vide ? Si l’on admettait la théorie de Hertz, qui regarde la matière comme mécaniquement liée à l’éther, de façon que l’éther soit entraîné entièrement par la matière, il faudrait répondre oui à la première question et non à la seconde.
Il y aurait alors compensation parfaite, comme l’exige le principe de l’égalité de l’action et de la réaction, même dans les milieux les moins réfringents, même dans l’air, même dans le vide interplanétaire, où il suffirait de supposer un reste de matière, si subtile qu’elle soit. Si l’on admet, au contraire, la théorie de Lorentz, la compensation, toujours imparfaite, est insensible dans l’air et devient nulle dans le vide.
Mais nous avons vu plus haut que l’expérience de Fizeau ne permet pas de conserver la théorie de Hertz ; il faut donc adopter la théorie de Lorentz et, par conséquent renoncer au principe de réaction.
IX. — Conséquences du Principe de Relativité.
Nous avons vu plus haut les raisons qui portent à regarder le Principe de Relativité comme une loi générale de la Nature. Voyons à quelles conséquences nous conduirait ce principe, si nous le regardions comme définitivement démontré.
D’abord il nous oblige à généraliser l’hypothèse de Lorentz et Fitz-Gerald sur la contraction de tous les corps dans le sens de la translation. En particulier, nous devrons étendre cette hypothèse aux électrons eux-mêmes. Abraham considérait ces électrons comme sphériques et indéformables ; il nous faudra admettre que ces électrons, sphériques quand ils sont au repos, subissent la contraction de Lorentz quand ils sont en mouvement et prennent alors la forme d’ellipsoïdes aplatis.
Cette déformation des électrons va influer sur leurs propriétés mécaniques. En effet, j’ai dit que le déplacement de ces électrons chargés est un véritable courant de convection et que leur inertie apparente est due à la self-induction de ce courant : exclusivement en ce qui concerne les électrons négatifs ; exclusivement ou non, nous n’en savons rien encore, pour les électrons positifs. Eh bien, la déformation des électrons, déformation qui dépend de leur vitesse, va modifier la distribution de l’électricité à leur surface, par conséquent l’intensité du courant de convection qu’ils produisent, par conséquent les lois suivant lesquelles la self-induction de ce courant variera en fonction de la vitesse.
À ce prix, la compensation sera parfaite et conforme aux exigences du Principe de Relativité, mais cela à deux conditions :
1o Que les électrons positifs n’aient pas de masse réelle, mais seulement une masse fictive électromagnétique ; ou tout au moins que leur masse réelle, si elle existe, ne soit pas constante et varie avec la vitesse suivant les mêmes lois que leur masse fictive ;
2o Que toutes les forces soient d’origine électromagnétique, ou tout au moins qu’elles varient avec la vitesse suivant les mêmes lois que les forces d’origine électromagnétique.
C’est encore Lorentz qui a fait cette remarquable synthèse ; arrêtons-nous-y un instant et voyons ce qui en découle. D’abord, il n’y a plus de matière, puisque les électrons positifs n’ont plus de masse réelle, ou tout au moins plus de masse réelle constante. Les principes actuels de notre Mécanique, fondés sur la constance de la masse, doivent donc être modifiés.
Ensuite, il faut chercher une explication électromagnétique de toutes les forces connues, en particulier de la gravitation, ou tout au moins modifier la loi de la gravitation de telle façon que cette force soit altérée par la vitesse de la même façon que les forces électromagnétiques. Nous reviendrons sur ce point.
Tout cela paraît, au premier abord, un peu artificiel. En particulier, cette déformation des électrons semble bien hypothétique. Mais on peut présenter la chose autrement, de façon à éviter de mettre cette hypothèse de la déformation à la base du raisonnement. Considérons les électrons comme des points matériels et demandons-nous comment doit varier leur masse en fonction de la vitesse pour ne pas contrevenir au principe de relativité. Ou, plutôt encore demandons-nous quelle doit être leur accélération sous l’influence d’un champ électrique ou magnétique, pour que ce principe ne soit pas violé et qu’on retombe sur les lois ordinaires en supposant la vitesse très faible. Nous trouverons que les variations de cette masse, ou de ces accélérations, doivent se passer comme si l’électron subissait la déformation de Lorentz.
X. — L’Expérience de Kaufmann.
Nous voilà donc en présence de deux théories : l’une où les électrons sont indéformables, c’est celle d’Abraham ; l’autre où ils subissent la déformation de Lorentz. Dans les deux cas, leur masse croît avec la vitesse, pour devenir infinie quand cette vitesse devient égale à celle de la lumière ; mais la loi de la variation n’est pas la même. La méthode employée par Kaufmann pour mettre en évidence la loi de variation de la masse semble donc nous donner un moyen expérimental de décider entre les deux théories.
Malheureusement, ses premières expériences n’étaient pas assez précises pour cela ; aussi a-t-il cru devoir les reprendre avec plus de précautions, et en mesurant avec grand soin l’intensité des champs. Sous leur nouvelle forme, elles ont donné raison à la théorie d’Abraham. Le Principe de Relativité n’aurait donc pas la valeur rigoureuse qu’on était tenté de lui attribuer ; on n’aurait plus aucune raison de croire que les électrons positifs sont dénués de masse réelle comme les électrons négatifs.
Toutefois, avant d’adopter définitivement cette conclusion, un peu de réflexion est nécessaire. La question est d’une telle importance qu’il serait à désirer que l’expérience de Kaufmann fût reprise par un autre expérimentateur. Malheureusement, cette expérience est fort délicate et ne pourra être menée à bien que par un physicien de la même habileté que Kaufmann. Toutes les précautions ont été convenablement prises et l’on ne voit pas bien quelle objection on pourrait faire.
Il y a cependant un point sur lequel je désirerais attirer l’attention : c’est sur la mesure du champ électrostatique, mesure d’où tout dépend. Ce champ était produit entre les deux armatures d’un condensateur ; et, entre ces armatures, on avait dû faire un vide extrêmement parfait, afin d’obtenir un isolement complet. On a mesuré alors la différence de potentiel des deux armatures, et l’on a obtenu le champ en divisant cette différence par la distance des armatures. Cela suppose que le champ est uniforme ; cela est-il certain ? Ne peut-il se faire qu’il y ait une chute brusque de potentiel dans le voisinage d’une des armatures, de l’armature négative, par exemple ? Il peut y avoir une différence de potentiel au contact entre le métal et le vide, et il peut se faire que cette différence ne soit pas la même du côté positif et du côté négatif ; ce qui me porterait à le croire, ce sont les effets de soupape électrique entre mercure et vide. Quelque faible que soit la probabilité pour qu’il en soit ainsi, il semble qu’il y ait lieu d’en tenir compte.
XI. — Le Principe d’Inertie.
Dans la nouvelle Dynamique, le Principe d’Inertie est encore vrai, c’est-à-dire qu’un électron isolé aura un mouvement rectiligne et uniforme. Du moins, on s’accorde généralement à l’admettre ; cependant, Lindemann a fait des objections à cette façon de voir ; je ne veux pas prendre parti dans cette discussion, que je ne puis exposer ici à cause de son caractère trop ardu. Il suffirait en tout cas de légères modifications à la théorie pour se mettre à l’abri des objections de Lindemann.
On sait qu’un corps plongé dans un fluide éprouve, quand il est en mouvement, une résistance considérable, mais c’est parce que nos fluides sont visqueux ; dans un fluide idéal, parfaitement dépourvu de viscosité, le corps agiterait derrière lui une poupe liquide, une sorte de sillage ; au départ, il faudrait un grand effort pour le mettre en mouvement, puisqu’il faudrait ébranler non seulement le corps lui-même, mais le liquide de son sillage. Mais, une fois le mouvement acquis, il se perpétuerait sans résistance, puisque le corps, en s’avançant, transporterait simplement avec lui la perturbation du liquide, sans que la force vive totale de ce liquide augmentât. Tout se passerait donc comme si son inertie était augmentée. Un électron s’avançant dans l’éther se comporterait de la même manière : autour de lui, l’éther serait agité, mais cette perturbation accompagnerait le corps dans son mouvement ; de sorte que, pour un observateur entraîné avec l’électron, les champs électrique et magnétique qui accompagnent cet électron paraîtraient invariables, et ne pourraient changer que si la vitesse de l’électron venait à varier. Il faudrait donc un effort pour mettre l’électron en mouvement, puisqu’il faudrait créer l’énergie de ces champs ; au contraire, une fois le mouvement acquis, aucun effort ne serait nécessaire pour le maintenir, puisque l’énergie créée n’aurait plus qu’à se transporter derrière l’électron comme un sillage. Cette énergie ne peut donc qu’augmenter l’inertie de l’électron, comme l’agitation du liquide augmente celle du corps plongé dans un fluide parfait. Et même les électrons négatifs, tout au moins, n’ont pas d’autre inertie que celle-là.
Dans l’hypothèse de Lorentz, la force vive, qui n’est autre que l’énergie de l’éther, n’est pas proportionnelle à v 2 , mais à :
V − V 2 − v 2 V 2 − v 2 ,
V représentant la vitesse de la lumière ; la quantité de mouvement n’est plus proportionnelle à v , mais à :
v V 2 − v 2
la masse transversale est en raison inverse de V 2 − v 2 et la masse longitudinale en raison inverse du cube de cette quantité.
On voit que, si v est très faible, la force vive est sensiblement proportionnelle à v 2 , la quantité de mouvement sensiblement proportionnelle à v , les deux masses sensiblement constantes et égales entre elles. Mais, quand la vitesse tend vers la vitesse de la lumière, la force vive, la quantité de mouvement et les deux masses croissent au delà de toute limite.
Dans l’hypothèse d’Abraham, les expressions sont un peu plus compliquées : mais ce que nous venons de dire subsiste dans ses traits essentiels.
Ainsi la masse, la quantité de mouvement, la force vive deviennent infinis quand la vitesse est égale à celle de la lumière. Il en résulte qu’aucun corps ne pourra atteindre par aucun moyen une vitesse supérieure à celle de la lumière. Et, en effet, à mesure que sa vitesse croît, sa masse croît, de sorte que son inertie oppose à tout nouvel accroissement de vitesse un obstacle de plus en plus grand.
Les auteurs qui ont écrit sur la Dynamique de l’Électron parlent, il est vrai, des corps qui vont plus vite que la lumière ; mais c’est pour se demander comment se comporterait un corps dont la vitesse initiale serait plus grande que celle de la lumière, qui aurait, par conséquent, déjà franchi la limite, avant qu’on s’occupât de lui ; ce n’est pas pour nous dire par quels moyens il pourrait franchir cette limite.
Une question se pose alors : admettons le Principe de Relativité ; un observateur en mouvement ne doit pas avoir le moyen de s’apercevoir de son propre mouvement. Si donc aucun corps dans son mouvement absolu ne peut dépasser la vitesse de la lumière, mais peut en approcher autant qu’on veut, il doit en être de même en ce qui concerne son mouvement relatif par rapport à notre observateur. Et alors on pourrait être tenté de raisonner comme il suit : L’observateur peut atteindre une vitesse de 200 000 kilomètres ; le corps, dans son mouvement relatif par rapport à l’observateur, peut atteindre la même vitesse ; sa vitesse absolue sera alors de 400 000 kilomètres, ce qui est impossible, puisque c’est un chiffre supérieur à la vitesse de la lumière.
C’est qu’il faut tenir compte de la façon dont il convient d’évaluer les vitesses relatives ; il faut les compter non avec le temps vrai, mais avec le temps local. Soient A et B deux points invariablement liés à l’observateur ; soit t et t + h les moments où le corps passe en A et en B, moments évalués en temps vrais ; soient α t et α ( t + h ) ces mêmes moments évalués en temps local de A ; soient α ( t + ε ) et α ( t + h + ε ) ces mêmes moments évalués en temps local de B. Si l’on évaluait la durée du parcours en temps vrai, cette durée serait donc h et la vitesse relative AB h ; mais nous devons l’évaluer en temps local, c’est-à-dire noter l’instant du passage en A en temps local de A, et celui du passage en B en temps local de B, de sorte que la durée du parcours sera α ( ε = h ) et la vitesse relative :
AB α ( ε + h ) ⋅
Et c’est ainsi que se fait la compensation.
XII. — L’Onde d’Accélération.
Quand un électron est en mouvement, il produit dans l’éther qui l’entoure une perturbation ; si son mouvement est rectiligne et uniforme, cette perturbation se réduit au sillage dont nous avons parlé au chapitre précédent. Mais il n’en est plus de même si le mouvement est curviligne ou varié. La perturbation peut alors être regardée comme la superposition de deux autres, auxquelles Langevin a donné les noms d’onde de vitesse et d’onde d’accélération.
L’onde de vitesse n’est autre chose que le sillage qui se produit dans le mouvement uniforme. Je précise : soit M un point quelconque de l’éther, envisagé à un instant t ; soit P la position qu’occupait l’électron à un instant antérieur t − h , de telle sorte que h soit précisément le temps que la lumière mettrait pour aller de P en M. Soit v la vitesse qu’avait l’électron à cet instant t − h . Eh bien, si nous n’envisageons que l’onde de vitesse, la perturbation au point M sera la même que si l’électron avait continué sa route depuis l’instant t − h en conservant la vitesse v et avec un mouvement rectiligne et uniforme.
Quant à l’onde d’accélération, c’est une perturbation tout à fait analogue aux ondes lumineuses, qui part de l’électron au moment où il subit une accélération, et qui se propage ensuite par ondes sphériques successives avec la vitesse de la lumière.
D’où cette conséquence : dans un mouvement rectiligne et uniforme, l’énergie se conserve intégralement ; mais, dès qu’il y a une accélération, il y a perte d’énergie, qui se dissipe sous forme d’ondes lumineuses et s’en va à l’infini à travers l’éther.
Toutefois, les effets de cette onde d’accélération, en particulier la perte d’énergie correspondante, sont négligeables dans la plupart des cas, c’est-à-dire non seulement dans la Mécanique ordinaire et dans les mouvements des corps célestes, mais même dans les rayons du radium, où la vitesse est très grande sans que l’accélération le soit. On peut alors se borner à appliquer les lois de la Mécanique, en écrivant que la force est égale au produit de l’accélération par la masse, cette masse, toutefois, variant avec la vitesse d’après les lois exposées plus haut. On dit alors que le mouvement est quasi-stationnaire.
Il n’en serait plus de même dans tous les cas où l’accélération est grande, et dont les principaux sont les suivants : 1o Dans les gaz incandescents, certains électrons prennent un mouvement oscillatoire de très haute fréquence ; les déplacements sont très petits, les vitesses sont finies, et les accélérations très grandes ; l’énergie se communique alors à l’éther, et c’est pour cela que ces gaz rayonnent de la lumière de même période que les oscillations de l’électron ; 2o Inversement, quand un gaz reçoit de la lumière, ces mêmes électrons sont mis en branle avec de fortes accélérations et ils absorbent de la lumière ; 3o Dans l’excitateur de Hertz, les électrons qui circulent dans la masse métallique subissent, au moment de la décharge, une brusque accélération et prennent ensuite un mouvement oscillatoire de haute fréquence. Il en résulte qu’une partie de l’énergie rayonne sous formes d’ondes hertziennes ; 4o Dans un métal incandescent, les électrons enfermés dans ce métal sont animés de grandes vitesses ; en arrivant à la surface du métal, qu’ils ne peuvent franchir, ils se réfléchissent et subissent ainsi une accélération considérable. C’est pour cela que le métal émet de la lumière. C’est ce que j’ai déjà expliqué au chapitre IV. Les détails des lois de l’émission de la lumière par les corps noirs sont parfaitement expliqués par cette hypothèse ; 5o Enfin, quand les rayons cathodiques viennent frapper l’anticathode, les électrons négatifs qui constituent ces rayons, et qui sont animés de très grandes vitesses, sont brusquement arrêtés. Par suite de l’accélération qu’ils subissent ainsi, ils produisent des ondulations dans l’éther. Ce serait là, d’après certains physiciens, l’origine des rayons Röntgen, qui ne seraient autre chose que des rayons lumineux de très courte longueur d’onde.
XIII. — La Gravitation.
La masse peut être définie de deux manières : 1o par le quotient de la force par l’accélération ; c’est la véritable définition de la masse, qui mesure l’inertie du corps ; 2o par l’attraction qu’exerce le corps sur un corps extérieur, en vertu de la loi de Newton. Nous devons donc distinguer la masse coefficient d’inertie, et la masse coefficient d’attraction. D’après la loi de Newton, il y a proportionnalité rigoureuse entre ces deux coefficients. Mais cela n’est démontré que pour les vitesses auxquelles les principes généraux de la Dynamique sont applicables. Maintenant, nous avons vu que la masse coefficient d’inertie croît avec la vitesse ; devons-nous conclure que la masse coefficient d’attraction croît également avec la vitesse et reste proportionnelle au coefficient d’inertie, ou, au contraire, que ce coefficient d’attraction demeure constant ? C’est là une question que nous n’avons aucun moyen de décider.
D’autre part, si le coefficient d’attraction dépend de la vitesse, comme les vitesses des deux corps qui s’attirent mutuellement ne sont généralement pas les mêmes, comment ce coefficient dépendra-t-il de ces deux vitesses ?
Nous ne pouvons faire à ce sujet que des hypothèses, mais nous sommes naturellement amenés à rechercher quelles seraient celles de ces hypothèses qui seraient compatibles avec le Principe de Relativité. Il y en a un grand nombre ; la seule dont je parlerai ici est celle de Lorentz, que je vais exposer brièvement.
Considérons d’abord des électrons en repos. Deux électrons de même signe se repoussent et deux électrons de signe contraire s’attirent ; dans la théorie ordinaire, leurs actions mutuelles sont proportionnelles à leurs charges électriques ; si donc nous avons quatre électrons, deux positifs A et A′, et deux négatifs B et B′, et que les charges de ces quatre électrons soient les mêmes, en valeur absolue, la répulsion de A sur A′ sera, à la même distance, égale à la répulsion de B sur B′, et égale encore à l’attraction de A sur B′, ou de A′ sur B. Si donc A et B sont très près l’un de l’autre, de même que A′ et B′, et que nous examinions l’action du système A+B sur le système A′+B′, nous aurons deux répulsions et deux attractions qui se compenseront exactement et l’action résultante sera nulle.
Or, les molécules matérielles doivent précisément être regardées comme des espèces de systèmes solaires où circulent des électrons, les uns positifs, les autres négatifs, et de telle façon que la somme algébrique de toutes les charges soit nulle. Une molécule matérielle est donc de tout point assimilable au système A+B dont nous venons de parler, de sorte que l’action électrique totale de deux molécules l’une sur l’autre devrait être nulle.
Mais l’expérience nous montre que ces molécules s’attirent par suite de la gravitation newtonienne ; et alors on peut faire deux hypothèses : on peut supposer que la gravitation n’a aucun rapport avec les attractions électrostatiques, qu’elle est due à une cause entièrement différente, et qu’elle vient simplement s’y superposer ; ou bien on peut admettre qu’il n’y a pas proportionnalité des attractions aux charges et que l’attraction exercée par une charge +1 sur une charge −1 est plus grande que la répulsion mutuelle de deux charges +1, ou que celle de deux charges −1.
En d’autres termes, le champ électrique produit par les électrons positifs et celui que produisent les électrons négatifs se superposeraient en restant distincts. Les électrons positifs seraient plus sensibles au champ produit par les électrons négatifs qu’au champ produit par les électrons positifs ; ce serait le contraire pour les électrons négatifs. Il est clair que cette hypothèse complique un peu l’Électrostatique, mais qu’elle y fait rentrer la gravitation. C’était, en somme, l’hypothèse de Franklin.
Qu’arrive-t-il maintenant si les électrons sont en mouvement ? Les électrons positifs vont engendrer une perturbation dans l’éther et y feront naître un champ électrique et un champ magnétique. Il en sera de même pour les électrons négatifs. Les électrons, tant positifs que négatifs, subiront ensuite une impulsion mécanique par l’action de ces différents champs. Dans la théorie ordinaire, le champ électromagnétique, dû au mouvement des électrons positifs, exerce, sur deux électrons de signe contraire et de même charge absolue, des actions égales et de signe contraire. On peut alors sans inconvénient ne pas distinguer le champ dû au mouvement des électrons positifs et le champ dû au mouvement des électrons négatifs et ne considérer que la somme algébrique de ces deux champs, c’est-à-dire le résultant.
Dans la nouvelle théorie, au contraire, l’action sur les électrons positifs du champ électromagnétique dû aux électrons positifs se fait d’après les lois ordinaires ; il en est de même de l’action sur les électrons négatifs du champ dû aux électrons négatifs. Considérons maintenant l’action du champ dû aux électrons positifs sur les électrons négatifs (ou inversement) ; elle suivra encore les mêmes lois, mais avec un coefficient différent. Chaque électron est plus sensible au champ créé par les électrons de nom contraire qu’au champ créé par les électrons de même nom.
Telle est l’hypothèse de Lorentz, qui se réduit à l’hypothèse de Franklin aux faibles vitesses ; elle rendra donc compte, pour ces faibles vitesses, de la loi de Newton. De plus, comme la gravitation se ramène à des forces d’origine électrodynamique, la théorie générale de Lorentz s’y appliquera, et par conséquent le Principe de la Relativité ne sera pas violé.
On voit que la loi de Newton n’est plus applicable aux grandes vitesses et qu’elle doit être modifiée, pour les corps en mouvement, précisément de la même manière que les lois de l’Électrostatique pour l’électricité en mouvement.
On sait que les perturbations électromagnétiques se propagent avec la vitesse de la lumière. On sera donc tenté de rejeter la théorie précédente, en rappelant que la gravitation sa propage, d’après les calculs de Laplace, au moins dix millions de fois plus vite que la lumière, et que, par conséquent, elle ne peut être d’origine électrodynamique. Le résultat de Laplace est bien connu, mais on en ignore généralement la signification. Laplace supposait que, si la propagation de la gravitation n’est pas instantanée, sa vitesse de propagation se combine avec celle du corps attiré, comme cela se passe pour la lumière dans le phénomène de l’aberration astronomique, de telle façon que la force effective n’est pas dirigée suivant la droite qui joint les deux corps, mais fait avec cette droite un petit angle. C’est là une hypothèse toute particulière, assez mal justifiée, et en tout cas entièrement différente de celle de Lorentz. Le résultat de Laplace ne prouve rien contre la théorie de Lorentz.
XIV. — Comparaison avec les Observations astronomiques.
Les théories précédentes sont-elles conciliables avec les observations astronomiques ? Tout d’abord, si on les adopte, l’énergie des mouvements planétaires sera constamment dissipée par l’effet de l’onde d’accélération. Il en résulterait que les moyens mouvements des astres iraient constamment en s’accélérant, comme si ces astres se mouvaient dans un milieu résistant. Mais cet effet est excessivement faible, beaucoup trop pour être décelé par les observations les plus précises. L’accélération des corps célestes est relativement faible, de sorte que les effets de l’onde d’accélération sont négligeables et que le mouvement peut être regardé comme quasi-stationnaire. Il est vrai que les effets de l’onde d’accélération vont constamment en s’accumulant, mais cette accumulation elle-même est si lente qu’il faudrait bien des milliers d’années d’observation pour qu’elle devînt sensible.
Faisons donc le calcul en considérant le mouvement comme quasi-stationnaire, et cela dans les trois hypothèses suivantes :
A. Admettons l’hypothèse d’Abraham (électrons indéformables) et conservons la loi de Newton sous sa forme habituelle ;
B. Admettons l’hypothèse de Lorentz sur la déformation des électrons et conservons la loi de Newton habituelle ;
C. Admettons l’hypothèse de Lorentz sur les électrons et modifions la loi de Newton, comme nous l’avons fait au chapitre XIII, de façon à la rendre compatible avec le Principe de Relativité.
C’est dans le mouvement de Mercure que l’effet sera le plus sensible, parce que cette planète est celle qui possède la plus grande vitesse. Tisserand avait fait un calcul analogue autrefois, en admettant la loi de Weber ; je rappelle que Weber avait cherché à expliquer à la fois les phénomènes électrostatiques et électrodynamiques en supposant que les électrons (dont le nom n’était pas encore inventé) exercent les uns sur les autres des attractions et des répulsions dirigées suivant la droite qui les joint, et dépendant non seulement de leurs distances, mais des dérivées premières et secondes de ces distances, par conséquent de leurs vitesses et de leurs accélérations. Cette loi de Weber, assez différente de celles qui tendent à prévaloir aujourd’hui, n’en présente pas moins avec elles une certaine analogie.
Tisserand a trouvé que, si l’attraction newtonienne se faisait conformément à la loi de Weber, il en résulterait pour le périhélie de Mercure une variation séculaire de 14″, de même sens que celle qui a été observée et n’a pu être expliquée, mais plus petite, puisque celle-ci est de 38″.
Revenons aux hypothèses A, B et C, et étudions d’abord le mouvement d’une planète attirée par un centre fixe. Les hypothèses B et C ne se distinguent plus alors, puisque, si le point attirant est fixe, le champ qu’il produit est un champ purement électrostatique, où l’attraction varie en raison inverse du carré des distances, conformément à la loi électrostatique de Coulomb, identique à celle de Newton.
L’équation des forces vives subsiste, en prenant pour la force vive la définition nouvelle ; de même, l’équation des aires est remplacée par une autre équivalente ; le moment de la quantité de mouvement est une constante, mais la quantité de mouvement doit être définie comme on le fait dans la nouvelle Dynamique.
Le seul effet sensible sera un mouvement séculaire du périhélie. Avec la théorie de Lorentz, on trouvera pour ce mouvement la moitié de ce que donnait la loi de Weber ; avec la théorie d’Abraham, les deux cinquièmes.
Si l’on suppose maintenant deux corps mobiles gravitant autour de leur centre de gravité commun, les effets sont très peu différents, quoique les calculs soient un peu plus compliqués. Le mouvement du périhélie de Mercure serait donc de 7″ dans la théorie de Lorentz et de 5,6″ dans celle d’Abraham.
L’effet est d’ailleurs proportionnel à n 3 a 2 , n étant le moyen mouvement de l’astre et a le rayon de son orbite. Pour les planètes, en vertu de la loi de Kepler, l’effet varie donc en raison inverse de a 5 ; il est donc insensible, sauf pour Mercure.
Il est insensible également pour la Lune, bien que n soit grand, parce que a est extrêmement petit ; en somme, il est cinq fois plus petit pour Vénus, et six cents fois plus petit pour la Lune que pour Mercure. Ajoutons qu’en ce qui concerne Vénus et la Terre, le mouvement du périhélie (pour une même vitesse angulaire de ce mouvement) serait beaucoup plus difficile à déceler par les observations astronomiques, parce que l’excentricité des orbites est beaucoup plus faible que pour Mercure.
En résumé, le seul effet sensible sur les observations astronomiques serait un mouvement du périhélie de Mercure, de même sens que celui qui a été observé sans être expliqué, mais notablement plus faible.
Cela ne peut pas être regardé comme un argument en faveur de la nouvelle Dynamique, puisqu’il faudra toujours chercher une autre explication pour la plus grande partie de l’anomalie de Mercure ; mais cela peut encore moins être regardé comme un argument contre elle.
XV. — La Théorie de Lesage.
Il convient de rapprocher ces considérations d’une théorie proposée depuis longtemps pour expliquer la gravitation universelle. Supposons que, dans les espaces interplanétaires, circulent dans tous les sens, avec de très grandes vitesses, des corpuscules très ténus. Un corps isolé dans l’espace ne sera pas affecté en apparence par les chocs de ces corpuscules, puisque ces chocs se répartissent également dans toutes les directions. Mais, si deux corps A et B sont en présence, le corps B jouera le rôle d’écran et interceptera une partie des corpuscules qui, sans lui, auraient frappé A. Alors, les chocs reçus par A dans la direction opposée à celle de B n’auront plus de contre-partie, ou ne seront plus qu’imparfaitement compensés, et ils pousseront A vers B.
Telle est la théorie de Lesage ; et nous allons la discuter en nous plaçant d’abord au point de vue de la Mécanique ordinaire. Comment, d’abord, doivent avoir lieu les chocs prévus par cette théorie ; est-ce d’après les lois des corps parfaitement élastiques, ou d’après celles des corps dépourvus d’élasticité, ou d’après une loi intermédiaire ? Les corpuscules de Lesage ne peuvent se comporter comme des corps parfaitement élastiques ; sans cela, l’effet serait nul, parce que les corpuscules interceptés par le corps B seraient remplacés par d’autres qui auraient rebondi sur B, et que le calcul prouve que la compensation serait parfaite.
Il faut donc que le choc fasse perdre de l’énergie aux corpuscules, et cette énergie devrait se retrouver sous forme de chaleur. Mais quelle serait la quantité de chaleur ainsi produite ? Observons que l’attraction passe à travers les corps ; il faut donc nous représenter la Terre, par exemple, non pas comme un écran plein, mais comme formée d’un très grand nombre de molécules sphériques très petites, qui jouent individuellement le rôle de petits écrans, mais entre lesquelles les corpuscules de Lesage peuvent circuler librement. Ainsi, non seulement la Terre n’est pas un écran plein, mais ce n’est pas même une passoire, puisque les vides y tiennent beaucoup plus de place que les pleins. Pour nous en rendre compte, rappelons que Laplace a démontré que l’attraction, en traversant la Terre, est affaiblie tout au plus d’un dix-millionième, et sa démonstration ne laisse rien à désirer : si, en effet, l’attraction était absorbée par les corps qu’elle traverse, elle ne serait plus proportionnelle aux masses ; elle serait relativement plus faible pour les gros corps que pour les petits, puisqu’elle aurait une plus grande épaisseur à traverser. L’attraction du Soleil sur la Terre serait donc relativement plus faible que celle du Soleil sur la Lune, et il en résulterait, dans le mouvement de la Lune, une inégalité très sensible. Nous devons donc conclure, si nous adoptons la théorie de Lesage, que la surface totale des molécules sphériques qui composent la Terre est tout au plus la dix-millionième partie de la surface totale de la Terre.
Darwin a démontré que la théorie de Lesage ne conduit exactement à la loi de Newton qu’en supposant des corpuscules entièrement dénués d’élasticité. L’attraction exercée par la Terre sur une masse 1 à la distance 1 sera alors proportionnelle, à la fois, à la surface totale S des molécules sphériques qui la composent, à la vitesse v des corpuscules, à la racine carrée de la densité ρ du milieu formé par les corpuscules. La chaleur produite sera proportionnelle à S , à la densité ρ , et au cube de la vitesse v .
Mais il faut tenir compte de la résistance éprouvée par un corps qui se meut dans un pareil milieu ; il ne peut se mouvoir, en effet, sans aller au-devant de certains chocs, en fuyant, au contraire, devant ceux qui viennent dans la direction opposée, de sorte que la compensation réalisée à l’état de repos ne peut plus subsister. La résistance calculée est proportionnelle à S , à ρ et à v ; or, on sait que les corps célestes se meuvent comme s’ils n’éprouvaient aucune résistance, et la précision des observations nous permet de fixer une limite à la résistance du milieu.
Cette résistance variant comme S ρ v tandis que l’attraction varie comme S ρ v , nous voyons que le rapport de la résistance au carré de l’attraction est en raison inverse du produit S v .
Nous avons donc une limite inférieure du produit S v . Nous avions déjà une limite supérieure de S (par l’absorption de l’attraction par les corps qu’elle traverse) ; nous avons donc une limite inférieure de la vitesse v , qui doit être au moins égale à 24.1017 fois celle de la lumière.
Nous pouvons en déduire ρ et la quantité de chaleur produite ; cette quantité suffirait pour élever la température de 1026 degrés par seconde ; la Terre recevrait dans un temps donné 1020 fois plus de chaleur que le Soleil n’en émet dans le même temps ; je ne veux pas parler de la chaleur que le Soleil envoie à la Terre, mais de celle qu’il rayonne dans toutes les directions.
Il est évident que la Terre ne résisterait pas longtemps à un pareil régime.
On ne serait pas conduit à des résultats moins fantastiques si, contrairement aux vues de Darwin, on douait les corpuscules de Lesage d’une élasticité imparfaite sans être nulle. À la vérité, la force vive de ces corpuscules ne serait pas entièrement convertie en chaleur, mais l’attraction produite serait moindre également, de sorte que ce serait seulement la portion de cette force vive convertie en chaleur qui contribuerait à produire l’attraction et que cela reviendrait au même ; un emploi judicieux du théorème du viriel permettrait de s’en rendre compte.
On peut transformer la théorie de Lesage ; supprimons les corpuscules et imaginons que l’éther soit parcouru dans tous les sens par des ondes lumineuses venues de tous les points de l’espace. Quand un objet matériel reçoit une onde lumineuse, cette onde exerce sur lui une action mécanique due à la pression Maxwell-Bartholi, tout comme s’il avait reçu le choc d’un projectile matériel. Les ondes en question pourront donc jouer le rôle des corpuscules de Lesage. C’est là ce qu’admet, par exemple, M. Tommasina.
Les difficultés ne sont pas écartées pour cela ; la vitesse de propagation ne peut être que celle de la lumière et l’on est ainsi conduit, pour la résistance du milieu, à un chiffre inadmissible. D’ailleurs, si la lumière se réfléchit intégralement, l’effet est nul, tout comme dans l’hypothèse des corpuscules parfaitement élastiques. Pour qu’il y ait attraction, il faut que la lumière soit partiellement absorbée ; mais alors il y a production de chaleur. Les calculs ne diffèrent pas essentiellement de ceux qu’on fait dans la théorie de Lesage ordinaire, et le résultat conserve le même caractère fantastique.
D’un autre côté, l’attraction n’est pas absorbée par les corps qu’elle traverse, ou elle l’est à peine ; il n’en est pas de même de la lumière que nous connaissons. La lumière qui produirait l’attraction newtonienne devrait être considérablement différente de la lumière ordinaire et être, par exemple, de très courte longueur d’onde. Sans compter que, si nos yeux étaient sensibles à cette lumière, le ciel entier devrait nous paraître beaucoup plus brillant que le Soleil, de telle sorte que le Soleil nous paraîtrait s’y détacher en noir, sans quoi le Soleil nous repousserait au lieu de nous attirer. Pour toutes ces raisons, la lumière qui permettrait d’expliquer l’attraction devrait se rapprocher beaucoup plus des rayons X de Röntgen que de la lumière ordinaire.
Et encore les rayons X ne suffiraient pas ; quelque pénétrants qu’ils nous paraissent, ils ne sauraient passer à travers la Terre tout entière ; il faudra donc imaginer des rayons X′ beaucoup plus pénétrants que les rayons X ordinaires. Ensuite une portion de l’énergie de ces rayons X′ devrait être détruite, sans quoi il n’y aurait pas d’attraction. Si on ne veut pas qu’elle soit transformée en chaleur, ce qui conduirait à une production de chaleur énorme, il faut admettre qu’elle est rayonnée dans tous les sens sous forme de rayons secondaires, que l’on pourra appeler X″ et qui devront être beaucoup plus pénétrants encore que les rayons X′, sans quoi ils troubleraient à leur tour les phénomènes d’attraction.
Telles sont les hypothèses compliquées auxquelles on est conduit quand on veut rendre viable la théorie de Lesage.
Mais, tout ce que nous venons de dire suppose les lois ordinaires de la Mécanique. Les choses iront-elles mieux si nous admettons la nouvelle Dynamique ? Et d’abord, pouvons-nous conserver le Principe de Relativité ? Donnons d’abord à la théorie de Lesage sa forme primitive et supposons l’espace sillonné par des corpuscules matériels ; si ces corpuscules étaient parfaitement élastiques, les lois de leur choc seraient conformes à ce Principe de Relativité, mais nous savons qu’alors leur effet serait nul. Il faut donc supposer que ces corpuscules ne sont pas élastiques, et alors il est difficile d’imaginer une loi de choc compatible avec le Principe de Relativité. D’ailleurs, on trouverait encore une production de chaleur considérable, et cependant une résistance du milieu très sensible.
Si nous supprimons les corpuscules et si nous revenons à l’hypothèse de la pression Maxwell-Bartholi, les difficultés ne seront pas moindres. C’est ce qu’a tenté Lorentz lui-même dans son Mémoire à l’Académie des Sciences d’Amsterdam du 23 avril 1900.
Considérons un système d’électrons plongés dans un éther parcouru en tous sens par des ondes lumineuses ; un de ces électrons, frappé par l’une de ces ondes, va entrer en vibration ; sa vibration va être synchrone de celle de la lumière ; mais il pourra y avoir une différence de phase, si l’électron absorbe une partie de l’énergie incidente. Si, en effet, il absorbe de l’énergie, c’est que c’est la vibration de l’éther qui entraîne l’électron ; l’électron doit donc être en retard sur l’éther. Un électron en mouvement est assimilable à un courant de convection ; donc tout champ magnétique, en particulier celui qui est dû à la perturbation lumineuse elle-même, doit exercer une action mécanique sur cet électron. Cette action est très faible ; de plus, elle change de signe dans le courant de la période ; néanmoins, l’action moyenne n’est pas nulle s’il y a une différence de phase entre les vibrations de l’électron et celles de l’éther. L’action moyenne est proportionnelle à cette différence, par conséquent à l’énergie absorbée par l’électron.
Je ne puis entrer ici dans le détail des calculs ; disons seulement que le résultat final est une attraction entre deux électrons quelconques, égale à :
E E 1 4 π E ′ r 2 ⋅
Dans cette formule, r est la distance des deux électrons, E et E 1 l’énergie absorbée par les deux électrons pendant l’unité des temps, E ′ l’énergie de l’onde incidente par unité de volume.
Il ne peut donc y avoir d’attraction sans absorption de lumière et, par conséquent, sans production de chaleur, et c’est ce qui a déterminé Lorentz à abandonner cette théorie, qui ne diffère pas au fond de celle de Lesage-Maxwell-Bartholi. Il aurait été beaucoup plus effrayé encore s’il avait poussé le calcul jusqu’au bout. Il aurait trouvé que la température de la Terre devrait s’accroître de 1013 degrés par seconde.
XVI. — Conclusions.
Je me suis efforcé de donner en peu de mots une idée aussi complète que possible de ces nouvelles doctrines ; j’ai cherché à expliquer comment elles avaient pris naissance, sans quoi le lecteur aurait eu lieu d’être effrayé par leur hardiesse. Les théories nouvelles ne sont pas encore démontrées, il s’en faut de beaucoup ; elles s’appuient seulement sur un ensemble assez sérieux de probabilités pour qu’on n’ait pas le droit de les traiter par le mépris.
De nouvelles expériences nous apprendront, sans doute, ce qu’on en doit définitivement penser. Le nœud de la question est dans l’expérience de Kaufmann et celles qu’on pourra tenter pour la vérifier.
Qu’on me permette un vœu, pour terminer. Supposons que, d’ici quelques années, ces théories subissent de nouvelles épreuves et qu’elles en triomphent ; notre enseignement secondaire courra alors un grand danger : quelques professeurs voudront, sans doute, faire une place aux nouvelles théories. Les nouveautés sont si attrayantes, et il est si dur de ne pas sembler assez avancé ! Au moins, on voudra ouvrir aux enfants des aperçus et, avant de leur enseigner la Mécanique ordinaire, on les avertira qu’elle a fait son temps et qu’elle était bonne tout au plus pour cette vieille ganache de Laplace. Et alors, ils ne prendront pas l’habitude de la Mécanique ordinaire.
Est-il bon de les avertir qu’elle n’est qu’approchée ? Oui ; mais plus tard, quand ils s’en seront pénétrés jusqu’aux moelles, quand ils auront pris le pli de ne penser que par elle, quand ils ne risqueront plus de la désapprendre, alors on pourra, sans inconvénient, leur en montrer les limites.
C’est avec la Mécanique ordinaire qu’ils doivent vivre ; c’est la seule qu’ils auront jamais à appliquer ; quels que soient les progrès de l’automobilisme, nos voitures n’atteindront jamais les vitesses où elle n’est plus vraie. L’autre n’est qu’un luxe, et l’on ne doit penser au luxe que quand il ne risque plus de nuire au nécessaire.
Henri Poincaré,
Énergie mécanique
L'énergie mécanique d'un système E m s'exprime généralement comme la somme de son énergie cinétique E c macroscopique et de son énergie potentielle E p 1 :
- E m = E c + E p .
Chaque force conservative, qu'elle soit intérieure ou extérieure, donne naissance à une énergie potentielle dont on dit qu'elle dérive. L'énergie potentielle E p du système est la somme des énergies potentielles dues aux forces considérées selon le système étudié : énergie potentielle gravitationnelle, énergie potentielle de pesanteur, énergie potentielle électrostatique, énergie potentielle élastique pour les cas les plus courants. Elle ne dépend que de la position du système.
L'énergie cinétique macroscopique E c peut être séparée en deux parties : l'énergie cinétique de translation et l'énergie cinétique de rotation ; E c = 1 2 m v 2 + 1 2 J Δ ω 2 . Elle dépend de la vitesse des éléments du système. L'énergie cinétique microscopique, qui est le fondement de l'énergie interne utilisée en thermodynamique, n'est pas prise en compte dans le calcul de l'énergie mécanique.
L'énergie mécanique est entièrement déterminée si l'on connaît la vitesse et la position du système.
Théorème de l'énergie mécanique
Dans un référentiel galiléen, pour un corps ponctuel de masse m constante parcourant un chemin reliant un point A à un point B, la variation d’énergie mécanique est égale à la somme des travaux W des forces non conservatives extérieures et intérieures qui s’exercent sur le solide considéré :
- Δ E m A B = E m B − E m A = ∑ W F n c e x t / i n t A B .
où E m A et E m B sont respectivement l’énergie mécanique du solide aux points A et B.
Ainsi, l’énergie mécanique d'un système soumis uniquement à des forces conservatives est conservée.
La dérivée par rapport au temps de l'énergie mécanique est égale à la puissance des forces non conservatives1 :
- d E m d t = P n c .
Le théorème de Bernoulli est une forme particulière de ce résultat.
Notes et références
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
Liens externes
Énergie cinétique
Une dissipation d'énergie cinétique sert ici à démolir un bâtiment.
modifier
L'énergie cinétique (du grec ἐνέργεια / enérgeia « force en action » et κίνησις / kínêsis « mouvement ») est l’énergie que possède un corps du fait de son mouvement par rapport à un référentiel donné. Sa valeur dépend donc du choix de ce référentiel. Elle s'exprime en joules (J).
Pour un point matériel, l'énergie cinétique est égale au travail des forces appliquées nécessaires pour faire passer le corps du repos à son mouvement (si le référentiel choisi n'est pas galiléen, il faut tenir compte du travail des forces d'inertie d'entraînement). Par suite, l'énergie cinétique n'est pas en général une intégrale première du mouvement, sauf si le travail des forces extérieures et intérieures (pour un système de points matériels) est nul[pas clair] au cours du mouvement. Un exemple classique de ce type de situation est le cas du mouvement d'une charge électrique dans un champ magnétique uniforme.
Les véhicules des
montagnes russes atteignent leur maximum d'énergie cinétique au bas de leur parcours. Lorsqu'ils commencent à monter, l'énergie cinétique est transformée en
énergie potentielle. La somme des énergies cinétique et potentielle du système reste constante, si on néglige les pertes (relativement faibles) dues aux
frottements.
Historique
Gottfried Leibniz, s'opposant ainsi à Descartes qui estimait que la quantité de mouvement se conservait toujours, développa l'idée de la « force vive » (vis viva), à laquelle il attribuait la valeur m v 2 . La force vive est donc le double de l'énergie cinétique.
« Il y a longtemps déjà que j’ai corrigé la doctrine de la conservation de la quantité de mouvement, et que j’ai posé à sa place quelque chose d’absolu, justement la chose qu’il faut, la force (vive) absolue… On peut prouver, par raison et par expérience, que c’est la force vive qui se conserve1… »
Notations
L'énergie cinétique est généralement notée Ec dans les textes en français (« E » pour énergie, « c » pour cinétique). Dans les textes en anglais on trouve Ek ou K, « k » étant l'initiale de kinetics (le mot anglais qui correspond à cinétique). Dans les textes théoriques on trouve aussi T.
Définitions
D'une manière générale, l'énergie cinétique E c (en J) d'un point matériel de masse au repos m (en kg) se déplaçant à une vitesse v (en m/s) dans un référentiel donné s'exprime ainsi :
- E c = γ 2 γ + 1 m v 2
Avec le facteur de Lorentz :
- γ = 1 1 − v 2 c 2
Dans les cas non relativistes (c'est-à-dire lorsque les vitesses sont petites comparées à la vitesse de la lumière dans le vide), l'énergie cinétique E c peut être approchée par la relation suivante :
- E c ≈ 1 2 m v 2
Cas d'un point matériel
Dans le domaine de validité de la mécanique newtonienne, la notion d'énergie cinétique peut être facilement mise en évidence pour un point matériel, corps considéré comme ponctuel de masse m constante.
En effet, la relation fondamentale de la dynamique s'écrit dans ce cas :
- m d v → d t = ∑ F →
avec :
En prenant le produit scalaire, membre à membre, par la vitesse v → du corps, il vient :
- m ( d v → d t ) ⋅ v → = ( ∑ F → ) ⋅ v →
où :
- ( d v → d t ) ⋅ v → = d d t ( 1 2 v 2 )
il vient ainsi :
- d d t ( 1 2 m v 2 ) = ∑ ( F → ⋅ v → ) .
On met en évidence dans le membre de gauche la quantité E c ≡ 1 2 m v 2 appelée énergie cinétique du point matériel, dont la dérivée par rapport au temps est égale à la somme des puissances F → ⋅ v → des forces appliquées au corps (théorème de l'énergie cinétique, forme « instantanée »).
On peut obtenir une expression plus générale en considérant que l'on a donc ∫ d ( 1 2 m v 2 ) = ∫ m v → ⋅ d v → , puisque d ( v 2 ) = 2 v → ⋅ d v → . En introduisant la variation infinitésimale de la quantité de mouvement du corps, d p → ≡ m d v → , il vient finalement l'expression :
- Δ E c = ∫ v → ⋅ d p →
où Δ E c désigne la variation d'énergie cinétique.
Dans le domaine de validité de la Mécanique Relativiste, la masse d'un objet n'est pas invariant de sa vitesse, c'est pourquoi on utilise la relation suivante :
- Δ E c = ∫ v → ⋅ d ( m γ v → ) = γ 2 γ + 1 m v 2
Cas d'un système de points
Dans le cas d'un corps que l'on ne peut considérer ponctuel, il est possible de l'assimiler à un système (d'une infinité) de points matériels M i de masses m i avec M = ∑ i m i la masse totale du corps.
L'énergie cinétique E c du système de points peut être alors simplement définie comme la somme des énergies cinétiques associées aux points matériels constituant le système :
- E c = ∑ i E c , i = ∑ i 1 2 m i v i 2 (1)
Cette expression est générale et ne préjuge pas de la nature du système, déformable ou pas.
Remarque : en considérant la limite des milieux continus on a E c = ∫ ( S ) 1 2 ρ ( M ) v M 2 d τ , M étant un point courant du système (S).
Unité
L'unité légale est le joule. Les calculs s'effectuent avec les masses en kg et les vitesses en mètres par seconde.
L'expression (1) n'est guère utilisable directement, bien que générale. Il est possible de la réécrire sous une autre forme, dont l'interprétation physique est plus aisée.
Énoncé
Ce théorème se démontre en faisant intervenir le référentiel barycentrique (R*) lié au centre d'inertie G du système, et en mouvement de translation par rapport au référentiel d'étude (R). Il s'écrit :
- E c = 1 2 M v G 2 + E c ∗
L'énergie cinétique d'un système est alors la somme de deux termes : l'énergie cinétique du centre de masse de (S) affectée de sa masse totale M, 1 2 M v G 2 , et l'énergie cinétique propre du système dans (R*), E c ∗ ≡ 1 2 ∑ i m i v i ∗ 2 .
Application à un solide
Un solide est un système de points tels que les distances entre deux points quelconques de (S) sont constantes. Il s'agit d'une idéalisation d'un solide réel, considéré comme absolument rigide.
Cas général : axe instantané de rotation
Dans ce cas, le mouvement du solide peut être décomposé en un mouvement de son centre de masse G dans (R) et un mouvement de rotation autour d'un axe instantané (Δ) dans le référentiel barycentrique (R*).
Plus précisément, pour un solide on peut écrire le champ des vitesses dans le référentiel barycentrique (R*) sous la forme v i ∗ → = ω → ∧ G M i → , ω → étant le vecteur rotation instantané du solide dans (R*) [ou (R), puisque les deux référentiels sont en translation]. Son énergie cinétique propre E k ∗ s'exprime alors :
- E k ∗ = 1 2 ∑ i m i v i ∗ → ⋅ ( ω → ∧ G M i → ) = 1 2 ω → ⋅ ( ∑ i G M i → ∧ m i v i ∗ → ) = 1 2 L G → ⋅ ω → ,
puisque L G → = L ∗ → = ∑ i G M i → ∧ m i v i ∗ → , moment cinétique du solide par rapport à G, égal au moment cinétique propre L ∗ → (voir théorèmes de König).
D'après le théorème de König, l’énergie cinétique totale d’un solide s'écrit donc ainsi :
- E k = 1 2 M v G 2 + 1 2 L G → ⋅ ω →
que l'on peut considérer comme la somme d’une énergie cinétique « de translation » et d’une énergie cinétique de rotation E r ≡ 1 2 L G → ⋅ ω → , aussi appelée énergie cinétique angulaire.
Cas de la rotation autour d'un axe fixe
Si, de surcroît, il y a rotation autour d'un axe (Δ) fixe dans (R), le moment cinétique par rapport à G du solide s'écrit L G → = I Δ ω → , où I Δ est le moment d'inertie du solide par rapport à l'axe de rotation (Δ). Son énergie cinétique de rotation se mettra ainsi sous la forme :
- E r = 1 2 I Δ ⋅ ω 2 .
En mécanique relativiste
Dans la théorie de la relativité d’Einstein (utilisée principalement pour les vitesses proches de la vitesse de la lumière, mais valable pour toutes vitesses), l’énergie cinétique est :
- E c = ( γ − 1 ) m c 2 = ( 1 1 − v 2 c 2 − 1 ) m c 2
où :
- Ec est l’énergie cinétique du corps (dans le référentiel considéré) ;
- v la vitesse du corps (dans le référentiel considéré) ;
- m sa masse au repos (dans son référentiel) ;
- c la vitesse de la lumière dans le vide (dans tout référentiel inertiel) ;
- γmc2 l’énergie totale du corps (dans le référentiel considéré) ;
- mc2 l’énergie au repos (90 pétajoules par kilogramme) ;
- γ = 1 1 − v 2 c 2 le facteur de Lorentz.
La théorie de la relativité affirme que l’énergie cinétique d’un objet (ayant une masse « au reposa» non nulle) tend vers l’infini quand sa vitesse s’approche de la vitesse de la lumière et que, par conséquent, il est impossible d’accélérer un objet jusqu’à cette vitesse.
Pour une vitesse v petite devant c ( v ≪ c ), le développement limité de l’énergie cinétique relativiste est :
- E c ≈ 1 2 m v 2 + 3 8 m v 4 c 2 + 5 16 m v 6 c 4 + …
On retrouve ainsi au premier ordre l'énergie cinétique newtonienne. Par exemple, pour un objet d'un kilogramme allant à la vitesse de 10 km/s, la différence entre énergie cinétique relativiste et énergie cinétique newtonienne est d'environ 0,04 J pour une énergie cinétique newtonienne de 50 MJ, soit un écart relatif de 0,8 milliardième. Cette différence est de 400 J sur 5 GJ à 100 km/s, soit un écart relatif de 80 milliardièmes.
Quand la gravité est faible et que l’objet se déplace à des vitesses très inférieures à la vitesse de la lumière (c’est le cas de la plupart des phénomènes observés sur Terre), la formule de la mécanique newtonienne est une excellente approximation de l’énergie cinétique relativiste.
À partir de l'équation de la conservation de l'énergie connue comme :
- γ m c 2 = m c 2 + E c
Et à partir de l'équation de la relativité restreinte, avec p la quantité de mouvement :
- γ 2 m 2 c 4 = m 2 c 4 + p 2 c 2
Il est possible de montrer que :
- E c = γ 2 γ + 1 m v 2
On peut vérifier la validité de cette écriture en l'égalisant avec la formule d'Einstein pour l'énergie cinétique :
- γ 2 γ + 1 m v 2 = ( γ − 1 ) m c 2
Ce qui permet de retrouver la définition du facteur de Lorentz :
- γ = 1 1 − v 2 c 2
Expression de la vitesse fonction de la masse et de l' énergie cinétique
- E c = ( γ − 1 ) m c 2 d'où 1 γ = m c 2 ( E c + m c 2 )
- γ = 1 1 − v 2 c 2 et v 2 c 2 = 1 − 1 γ 2 = 1 − m 2 c 4 ( E c + m c 2 ) 2
On note e = m c 2 E c d'où v 2 c 2 = 1 − e 2 ( 1 + e ) 2 et v 2 = c 2 ( 1 + 2 e ) ( 1 + e ) 2
Finalement:
- v = c 1 + 2 e 1 + e , avec : e = m c 2 E c , expression qui reste assez simple
Aux faibles valeurs de E c ,(donc e grand devant 1), il vient v 2 = c 2 2 e = 2 E c m , on retrouve bien: E c = 1 2 m v 2
Théorème de l’énergie cinétique
Ce théorème, valable uniquement dans le cadre de la mécanique newtonienne, permet de lier l’énergie cinétique d’un système au travail des forces auxquelles celui-ci est soumis.
Énoncé
Dans un référentiel galiléen, pour un corps de masse m constante parcourant un chemin reliant un point A à un point B, la variation d’énergie cinétique est égale à la somme des travaux W des forces (extérieures et intérieures) qui s’exercent sur le corps considéréb,c :
- Δ E c A B = E c B − E c A = ∑ W F e x t / i n t A B
où :
- EcA et EcB sont respectivement l’énergie cinétique du solide aux points A et B.
Démonstration
D’après la deuxième loi de Newton, l’accélération du centre de gravité est liée aux forces qui s’exercent sur le solide par la relation suivante :
- m a → = F →
Pendant une durée dt, le solide se déplace de d u → = v → d t où v → est la vitesse du solide. On en déduit le travail élémentaire des forces :
- δ W = F → ⋅ d u → = m a → ⋅ d u → = m d v → d t ⋅ v → d t = m v → ⋅ d v →
Si le solide parcourt un chemin d’un point A à un point B, alors le travail total s’obtient en faisant une intégrale le long du chemin :
- W = ∫ A B F → ⋅ d u → = ∫ v A v B m v → ⋅ d v →
v → ⋅ d v → étant une différentielle exacte, l’intégrale ne dépend pas du chemin suivi entre A et B et peut donc être obtenue explicitement :
- W = m ∫ v A v B v → ⋅ d v → = m ( ∫ v x A v x B v x d v x + ∫ v y A v y B v y d v y + ∫ v z A v z B v z d v z ) = m ( [ v x 2 2 ] v x A v x B + [ v y 2 2 ] v y A v y B + [ v z 2 2 ] v z A v z B )
- W = m ( v x B 2 − v x A 2 2 + v y B 2 − v y A 2 2 + v z B 2 − v z A 2 2 ) = 1 2 m [ ( v x B 2 + v y B 2 + v z B 2 ) − ( v x A 2 + v y A 2 + v z A 2 ) ]
- W = 1 2 m ( ‖ v B → ‖ 2 − ‖ v A → ‖ 2 ) = 1 2 m ( v B 2 − v A 2 ) = 1 2 m v B 2 − 1 2 m v A 2 = E c B − E c A
Théorème de la puissance cinétique
Dans un référentiel galiléen, la puissance des forces s'appliquant au point M est égale à la dérivée par rapport au temps de l'énergie cinétique.
- P = d E c d t
On peut également appliquer cette définition à un unique solide si l'on considère uniquement la puissance des forces extérieures au solide.
L’énergie thermique en tant qu’énergie cinétique
L’énergie thermique est une forme d’énergie due à l’énergie cinétique totale des molécules et des atomes qui forment la matière. La relation entre la chaleur, la température et l’énergie cinétique des atomes et des molécules est l’objet de la mécanique statistique et de la thermodynamique.
De nature quantique, l’énergie thermique se transforme en énergie électromagnétique par rayonnement. Ce rayonnement thermique peut être approché sous certaines conditions par le modèle du rayonnement dit du « corps noir ».
La chaleur, qui représente un échange d’énergie thermique, est aussi analogue à un travail dans le sens où elle représente une variation de l’énergie interne du système. L’énergie représentée par la chaleur fait directement référence à l’énergie associée à l’agitation moléculaire. La conservation de la chaleur et de l’énergie mécanique est l’objet du premier principe de la thermodynamique.
Notes et références
Notes
- « Au repos » signifie dans son référentiel.
- Il faut prendre en considération toutes les forces : qu'elles soient conservatives ou non.
- Exemples de forces intérieures : forces de frottements entre deux pièces du système, forces de cohésions entre les atomes (cette dernière n'engendre dans la majorité des cas pas de travail).
Références
- (en) G. W. Leibniz von Freiherr, « Specimen dynamicum », dans Philip P. Wiener, Leibniz Selections [« Sélections de Leibniz »], New York, Charles Scribner's Sons, (1re éd. 1951), 606 p., 21 cm (ISBN 9780684175959, OCLC 12309633), Part 2: First Principles: Foundations of the Sciences, Chapter 5.
Voir aussi
Articles connexes
Liens externes
Énergie thermique
Mouvement thermique d'un segment de molécule d'une protéine.
Énergie et équilibre thermiques
L'énergie thermique a tendance à se diffuser uniformément dans l'espace. Ce mécanisme naturel d'équilibre est un des mécanismes énoncés dans le principe zéro de la thermodynamique, qui comprend aussi l'équilibre mécanique (des pressions s'équilibrent) et l'équilibre chimique (les fluides se mélangent).
Les mécanismes de répartition de l'énergie thermique se font1 :
- par contact direct :
- la conduction thermique (transfert de l'énergie cinétique des molécules sans échange de matière) ;
- la convection (échange de matière entre fluides : gaz et liquides).
- La dissipation d'énergie thermique par contact se fait toujours du corps le plus chaud (celui dont la température est la plus élevée) vers le corps le plus froid, donc de façon dissymétrique par rapport au temps (elle n'est pas réversible). Ce phénomène est formalisé dans le second principe de la thermodynamique et limite les possibilités de transformer de l'énergie en travail. Il a été découvert lors de la réalisation des premiers moteurs ;
Énergie thermique et température
Lors de la mise en contact de deux corps, un échange d'énergie thermique se produit. Le point d'équilibre est atteint lorsque les deux corps ont atteint la même température. La notion d'équilibre est transitive : si un corps A est en équilibre avec B, et que ce corps B est en équilibre avec un corps C, alors A et C sont aussi en équilibre ; A, B et C ont la même température. Au début du XXe siècle, il a été jugé que cette loi, qui semble tenir du simple bon sens, méritait d'être formulée comme le principe zéro de la thermodynamique.
Bien que difficile à définir formellement, la température est une notion utilisée dans la vie courante, car facile à observer. Pour mesurer la température d'un corps, il suffit de le mettre en contact avec un thermomètre (par exemple un thermomètre à alcool) et d'en lire la graduation à l'équilibre thermique.
De fait, énergie interne et température d'un système sont liées en physique statistique par le théorème d'équipartition :
- E t h e r m i q u e = N ⋅ f 2 ⋅ k B ⋅ T
avec :
De façon plus usuelle, la capacité thermique massique d'un corps est le coefficient qui permet d'exprimer la quantité d'énergie thermique nécessaire pour augmenter la température d'un kilogramme de ce corps d'un degré Celsius. Elle dépend en général de la composition du corps et de sa température. Ainsi,
- Q = m c Δ T ,
où :
- Q est la quantité d'énergie thermique transférée,
- m la masse du corps, c sa capacité thermique massique
- Δ T la variation de température entre la température initiale et finale du corps.
Dans le Système international d'unités, la masse du corps s'exprime en kilogrammes, la variation de température s'exprime en kelvins (K) (une variation de 1 K est équivalente à une variation de 1 °C) et la capacité thermique massique s'exprime alors en joules par kilogramme et par kelvin (J/(kg⋅K)).
Énergie thermique et état de la matière
En fournissant de l'énergie thermique à un corps, on peut en changer l'état, le faisant passer par exemple de l'état solide à l'état liquide.
À condition de pression donnée, ces changements d'état se font toujours à la même température, pour un corps d'une composition donnée. Par exemple, la glace fondante reste à 0 °C tant qu'elle n'est pas entièrement liquéfiée. C'est cette propriété qui a été utilisée, ainsi que des considérations d'origine thermodynamique, pour définir l'échelle de température Celsius, en se fondant sur les changements d'état de l'eau.
Différence entre chaleur et température
Les termes « chaleur »3 et « température »4 sont parfois confondus alors qu'il s'agit de concepts distincts5. Alors que la température détermine, entre autres, l'énergie thermique, la chaleur est un transfert d'énergie thermique entre deux systèmes.
Ces deux notions sont ainsi liées à l'énergie thermique. Pour une quantité de matière donnée, sans changement d'état et isolée thermiquement avec son milieu extérieur :
- si on apporte de la chaleur à cette matière, sa température peut augmenter (dans un système tampon, la température reste inchangée ; au cours d'un changement d'état la température reste constante dans le cas d'un corps pur) ;
- si on enlève de la chaleur à cette matière, sa température diminue.
Origine quantique
Par sa nature, étant le reflet d'une activité au niveau moléculaire, l'énergie thermique est profondément quantique. En particulier, sa capacité à se transformer en énergie lumineuse par le rayonnement du corps noir est un témoignage direct des changements d'état des molécules et atomes composant l'objet. C'est un phénomène qu'on peut observer quotidiennement, dans les braises d'un feu de bois ou la lumière d'une ampoule électrique à filament.
L'étude précise du rayonnement du corps noir et des lois déterminant la nature de la lumière émise a conduit à des paradoxes lorsqu'elle était faite avec les équations de la mécanique newtonienne. C'est en cherchant à résoudre ce paradoxe que Max Planck a introduit l'idée que la lumière n'était pas émise de manière continue, mais par paquets. Cette hypothèse s'est révélée fructueuse et est un des fondements de la mécanique quantique.
Cette propriété de la matière de rayonner son énergie thermique a une influence considérable sur notre environnement. C'est par ce phénomène que le Soleil rayonne une partie de son énergie jusqu'à la Terre, y apportant une énergie essentielle aux conditions d'existence de la vie. De plus, certains organismes vivants ont développé des organes sensoriels détectant la lumière, tels que les yeux, qui leur permettent d'obtenir des informations de leur environnement. Les longueurs d'onde lumineuses visibles pour l'homme, par exemple, sont autour de la longueur d'onde d'énergie maximale émise par le rayonnement du corps noir du Soleil, qui se situe à 500 nm.
Notes et références
Notes
- Plus exactement, N ⋅ f est le nombre de termes quadratiques du hamiltonien ; il ne correspond pas à la définition habituelle d’un degré de liberté en physique.
Références
Annexes
Articles connexes
Énergie (physique)
Le mot français « énergie » vient du latin vulgaire energia, lui-même issu du grec ancien ἐνέργεια / enérgeia. Ce terme grec originel signifie « force en action », par opposition à δύναμις / dýnamis signifiant « force en puissance »1 ; Aristote a utilisé ce terme « au sens strict d'opération parfaite »2, pour désigner la réalité effective en opposition à la réalité possible3.
C'est en 1717 que le terme d'énergie est employé pour la première fois, par Jean Bernoulli4, dans un sens qui s’oriente vers l’acception physique contemporaine. En 1807, Thomas Young introduit le mot en anglais energy, pour désigner la quantité m·v25. Cette adoption constitue une avancée significative dans la précision expressive. En effet, précédemment c’est le mot force qui est employé pour désigner indifféremment les concepts contemporains de force, d’énergie et de puissance. Cet usage s’était notamment répandu avec le Philosophiae naturalis principia mathematica d'Isaac Newton qui emploie le mot force dans sa formulation des équations de la dynamique. Le terme de travail sera lui proposé en 1829 par Gaspard-Gustave Coriolis, participant à préciser encore davantage les concepts distincts utiles à la physique. Cependant, les termes et leurs distinctions conceptuelles mettront encore du temps à se répandre. Ainsi encore en 1847 tout en soulignant la généralité et l'importance de la conservation de l'énergie, Helmholtz en développera l’idée dans un livre intitulé Űber die Erhaltung der Kraft (Sur la conservation de la force). En 1850, William Thomson propose explicitement d’adopter le terme energy plutôt que force. Une autre avancée importante est la formulation en termes modernes de la conservation de l'énergie mécanique réalisée par William Rankine en 1853. Malgré ce progrès significatif, il faudra encore attendre 1875 pour voir énergie apparaître dans la littérature scientifique française6.
Définition
Il existe en fait plusieurs définitions de l'énergie. Elles sont considérées comme équivalentes.
D’une façon usuelle, l’énergie est aujourd’hui définie comme la « capacité d'un corps ou d'un système à produire du travail mécanique ou son équivalent »7.
Dans un cadre plus formel, elle est définie comme la « grandeur physique qui se conserve lors de toute transformation d’un système isolé »8,9. Elle est sous-tendue par le principe de conservation de l'énergie10. Les qualificatifs fermé ou isolé sont précisés pour éviter une interprétation qui créditerait la possibilité d’un mouvement perpétuel.
Robert Mayer, médecin et naturaliste à Heilbronn, est le premier à formuler correctement le principe de conservation d'énergie dans un système fermé, sans en référer aux sommités de la physique de l'époque. Les querelles qui s'ensuivent sur l'antériorité de la découverte du principe affectent Mayer, qui sombre dans la dépression, et fait une tentative de suicide. Il s'en remet, et les honneurs finissent par arriver longtemps après. Il est fait docteur honoris causa de l'université de Tübingen11.
Richard Feynman, dans ses cours de physique, obtient par exemple à partir de cette définition l'expression de l'énergie potentielle gravitationnelle, à l'aide de considérations sur des dispositifs divers constitués de leviers, poulies et autres mécanismes12.
Approche transversale
Une grandeur « universelle »
L'énergie est un concept créé pour quantifier les interactions entre des phénomènes très différents ; c'est un peu une monnaie d'échange commune entre les phénomènes physiques. Ces échanges sont contrôlés par les lois et principes de la thermodynamique. L'unité de l'énergie définie par le Bureau international des poids et mesures (BIPM) dans le Système international (SI) est le joule13.
Lorsqu'un phénomène entraîne un autre phénomène, l'intensité du second dépend de celle du premier. Par exemple, les réactions chimiques dans les muscles d'un cycliste lui permettent de provoquer le déplacement du vélo. L'intensité de ce déplacement (c'est-à-dire la vitesse) dépend de l'intensité des réactions chimiques des muscles du cycliste, qui peuvent être quantifiées (la quantité de sucre « brûlée » par la respiration, le métabolisme du muscle).
Prenons un autre exemple. Un moteur à explosion fonctionne grâce à une réaction chimique, la combustion, qui a lieu à l'intérieur d'un cylindre. La réaction du combustible (aussi appelé carburant dans le cas d'un moteur thermique) avec le comburant (l'oxygène de l'air) produit du gaz avec émission de chaleur et de lumière, ce qui se traduit par une augmentation de la température et de la pression dans le cylindre. La différence de pression entre ce gaz et l'atmosphère de l'autre côté du piston déplace ce dernier, qui va, à travers une transmission mécanique, faire tourner les roues et entraîner divers organes dans le cas d'un véhicule. Au passage, il y aura des frottements mécaniques qui produiront un échauffement et une usure.
On a donc un réarrangement des molécules (rupture et recréation de liaisons chimiques) qui provoque une augmentation de leur quantité de mouvement, ce qui se traduit par une augmentation de la température du gaz et donc une augmentation de sa pression. Cette dernière provoque le mouvement d'un solide (le piston), qui va entraîner un système de transmission, et pouvoir ainsi d'une part faire tourner un axe, qui peut être par exemple relié aux roues d'une voiture ou bien à un alternateur. L'entraînement de la pièce mobile de cet alternateur va faire tourner un aimant qui, par induction au sein d'une bobine, va provoquer un déplacement d'électrons (courant électrique).
Le concept d'énergie va permettre de calculer l'intensité des différents phénomènes (par exemple la vitesse de la voiture et la quantité d'électricité produite par l'alternateur) en fonction de l'intensité du phénomène initial (la quantité de gaz et la chaleur produite par la réaction chimique de combustion).
Remarques
- Dans les applications grand public, notamment dans le domaine de la nutrition, on exprime fréquemment l'énergie en « calories » (notée cal) ; la calorie est en toute rigueur l'énergie qu'il faut fournir pour faire chauffer un gramme d'eau, aux conditions normales de pression et de température, d'un degré Celsius, mais les nutritionnistes nomment par simplification « calorie » ce que les physiciens nomment « kilocalorie » (notée kcal ou Cal).
- En électricité, on utilise le watt-heure (Wh), énergie consommée pendant une heure par un appareil ayant une puissance d'un watt, ou encore son multiple le kilowattheure (kWh) qui vaut 1 000 Wh. Celui-ci n'est pas très éloigné du travail que peut effectuer un cheval en une heure (736 Wh par convention).
- Pour des raisons thermodynamiques (deuxième principe), toute transformation énergétique réelle est irréversible, ce qui veut dire qu'en inversant l'opération (exemple : retransformer en mouvement via un moteur électrique l'énergie produite par la dynamo d'un vélo), on ne retrouve pas la quantité d'énergie consommée au départ. Cela est lié aux pertes sous forme de chaleur.
Historique de la notion d'énergie
Le concept d'énergie est fondamental pour l'étude des phénomènes de transformation (comme la chimie et la métallurgie) et de transmission mécanique, qui sont la base de la révolution industrielle. Le concept physique d'énergie s'est donc logiquement affirmé au XIXe siècle.
En 1652, Huygens montre que la quantité m·v2 est celle qui se conserve dans tous les cas de choc élastique.
À partir de 1686, Leibniz appelle cette quantité la « force », « force vive » sa partie cinétique et « force morte » ce qu'on appelle énergie potentielle, puis développe sous le nom de « dynamique » la première théorie énergétique, où m·v2 est le principe actif dans la matière, sa réalité première14.
En 1788, Lagrange montre l'invariance de la somme de deux quantités, que l'on appellera plus tard « énergie cinétique » et « énergie potentielle ».
Au XIXe siècle, on parvient par une série d'expériences à mettre en évidence des constats ou lois :
- on constate que la chute d'une masse donnée d'une même hauteur produit toujours la même quantité de chaleur (calorimétrie) ;
- et que si la vitesse finale n'est pas nulle, la hausse de température est moindre, comme si seulement une partie de la chute était convertie en vitesse et le reste en chaleur ;
- de même, un échauffement pourra produire une dilatation, une augmentation de pression, qui elle-même permettra de « produire un travail » par exemple en déplaçant une masse ;
- le total est toujours conservé : ainsi naît le concept scientifique d'énergie, « chose » encore indéterminée mais dont on postule une propriété :
- l'énergie se conserve dans tous les phénomènes, devenant tour à tour pression, vitesse, hauteur, etc.
Ainsi, grâce à l'énergie, on peut mettre en relation des observations aussi différentes qu'un mouvement, une rotation, une température, la couleur d'un corps ou d'une lumière, une consommation de sucre ou de charbon, une usure, etc.
Il apparaît également que si l'énergie se conserve et se transforme, certaines transformations sont faciles ou réversibles et d'autres non.
Par exemple, il est facile de transformer de la hauteur de chute en échauffement, on peut le faire intégralement, en revanche l'inverse est difficile (il faut des appareils complexes) et une partie de l'« énergie » devra être diffusée et donc perdue. Cette observation sera à la base de l'idée d'entropie.
À partir du concept de conservation de l'énergie (en quantité), on pourra regarder d'un œil différent des systèmes complexes (notamment biologiques et chimiques) qui violent apparemment cette loi et, on parviendra, moyennant de nouveaux progrès scientifiques, à toujours valider le postulat ou principe de conservation de l'énergie.
L'énergie est un concept essentiel en physique, qui se précise depuis le XIXe siècle.
On retrouve le concept d'énergie dans toutes les branches de la physique :
Physique
Unités et mesures
Dans le Système international d'unités, l'énergie est une grandeur exprimée en joules ( M L 2 T − 2 )13.
En science physique, un échange d'énergie est une manière d'exprimer l'intensité des phénomènes ; c'est de fait une quantité mesurable, et qui s'exprime de manière différente selon les transformations que subit un système (réaction chimique, choc, mouvement, réaction nucléaire, etc.). L'énergie se définissant de manière différente selon les phénomènes, on peut de fait définir diverses « formes d'énergie » (voir plus loin).
Par ailleurs, à l'échelle macroscopique, tout phénomène possède une cause ; c'est la variation d'intensité du phénomène-cause qui provoque la variation de l'intensité du phénomène-effet. Si les intensités des phénomènes cause et effet sont exprimées sous la forme d'une énergie, on voit alors que l'énergie se conserve (voir ci-après).
L'unité du Système international pour mesurer l'énergie est le joule (J).
Certaines activités utilisent d'autres unités, notamment l'électron-volt (1 eV = 1,602 × 10−19 J), le kilowatt-heure (1 kWh = 3,6 MJ), la tonne d'équivalent pétrole (1 tep = 41,868 GJ), la calorie (1 cal = 4,18 J), la grande calorie (en diététique : 1 Cal = 1 kcal = 4 182 J), et le kilogramme en physique relativiste.
La thermodynamique est la discipline qui étudie les transformations de l'énergie qui font intervenir l'énergie thermique. Le premier principe affirme que l'énergie se conserve, le second principe impose des limitations au rendement de la transformation de l'énergie thermique en énergie mécanique, électrique ou autre.
Travail et chaleur
Travail
Le travail est un transfert ordonné d'énergie entre un système et le milieu extérieur.
- Considérons un ensemble cylindre, piston, lequel est à la base de l’obtention de travail mécanique par action de la chaleur. À l’échelle microscopique les chocs des particules de gaz sur le piston définissent la pression exercée sur celui-ci à l’échelle macroscopique. Chaque choc contribue au déplacement, concerté avec les autres chocs, du piston dans la même direction. Il y a addition des forces induites par chaque choc et c’est pourquoi le transfert d’énergie est considéré comme ordonné.
- Si l’on considère maintenant le travail électrique. Il est dû au déplacement des électrons dans un conducteur sous l’influence d’un champ électrique. Ici encore l’ensemble des électrons se déplace dans la même direction et les effets s’additionnent au niveau macroscopique.
Chaleur
La chaleur est un transfert désordonné d’énergie entre le système et le milieu extérieur.
La chaleur est un transfert d’agitation thermique. L’agitation des particules se propage au gré des chocs dans toutes les directions, de façon désordonnée. C’est pour cette raison que l’on ne peut jamais transformer intégralement de l’énergie thermique en travail alors que l’inverse est possible (ex: travail électrique transformé en chaleur par effet Joule dans un radiateur électrique). On dit encore que la montée en température correspond à une dégradation de l’énergie.
Ce transfert thermique, appelé chaleur, s'effectue du système le plus chaud vers le plus froid, c’est-à-dire celui dont les particules sont statistiquement les plus agitées, va transmettre son agitation thermique au gré des chocs plus ou moins énergétiques, au milieu extérieur ou au système statistiquement le moins agité, c’est-à-dire le plus froid. Cette constatation intuitive est formalisée par le second principe de la thermodynamique.
Propriétés
Le travail et la chaleur ne sont pas des fonctions d’état. Leur quantité, mise en jeu au cours d’une transformation, dépend de la façon dont on procède.
Rendement
La conversion d'énergie d'une forme à une autre n'est en général pas complète : une partie de l'énergie présente au départ est dégradée sous forme d'énergie cinétique désordonnée (on dit parfois qu'elle est transformée en chaleur). On nomme rendement le quotient de l'énergie obtenue sous la forme désirée par celle fournie à l'entrée du convertisseur.
Prenons l'exemple d'un moteur thermique. Ce qui intéresse son utilisateur, c'est le mouvement mécanique produit. Le reste de l'énergie est au mieux considéré comme perdu (la part extraite sous forme de chaleur dans les gaz d'échappement), au pire nuisible (la part qui correspond à un travail d'usure physique ou chimique du moteur).
Un moteur électrique idéal, qui convertirait toute l'énergie du courant électrique en mouvement mécanique, aurait un rendement de 1 (ou de 100 %). En réalité, s'il est proche de 95 % pour les machines les plus puissantes, il est en moyenne aux alentours de 80-85 % seulement pour un moteur à courant alternatif de quelques kilowatts, et un peu plus faible encore pour les moteurs à courant continu, du fait, entre autres, des frottements des balais sur le rotor et d'une moins bonne répartition du champ magnétique dans la machine.
Le rendement réel d'un convertisseur est donc toujours inférieur à 1, sauf dans le cas des convertisseurs dont le rôle est de produire de l'énergie thermique pour lesquels il est unitaire (chauffage électrique).
Dans certains cas, il peut apparaître un « rendement » apparent supérieur à 1 :
- une pompe à chaleur (ou un climatiseur inversé) donne couramment trois fois plus de chaleur qu'on lui a injecté d'énergie électrique. En effet, au lieu de dissiper cette énergie en chaleur par effet Joule comme les appareils de chauffage électrique ordinaires, la machine prélève de l'énergie thermique dans un milieu extérieur (fût-ce dans une eau à 2 °C, soit encore 275,15 kelvins) : l'énergie électrique consommée sert alors à déplacer cette chaleur plutôt qu'à la produire. Or il n'y a pas de limite théorique à la quantité d'énergie thermique qu'un joule électrique peut déplacer. Le rendement énergétique est en fait égal à 1 (par définition, puisque l'énergie se conserve), et l'on nomme coefficient de performance l'efficacité énergétique du système, c'est-à-dire le rapport de l'énergie mise à disposition par la pompe à chaleur à celui qu'aurait assuré le seul effet Joule ;
- Un autre cas de rendement apparent supérieur à 1 provient d'une sous-estimation de l'énergie injectée pour des raisons historiques. Ainsi, les chaudières ont traditionnellement pour référence l'énergie « PCI » (pouvoir Calorifique Inférieur) du combustible, qui suppose une combustion ne produisant que des gaz. Or la combustion libère également de l'énergie thermique sous forme de vapeur d'eau, que les chaudières à condensation sont capables de récupérer en la retransformant en eau liquide ; on affiche ainsi parfois des rendements apparents supérieurs à 1, alors que le pouvoir calorifique supérieur, plus adapté, reste lui inférieur à 1.[réf. nécessaire]
Loi de conservation
L'énergie ne peut ni se créer ni se détruire, mais uniquement se transformer d'une forme à une autre ou être échangée d'un système à un autre (principe de Carnot). C'est le principe de conservation de l'énergie : l'énergie est une quantité qui se conserve. Cette quantité est composée d'éléments divers (énergie cinétique, énergie thermique, énergie potentielle, énergie de masse, etc.), qui s'échangent dans un jeu à somme nulle.
Ce principe empirique a été validé en 1915, bien après sa découverte, par le théorème de Noether. La loi de la conservation de l'énergie découle de l'invariance dans le temps des lois de la physique15.
Ce principe est tellement fort en physique qu’à chaque fois qu'il a semblé ne pas être vérifié cela a conduit à des découvertes importantes. Chaque fois qu'il a semblé que l'énergie n'était pas conservée, il s'agissait en fait de sa transformation en une nouvelle forme. Par exemple, la radioactivité a un temps été interprétée comme la ré-émission de quelque chose qui était reçu de l'extérieur et l'explication est venue de l'équivalence masse-énergie.
Formes d'énergie
En pratique, on distingue souvent différentes « formes » d'énergie. Toutefois, l'énergie sert à mesurer l'intensité d'un phénomène, cette division n'est qu'une manière de faire correspondre l'énergie au phénomène qu'elle mesure. Par ailleurs, cette distinction n'a rien d'absolu, mais dépend uniquement de la position de l'observateur : le principe de relativité s'applique aussi à l'énergie, de sorte que le même phénomène pourra être analysé en termes d'énergie « cinétique », « électromagnétique », ou « potentielle »…
Les formes d'énergie classiquement considérées sont :
Dans la théorie de la relativité, Albert Einstein établit l'existence de deux formes d'énergie seulement :
En thermodynamique, l'énergie fatale est l'énergie inéluctablement présente ou piégée dans un processus ou un produit, qui parfois et pour partie peut être facilement récupérée et valorisée ; par exemple, à la suite de retards dans la mise en place du recyclage, la France produisait dans les années 2000 plus de 25 millions de tonnes par an de déchets ménagers dont 40 % étaient encore traités par incinération. Le pouvoir calorifique de ces déchets est une forme d'énergie fatale. Sans récupération (récupération de chaleur, méthane, hydrogène et/ou électricité, etc., éventuellement avec cogénération ou trigénération, cette énergie serait perdue dans l'environnement (dans les décharges) ou rejetée dans l'atmosphère. La combustion de déchets peut produire de la vapeur qui peut alimenter des serres, des usines ou un réseau urbain de chaleur. La méthanisation des déchets organiques peut produire de substantielles quantités de méthane, et un compost valorisable en agriculture.
Énergie et puissance
L'énergie dépensée pour créer un phénomène mesure l'ampleur du phénomène final. Cette énergie est fournie par un autre phénomène, appelé « phénomène moteur ».
Certains phénomènes moteurs vont faire le travail rapidement, d'autres plus lentement ; par exemple, un manutentionnaire gringalet mettra longtemps avant de monter des parpaings un par un en haut de l'échafaudage, alors qu'un manutentionnaire musclé en portera plusieurs à la fois et sera plus rapide (en revanche, le résultat final sera exactement le même).
Cette capacité à mobiliser beaucoup d'énergie en un temps donné est appelée puissance du phénomène moteur :
- la puissance est le ratio de l'énergie fournie par un phénomène par la durée du phénomène, P = dE/dt.
La puissance se mesure en watts (1 W = 1 J/s).
Transferts thermiques
Les transferts thermiques font partie d'un domaine de la thermodynamique appelé thermodynamique irréversible, c'est-à-dire, pour simplifier, que le phénomène ne peut pas revenir en arrière.
L'énergie transférée se présente essentiellement sous forme de chaleur qui va spontanément d'une zone chaude vers une zone froide (Second principe de la thermodynamique). Ce transfert de chaleur peut être accompagné d'un transfert de masse. Ce phénomène se présente sous trois formes différentes :
Chacun de ces trois modes est prépondérant dans son univers de prédilection : la conduction dans les solides, la convection dans les fluides en mouvement (liquides, gaz), le rayonnement dans le vide (où c'est le seul mode possible).
La conduction
La conduction thermique est le phénomène par lequel la température d'un milieu s'homogénéise. Il correspond à la transmission de l'agitation thermique entre molécules et se produit dans un solide, un liquide ou un gaz. Exemple : la température d'un barreau chauffé à une extrémité a tendance à s'uniformiser par conduction thermique.
La convection
La convection est le transfert de chaleur provoqué par le mouvement des particules d'un fluide. Il se produit dans un fluide en mouvement. Exemple : l'air chaud, moins dense, monte, transportant la chaleur du bas vers le haut.
Le rayonnement
Le rayonnement est le transfert de chaleur par propagation d'ondes électromagnétiques ou par désintégration radioactive. Il peut se produire dans tous les milieux, vide y compris. Exemple : la Terre est chauffée par le rayonnement du soleil.
Notes et références
- Art. « énergie » [archive], CNRTL ; Dictionnaire grec-français d'Anatole Bailly, 1935, art. « ἐνέργεια » [archive].
- Emmanuel Trépanier, « De l’imposition seconde du terme ἐνέργεια chez Aristote [archive] » [PDF], Laval théologique et philosophique, vol. 39, no 1, 1983, p. 7-11.
- « énergie » [archive], Dictionnaire Larousse en ligne.
- Lettre de Jean Bernoulli à Pierre Varignon, 26 janvier 1717 : « L'énergie est le produit de la force appliquée à un corps par le déplacement infinitésimal subi par ce corps sous l'effet de cette force. » — Leibniz aussi emploie ce mot, en grec, pour désigner la « quantité de puissance active », c'est-à-dire la force vive et la force morte, soit m·v2, notamment dans De la nature en elle-même (De ipsa natura, 1698) : « deuxièmement si, dans les choses créées, réside quelque énergie (ἐνέργεια)... » (original en latin dans C. I. Gerhardt, Phi 4, p. 504 et 506).
- (en) Thomas Young, A Course of Lectures on Natural Philosophy and the Mechanical Arts, 1807. Lecture VIII, p. 78 : « Le terme energy peut être appliqué au produit de la masse d'un corps par le carré de sa vélocité ... Ce produit a été appelé la force vive ... Leibniz, Smeaton et beaucoup d'autres estimaient la force d'un corps en mouvement par le produit de sa masse par le carré de sa vitesse » (lire en ligne [archive]).
- L'élaboration du concept d'énergie [archive] Roger Balian, Gabrielle Bonnet, Académie des Sciences - Service de Physique Théorique, CEA de Saclay 12/01/2009.
- Informations lexicographiques [archive] et étymologiques [archive] de « énergie » dans le Trésor de la langue française informatisé, sur le site du Centre national de ressources textuelles et lexicales.
- « L’Énergie », sur CNRS (version du 5 septembre 2020 sur l'Internet Archive).
- C. Berthier et M.H. Perez, « La construction progressive du concept d’énergie dans le cursus scolaire de l’élève » [archive] [PDF], sur Académie de Bordeaux, p. 1.
- Roger Balian, « II. Conséquences énergétiques des principes fondamentaux » [archive], Les multiples visages de l'énergie, sur culturesciencesphysique.ens-lyon.fr, École normale supérieure de Lyon, (Sommaire du dossier [archive]).
« Il ne peut se créer ni se détruire d'énergie, et il est impropre de parler comme on le fait couramment de « production » ou de « consommation » d'énergie. Dans tous les cas, il s'agit de changement de forme, ou de transfert d'un système à un autre »
.
- (de) Heilbronn und Umgebung (« Heilbronn et ses environs »), Rainer Moritz, éditions Gmeiner-Verlag (ISBN 978-3-8392-1258-5)
- (en) The Feynman Lectures on Physics, Volume I, chap. 4 « Conservation of Energy » [archive], California Institute of Technology, section 4–1 « What is energy? ».
- Le Système international d'unités (SI), Sèvres, Bureau international des poids et mesures, , 9e éd., 216 p. (ISBN 978-92-822-2272-0, lire en ligne [archive] [PDF]), p. 26.
- Pierre Costabel, Contribution à l'étude de l'offensive de Leibniz contre la philosophie cartésienne en 1691-1692, Revue Internationale de Philosophie, 1966, no 76-77, p. 265 (lire en ligne [archive]) « « cette « science toute nouvelle » que Leibniz appelle la “dynamique” et qui, en introduisant comme réalité première dans la matière un principe actif... »
- Leonard Susskind (trad. de l'anglais), Le minimum théorique : tout ce que vous avez besoin de savoir pour commencer à faire de la physique, Lausanne/Paris, Presses polytechniques et universitaires romandes, , 257 p. (ISBN 978-2-88915-115-8, lire en ligne [archive]), p. 160.
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
Liens externes
-
- Roger Balian, Gabrielle Bonnet, L'élaboration du concept d'énergie [archive], Académie des Sciences - Service de Physique Théorique, CEA de Saclay, 12 janvier 2009.
- L’émergence du concept et du terme [d’énergie] en physique [archive].
- Claude Paul Bruter (professeur de mathématiques), Énergie et stabilité éléments de philosophie naturelle et d’histoire des sciences [archive] [PDF], université Paris 12.
- Henri Poincaré, La théorie de Lorentz et le principe de réaction, sur Wikisource.
- Histoire, Épistémologie et Didactique du concept d'Énergie [archive] [PDF]
- Du concept de travail vers celui d'énergie : L'apport de Thompson [archive]
- L’élaboration historique du concept d’énergie [archive]
- Apprentissage du champ conceptuel de l'énergie pour des élèves ingénieurs [archive]
- Marc Couture, avec la collaboration de René Lepage, Claire O’Neill et Anik Daigle, Astronomie histoire et concepts – Guide d’étude [archive] [PDF].
- Danièle Ghesquier-Pourcin, Muriel Guedj, Gabriel Gohau et Michel Paty, Énergie, science et philosophie au tournant des XIXe et XXe siècles [archive]
- Historique du concept d'énergie [archive]
- Bénédicte Abraham, Les concepts de « force » et d’« énergie » en Allemagne à la lumière des définitions des dictionnaires entre la seconde moitié du XVIIIe siècle et le début du XIXe siècle [archive]
- Arnaud Mayrargue, Émergence du concept d’énergie, Revue du Palais de la Découverte, 2011
nergie chimique
L'énergie chimique est le potentiel pour une substance chimique à subir une réaction chimique pour se transformer en d'autres substances. Les piles, les aliments et les combustibles fossiles sont des exemples de supports de stockage de l'énergie chimique. La rupture ou la création de liaisons chimiques implique de l'énergie, qui peut être absorbée ou dégagée par un système chimique (sous forme de chaleur ou d'énergie électrique par exemple). L'énergie chimique constitue le principal moyen de stockage d'énergie chez les mammifères grâce à l'ATP, cette substance étant ensuite transformée en énergie mécanique à l'intérieur des muscles. L'énergie chimique est aussi un des moyens connus pour stocker de l'énergie électrique, grâce notamment aux batteries.
Il est à noter que la production d'énergie électrique française1 est pour une part non négligeable issue de l'énergie chimique (centrales thermiques au fuel, au charbon ou au biogaz). En effet elle constitue 7,5 % de l'énergie électrique produite en France en 2020. Par ailleurs cette production est relativement stable en proportion depuis 2018 (10,2 % en 2017, 7,1 % en 2018 et 7,8 % en 2019).
Notes et références
- Portail de l’énergie
- Portail de la chimie
-
Énergie nucléaire
La radioactivité est un phénomène physique naturel, se manifestant par le fait que certains types de noyaux atomiques, instables, peuvent dissiper sous forme d'énergie une partie de leur masse initiale (transformée selon la célèbre formule E=mc2 d'Albert Einstein) et évoluer spontanément vers des noyaux atomiques plus stables, par désintégration.
Un corps radioactif dégage naturellement cette énergie sous la forme d'un flux de rayonnement ionisant et de chaleur. Cette chaleur est particulièrement intense pour le combustible nucléaire dans le réacteur ; c’est la raison pour laquelle le combustible irradié est entreposé dans une piscine de désactivation près du réacteur. C'est le même phénomène qui est à l'origine d'une partie de la chaleur de la croûte continentale terrestre.
Réaction nucléaire
Une réaction nucléaire est une interaction entre un noyau atomique et une autre particule (particule élémentaire, noyau atomique ou rayonnement gamma) qui provoque un réarrangement nucléaire.
Ces réactions sont d'autant plus faciles qu'elles conduisent à des configurations plus stables. La différence d’énergie (correspondant au défaut de masse) constitue alors l’énergie libérée par la réaction. Cette transformation de la masse en énergie (selon la célèbre formule E=mc2) est utilisée dans les réactions nucléaires de fission et fusion.
Fission
Lorsqu’un neutron percute le noyau de certains isotopes lourds, il existe une probabilité que le noyau percuté se scinde en deux noyaux plus légers. Cette réaction, qui porte le nom de fission nucléaire, se traduit par un dégagement d’énergie très important (de l’ordre de 200 MeV par événement, à comparer aux énergies des réactions chimiques, de l’ordre de l’eV).
Cette fission s’accompagne de l’émission de plusieurs neutrons qui, dans certaines conditions, percutent d’autres noyaux et provoquent ainsi une réaction en chaîne. Dans un réacteur nucléaire, cette réaction en chaîne se déroule dans des conditions stables, à vitesse lente et contrôlée. Dans une bombe, où la matière est placée brusquement très loin de son domaine de stabilité, la réaction se multiplie si rapidement qu’elle conduit à une réaction explosive.
L’importance de l’énergie émise lors de la fission provient du fait que l’énergie de liaison par nucléon du noyau initial est plus faible que celle des noyaux produits (environ 7,7 MeV par nucléon pour les éléments lourds, contre 8,8 pour le fer). La plus grande partie de l’énergie se retrouve sous forme d’énergie cinétique des neutrons et des noyaux fils, une énergie récupérée sous forme de chaleur dans les réacteurs. D'après le CEA, l'énergie produite par 1 kg d'uranium naturel dans un réacteur nucléaire est égale à l'énergie de 10 tonnes équivalent pétrole (tep)2. Selon les observations récentes d'ondes gravitationnelles3, cette énergie de liaison provient de la conversion d'énergie gravitationnelle en énergie cinétique, puis en énergie de liaison4 lors de la formation d'éléments lourds par processus r au cours de la coalescence de deux étoiles à neutrons (un phénomène aussi appelé kilonova).
Fusion nucléaire
La fusion nucléaire est une réaction dans laquelle deux noyaux atomiques s’assemblent pour former un noyau plus lourd ; par exemple, un noyau de deutérium et un noyau de tritium s’unissent pour former un noyau d’hélium plus un neutron. La fusion des noyaux légers dégage une quantité considérable d’énergie provenant de l’interaction forte, bien plus importante que la répulsion électrostatique entre les constituants des noyaux légers. Ceci se traduit par un défaut de masse (voir énergie de liaison et E=mc2), le noyau résultant ayant une masse moins élevée que la somme des masses des noyaux d’origine.
Cette réaction n’a lieu qu’à des températures très élevées (plusieurs dizaines de millions de degrés) où la matière est à l’état de plasma. Ces conditions sont réunies au sein des étoiles, lors de l’explosion d’une bombe à fission nucléaire qui amorce ainsi l’explosion thermonucléaire (bombe H), ou dans des réacteurs nucléaires expérimentaux.
En 2021, aucune installation ne permet une production nette d’énergie par le contrôle de réactions de fusion nucléaire. Des recherches sont en cours afin d’obtenir un plasma sur une durée suffisante, afin que l’énergie de fusion produite soit supérieure à celle investie dans le chauffage des particules. En particulier, le projet international ITER fédère des chercheurs pour développer un usage civil de cette énergie. L'assemblage de ce réacteur a débuté le à Saint-Paul-lès-Durance en France et ses premiers essais devraient avoir lieu en 20255.
Comparaison des énergies nucléaire et chimique
L'énergie nucléaire est d'environ 1 % de l'énergie de masse donnée par la formule d'Einstein de l'énergie de masse (ici celle d'un proton) :
- E M = m p c 2 = 938 M e V .
C'est l'énergie nécessaire pour séparer un neutron d'un proton6. C'est aussi l'énergie de liaison du noyau de l'atome d'hydrogène.
Elle est de l'ordre de un million de fois de celle de l'énergie chimique qui est moins connue et donnée par la constante de Rydberg issue de la théorie de Bohr de l'atome d'hydrogène :
- E C = R y = 1 2 α 2 m e c 2 = 13 , 6 e V .
L'énergie nucléaire est généralement attribuée à une interaction hypothétique, la force forte. Une théorie développée sur la force de cohésion des noyaux des isotopes de l'hydrogène indique7 qu'elle peut s'exprimer par une formule analogue aux précédentes et de valeur intermédiaire :
- E N = 1 2 α m p c 2 = 3 , 5 M e V
L'ordre de grandeur de cette énergie de séparation neutron-proton est proche de l'énergie de liaison du deutérium 2H, 2,2 MeV, soit 1,1 MeV par nucléon. Elle est la moitié de celle de la particule α qui est aussi l'hélium 4, 4He. Les noyaux du fer Fe et du nickel Ni sont les éléments chimiques qui ont la plus grande énergie de liaison nucléaire, légèrement inférieure à 9 MeV.
Connaissant les formules des énergies nucléaire et chimique, on en déduit l'ordre de grandeur de leur rapport :
- E N E C = m p α m e = 137 × 1 836 = 250 000
- Ce résultat peut être obtenu de façon simple. En effet le rayon de Bohr caractérisant l'énergie chimique, celle de l'atome d'hydrogène, est
- a 0 = ε 0 h 2 π m e e 2 = 53 p m .
- Le rayon d'un nucléon n'est pas une constante universelle mais le rayon de Compton du proton,
- R P = ℏ m p c = 0 , 21 f m
- est assez voisin du rayon du proton, 1 fm, en est une. Le rapport du rayon de Bohr à celui du proton est alors de l'ordre de 50 000.
- Selon la loi de Coulomb, l'énergie électrostatique est en raison inverse du rayon. Faisons le rapport :
- a 0 R P = ε 0 h 2 π m e e 2 h 2 π m p c = ε 0 h m p c m e e 2 = m p 2 m e α
- On obtient la formule donnée plus haut, divisée par 2.
- En fait ce calcul ne donne que l'ordre de grandeur du rapport des énergies nucléaire et chimique, ce qui est déjà bien puisque personne n'a rien trouvé d'équivalent jusqu'à présent, d'autant que l'énergie de liaison par nucléon varie de 1 MeV pour l'hydrogène lourd à près de 10 MeV pour le fer.
- Les symboles utilisés sont :
- Énergie de masse E M
- Énergie nucléaire E N
- Énergie chimique E C
- Énergie du proton : m p = 938 M e V
- Énergie de l'électron : m e = 0 , 5 M e V
- Constante de structure fine : α = e 2 2 ε 0 h c = 1 137
- L'énergie nucléaire est une fraction évaluée habituellement à 1 % de l'énergie de masse d'Einstein, ce qu'on retrouve avec un coefficient de 1/137 obtenu par un calcul basé sur la loi de Coulomb où le potentiel est en 1/r.
Applications
Réactions nucléaires modérées
Cœur de réacteur nucléaire (
EPFL).
Les applications de l’énergie nucléaire concernent, pour l’essentiel, deux domaines :
Une autre application est la production d’isotopes radioactifs utilisés dans l’industrie (radiographie de soudure, par exemple) et en médecine (médecine nucléaire et radiothérapie). D’autres utilisations ont été imaginées, voire expérimentées, comme la production de chaleur pour alimenter un réseau de chauffage, le dessalement de l’eau de mer ou la production d’hydrogène.
Ces applications utilisent des réacteurs nucléaires (appelés aussi piles atomiques, lorsqu’il s’agit de faible puissance, d’usage expérimental et de production de radioisotopes). Les réactions de fission nucléaire y sont amorcées, modérées et contrôlées dans le cœur, constitué de l'assemblage de combustible et de barres de contrôle et traversé par un fluide caloporteur qui en extrait la chaleur. Cette chaleur est ensuite convertie en énergie électrique (ou en énergie motrice pour la propulsion navale) par l’intermédiaire de turbines et alternateurs (ensemble appelé turbo-alternateur).
Centrales nucléaires
Les 441 réacteurs en fonctionnement au totalisent une puissance installée de 390 220 MW, dont 97 154 MW (24,9 %) aux États-Unis, 62 250 MW (16 %) en France, 45 518 MW (11,7 %) en Chine, 31 679 MW (8,1 %) au Japon (33 réacteurs dont seulement 9 ont été autorisés à redémarrer), 28 437 MW (7,3 %) en Russie et 23 172 MW (5,9 %) en Corée du sud8.
Les 54 réacteurs en construction dans 19 pays totalisent une puissance de 57 441 MW, dont 10 564 MW (18,4 %) en Chine, 5 380 MW (9,4 %) aux Émirats arabes unis, 4 824 MW (8,4 %) en Inde, 4 525 MW (7,9 %) en Russie et 3 260 MW (5,7 %) au Royaume-Uni9.
Production d'électricité d'origine nucléaire par pays (2012).
Pourcentages de production d'électricité d'origine nucléaire par pays (2012).
La production d'électricité des centrales nucléaires a atteint un pic de 2 661 TWh en 2006 ; après une chute à 2 346 TWh en 2012 consécutive à l'accident nucléaire de Fukushima, elle est remontée progressivement à 2 586 TWh en 201910.
La part du nucléaire dans la production mondiale d'électricité était de 10,3 % en 2017 contre 3,3 % en 1973. En 2019, les principaux pays producteurs d'électricité nucléaire sont les États-Unis (809 TWh, 31,8 % du total mondial), la France (382 TWh, 15,1 %), la Chine (330 TWh, 9,4 %), la Russie (195,5 TWh, 7,7 %) et la Corée du sud (139 TWh, 5,6 %)11,12. En 2020, la Chine augmente sa production de 4,4 points par le démarrage deux nouveaux réacteurs et prend sa deuxième place à la France13.
À la suite de l'accident nucléaire de Fukushima, la production d'électricité d'origine nucléaire a chuté de 2 518 TWh en 2011, soit 13,5 % de la production mondiale d'électricité, à 10,8 % en 201214, puis se maintient à environ 11 % jusqu'en 201515.
La France est le pays dont la part d'électricité d'origine nucléaire est la plus élevée en 2019 (70,6 %), suivie par la Slovaquie (53,9 %), l'Ukraine (53,9 %), la Hongrie (49,2 %) et la Belgique (47,6 %). Cette production en Chine est en progression rapide depuis le milieu des années 2000, elle atteint en 2019 4,9 % de la production électrique du pays11.
Dans l'Union européenne, 13 États membres produisent de l'électricité nucléaire. En 2020, cette production nucléaire se chiffre à 683 512 GWh — soit 25 % — de la production d'électricité de l'union. Le plus gros producteur de l'UE est la France (52 % de la production de l'UE), suivi de l'Allemagne (9 %), l'Espagne (9 %) et la Suède (7 %). Ces quatre pays ensemble produisent les trois quarts de l'électricité nucléaire l'UE16.
Le , la Commission européenne publie une communication proposant une stratégie énergétique à long terme (2050) axée sur la décarbonation de la consommation d'énergie, réduisant les émissions de 90 % d'ici 2050 par la combinaison de mesures d'amélioration de l'efficacité énergétique, d'augmentation de la part de l'électricité dans la consommation finale d'énergie (53 % en 2050 contre 20 % en 2017) ; elle prévoit une utilisation accrue du nucléaire (15 % de la production d'électricité en 2050) à côté des énergies renouvelables (80 % en 2050)17.
Propulsion navale
Les bâtiments à propulsion nucléaire utilisent un ou plusieurs réacteurs nucléaires. La chaleur produite est transmise à un fluide caloporteur utilisé pour générer de la vapeur d’eau actionnant :
- des turbines couplées aux hélices de propulsion (propulsion à vapeur) ;
- des turbines couplées à des alternateurs alimentant en énergie électrique tout le bâtiment, et éventuellement des moteurs électriques de propulsion (propulsion électrique).
Environ 400 navires à propulsion nucléaire existent dans le monde, très majoritairement militaires, surtout des sous-marins, mais aussi des porte-avions et des croiseurs, et quelques navires civils, principalement des brise-glaces. Des cargos nucléaires ont également été expérimentés dans les années 1960 et 1970 (l’Américain NS Savannah, l’Allemand Otto Hahn et le Japonais Mutsu), mais leur exploitation ne s’est pas avérée rentable et ces expériences ont été abandonnées.
Les coûts d’investissement et d’exploitation de la propulsion nucléaire sont importants, ce qui la rend rarement intéressante pour une utilisation civile. Elle n'est véritablement intéressante que pour un usage militaire, et particulièrement pour les sous-marins. Cette énergie apporte :
- une très grande autonomie permettant d’éviter en opérations la contrainte du ravitaillement en combustible (retour à un port ou ravitaillement à la mer). Sur les porte-avions, l’espace libéré par l’absence de soute à combustible, permet de consacrer plus de volume au stockage des munitions ou des aéronefs par exemple ;
- une propulsion totalement indépendante de l’atmosphère,
- alors que les sous-marins classiques sont contraints de remonter en surface (ou à l’immersion périscopique en utilisant un schnorchel) pour alimenter les moteurs Diesel en air (oxygène) et ainsi recharger leurs batteries électriques, après quelques dizaines d’heures de plongée aux moteurs électriques (quelques jours pour ceux dotés de propulsion AIP), les rendant ainsi détectables et vulnérables, les sous-marins à propulsion nucléaire peuvent rester plusieurs mois en plongée, préservant ainsi leur discrétion,
- ils peuvent également soutenir dans la durée des vitesses importantes en plongée qu’un sous-marin classique ne pourrait maintenir plus de quelques dizaines de minutes sans entièrement décharger ses batteries.
La propulsion nucléaire apporte donc aux sous-marins un avantage déterminant, au point que l’on peut, en comparaison, qualifier les sous-marins classiques de simples submersibles.
Propulsion spatiale
Les sondes Voyager I et II ont déjà emporté des générateurs nucléaires pour alimenter leur système électronique. En revanche, la propulsion nucléaire, au cas où elle serait possible, n’est encore qu’envisagée. Elle aurait l’avantage de produire une poussée, certes faible, mais constante pendant tout le trajet, alors que les engins spatiaux actuels - sauf ceux utilisant l’énergie solaire et les moteurs ioniques - ne peuvent produire qu’une seule poussée initiale, ou quelques ajustements de trajectoire, à cause de la faible contenance de leurs réservoirs. C’est pourquoi on les nomme balistiques et c’est aussi pour cela qu’il leur faut atteindre la vitesse de libération dès le départ. Sur de longs trajets, interplanétaires par exemple, cette accélération continue pourrait être globalement plus efficace que l’accélération initiale utilisée actuellement.
Le gouvernement américain a accordé une enveloppe de 125 millions de dollars à la NASA pour concevoir une fusée propulsée grâce à un réacteur nucléaire qui chauffe un fluide, en général de l'hydrogène liquide, à très haute température ; ce fluide est éjecté via un conduit à l'arrière du moteur, créant ainsi une poussée permettant de propulser la fusée Cette technologie pourrait considérablement diminuer les temps de trajet. L'agence spatiale américaine espérerait pouvoir exploiter le futur moteur nucléaire dès sa mission lunaire de 2024, et surtout pour l'objectif Mars en 203318,19.
Chauffage urbain
La chaleur dégagée par la réaction de fission dans les centrales nucléaires sert à produire de la vapeur qui actionne les turbines de générateurs. Les parcs nucléaires actuels atteignent des températures d’exploitation de l’ordre de 300 °C, alors que le chauffage urbain et le dessalement de l’eau de mer nécessitent environ 150 °C. Les centrales nucléaires convertissent actuellement un tiers de la chaleur produite en électricité, la chaleur restante est généralement rejetée dans l’environnement. Au lieu d’être rejetée, celle-ci pourrait être utilisée pour le chauffage ou le refroidissement.
Cette cogénération est pratiquée dans plusieurs pays : Bulgarie, Chine, Hongrie, République tchèque, Roumanie, Russie, Slovaquie, Suisse et Ukraine. Depuis 1983, la centrale nucléaire de Beznau (Suisse) fournit ainsi de la chaleur aux communes, aux particuliers, à l’industrie et aux agriculteurs. L’Akademik Lomonosov, première centrale nucléaire flottante au monde, dont l’exploitation commerciale a débuté en , fournit de la chaleur à la région de Tchoukotka, dans l’extrême nord-est de la Russie. En Chine, le réseau de chauffage urbain utilisant la vapeur des deux réacteurs de la centrale nucléaire de Haiyang est devenu opérationnel à la fin de 2020 et la première phase du projet devrait permettre d’éviter l’utilisation de 23 200 tonnes de charbon et l’émission de 60 000 tonnes de CO2 par an. À la fin de 2021, il doit fournir de la chaleur à toute la ville de Haiyang20.
Dessalement
La faisabilité des usines de dessalement nucléaires intégrées a été confirmée par une expérience de plus de 150 années-réacteurs, principalement en Inde, au Japon et au Kazakhstan. Le réacteur nucléaire d’Aktaou (Kazakhstan), au bord de la mer Caspienne, a produit jusqu’à 135 MWe d’électricité et 80 000 m3 d’eau potable par jour pendant 27 ans, jusqu’à son arrêt en 1999. Au Japon, plusieurs installations de dessalement liées à des réacteurs nucléaires produisent environ 14 000 m3 d’eau potable par jour. En 2002, une centrale de démonstration couplée à deux réacteurs nucléaires de 170 MWe a été mise en place à la centrale nucléaire de Madras, dans le sud-est de l’Inde20.
Centrales à usages multiples
En Chine, un petit réacteur modulaire à haute température refroidi par gaz est entré en service à la fin de 2021 ; il est conçu pour assurer la production d’électricité, la cogénération, la chaleur industrielle et la production d’hydrogène. Le Japon a redémarré son réacteur expérimental à haute température (HTTR) en . La chaleur produite est utilisée pour la production d’électricité, le dessalement de l’eau de mer et la production d’hydrogène par un procédé thermochimique. L’initiative H2-@-Scale, lancée en 2016 par les États-Unis, vise à examiner les perspectives de production d’hydrogène au moyen de l’énergie nucléaire. Au Canada, les Laboratoires nucléaires canadiens (LNC) prévoient de lancer le Parc de démonstration, d’innovation et de recherche sur l’énergie propre (DIREP), site d’essai pour les applications de cogénération utilisant des petits réacteurs modulaires20.
Réactions nucléaires explosives
La puissance de l'énergie nucléaire peut être utilisée comme explosif. L'échelle de l'énergie totale dégagée par les bombes nucléaires va de la kilotonne à la mégatonne d’équivalent TNT. L’énergie d’une explosion nucléaire est répartie essentiellement dans l’effet de souffle (onde de choc), l’effet thermique, l’effet d’impulsion électromagnétique et les radiations.
Types d’armes
Les armes nucléaires sont de deux types. Les armes à fission ou « bombes A » utilisent de l’uranium enrichi ou du plutonium, mis en condition critique par implosion sous l'effet d’un explosif classique ; dans les armes à fusion ou bombes thermonucléaires ou « bombes H », les conditions de température et de pression nécessaires à la réaction de fusion d’isotopes d’hydrogène (deutérium et tritium) sont obtenues par l’explosion d’une « amorce » constituée par une bombe à fission au plutonium.
La bombe à neutrons est une variante de bombe thermonucléaire conçue pour maximiser la part de l’énergie émise sous forme de neutrons ; elle est supposée détruire les plus grandes formes de vie dans le voisinage de la cible, tout en provoquant un minimum de dégâts matériels.
Histoire
La première utilisation militaire d’une arme nucléaire (« bombe A ») a eu lieu les 6 et . Le largage de deux bombes sur les villes japonaises d’Hiroshima et de Nagasaki par l’armée américaine visait à mettre un terme à la Seconde Guerre mondiale. Depuis, ce type d’armement n’a fait l’objet que d’essais nucléaires expérimentaux (atmosphériques puis souterrains) puis de modélisations informatiques. La bombe atomique a été à l’origine de la doctrine de dissuasion ou « équilibre de la terreur » qui a été développée durant la Guerre froide.
Doctrine d’emploi
Dans la doctrine d’emploi de la plupart des puissances nucléaires, on distingue :
- l’arme nucléaire stratégique, instrument de la doctrine de dissuasion nucléaire ou de « non-emploi », destinée à prévenir un conflit ;
- de l’arme nucléaire tactique, ou de bataille, susceptible d’être employée sur des objectifs militaires au cours d’un conflit. La précision des vecteurs aidant, ce type d’arme a conduit à la miniaturisation et aux faibles puissances (mini-nuke dans le jargon journalistique américain).
La doctrine française n’a jamais considéré l’emploi d’armes nucléaires à des fins tactiques. Des armes de relative faible puissance (missiles Pluton puis Hadès, aujourd’hui retirés, missiles de croisière ASMP) sont définies comme pré-stratégiques ; dans cette conception, ces armes ne servent qu’accessoirement à un but militaire sur le terrain, leur principal effet étant celui d’un « ultime avertissement », de nature politique, pour prévenir les dirigeants ennemis que les intérêts vitaux de la France sont désormais en jeu, et que le prochain échelon des représailles sera thermonucléaire.
Industrie du nucléaire
Pendant la Seconde Guerre mondiale, la production d'armes atomiques était la principale raison d'être de l'industrie nucléaire. Depuis les années 1970, cette industrie travaille aussi pour la production d'énergie21.
La production d'énergie nucléaire est une activité de haute technologie et qui demande un contrôle rigoureux et permanent22. Ce contrôle est aussi bien le fait des autorités de sûreté nationales (Autorité de sûreté nucléaire pour la France) qu'internationales (comme l'AIEA, ou Euratom en Europe).
Recherche dans le domaine de l’énergie nucléaire
- Les pays détenteurs de l'arme atomique (Russie, États-Unis, Royaume-Uni, France, Chine, Inde, Pakistan, Israël et Corée du Nord) mènent des recherches classées « secret défense » pour entretenir ou moderniser leur arsenal atomique.
- Les États-Unis, l’Union européenne, la Russie, le Japon, la Chine et la Corée du Sud se sont réunis autour du projet ITER, programme d’étude à long terme de la fusion nucléaire contrôlée. C’est un projet de recherche qui a pour objectif la construction et l’exploitation expérimentale d’un tokamak de grandes dimensions. Le réacteur sera construit à Cadarache en France. Ce projet explore une des branches de la fusion, la fusion par confinement magnétique.
- Des recherches portent également sur la fusion par confinement inertiel, aux États-Unis qui expérimentent la méthode Z-pinch, ou en France où est construit le laser Mégajoule23.
- Dans le cadre du Forum international génération IV, des études sont menées sur le développement de nouvelles filières de réacteurs nucléaires à fission24. Le planning de ce programme international prévoit la mise en service industriel de ces réacteurs à l’horizon 2030-2040.
- L’étude du cycle du thorium est en cours. Le thorium pourrait supplanter l’uranium actuellement utilisé, car ses réserves sont plus importantes. Toutefois, le thorium naturel est composé à 100 % de l’isotope 232 qui n’est pas fissile mais fertile (comme l’uranium 238). Son utilisation est donc assujettie au développement des réacteurs surgénérateurs et des procédés chimiques de retraitement afférents.
- Depuis , au Japon, un programme de recherche international doté d'un centre d'études des matériaux a pour objectif d'inventer les matériaux qui pourront résister à la fusion thermonucléaire, baptisé IFMIF.
- Des recherches sont en cours en Chine, notamment sur la technologie de réacteur à lit de boulets. Une unité de démonstration composée de deux réacteurs de type HTR-PM (réacteur à haute température refroidi à l'hélium) et d'une turbine de 210 MWe est en cours de tests en 2018 à la Shidao Bay et sa mise en service est attendue en fin d'année 2018 ; 18 unités de cette technologie sont planifiées pour la même centrale ; une version plus puissante de 650 MWe composée de six réacteurs et une turbine est à l'étude pour déploiement dans plusieurs centrales existantes25.
- Un prototype de réacteur intégral à sels fondus à uranium sera mis en service en 2020 au Canada en 2020 par la société Terrestrial Energy26. En Chine, un réacteur à sels fondus au thorium est également en développement en 201727.
- Dans le domaine des petits réacteurs modulaires, le groupe Technicatome prévoit de construire une tête de série du réacteur Nuward en 203028.
Coût de l'énergie nucléaire
Le prix de l'énergie nucléaire nouvellement construite a crû au cours des dernières années, alors qu'il a baissé pour les énergies renouvelables. Toutefois, les données de ce graphique ne prennent pas en compte le coût des équipements de stockage ou des centrales pilotables nécessaires pour compenser l'
intermittence de l'éolien et du solaire ; les données sur le nucléaire sont d'origine incertaine
29.
Comparé à d'autres sources d'énergie, l'énergie nucléaire civile nécessite des investissements initiaux très importants, mais bénéficie d'un coût d'exploitation plus faible par kilowatt heure produit30, conduisant à un faible taux de rentabilité interne : l'investissement dans le nucléaire ne se conçoit que dans le cadre d'une politique à très long terme31. Cette exploitation se poursuit sur des durées qui se chiffrent en dizaines d'années. Le coût de l'énergie nucléaire dépend fortement de la durée sur laquelle l'investissement initial est amorti, et la prolongation éventuelle de leur exploitation constitue un enjeu économique très important32,33. La rentabilité varie aussi fortement suivant les solutions techniques proposées (type de centrale, de combustible…)34.
Le coût du combustible nucléaire est principalement dû à l'enrichissement de l'uranium et à la fabrication des éléments combustibles, qui nécessitent une technologie relativement complexe30. La part du minerai d'uranium dans le coût de l'énergie est faible comparée à celles des énergies fossiles : l'énergie nucléaire est par elle-même la source d'une activité industrielle spécialisée.
La Chine travaille, par ailleurs, en partenariat avec les États-Unis, sur la mise au point d'une technologie de réacteur nucléaire à sels fondus35, dont le coût de revient serait à titre de comparaison inférieur36 à celui du charbon37.
Situation et perspectives aux États-Unis
L'Inde et la Chine sont les pays où le nucléaire se développe le plus en 2019, mais les États-Unis comptent encore le plus grand parc nucléaire au monde38. Cependant, un seul réacteur nucléaire y a été mis en service depuis 30 ans (Watts Bar 2, dans le Tennessee, 1 200 MW connectés au réseau en 2016) alors que huit tranches ont été arrêtées de 2013 à 2019 (la dernière étant Pilgrim 1, dans le Massachusetts, fin ) ; et seuls deux projets sont annoncés : les tranches 3 et 4 de la centrale de Vogtle, en Géorgie, qui devraient être dotées de réacteurs de troisième génération de type AP100 en 2021 et 202238. Les premiers de ces nouveaux réacteurs ont été lancés sur les sites de VC Summer en Géorgie et de Vogtle en Caroline du Sud, chacun doté de deux réacteurs AP1000, mais en le projet de VC Summer a été abandonné (centrale nucléaire de Virgil Summer). De plus, ces deux projets en cours ont subi des problèmes techniques, retards et dépassements et budget (27 milliards de dollars évoqués en 2019) à l'image de ceux de l'EPR européen à Flamanville en France, et à Olkiluoto en Finlande39.
Dans le même temps, le « boom du gaz de schiste », dû la technologie de la fracturation hydraulique, a fait chuter les prix du gaz et de l'énergie, impulsant une multiplication de centrales à cycle combiné gaz. Quatre réacteurs nucléaires ont fermé en 2013 pour manque de compétitivité et un cinquième fin 2014. Cependant, le prix du gaz devrait augmenter à moyen ou long terme, rendant alors le nucléaire plus compétitif, surtout si des normes d'émissions de CO2 plus sévères sont instituées. Dans le même temps le coût des énergies solaires et éoliennes a aussi beaucoup baissé. En , le premier fabricant de réacteurs nucléaires, équipant plus de 50 % des réacteurs au monde, Westinghouse, a été placé en faillite40. Des investisseurs ont récemment montré un grand intérêt pour les réacteurs modulaires à sels fondus (MSR pour Molten Salt reactors), qui pourraient remplacer les centrales à charbon appelées à fermer à cause des réglementations sur la pollution de l'air ; mais plusieurs sociétés développant ce concept ont réduit leurs programmes faute de perspectives de déploiement à court terme41.
En 2019, l'Agence internationale de l'énergie (EIA) estime que l'électricité nucléaire pourrait aux États-Unis chuter de 17 % en 2025 par rapport au niveau de 2018, perte qui sera « largement compensée par (la hausse de production) des nouvelles centrales au gaz naturel, éoliennes et solaires »38. En , l'administration Trump crée, en soutien à la filière nucléaire, le National Reactor Innovation Center (NRIC), un centre dédié au « déploiement de réacteurs avancés » dans le secteur privé en lui ouvrant les laboratoires publics américains, pour y valider de nouveaux systèmes et accélérer l'obtention de licences et la commercialisation de ces réacteurs, dont les petits réacteurs modulaires (small modular reactors, SMR) et autres microréacteurs38. L'administration Trump a aussi pris des mesures législatives visant à lever les freins à l'expérimentation de nouvelles solutions nucléaires38.
Évolution possible du coût de l'énergie nucléaire en France
Débat sur l’énergie nucléaire
Les risques et les coûts ne sont pas évalués de la même façon par les pronucléaires et les antinucléaires, qui se divisent aussi au sujet de l'utilité des applications nucléaires civiles et militaires, en particulier de la production d’électricité nucléaire et de l’opportunité d’une sortie du nucléaire civil.
Les applications civiles de l’énergie nucléaire sont controversées en raison :
- des risques d’accident nucléaire grave sur un réacteur nucléaire ou au cours du cycle du combustible ;
- du risque de prolifération nucléaire ;
- du risque de terrorisme nucléaire par le détournement de matière radioactive pour l’utiliser comme toxique ou pour fabriquer une « bombe radiologique », ou par l’attaque directe d’un réacteur ;
- du coût économique de la gestion des déchets radioactifs à très long terme (notamment son financement) et du démantèlement nucléaire ;
- de réserves mondiales en combustibles limitées : ces ressources exploitables dans les conditions économiques actuelles sont disponibles dans des ordres de grandeurs comparables, bien que plus élevés, aux ressources pétrolières et gazières (soit environ 90 ans à consommation constante42 contre 50 à 60 ans pour les hydrocarbures) ;
- de la dépendance énergétique envers les pays producteurs d'uranium (tous situés hors d'Europe) ;
- des impacts environnementaux de l'exploitation des mines d'uranium ;
- des moyens utilisés par les pays occidentaux pour acquérir les ressources d'uranium dont elles ont besoin, suscitant des conflits43 (comme pour le pétrole et les métaux précieux), notamment sur le continent africain ;
- de la complexité des moyens technologiques requis, qui rendent cette filière plus adaptée à un État centralisé[précision nécessaire] qu'à des collectivités territoriales décentralisées44 ;
- des enjeux antagonistes de production et de sécurité, qui peuvent amener à des accusations de dissimulation de dysfonctionnements par des responsables, comme à la centrale du Tricastin45,46,47,48 ;
- de la contribution du nucléaire à la réduction du réchauffement climatique. Cette réduction serait très faible mais pas nulle : les centrales ne produisent pas de CO2, mais ont notamment libéré en France 1,3 à 2 tonnes de SF6a en 201949, un puissant gaz à effet de serre, dont le potentiel de réchauffement global est 23 500 fois celui du CO2, soit 30 000 à 45 000 tonnes d'équivalent CO2. Ces émissions restent faibles comparées aux quelque 500 000 tonnes équivalent CO2 de ce gaz émises en France50 et aux 396 millions de tonnes équivalent CO2 tous gaz confondus émises en 2020, avant tout par les transports et le chauffage49.
- de problèmes de sécurité nucléaire en cas de conflit, illustrés en 2022 par l'attaque russe contre la centrale nucléaire de Zaporijjia51 qui représente un objectif stratégique pour les deux belligérants52. Ce type d'attaque peut conduire selon l’AIEA à des risques de fusion du cœur ou d'explosion de nature à générer une dissémination d'éléments radioactifs « bien plus grave » que lors de l'accident d'un réacteur à Tchernobyl, du fait qu'elle comporte six réacteurs53,54 ;
- de la durée de vie des déchets nucléaires, qui pose des problèmes de sûreté du stockage55,56 et d'information des populations futures concernant leur présence et leur dangerosité57.
Les partisans des applications civiles de l'énergie nucléaire avancent d'autres arguments :
« Quelles sont les sources d'énergie les plus sûres et les plus propres ? » Le diagramme de gauche recense le nombre de morts par source d'énergie (par Térawatt-heure produit), celui de droite leurs émissions de gaz à effet de serre (en
équivalent CO2 par gigawatt-heure d'électricité consommée, sur l'ensemble du
cycle de vie).
- les filières nucléaires émettent relativement peu de dioxyde de carbone, contrairement aux énergies fossiles qui en libèrent énormément. Elles peuvent de ce fait contribuer à la réduction de la production de ce gaz à effet de serre qui a été identifié comme le principal responsable du réchauffement climatique de la planète. Les ministres de l'énergie des États-Unis, du Canada et du Japon ont lancé en l'initiative Nuclear Innovation: Clean Energy Future (NICE Future) pour promouvoir le nucléaire au côté des énergies renouvelables. Dès son lancement, NICE Future a été rejoint par de nombreux États : Royaume-Uni, Russie, Afrique du Sud, Émirats arabes unis, Pologne, Argentine et Roumanie. Une dizaine d’autres seraient déjà intéressés58,59 ;
- selon plusieurs études, la production nucléaire de l'électricité serait liée à moins de décès que d'autres manières de produire de l'électricité60 ; la Société américaine de chimie estime en à « 1,84 million, le nombre de vies humaines sauvées par l'énergie nucléaire, et à 64 gigatonnes (Gt), la réduction des rejets en équivalent CO2 (gaz à effet de serre), du seul fait que la pollution associée aux énergies fossiles a été évitée ». De plus, en se fondant sur une projection des conséquences de Fukushima sur l'utilisation de l'énergie nucléaire, la même source indique « qu'au milieu de ce siècle, c'est 0,42 à 7,04 millions de vies qui pourraient être sauvées et 80 à 240 Gt de rejets en équivalent CO2 qui pourraient être évités (en fonction de l'énergie de remplacement). En revanche, l'expansion à grande échelle de l'utilisation du gaz naturel n'atténuerait pas le problème du changement climatique et causerait beaucoup plus de décès que l'expansion de l'énergie nucléaire »61 ;
- les matières fissiles n'interviennent que de manière marginale dans le coût de l'énergie produite et, si l'on accepte un coût supérieur de l'énergie, les ressources potentielles (écorce terrestre, eau de mer) sont plus élevées que les ressources existantes pour les combustibles carbonés (charbon, gaz, pétrole) ;
- la filière de génération IV permettant la surgénération (surgénérateurs de type Superphénix), les filières utilisant le thorium ou les centrales à fusion nucléaire, si elles étaient mises au point, pourraient alimenter toute la planète durant plusieurs milliers d'années au rythme de consommation actuelle ;
- le nucléaire permet de réduire la dépendance européenne au pétrole (pour la France, acheté essentiellement en Afrique, en Russie et autres pays de l'ex-URSS, au Moyen-Orient62) et fait partie des outils permettant de construire une Europe relativement autonome et indépendante[réf. nécessaire], du fait que la ressource en uranium est largement dispersée sur tous les continents et que les principaux gisements sont situés dans des pays alliés[réf. nécessaire] à l'Union européenne (pour la France : Kazakhstan, Canada, Niger, Australie et Namibie63) ;
- pour les pays[Lesquels ?] qui maîtrisent l'ensemble du cycle du combustible nucléaire, l'énergie nucléaire permet également de réduire la dépendance énergétique nationale30.
Avenir du nucléaire
Selon une note de l'Institut français des relations internationales (IFRI), « les retards et surcoûts des projets occidentaux dans le nucléaire civil sont en train de conforter un duopole russo-chinois sur les exportations de réacteurs de troisième et quatrième génération. Dans ce contexte, des petits réacteurs modulaires (small modular reactors, SMR) connaissent un regain d'intérêt et sont développés par de nombreux acteurs, allant principalement des entreprises d'État russes et chinoises à une multitude de start-up nord-américaines ». Cette note estime que l'ère des gros EPR est dépassée et les réacteurs de petite taille aux ingénieries intégrées et standardisées pourraient être produits de façon modulaire en usine, réduisant coûts et durée de construction. Ces petits réacteurs pourraient séduire les pays émergents64.
Le président du GIEC, Hoesung Lee, a détaillé, lors de la conférence de l'AIEA en , les conclusions du rapport spécial SR1.5 publié en 2018. Sur la base des 21 modèles disponibles, le GIEC a étudié 89 trajectoires permettant de contenir la hausse de la température globale à 1,5 °C à l’horizon 2100. Ces trajectoires montrent un effort important en termes d’efficacité énergétique, ainsi qu’un doublement de la part de l’électricité dans l’énergie totale (de 19 % en 2020 en valeur médiane à 43 % en 2050). Le nucléaire contribue aux efforts de décarbonation de l’électricité dans la très grande majorité des 89 trajectoires. Pour le Président du GIEC, le nucléaire doit relever deux principaux défis : la compétitivité par rapport aux autres technologies non fossiles, et l’accélération de son rythme de déploiement ; il conclut : « Je vous souhaite de réussir à relever ces défis car le climat a besoin de toute l'aide possible ! ». Le Directeur général de l’Agence internationale de l'énergie, Fatih Birol a déclaré : « Nous devons regarder toutes les technologies propres. Le solaire et l’éolien sont importantes. Mais nous pensons que le nucléaire et le CCS sont aussi importantes. Nous ne pouvons avoir le luxe de choisir notre technologie préférée »65.
Notes et références
Notes
Références
- « Radioactivité » [archive], Connaissance des énergies : « Dans le globe terrestre, la radioactivité de fission est la principale source de chaleur. »
- Les sources d'énergie [archive], CEA, 2004.
- (en) B. P Abbott et al., Observation of Gravitational Waves from a Binary Black Hole Merger [archive], Physical Review Letters, 116, 061102 (2016)
- D’où vient l’énergie nucléaire ? [archive] sur lederniercarbone.org
- « Iter fait un pas de plus vers la fusion nucléaire » [archive], sur Les Échos, (consulté le )
- CEA |Dossier | L'énergie nucléaire | L'énergie nucléaire : fusion et fission La libération de l'énergie nucléaire (1/3) [archive]
- J Fusion Energ (2011) 30 :377-381 [archive]
- (en) Operational Reactors [archive], Agence internationale de l'énergie atomique, Power Reactor Information System (PRIS), .
- (en) Under Construction Reactors [archive], Agence internationale de l'énergie atomique, Power Reactor Information System (PRIS), .
- (en) Trend in Electricity Supplied [archive], Agence internationale de l'énergie atomique, Power Reactor Information System (PRIS), .
- (en) Nuclear Share of Electricity Generation in 2019 [archive], Agence internationale de l'énergie atomique, Power Reactor Information System (PRIS), .
- (en) Key World Energy Statistics 2019, Agence internationale de l'énergie, (résumé [archive], lire en ligne [archive] [PDF]), p. 19, 30.
- « La Chine a produit plus d'électricité nucléaire que la France en 2020 » [archive], sur francetvinfo.fr, (consulté le ).
- « http://world-nuclear.org/info/Current-and-Future-Generation/Nuclear-Power-in-the-World-Today »(Archive.org • Wikiwix • Archive.is • http://world-nuclear.org/info/Current-and-Future-Generation/Nuclear-Power-in-the-World-Today" rel="nofollow" class="external text">Google • Que faire ?)
- (en) World energy ressources 2016, Conseil mondial de l'énergie, , 1028 p. (lire en ligne [archive] [PDF]), p. 19.
- (en) 25% of EU electricity production from nuclear sources [archive], Eurostat, .
- (en) A Clean Planet for all - A European strategic long-term vision for a prosperous, modern, competitive and climate neutral economy [archive], Commission européenne, .
- NASA : 125 millions de dollars pour développer une fusée à propulsion nucléaire thermique [archive], Clubic, .
- (en) NASA nabs $125 million in funding to develop nuclear rocket propulsion [archive], Digital Trends, .
- Au-delà de la production d’électricité : l’électronucléaire au service des applications non électriques [archive], AIEA, 8 décembre 2021.
- Uranium and Depleted Uranium [archive], Association nucléaire mondiale, .
- Rapport sur le contrôle de la sûreté et de la sécurité des installations nucléaires - deuxième partie : le bilan et les perspectives de la politique de sûreté des installations nucléaires [archive] Claude Birraux, Office parlementaire d’évaluation des choix scientifiques et technologiques.
- « Le Laser Mégajoule et la fusion inertielle » [archive], CNRS [PDF]
- "YouTube: China's Nuclear Future" [archive]
- (en) "HTR-PM steam generator passes pressure tests" [archive], world-nuclear-news.org (WNN), .
- « IMSR: Transformative Clean Energy Technology » [archive]
- China hopes cold war nuclear energy tech will power warships, drones [archive], South China Morning Post, .
- "Small Modular Reactor (SMR) : Nuward" [archive], Technicatome, 2019.
- (en) « Why did renewables become so cheap so fast? And what can we do to use this global opportunity for green growth? » [archive], sur Our World in Data, .
- E. Bertel, G. Naudet, M. Vielle, L'économie de l'énergie nucléaire [archive], (ISBN 2-86883-691-7), EDP Sciences 2004.
- Christian Batailldee et Robert Galley, Rapport sur l'aval du cycle nucléaire [archive] (rapport parlementaire), Tome II : « Les coûts de production de l’électricité », chapitre II (partie II).
- Contrôle no184 [archive] : la poursuite d’exploitation des centrales nucléaires. Autorité de Sûreté Nucléaire, 2009.
- Rapport sur la durée de vie des centrales nucléaires et les nouveaux types de réacteurs [archive], Christian Bataille et Claude Birraux, Office parlementaire d’évaluation des choix scientifiques et technologiques
- "Epri, p51/80: Exploring the Role of Advanced Nuclear in Future Energy Markets: Economic Drivers, Barriers, and Impacts in the United States" [archive]
- The U.S. is helping China build a novel, superior nuclear reactor" [archive], Fortune, .
- "Site internet: Fission Liquide" [archive]
- "Techniques de l'ingénieur: évaluation des coûts de production des énergies" [archive]
- Les États-Unis lancent un centre pour soutenir le nucléaire « du futur » [archive], Connaissance des énergies, 2019.
- Focus sur les 2 seuls réacteurs nucléaires en construction aux États-Unis [archive], Connaissance des énergies, .
- "Journal Libération, : La faillite de Westinghouse, symptôme d'un nucléaire en plein doute" [archive]
- (en)Technology Roadmap - Nuclear energy - 2015 edition [archive], Agence internationale de l'énergie.
- Supply of Uranium [archive], World Nuclear Association (consulté le ).
- https://www.cairn.info/minerais-strategiques--9782130618805-page-67.htm [archive]
- « Nucléaire : une solution pour la planète ? » [archive], THEMA, sur Arte, (consulté le ), p. 1h30'30".
- « Tricastin : Un cadre d'EDF dépose plainte pour dénoncer plusieurs dissimulations d'incidents par sa hiérarchie » [archive], sur FR3, (consulté le ).
- Stéphane Mandard et Perrine Mouterde, « Nucléaire : un cadre de la centrale du Tricastin dénonce une « politique de dissimulation » d’incidents de sûreté » [archive], sur Le Monde, (consulté le ) : « Pour la première fois, c’est un cadre d’EDF, ancien membre de la direction d’une centrale nucléaire française, celle du Tricastin (Drôme), qui a décidé de briser le silence et de saisir la justice pour dénoncer ce qui, selon lui, s’apparente à une « politique de dissimulation » d’incidents et d’écarts en matière de sûreté ».
- France 5, Sur le front, Nucléaire, éoliennes : des voisins encombrants ! [archive] (à 40 min), 21 mars 2022
- « Centrale nucléaire de Tricastin : information judiciaire ouverte pour "mise en danger d'autrui" » [archive], sur La Dépêche, .
- « Fuites de SF6, puissant gaz à effet de serre : le nucléaire français doit faire mieux » [archive], sur Le Télégramme, (consulté le ).
- Gaz à effet de serre et polluants atmosphériques : Bilan des émissions en France de 1990 à 2020 (rapport), Centre interprofessionnel technique d'études de la pollution atmosphérique (no 1789sec / 2021), , 496 p. (présentation en ligne [archive], lire en ligne [archive] [PDF]), p. 143 : « SF6 Hexafluorure de soufre ».
- Nathalie Mayer, « Ukraine : la centrale nucléaire de Zaporojie a subi des tirs sur des réacteurs et des déchets radioactifs » [archive], sur Futura Planète, (consulté le ).
- Jennifer CHAINAY, « Ukraine. Pourquoi la centrale nucléaire de Zaporijjia est une prise de choix pour les Russes » [archive], sur Ouest-France, (consulté le ).
- « Ukraine : le contrôle militaire russe des centrales nucléaires ukrainiennes suscite de graves inquiétudes (AIEA) » [archive], (consulté le ).
- Sharon Wajsbrot, « Ukraine : « C'est la première fois qu'il y a une guerre dans un pays avec autant de centrales nucléaires… » » [archive], sur Les Échos, (consulté le )
- Déchets nucléaires : la sécurité du site de Bure remise en cause [archive], Le Parisien, 13 août 2017.
- https://fne.asso.fr/dossiers/enfouissement-des-dechets-nucleaires-en-profondeur-un-desastre-annonce [archive]
- Des signes et des lettres pour avertir nos descendants [archive], ANDRA, 22 octobre 2020.
- NICE Future : une coalition d’États soutient le nucléaire [archive], SFEN, .
- (en) Nuclear Innovation: Clean Energy Future [archive], département de l'Énergie des États-Unis, .
- (en) Comparing deaths/TWh for all energy sources [archive], nextbigfuture.com, .
- (en) Pushker A. Kharecha et James E. Hansen, « Prevented Mortality and Greenhouse Gas Emissions from Historical and Projected Nuclear Power », Environmental Science & Technology, vol. 47, no 9, , p. 4889–4895 (ISSN 0013-936X et 1520-5851, DOI 10.1021/es3051197, lire en ligne [archive], consulté le ).
- INSEE, « Provenances du pétrole brut importé en France » [archive], (consulté le ).
- « Origine de l'uranium naturel importé en France : Kazakhstan, Niger, Canada, Australie » [archive], sur Connaissance des énergies, (consulté le ).
- Les petits réacteurs modulaires dans le monde : perspectives géopolitiques, technologiques, industrielles et énergétiques [archive], Institut français des relations internationales, mai 2019.
Voir aussi
Sur les autres projets Wikimedia :
Bibliographie
- Jaime Semprun, La Nucléarisation du monde, éditions Gérard Lebovici, 1986. (ISBN 2-85184-172-6)
- Arnaud Michon, Le Sens du vent : Notes sur la nucléarisation de la France au temps des illusions renouvelables, éditions de l'Encyclopédie des Nuisances, 2010.
- Thierry Garcin, Le Nucléaire aujourd’hui, Paris : LGDJ, coll. « Axes », 1995.
- Géopolitique no 52 (numéro spécial), Le nucléaire : un atout maître, hiver 1995-1996.
- Mary Byrd Davis, La France nucléaire : matière et sites (2002), 340 p., format 21,9 × 15 cm (Site [archive]).
- Annie Thébaud-Mony, L’Industrie nucléaire : sous-traitance et servitude, éd. EDK et Inserm, 2000. (ISBN 2-85598-782-2)
- Claude Dubout, Je suis décontamineur dans le nucléaire, éd. Paulo-Ramand, 2009.
- Jean-Jacques Delfour, La Condition nucléaire : réflexions sur la situation atomique de l'humanité, éditions l'Echappée, 2014.
- Yves Lenoir, La Comédie atomique. L'histoire occultée des dangers des radiations, éditions La Découverte, 2016 (ISBN 9782707188441).
Articles connexes
Liens externes
-
Électricité
La
foudre est l'un des phénomènes électriques les plus impressionnants qui existent.
L’électricité est l'ensemble des phénomènes physiques associés à la présence et au mouvement de la matière qui possède une propriété de charge électrique. L'électricité est liée au magnétisme, les deux faisant partie du phénomène de l'électromagnétisme, tel que décrit par les équations de Maxwell. Divers phénomènes courants sont liés à l'électricité, notamment la foudre, l'électricité statique, le chauffage électrique, les décharges électriques.
La présence d'une charge électrique, qui peut être positive ou négative, produit un champ électrique. Le mouvement de cette charge représente un courant électrique, qui produit un champ magnétique. Lorsqu'une charge est placée à un endroit où le champ électrique est non nul, une force s'exerce sur elle. L'ampleur de cette force est donnée par la loi de Coulomb. Si la charge électrique se déplace dans le champ, celui-ci exerce un travail sur la charge. Nous pouvons donc parler de potentiel électrique en un certain point de l'espace, qui est généralement mesuré en volts.
L'électricité est au cœur de nombreuses technologies modernes. L'énergie électrique est un vecteur énergétique, qui utilise le courant électrique pour alimenter des équipements. En électronique, elle est aussi un vecteur d'information, exploité dans les circuits électriques impliquant des composants électriques actifs tels que les tubes électroniques, les transistors, les diodes, les circuits intégrés, ainsi que les technologies d'interconnexion passives associées.
Les phénomènes électriques sont étudiés depuis l'Antiquité, les progrès dans la compréhension théorique sont restés quasi nuls jusqu'aux XVIIe et XVIIIe siècles. La théorie de l'électromagnétisme est développée au XIXe siècle et, à la fin de ce siècle, les ingénieurs électriciens commencent à utiliser l'électricité à des fins industrielles et résidentielles. L'expansion rapide de la technologie électrique à cette époque a transformé l'industrie et la société, devenant la force motrice de la deuxième révolution industrielle. L'extraordinaire polyvalence de l'électricité lui permet d'être utilisée dans un nombre presque illimité d'applications, dont le transport, le chauffage, l'éclairage, les communications et l'informatique. La production d'électricité est en conséquence un secteur industriel clef de nombreux États.
Histoire
Premières théories
Thalès est le premier homme connu à avoir conduit des recherches au sujet de l'électricité.
Bien avant que l'électricité ne soit connue, l'être humain connaît les chocs provoqués par les poissons électriques. Des textes de l'Égypte antique datant de font référence à ces poissons comme « Tonnerre du Nil », et les décrivent comme les « protecteurs » de tous les autres poissons. Les poissons électriques sont de nouveau signalés des millénaires plus tard par des naturalistes et des médecins grecs, romains et arabes1. Plusieurs auteurs de l'Antiquité, tels que Pline l'Ancien et Scribonius Largus, attestent de l'effet anesthésiant des chocs électriques délivrés par les Malaptéruridés et les Torpediniformes, et savent que ces chocs peuvent se propager le long d'objets conducteurs2. Les patients souffrant de maladies telles que la goutte ou de maux de tête sont invités à toucher des poissons électriques dans l'espoir que la puissante secousse les guérisse3.
Les cultures antiques du pourtour méditerranéen savent que certains objets, tels que des baguettes d'ambre, peuvent être frottés avec de la fourrure de chat pour attirer des objets légers comme des plumes. Thalès fait une série d'observations sur l'électricité statique vers , à partir desquelles il croit que la friction rendrait l'ambre magnétique, contrairement à des minéraux comme la magnétite, qui n'auraient pas besoin d'être frottés4,5,6,7. Selon une théorie controversée, les Parthes auraient eu des connaissances en galvanoplastie, d'après la découverte, en 1936, de la pile électrique de Bagdad, qui ressemble à une cellule galvanique, bien qu'il ne soit pas certain que l'artefact soit de nature électrique8.
Premières recherches et étymologie
L'électricité n'est guère plus qu'une curiosité intellectuelle pendant des millénaires, jusqu'en 1600, lorsque le scientifique anglais William Gilbert écrit De Magnete, dans lequel il étudie minutieusement l'électricité et le magnétisme, en distinguant l'effet de la magnétite de l'électricité statique produite par le frottement de l'ambre4. Il invente le nouveau mot latin electricus, tiré de « d’ambre » ou « comme l'ambre », de ἤλεκτρον, elektron, le mot grec pour « ambre », pour désigner la propriété d'attirer de petits objets après avoir été frottés9. Cette association donne naissance aux mots anglais « electric » et « electricity », qui apparaissent pour la première fois dans l'ouvrage Pseudodoxia Epidemica de Thomas Browne en 1646 et sont plus tard empruntés par le français pour former « électrique » et « électricité »10,11
Découverte des principaux effets
Benjamin Franklin a mené des recherches approfondies sur l'électricité au
XVIIIe siècle.
D'autres travaux sont menés au XVIIe siècle et au début du XVIIIe siècle par Otto von Guericke, Robert Boyle, Stephen Gray et Charles François de Cisternay du Fay12. Plus tard, Benjamin Franklin mène des recherches approfondies sur l'électricité, vendant ses biens pour financer ses travaux. En , il aurait attaché une clé métallique au bas de la corde d'un cerf-volant humidifié et aurait fait voler l'ensemble dans un oragea,13. Une succession d'étincelles sautant de la clé au dos de sa main démontre alors que la foudre était de nature électrique14. Il explique également le comportement apparemment paradoxal de la bouteille de Leyde en tant que dispositif de stockage de grandes quantités de charges électriques positives et négatives15,12.
En 1791, Luigi Galvani publie sa découverte du bioélectromagnétisme, démontrant que l'électricité est le moyen par lequel les neurones transmettent des signaux aux muscles16,17,12. La pile voltaïque d'Alessandro Volta en 1800, constituée de couches alternées de zinc et de cuivre, fournit aux scientifiques une source d'énergie électrique plus fiable que les machines électrostatiques utilisées auparavant16,17. La reconnaissance de l'électromagnétisme, l'unité des phénomènes électriques et magnétiques, est due à Hans Christian Ørsted et André-Marie Ampère en 1819-1820. Michael Faraday invente le moteur électrique en 1821, et Georg Ohm analyse mathématiquement les circuits électriques en 182717. L'électricité et le magnétisme sont définitivement liés par James Clerk Maxwell, notamment dans son ouvrage On Physical Lines of Force en 1861 et 186218.
En 1887, Heinrich Hertz découvre que des électrodes éclairées par un rayonnement ultraviolet créent plus facilement des étincelles électriques19,20. En 1905, Albert Einstein publie un article expliquant les données expérimentales de l'effet photoélectrique comme étant le résultat de l'énergie lumineuse transportée en paquets quantifiés discrets, dynamisant les électrons21.
Industrialisation et arrivée de l'électronique
Si le début du XIXe siècle a vu des progrès rapides dans le domaine de la science électrique, c'est la fin du XIXe siècle qui voit les plus grands progrès dans le domaine de l'électrotechnique. Grâce à des personnes telles qu'Alexander Graham Bell, Ottó Bláthy, Thomas Edison, Galileo Ferraris, Oliver Heaviside, Ányos Jedlik, William Thomson, Charles Algernon Parsons, Werner von Siemens, Joseph Swan, Reginald Fessenden, Nikola Tesla et George Westinghouse, l'électricité passe du statut de curiosité scientifique à celui d'outil essentiel de la vie moderne, et participe également à la deuxième révolution industrielle22,23.
Le premier dispositif à semi-conducteurs est le « détecteur de crystal », utilisé pour la première fois dans les années 1900 dans les récepteurs radio24. L'électronique à l'état solide s'impose ensuite avec l'émergence des transistors. Le premier transistor fonctionnel, un transistor à contact ponctuel à base de germanium, est inventé par John Bardeen et Walter Houser Brattain aux laboratoires Bell en 1947, suivi par le transistor bipolaire en 194825,26. Ces premiers transistors sont des dispositifs relativement volumineux et difficiles à fabriquer en masse27. Ils sont suivis par le transistor à effet de champ à grille métal-oxyde (MOSFET) à base de silicium, inventé par Mohamed M. Atalla et Dawon Kahng (en) aux laboratoires Bell en 195928. Il s'agit du premier transistor véritablement compact qui peut être miniaturisé et produit en masse pour une large gamme d'utilisations, ce qui conduit à la révolution du silicium et à ce qui est défini par certains comme une nouvelle époque historique : l'ère de l'information29,30,31. Le MOSFET est depuis devenu le dispositif le plus fabriqué de l'histoire32. L'électronique participe ainsi activement à la troisième révolution industrielle, notamment grâce au développement de l'automation mais aussi grâce aux progrès qu'elle a permis dans la communication33,34,35.
Concepts
Charge électrique
La présence d'une charge donne lieu à une force électrostatique : les charges exercent une force l'une sur l'autre, un effet qui est déjà connu, mais pas compris, dans l'Antiquité. Une boule légère suspendue à une ficelle peut être chargée en la touchant avec une tige de verre qui a elle-même été chargée en la frottant avec un tissu. Si une seconde balle est chargée par la même tige de verre, on constate qu'elle repousse la première : la charge éloigne les deux balles. Deux boules chargées par une tige d'ambre frottée se repoussent également. En revanche, si une boule est chargée par une tige de verre et l'autre par une tige d'ambre, les deux boules s'attirent. Ces phénomènes sont étudiés à la fin du XVIIIe siècle par Charles-Augustin Coulomb, qui déduit que la charge se manifeste sous deux formes opposées. Cette découverte conduit à l'axiome bien connu : les objets de même charge se repoussent et les objets de charge opposée s'attirent36.
La force agit sur les particules chargées elles-mêmes, d'où la tendance de la charge à se répartir le plus uniformément possible sur une surface conductrice. L'ampleur de la force électromagnétique, qu'elle soit attractive ou répulsive, est donnée par la loi de Coulomb, qui relie la force au produit des charges et qui a une relation inverse au carré avec la distance qui les sépare37. La force électromagnétique est très puissante, juste derrière l'interaction forte, mais, contrairement à cette dernière, elle agit sur toutes les distances38,39. Par rapport à la force gravitationnelle, beaucoup plus faible, la force électromagnétique qui éloigne deux électrons est 1042 fois supérieure à l'attraction de la gravitation qui les rapproche40.
Une charge provient de certains types de particules subatomiques, dont les porteurs les plus connus sont les électrons et les protons. Une charge électrique donne naissance à une force électromagnétique, l'une des quatre forces fondamentales de la nature. La charge est une quantité conservée, c'est-à-dire que la charge nette au sein d'un système électriquement isolé restera toujours constante, quels que soient les changements qui se produisent dans ce système41. Au sein du système, la charge peut être transférée entre corps, soit par contact direct, soit par passage le long d'un matériau conducteur, tel qu'un fil42.
La charge des électrons et des protons étant de signe opposé, une quantité de charge peut être exprimée comme étant négative ou positive. Par convention, la charge portée par les électrons est considérée comme négative, et celle des protons comme positive, une coutume qui trouve son origine dans les travaux de Benjamin Franklin43. La quantité de charge est généralement désignée par le symbole Q et exprimée en coulombs44 ; chaque électron porte la même charge d'environ −1,602 2 × 10−19 coulomb. Le proton a une charge égale et opposée, soit +1,602 2 × 10−19 coulomb. La charge est possédée non seulement par la matière, mais aussi par l'antimatière, chaque antiparticule portant une charge égale et opposée à sa particule correspondante45.
La charge peut être mesurée par un certain nombre de moyens, l'un des premiers instruments étant l'électroscope à feuille d'or, qui, bien qu'il soit encore utilisé pour des démonstrations en classe, a été remplacé par l'électromètre électronique42.
-
Deux charges de nature opposée s'attirent
-
Deux charges de même nature se repoussent
Courant électrique
Le mouvement d'une charge électrique est connu sous le nom de courant électrique, dont l'intensité est généralement mesurée en ampères. Le courant peut être constitué de n'importe quelle particule chargée en mouvement ; le plus souvent, il s'agit d'électrons, mais toute charge en mouvement constitue un courant. Le courant électrique peut traverser certaines choses, les conducteurs électriques, mais ne traversera pas un isolant électrique46,47,48.
Par convention historique, un courant positif est défini comme circulant de la partie positive d'un circuit vers la partie négative. Le courant défini de cette manière va alors dans le « sens conventionnel ». Le mouvement des électrons dans un circuit électrique est ainsi considéré comme allant dans la direction opposée à celle du « sens conventionnel », les électrons étant chargés négativement49.
Le processus par lequel le courant électrique traverse un matériau est appelé conduction électrique, et sa nature varie en fonction de celle des particules chargées et du matériau qu'elles traversent. Parmi les exemples de courants électriques, on peut citer la conduction métallique, où les électrons circulent dans des conducteurs tel que le métal, et l'électrolyse, où les ions (atomes chargés) circulent dans des liquides ou dans des plasmas (étincelles électriques). Alors que les particules elles-mêmes peuvent se déplacer assez lentement, parfois avec une vitesse de dérive moyenne de seulement quelques fractions de millimètre par seconde, le champ électrique qui les anime se propage lui-même à une vitesse proche de celle de la lumière, permettant aux signaux électriques de passer rapidement le long des fils50,51.
Un courant provoque plusieurs effets observables, qui permettent de reconnaître sa présence. En 1800, William Nicholson et Anthony Carlisle découvrent que l'eau peut être décomposée par le courant d'une pile voltaïque, un processus maintenant connu sous le nom d'électrolyse de l'eau. Leurs travaux sont ensuite largement développés par Michael Faraday en 1833. Le courant traversant une résistance provoque un échauffement localisé, un effet que James Prescott Joule étudie mathématiquement en 184052. L'une des découvertes les plus importantes concernant le courant est faite accidentellement par Hans Christian Ørsted en 1820, lorsque, alors qu'il prépare une conférence, il voit le courant dans un fil perturber l'aiguille d'une boussole magnétique. Il découvre ainsi l'électromagnétisme, une interaction fondamentale entre l'électricité et le magnétisme53. Le niveau des émissions électromagnétiques générées par un arc électrique est suffisamment élevé pour produire des interférences électromagnétiques qui peuvent nuire au fonctionnement des équipements adjacents54.
Dans les applications techniques ou domestiques, le courant est souvent décrit comme étant soit un courant continu (DC), soit un courant alternatif (AC). Ces termes font référence à la façon dont le courant varie dans le temps. Le courant continu, tel qu'il est produit par exemple à partir d'une batterie et requis par la plupart des appareils électroniques, est un flux unidirectionnel de la partie positive d'un circuit vers la partie négative55. Si, comme c'est le cas le plus souvent, ce flux est transporté par des électrons, ceux-ci se déplacent dans la direction opposée. Le courant alternatif est un courant qui s'inverse de manière répétée ; il prend presque toujours la forme d'une onde sinusoïdale56. Le courant alternatif est donc pulsé dans un conducteur sans que la charge ne se déplace sur une distance nette dans le temps. La valeur moyenne dans le temps d'un courant alternatif est nulle, mais il fournit de l'énergie dans un sens puis dans l'autre. Le courant alternatif est affecté par des propriétés électriques qui ne sont pas observées en régime permanent de courant continu, comme l'inductance et la capacité57.
Champ électrique
Lignes de champ émanant d'une charge positive au-dessus d'un conducteur plan.
Le concept de champ électrique a été introduit par Michael Faraday. Un champ électrique est créé par un corps chargé dans l'espace qui l'entoure, et se traduit par une force exercée sur toute autre charge placée dans le champ. Le champ électrique agit entre deux charges de la même manière que le champ gravitationnel entre deux masses, et il s'étend vers l'infini en présentant une relation inverse du carré avec la distance39. La gravité agit toujours par attraction, rapprochant deux masses, tandis que le champ électrique peut entraîner soit une attraction, soit une répulsion. Comme les grands corps tels que les planètes ne portent généralement pas de charge nette, le champ électrique à distance est généralement nul. La gravité est donc la force dominante à distance dans l'univers, bien qu'elle soit beaucoup plus faible40. Le champ électrique se mesure en volts par mètre58.
Un champ électrique varie généralement dans l'espaceb et son intensité en un point donné est définie comme la force (par unité de charge) qui serait ressentie par une charge stationnaire négligeable si elle était placée en ce point. La charge conceptuelle, appelée « charge d'essai », doit être infiniment petite pour éviter que son propre champ électrique ne perturbe le champ principal et doit également être stationnaire pour éviter l'effet des champs magnétiques. Comme le champ électrique est défini en termes de force, et que la force est un vecteur, ayant à la fois une magnitude et une direction, il s'ensuit qu'un champ électrique est un champ de vecteurs59.
L'étude des champs électriques créés par des charges stationnaires est appelée électrostatique. Le champ peut être visualisé par un ensemble de lignes imaginaires dont la direction en tout point est la même que celle du champ. Ce concept a été introduit par Faraday, dont l'expression « lignes de force » est encore parfois utilisée. Les lignes de champ sont les chemins qu'une charge positive ponctuelle chercherait à emprunter lorsqu'elle est forcée de se déplacer dans le champ ; il s'agit cependant d'un concept imaginaire sans existence physique, et le champ imprègne tout l'espace intermédiaire entre les lignes60. Les lignes de champ émanant de charges stationnaires ont plusieurs propriétés essentielles : premièrement, elles naissent à des charges positives et se terminent à des charges négatives ; deuxièmement, elles doivent pénétrer dans tout bon conducteur à angle droit ; et troisièmement, elles ne peuvent jamais se croiser ni se refermer sur elles-mêmes61. Un corps conducteur creux porte toute sa charge sur sa surface extérieure. Le champ est donc nul en tout point du corps62.
Les principes de l'électrostatique sont importants lors de la conception d'équipements à haute tension. Il existe une limite finie à l'intensité du champ électrique que peut supporter un milieu quelconque. Au-delà de cette limite, une rupture électrique se produit et un arc électrique provoque un embrasement entre parties chargées. L'air, par exemple, a tendance à former un arc à travers de petits espaces lorsque l'intensité du champ électrique dépasse 30 kV par centimètre, ce qui représente la limite de sa rigidité diélectrique63. La manifestation naturelle la plus visible de ce phénomène est la foudre, qui se produit lorsque la charge est séparée dans les nuages par des colonnes d'air ascendantes et que le champ électrique dans l'air est supérieur à ce qu'il peut supporter. La tension d'un grand nuage de foudre peut atteindre 100 MV et son énergie de décharge peut atteindre 250 kWh64.
L'intensité du champ est fortement influencée par la proximité d'objets conducteurs, et elle est particulièrement forte lorsqu'elle est forcée de s'incurver autour d'objets pointus. Ce principe est exploité dans le paratonnerre, dont la pointe acérée a pour effet d'encourager le coup de foudre à se développer à cet endroit, plutôt que vers le bâtiment qu'il sert à protéger65.
Potentiel électrique
Le concept de potentiel électrique est étroitement lié à celui de champ électrique. Une petite charge placée dans un champ électrique subit une force. Amener la charge à ce point, contre cette force, nécessite un travail. Le potentiel électrique en tout point est défini comme l'énergie nécessaire pour amener lentement une unité de charge d'essai d'une distance infinie à ce point. Il est généralement mesuré en volts, 1 volt représentant le potentiel pour 1 joule dépensé pour amener une charge de 1 coulomb depuis l'infini. Cette définition du potentiel, bien que formelle, a peu d'applications pratiques, et un concept plus utile est celui de différence de potentiel électrique, l'énergie requise pour déplacer une charge unitaire entre deux points spécifiés. Un champ électrique a la propriété particulière d'être conservatif, ce qui signifie que le chemin emprunté par la charge d'essai n'est pas pertinent : tous les chemins entre deux points spécifiés dépensent la même énergie, et on peut donc énoncer une valeur unique pour la différence de potentiel66.
Pour des raisons pratiques, il est utile de définir un point de référence commun auquel les potentiels peuvent être exprimés et comparés. Bien que ce point puisse être à l'infini, une référence beaucoup plus utile est la Terre elle-même, qui est supposée être au même potentiel partout. Ce point de référence prend naturellement le nom de « terre ». La Terre est supposée être une source infinie de charges positives et négatives à quantités égales, et est donc électriquement non chargée — et non chargeable67.
Le potentiel électrique est un scalaire, c'est-à-dire qu'il n'a qu'une magnitude et pas de direction. Il peut être considéré comme analogue à la hauteur : de la même manière qu'un objet relâché tombera d'une certaine différence de hauteur causée par un champ gravitationnel, une charge « tombera » d'une certaine différence de potentiel causée par un champ électrique. De la même manière que les cartes en relief montrent des courbes de niveau marquant les points de hauteur égale, des lignes de champ marquant des points à potentiel égal (connues sous le nom d'équipotentielles) peuvent être dessinées autour d'un objet chargé électrostatiquement. Les équipotentielles croisent toutes les lignes de force à angle droit. Elles doivent également être parallèles à la surface d'un conducteur, sinon cela produirait une force qui déplacerait les porteurs de charge pour égaliser le potentiel de la surface68.
Le champ électrique est formellement défini comme la force exercée par unité de charge, mais le concept de potentiel permet une définition plus utile et équivalente : le champ électrique est le gradient local du potentiel électrique. Généralement exprimé en volts par mètre, la direction du vecteur du champ est la ligne de plus grand potentiel, et l'endroit où les équipotentielles sont les plus proches l'une de l'autre69.
Champ magnétique
Le champ magnétique tourne autour d'un courant.
La découverte par Ørsted, en 1821, de l'existence d'un champ magnétique autour de tous les côtés d'un fil transportant un courant électrique indique qu'il existe une relation directe entre l'électricité et le magnétisme. De plus, cette interaction semblait alors différente des forces gravitationnelles et électrostatiques, les deux forces de la nature alors connues. La force exercée sur l'aiguille de la boussole ne la dirigeait pas vers ou à l'opposé du fil porteur du courant, mais agissait à angle droit par rapport à celui-ci53. Ørsted a déclaré que « le conflit électrique agit de manière tournante ». La force dépendait également du sens du courant, car si le flux est inversé, la force l'est aussi70.
Ørsted n'a pas compris complètement sa découverte, mais il observe que l'effet est réciproque : un courant exerce une force sur un aimant, et un champ magnétique exerce une force sur un courant. Le phénomène est approfondi par André-Marie Ampère, qui découvre que deux fils parallèles parcourus par un courant exercent une force l'un sur l'autre : deux fils conduisant des courants dans le même sens sont attirés l'un vers l'autre, tandis que les fils contenant des courants dans des directions opposées s'éloignent l'un de l'autre. Cette interaction est médiée par le champ magnétique que chaque courant produit et constitue la base de la définition internationale de l'ampère71.
La relation entre les champs magnétiques et les courants est extrêmement importante, car elle a conduit à l'invention du moteur électrique par Michael Faraday en 1821. Le moteur homopolaire de Faraday est constitué d'un aimant permanent placé dans un bain de mercure. Un courant électrique passe par un fil suspendu à un pivot au-dessus de l'aimant et plonge dans le mercure. L'aimant exerce alors une force tangentielle sur le fil, le faisant tourner autour de l'aimant aussi longtemps que le courant est maintenu72.
Les expériences menées par Faraday en 1831 ont révélé qu'un fil se déplaçant perpendiculairement à un champ magnétique développe une différence de potentiel entre ses extrémités. Une analyse plus poussée de ce processus, connu sous le nom d'induction électromagnétique, lui a permis d'énoncer le principe, désormais connu sous le nom de loi de Lenz-Faraday, selon lequel la différence de potentiel induite dans un circuit fermé est proportionnelle au taux de variation du flux magnétique à travers la boucle. L'exploitation de cette découverte lui a permis d'inventer le premier générateur électrique en 1831, avec lequel il a converti l'énergie mécanique d'un disque tournant de cuivre en énergie électrique72.
Circuits électriques
Un circuit électrique est une interconnexion de composants électriques permettant de faire circuler une charge électrique le long d'un chemin fermé (un circuit), généralement pour effectuer une tâche utile. Les composants d'un circuit électrique peuvent prendre de nombreuses formes : résistances, condensateurs, interrupteurs, transformateurs et composants électroniques. Les circuits électroniques contiennent des composants actifs, généralement des semi-conducteurs, et présentent généralement un comportement non linéaire, nécessitant une analyse complexe. Les composants électriques les plus simples sont ceux que l'on qualifie de passifs et linéaires : s'ils peuvent temporairement stocker de l'énergie, ils n'en contiennent aucune source et présentent des réponses linéaires aux stimuli73.
La résistance est peut-être le plus simple des éléments de circuit passifs : comme son nom l'indique, elle résiste au courant qui la traverse et dissipe son énergie sous forme de chaleur. La résistance est une conséquence du mouvement de la charge dans un conducteur : dans les métaux, par exemple, la résistance est principalement due aux collisions entre les électrons et les ions. La loi d'Ohm est une loi fondamentale de la théorie des circuits, qui stipule que le courant traversant une résistance est directement proportionnel à la différence de potentiel à ses bornes. La résistance de la plupart des matériaux est relativement constante pour une gamme de températures et de courants ; les matériaux dans ces conditions sont dits « ohmiques ». L'ohm, l'unité de résistance, a été nommé en l'honneur de Georg Ohm, et est symbolisé par la lettre grecque Ω (oméga). 1 ohm est la résistance qui produit une différence de potentiel de 1 volt en réponse à un courant continu de 1 ampère74.
Le condensateur est un développement de la bouteille de Leyde et est un dispositif qui peut stocker une charge, et ainsi stocker de l'énergie électrique dans le champ résultant. Il est généralement constitué de deux plaques conductrices séparées par une fine couche diélectrique isolante ; en pratique, de fines feuilles métalliques sont enroulées ensemble, ce qui augmente la surface par unité de volume et donc la capacité. L'unité de la capacité est le farad, nommé d'après Michael Faraday et est désigné par le symbole F ; 1 farad est la capacité d'une charge de 1 coulomb qui développe une différence de potentiel de 1 volt. Un condensateur connecté à une tension d'alimentation génère initialement un courant lorsqu'il accumule une charge ; ce courant décroît toutefois au fur et à mesure que le condensateur se remplit, pour finalement tomber à zéro. Un condensateur ne permet donc pas le passage d'un courant continu stabilisé, mais le bloque75.
L'inducteur est un conducteur, généralement une bobine de fil, qui stocke de l'énergie dans un champ magnétique en réponse au courant qui le traverse. Lorsque le courant change, le champ magnétique change également, induisant une tension entre les extrémités du conducteur. La tension induite est proportionnelle à la vitesse de variation du courant. La constante de proportionnalité est appelée l'inductance. L'unité d'inductance est le henry, du nom de Joseph Henry, un contemporain de Faraday. 1 henry est l'inductance qui induit une différence de potentiel de 1 volt si le courant qui la traverse change à la vitesse de 1 ampère par seconde. Le comportement de l'inducteur est, à certains égards, inverse de celui du condensateur : il laisse passer librement un courant qui ne change pas, mais s'oppose à un courant qui change rapidement76.
Production et utilisation
Production et transmission
Au VIe siècle av. J.-C., le philosophe grec Thalès réalise des expériences avec des tiges d'ambre qui constituent les premières études sur la production d'énergie électrique. Bien que cette méthode, connue aujourd'hui sous le nom d'effet triboélectrique, puisse soulever des objets légers et produire des étincelles, elle est extrêmement inefficace. Il faut attendre l'invention de la pile voltaïque au XVIIIe siècle pour disposer d'une source d'électricité viable. La pile voltaïque et son descendant moderne, la batterie électrique, stockent l'énergie sous forme chimique et la rendent disponible à la demande sous forme d'énergie électrique77.
L'énergie électrique est généralement produite par des générateurs électromécaniques actionnés par la vapeur produite par la combustion de combustibles fossiles, par la chaleur libérée par une réaction nucléaire, ou encore par d'autres sources telles que l'énergie cinétique extraite du vent ou de l'eau courante. La turbine à vapeur moderne, inventée par Sir Charles Algernon Parsons en 1884, produit aujourd'hui environ 80 % de l'énergie électrique dans le monde en utilisant diverses sources de chaleur. Ces générateurs ne ressemblent en rien au générateur à disque homopolaire de Faraday de 1831, mais ils reposent toujours sur son principe électromagnétique selon lequel un conducteur reliant un champ magnétique changeant induit une différence de potentiel à ses extrémités78. L'invention du transformateur à la fin du XIXe siècle permet de transmettre plus efficacement l'énergie électrique à une tension plus élevée mais à un courant plus faible. Une transmission électrique efficace signifie à son tour que l'électricité peut être produite dans des centrales électriques centralisées, où elle bénéficie d'économies d'échelle, puis être envoyée sur des distances relativement longues là où elle est nécessaire79,80.
Étant donné que l'énergie électrique ne peut pas facilement être stockée en quantités suffisantes pour répondre à la demande à l'échelle nationale, il faut produire à tout moment exactement la quantité nécessaire, ce qui oblige les compagnies d'électricité à prévoir soigneusement leurs charges électriques et à maintenir une coordination constante avec leurs centrales. Une certaine quantité de production doit toujours être maintenue en réserve pour protéger le réseau électrique contre les perturbations et les pertes inévitables79.
La demande d'électricité augmente très rapidement à mesure qu'une nation se modernise et que son économie se développe. Les États-Unis ont enregistré une augmentation de 12 % de la demande chaque année au cours des trois premières décennies du XXe siècle, un taux de croissance que connaissent les économies émergentes telles que celles de l'Inde ou de la Chine au XXIe siècle81,82,83. Historiquement, le taux de croissance de la demande d'électricité a dépassé celui des autres formes d'énergie84.
Les préoccupations environnementales liées à la production d'électricité ont conduit à mettre l'accent sur la production à partir de sources renouvelables, en particulier l'énergie éolienne et solaire. Bien que l'on puisse s'attendre à ce que le débat se poursuive sur l’impact environnemental des différents moyens de production d'électricité, sa forme finale est relativement propre85,86.
Applications
L'
ampoule à incandescence, une des premières applications de l'électricité, fonctionne par
effet Joule : le passage d'un courant électrique à travers une résistance électrique produit de la chaleur.
L'électricité est un moyen très pratique de transférer l'énergie, et elle est adaptée à un nombre énorme et croissant d'utilisations87. L'invention d'une lampe à incandescence pratique dans les années 1870 a fait de l'éclairage l'une des premières applications publiques de l'énergie électrique. Bien que l'électrification ait apporté avec elle ses propres dangers, le remplacement des flammes nues de l'éclairage au gaz a considérablement réduit les risques d'incendie dans les maisons et les usines88.
L'effet Joule résistif employé dans les ampoules à filament est également utilisé plus directement dans le chauffage électrique. Bien qu'il soit polyvalent et contrôlable, il peut être considéré comme un gaspillage, puisque la plupart de la production d'électricité a déjà nécessité la production de chaleur dans une centrale électrique89. Un certain nombre de pays, comme le Danemark, ont adopté une législation limitant ou interdisant l'utilisation du chauffage électrique résistif dans les nouveaux bâtiments90. L'électricité reste cependant une source d'énergie très pratique pour le chauffage et la réfrigération, la climatisation et les pompes à chaleur représentant un secteur croissant de la demande d'électricité pour le chauffage et la climatisation, dont les effets sont de plus en plus pris en compte par les services publics d'électricité91,92.
L'électricité est utilisée dans les télécommunications, et le télégraphe électrique, dont la démonstration commerciale faite en 1837 par William Fothergill Cooke et Charles Wheatstone est l'une de ses premières applications. Avec la construction des premiers systèmes télégraphiques transcontinentaux, puis transatlantiques, dans les années 1860, l'électricité permet de communiquer en quelques minutes à travers le monde93. La fibre optique et la communication par satellite ont pris une part du marché des systèmes de communication, mais on peut s'attendre à ce que l'électricité reste un élément essentiel du processus94,95.
Les effets de l'électromagnétisme sont le plus visiblement employés dans les moteurs électriques, qui fournissent de l'énergie motrice propre et efficace. Un moteur stationnaire, tel qu'un winch, est facilement alimenté en énergie, mais un moteur qui se déplace avec son application, tel qu'un véhicule électrique, est obligé soit de transporter une source d'énergie, telle qu'une batterie, soit de capter le courant d'un contact glissant, tel qu'un pantographe. Les véhicules à moteur électrique sont utilisés dans les transports en commun, tels que les bus et les trains électriques, et un nombre croissant de voitures électriques à batterie en propriété privée96,97.
Les dispositifs électroniques utilisent le transistor, qui est peut-être l'une des inventions les plus importantes du vingtième siècle et un élément fondamental de tous les circuits modernes98. Un circuit intégré moderne peut contenir plusieurs milliards de transistors miniaturisés dans une région de quelques centimètres carrés seulement99.
Dans la nature
Effets physiologiques
Une tension électrique appliquée à un corps humain provoque un courant électrique à travers les tissus, et bien que la relation ne soit pas linéaire, plus la tension est élevée, plus le courant est important100. Le seuil de perception varie avec la fréquence d'alimentation et avec le trajet du courant, mais il est d'environ 0,1 à 1 miliampère à la fréquence du réseau électrique, bien qu'un courant aussi faible que 1 microampère puisse être détecté comme un effet d'électrovibration dans certaines conditions101. Si le courant est suffisamment élevé, il peut provoquer des contractions musculaires, une fibrillation cardiaque et des brûlures des tissus100. L'absence de signe visible indiquant qu'un conducteur est électrisé fait de l'électricité un danger particulier. La douleur causée par un choc électrique peut être intense, ce qui fait que l'électricité est parfois utilisée comme méthode de torture. La mort causée par un choc électrique est appelée électrocution. L'électrocution est encore le moyen d'exécutions judiciaires dans certaines juridictions, bien que son utilisation devienne de plus en plus rare102.
Phénomènes électriques
L'électricité n'est pas une invention humaine, et elle peut être observée sous plusieurs formes dans la nature, dont la plus connue est probablement la foudre. De nombreuses interactions familières au niveau macroscopique, comme le toucher, la friction ou les liaisons chimiques, sont dues à des interactions entre des champs électriques à l'échelle atomique. Le champ magnétique terrestre proviendrait d'une dynamo naturelle de courants circulant dans le noyau de la planète103. Certains cristaux, comme le quartz, ou même le sucre, génèrent une différence de potentiel à travers leurs faces lorsqu'ils sont soumis à une pression externe. Ce phénomène est connu sous le nom de piézoélectricité, du grec piezein (πιέζειν), qui signifie presser, et est découvert en 1880 par Pierre et Jacques Curie. L'effet est réciproque, et lorsqu'un matériau piézoélectrique est soumis à un champ électrique, une petite modification des dimensions physiques se produit104.
Certains organismes, tels que les requins, sont capables de détecter et de réagir aux variations des champs électriques, une capacité connue sous le nom d'électroperception, tandis que d'autres, qualifiés d'électrogéniques (en), sont capables de générer eux-mêmes des tensions pour chasser ou se défendre. L'ordre des Gymnotiformes, dont l'exemple le plus connu est l'anguille électrique, détecte ou assomme ses proies grâce à des tensions élevées générées par des cellules musculaires modifiées appelées électrocytes2,3. Tous les animaux transmettent des informations le long de leurs membranes cellulaires par des impulsions de tension appelées potentiels d'action, dont les fonctions incluent la communication par le système nerveux entre les neurones et les muscles105. Un choc électrique stimule ce système et provoque la contraction des muscles106. Les potentiels d'action sont également responsables de la coordination des activités dans certaines plantes105.
Dans la culture
Au XIXe et au début du XXe siècle, l'électricité ne fait pas partie de la vie quotidienne de nombreuses personnes, même dans le monde occidental industrialisé. La culture populaire de l'époque la dépeint donc souvent comme une force mystérieuse, quasi magique, capable de tuer les vivants, de ranimer les morts ou de détourner les lois de la nature107. Cette attitude commence avec les expériences de Luigi Galvani en 1771, dans lesquelles il montre que les pattes de grenouilles mortes se contractent avec l'application d'électricité. La « revitalisation », ou la réanimation de personnes apparemment mortes ou noyées, est signalée dans la littérature médicale peu après les travaux de Galvani. Ces résultats sont connus de Mary Shelley lorsqu'elle écrit Frankenstein ou le Prométhée moderne (1819), bien qu'elle ne nomme pas spécifiquement la méthode de revitalisation du monstre. Cette méthode employant l'électricité est ensuite devenue un thème récurrent des films d'horreur108,109.
Au fur et à mesure que le public se familiarise avec l'électricité en tant qu'élément vital de la seconde révolution industrielle, les personnes qui la manipulent sont plus souvent présentées sous un jour positif, comme les ouvriers qui « touchent la mort au bout de leurs gants alors qu'ils coupent et recoupent les fils alimentés » dans le poème Sons of Martha (1907) de Rudyard Kipling. Walt Whitman inaugure une poésie de la modernité qui « chante le corps électrique » (I sing the Body Electric110). Les véhicules électriques de toutes sortes occupent une place importante dans les récits d'anticipation tels que ceux de Jules Verne et les livres de Tom Swift. Les maîtres de l'électricité, qu'ils soient fictifs ou réels — y compris des scientifiques tels que Thomas Edison, Charles Proteus Steinmetz ou Nikola Tesla — sont généralement considérés comme ayant des pouvoirs de sorciers111. L'électricité ayant cessé d'être une nouveauté pour devenir une nécessité de la vie quotidienne dans la seconde moitié du XXe siècle, la culture populaire ne lui accorde une attention particulière que lors de pannes électriques, un événement qui est généralement le signe d'une catastrophe. Les personnes qui la maintiennent en fonction, comme le héros sans nom de la chanson de Jimmy Webb Wichita Lineman (1968), sont encore souvent présentées comme des personnages héroïques aux allures de sorciers111.
Dans le domaine des arts plastiques, l'électricité est représentée sous forme de sculptures, comme L'Électricité réalisée pour l'exposition universelle de Paris de 1889 par Louis-Ernest Barrias et en peinture, comme La Fée Électricité de Raoul Dufy, conservée au musée d'Art moderne de Paris112,113. L'électricité a également permis des avancées certaines dans le monde de la musique, à travers le développement de microphones et de haut-parleurs mais aussi l'arrivée d'instruments électroniques et de la musique électronique en général114.
Les films de David Lynch interrogent « la vie comme un montage électrique » : dès The Grandmother (1970), « tout s'enchaîne par conduction magique, à l'image d'une interrogation d'enfant sur l'électricité : pourquoi, quand on appuie sur un bouton au mur, cela fait-il tomber la lumière du plafond115 ? »
Annexes
Sur les autres projets Wikimedia :
Bibliographie
: document utilisé comme source pour la rédaction de cet article.
- (en) Charles Alexander et Matthew Sadiku, Fundamentals of Electric Circuits, 3, revised, (ISBN 9780073301150). .
- (en) John Bird, Electrical and Electronic Principles and Technology, 3rd edition, Newnes, (ISBN 9781417505432), p. 11. .
- Gérard Borvon, Histoire de l'électricité de l'ambre à l'électron, Paris, Vuibert, coll. « Va savoir! », , 266 p. (ISBN 978-2-7117-2492-5, OCLC 495269482, présentation en ligne [archive], lire en ligne [archive]).
- Jean Daujat, Origines et formation de la théorie des phénomènes électriques et magnétiques,, Hermann & co, , 530 p..
- (en) W.J. Duffin, Electricity and Magnetism, 3rd edition, McGraw-Hill, (ISBN 0-07-084111-X, lire en ligne [archive]). .
- Sanford L. Moskowitz, Advanced Materials Innovation: Managing Global Technology in the 21st century, John Wiley & Sons, (ISBN 9780470508923, lire en ligne [archive]).
- (en) M.S. Naidu et V. Kamataru, High Voltage Engineering, Tata McGraw-Hill, (ISBN 0-07-451786-4). .
- (en) National Research Council, Electricity in Economic Growth, National Academies Press, (ISBN 0-309-03677-1).
- (en) Francis Sears, University Physics, Sixth Edition, Addison Wesley, (ISBN 0-201-07199-1). .
- (en) A. Bowdoin Van Riper, Science in popular culture: a reference guide, Westport, Greenwood Publishing Group, (ISBN 0-313-31822-0). .
Articles connexes
Liens externes
Notes et références
Notes
- Il n'est pas certain que Franklin ait réalisé l'expérience lui-même, bien qu'elle lui soit généralement attribuée.
- Presque tous les champs électriques varient dans l'espace. Le champ électrique entourant un conducteur plan d'étendue infinie, dont le champ est uniforme, constitue une exception.
Références
- (en) Peter Moller et Bernd Kramer, Review: Electric Fish, vol. 41, American Institute of Biological Sciences (no 11), , 794-796 p. (DOI 10.2307/1311732, JSTOR 1311732)
- (en) Theodore H. Bullock, Electroreception, Springer, , 5-7 p. (ISBN 0-387-23192-7)
- (en) Simon C. Morris, Life's Solution: Inevitable Humans in a Lonely Universe, Cambridge University Press, , 182-185 p. (ISBN 0-521-82704-3, lire en ligne [archive])
- (en) Joseph Stewart, Intermediate Electromagnetic Theory, World Scientific, (ISBN 981-02-4471-1), p. 50
- (en) Brian Simpson, Electrical Stimulation and the Relief of Pain, Elsevier Health Sciences, , 6-7 p. (ISBN 0-444-51258-6)
- (en) Diogenes Laertius, « Lives of Eminent Philosophers, Book 1 Chapter 1 [24] » [archive], sur Perseus Digital Library, Tufts University (consulté le )
- (en) Aristotle, « De Animus (On the Soul) Book 1 Part 2 (B4 verso) » [archive], sur The Internet Classics Archive (consulté le )
- (en) Arran Frood, Riddle of 'Baghdad's batteries', BBC, (lire en ligne [archive])
- (en) Brian Baigrie, Electricity and Magnetism: A Historical Perspective, Greenwood Press, , 7-8 p. (ISBN 978-0-313-33358-3)
- (en) Gordon Chalmers, The Lodestone and the Understanding of Matter in Seventeenth Century England, vol. 4 (no 1), , 75-95 p. (DOI 10.1086/286445, S2CID 121067746)
- Informations lexicographiques [archive] et étymologiques [archive] de « électrique » dans le Trésor de la langue française informatisé, sur le site du Centre national de ressources textuelles et lexicales.
- (en) M. Guarnieri, « Electricity in the age of Enlightenment », IEEE Industrial Electronics Magazine, vol. 8, no 3, , p. 60-63 (DOI 10.1109/MIE.2014.2335431, S2CID 34246664)
- (en) James Srodes, Franklin: The Essential Founding Father, Regnery Publishing, (ISBN 0-89526-163-4, lire en ligne [archive]), p. 92-94
- (en) Martin Uman, All About Lightning, Dover Publications, , PDF (ISBN 0-486-25237-X, lire en ligne [archive])
- (en) Jessica Riskin, Poor Richard's Leyden Jar: Electricity and economy in Franklinist France, (lire en ligne [archive]), p. 327
- (en) M. Guarnieri, « The Big Jump from the Legs of a Frog », IEEE Industrial Electronics Magazine, vol. 8, no 4, , p. 59-61, 69 (DOI 10.1109/MIE.2014.2361237, S2CID 39105914)
- (en) Richard S. Kirby, Engineering in History, Courier Dover Publications, , 331-333 p. (ISBN 0-486-26412-2, lire en ligne [archive])
- (en) William Berkson, Fields of force: the development of a world view from Faraday to Einstein, Routledge, (lire en ligne [archive]), p. 148
- Sears 1982, p. 843-844.
- (de) Heinrich Hertz, « Ueber den Einfluss des ultravioletten Lichtes auf die electrische Entladung », Annalen der Physik, vol. 267, no 8, , p. 983-1000 (DOI 10.1002/andp.18872670827, Bibcode 1887AnP...267..983H, lire en ligne [archive])
- (en) « This Month in Physics History » [archive], sur www.aps.org (consulté le )
- (en) M. R. Islam, Jaan S. Islam, Gary M. Zatzman et M. Safiur Rahman, The Greening of Pharmaceutical Engineering, Practice, Analysis, and Methodology, John Wiley & Sons, , 288 p. (ISBN 978-1-119-18422-5, lire en ligne [archive])
- Encyclopædia Universalis, « Industrialisation et formes de société : La deuxième révolution industrielle : électricité, pétrole, chimie » [archive], sur Encyclopædia Universalis (consulté le )
- (en) « solid state » [archive], sur TheFreeDictionary.com (consulté le )
- (en) « 1947: Invention of the Point-Contact Transistor » [archive], sur computerhistory.org (consulté le )
- (en) « 1948: Conception of the Junction Transistor » [archive], sur computerhistory.org (consulté le )
- Moskowitz 2016, p. 168.
- (en) « 1960: Metal Oxide Semiconductor (MOS) Transistor Demonstrated » [archive], sur computerhistory.org (consulté le )
- Moskowitz 2016, p. 165, 179.
- (en) Leonard C. Feldman, Fundamental Aspects of Silicon Oxidation, Springer Science & Business Media, , 1-11 p. (ISBN 9783540416821), « Introduction »
- (en) Michael G. Raymer, The Silicon Web : Physics for the Internet Age, CRC Press, , 600 p. (ISBN 978-1-4398-0312-7, lire en ligne [archive]), p. 365
- (en) « 13 Sextillion & Counting: The Long & Winding Road to the Most Frequently Manufactured Human Artifact in History » [archive], sur CHM, (consulté le )
- la rédaction de Futura, « Combien y a-t-il eu de révolutions industrielles ? » [archive], sur Futura (consulté le )
- Encyclopædia Universalis, « Industrialisation et formes de société : La troisième révolution industrielle, scientifique et technique » [archive], sur Encyclopædia Universalis (consulté le )
- « Troisième révolution industrielle : définition » [archive], sur L'Étudiant (consulté le )
- Sears 1982, p. 457.
- Duffin 1980, p. 35.
- (en) National Research Council, Physics Through the 1990s, National Academies Press, , 215-16 p. (ISBN 0-309-03576-7)
- (en) Korada Umashankar, Introduction to Engineering Electromagnetic Fields, World Scientific, , 77-79 p. (ISBN 9971-5-0921-0)
- (en) Stephen Hawking, A Brief History of Time, Bantam Press, (ISBN 0-553-17521-1), p. 77
- (en) James Trefil, The Nature of Science: An A-Z Guide to the Laws and Principles Governing Our Universe, Houghton Mifflin Books, (ISBN 0-618-31938-7, lire en ligne [archive]), 74 [archive]
- Duffin 1980, p. 2-5.
- (en) Jonathan Shectman, Groundbreaking Scientific Experiments, Inventions, and Discoveries of the 18th Century, Greenwood Press, , 87-91 p. (ISBN 0-313-32015-2)
- (en) Tyson Sewell, The Elements of Electrical Engineering, Lockwood, , p. 18.
- (en) Frank Close, The New Cosmic Onion: Quarks and the Nature of the Universe, CRC Press, (ISBN 978-1-58488-798-0), p. 51
- « Qu'est-ce que le courant ? » [archive], sur www.fluke.com (consulté le )
- (en) « electric current » [archive], sur Encyclopedia Britannica (consulté le )
- (en-GB) « Conductors and insulators of electricity - Electric current and potential difference - KS3 Physics Revision » [archive], sur BBC Bitesize (consulté le )
- (en) Robert Ward, Introduction to Electrical Engineering, Prentice-Hall,
- Duffin 1980, p. 17.
- (en) L. Solymar, Lectures on electromagnetic theory, Oxford University Press, (ISBN 0-19-856169-5, lire en ligne [archive]), 140 [archive]
- Duffin 1980, p. 23-24.
- (en) William Berkson, Fields of Force: The Development of a World View from Faraday to Einstein, Routledge, (ISBN 0-7100-7626-6, lire en ligne [archive]), p. 370.
- (en) « Lab Note #105 EMI Reduction - Unsuppressed vs. Suppressed » [archive], Arc Suppression Technologies, (consulté le )
- Bird 2007, p. 11.
- Bird 2007, p. 206-207.
- Bird 2007, p. 223-225.
- (en) Donald G. Fink et H. Wayne Beaty, Standard Handbook for Electrical Engineers, McGraw-Hill, p. 1-5
- Sears 1982, p. 469-470.
- (en) Morely & Hughes, Principles of Electricity, Fifth edition (ISBN 0-582-42629-4), p. 73
- Sears 1982, p. 469.
- Duffin 1980, p. 88.
- Naidu et Kamataru 1982, p. 2.
- Naidu et Kamataru 1982, p. 201-202.
- (en) Paul J. Nahin, Oliver Heaviside: The Life, Work, and Times of an Electrical Genius of the Victorian Age, JHU Press, (ISBN 978-0-8018-6909-9), p. 155
- Sears 1982, p. 494-498.
- (en) Raymond A. Serway, Serway's College Physics, Thomson Brooks, (ISBN 0-534-99724-4), p. 500
- (en) « Electric Potential Maps and Voltage », Physics 2000, , p. 20-6 (lire en ligne [archive])
- Duffin 1980, p. 60.
- (en) Silvanus P. Thompson, Michael Faraday: His Life and Work, Elibron Classics, (ISBN 1-4212-7387-X), p. 79
- (en) Morely & Hughes, Principles of Electricity, Fifth edition, 92-93 p.
- (en) Institution of Engineering and Technology, Michael Faraday: Biography (lire en ligne)
- Alexander et Sadiku 2006, p. 15-16.
- Alexander et Sadiku 2006, p. 30-35.
- Alexander et Sadiku 2006, p. 216-220.
- Alexander et Sadiku 2006, p. 226-229.
- (en) Ronald Dell et David Rand, Understanding Batteries, vol. 86, Royal Society of Chemistry, , 2-4 p. (ISBN 0-85404-605-4, Bibcode 1985STIN...8619754M)
- (en) Peter G. McLaren, Elementary Electric Power and Machines, Ellis Horwood, , 182-83 [archive] (ISBN 0-85312-269-5, lire en ligne [archive])
- (en) Walter C. Patterson, Transforming Electricity: The Coming Generation of Change, Earthscan, (ISBN 1-85383-341-X), p. 44-48
- (en) Edison Electric Institute, « History of the Electric Power Industry » (consulté le )
- (en) Edison Electric Institute, « History of the U.S. Electric Power Industry, 1882-1991 » [archive] (consulté le )
- (en) Carbon Sequestration Leadership Forum, An Energy Summary of India (lire en ligne [archive du ])
- (en) IndexMundi, China Electricity - consumption (lire en ligne [archive])
- National Research Council 1986, p. 16.
- National Research Council 1986, p. 89.
- (en) « Renewable Energy and Electricity » [archive], sur www.world-nuclear.org (consulté le )
- (en) Matthew Wald, Growing Use of Electricity Raises Questions on Supply, (lire en ligne [archive])
- (en) Peter d'Alroy Jones, The Consumer Society: A History of American Capitalism, Penguin Books, p. 211
- (en) Charles and Penelope ReVelle, The Global Environment: Securing a Sustainable Future, Jones & Bartlett, (ISBN 0-86720-321-8, lire en ligne [archive]), 298 [archive]
- (en) Danish Ministry of Environment and Energy, « F.2 The Heat Supply Act », Denmark's Second National Communication on Climate Change (consulté le )
- (en) Charles E. Brown, Power resources, Springer, (ISBN 3-540-42634-5)
- (en) B. Hojjati et S. Battles, The Growth in Electricity Demand in U.S. Households, 1981-2001: Implications for Carbon Emissions (lire en ligne)
- (en) « Cooke and Wheatstone 5-needle telegraph » [archive], sur Age of Revolution (consulté le )
- (en) Barney Warf, « International Competition Between Satellite and Fiber Optic Carriers: A Geographic Perspective », The Professional Geographer, (lire en ligne [archive])
- (en-US) « The future of telecoms » [archive], sur martingeddes (consulté le )
- (en) « Public Transportation », Alternative Energy News, (lire en ligne [archive])
- (en) « Global sales of electric cars accelerate fast in 2020 despite pandemic » [archive], sur the Guardian, (consulté le )
- (en) Dennis F. Herrick, Media Management in the Age of Giants: Business Dynamics of Journalism, Blackwell Publishing, (ISBN 0-8138-1699-8, lire en ligne [archive])
- (en) Saswato R. Das, « The tiny, mighty transistor », Los Angeles Times, (lire en ligne [archive])
- (en) Nasser Tleis, Power System Modelling and Fault Analysis, Elsevier, , 552-54 p. (ISBN 978-0-7506-8074-5)
- (en) Sverre Grimnes, Bioimpedance and Bioelectricity Basic, Academic Press, , 301-09 p. (ISBN 0-12-303260-1)
- (en) J.H. Lipschultz et M.L.J.H. Hilt, Crime and Local Television News, Lawrence Erlbaum Associates, (ISBN 0-8058-3620-9), p. 95
- (en) Thérèse Encrenaz, The Solar System, Springer, (ISBN 3-540-00241-3), p. 217
- (en) José Lima-de-Faria et Martin J. Buerger, Historical Atlas of Crystallography, vol. 209, Springer (no 12), (ISBN 0-7923-0649-X, DOI 10.1524/zkri.1994.209.12.1008a, Bibcode 1994ZK....209.1008P), p. 67
- (en) E. Kandel, J. Schwartz et T. Jessell, Principles of Neural Science, McGraw-Hill Professional, , 27-28 [archive] (ISBN 0-8385-7701-6, lire en ligne [archive])
- (en) Paul Davidovits, Physics in Biology and Medicine, Academic Press, , 204-05 p. (ISBN 978-0-12-369411-9)
- Van Riper 2002, p. 69.
- (en) Erin Blakemore, « How Twitching Frog Legs Helped Inspire 'Frankenstein' » [archive], sur Smithsonian Magazine (consulté le )
- (en) Gabriella Geisinger, « Mary Shelley: What movies were inspired by the Frankenstein writer? » [archive], sur Express.co.uk, (consulté le )
- La métaphore électrique, fil conducteur des premières avant-gardes [archive] sur openedition [archive]
- Van Riper 2002, p. 71.
- « La Fée Electricité » [archive], sur www.mam.paris.fr (consulté le )
- Fabienne Cardot, « L'éclair de la favorite ou l'électricité à l'Exposition de 1889 » [archive], sur Le Mouvement social, (ISSN 0027-2671, DOI 10.2307/3778405, consulté le ), p. 43–58
- Rainer Boesch, L’électricité en musique, Éditions Contrechamps, (ISBN 978-2-940599-14-1, lire en ligne [archive]), p. 134–145
-
Magnétisme
Le magnétisme représente un ensemble de phénomènes physiques dans lesquels les objets exercent des forces attractives ou répulsives sur d'autres matériaux. Les courants électriques et les moments magnétiques des particules élémentaires fondamentales sont à l’origine du champ magnétique qui engendre ces forces. Tous les matériaux sont influencés, de manière plus ou moins complexe, par la présence d'un champ magnétique, et l’état magnétique d'un matériau dépend de sa température (et d'autres variables telles que la pression et le champ magnétique extérieur) de sorte qu'un matériau peut présenter différentes formes de magnétisme selon sa température.
Les aimants permanents possèdent des moments magnétiques permanents à l’origine du ferromagnétisme. Cependant, la plupart des matériaux ne possèdent pas de moments permanents. Parmi ces derniers, certains sont attirés par la présence d’un champ magnétique (paramagnétisme); d'autres sont au contraire repoussés par celui-ci (diamagnétisme) ; d'autres encore ont une relation beaucoup plus complexe avec un champ magnétique appliqué (antiferromagnétisme).
Les substances qui sont affectées de façon négligeable par les champs magnétiques sont considérées comme étant des substances non-magnétiques, dites amagnétiques.
Histoire
Depuis la nuit des temps et au fil des âges, le magnétisme a toujours fasciné les esprits. Considéré comme un des grands miracles de la nature, il fut encore au XVIIe siècle appelé « le labyrinthe et abîme impénétrable des philosophes » par Athanasius Kircher dans son monumental traité sur l’aimant. Ce phénomène physique hors du commun est à l’origine de choses surprenantes comme l’attraction ou la répulsion d’objets, voire dans certains cas leur lévitation. Cependant, les conditions de la découverte du magnétisme restent encore à ce jour inconnues : impossible donc d'y associer une date précise.
De l'Antiquité au XVIIe siècle : la genèse du magnétisme
Gravure d'une boussole (
XIIe siècle).
On attribue à Aristote ce qu'on pourrait appeler la première « discussion scientifique » sur le magnétisme avec Thalès de Milet, qui a vécu entre 625 et 545 av. J.-C. Vers la même époque, dans l'Inde ancienne, le chirurgien indien Sushruta, était le premier à faire usage de la pierre d'aimant à des fins chirurgicales . Mais le premier à qui l'on attribue véritablement la découverte de l’aimantation, c'est le philosophe grec Platon (427 av. J.-C.-347 av. J.-C.).
Il est extrêmement compliqué de situer l'invention de la boussole, mais c'est pourtant le premier objet qui permit aux Hommes d'apprivoiser et d'utiliser le magnétisme pour leur faciliter la vie. Pour les européens, cette invention est située à la fin du XIIe siècle. Alexander Neckam (1157-1217) a écrit « De naturis rerum » dans lequel il mentionne la « boussole qui indique le nord et guide les marins ». Le trouvère Guiot de Provins (1150-1220) a composé un poème dans lequel il mentionne également la boussole. Jacques de Vitry (1170-1240) nous parle lui d’une aiguille qui, touchée par l’aimant, reste pointée vers l’étoile Polaire. On a longtemps attribué l'invention de la boussole à l'italien Flavio Gioia en 1302, mais les historiens ont démontré au XXe siècle que ces faits n'étaient pas véritablement fondés. Une autre hypothèse a alors été avancée : ce serait Ramon Llull (1232-1315) qui aurait pour la première fois découvert le pouvoir d’une aiguille d’acier touchée par l’aimant de se diriger vers le nord qui l'aurait utilisé pour la navigation.
Pour les chinois, cette découverte remonte à une époque plus ancienne. L’ouvrage « Mengxi bitan » écrit en 1088 par le médecin Shen Gua (1031-1095) décrivait déjà une aiguille indiquant le sud lorsqu’elle était frottée par la pierre d’aimant.
Enfin, l’hypothèse selon laquelle les arabes auraient apporté la boussole de Chine en Europe par la navigation a été abandonnée. Le plus probable est en réalité que la boussole ait été inventée indépendamment en Europe et en Chine.
Au XVIe siècle, les premières observations expérimentales sont menées par l’érudit napolitain Giambattista della Porta. Il rend compte dans Magia naturalis (1589), de ses expériences de physique sur l'attraction du fer par la pierre d'aimant, sur les propriétés des deux pôles de l'aimant, sur le fonctionnement d'un aimant cassé. À peu près à la même époque, le savant anglais William Gilbert (1544-1603) travaillait sur le magnétisme d'une manière beaucoup plus systématique. Dans son ouvrage, De magnete, publié en 1600, il fit le bilan de près de vingt ans d'expériences1. Il préfigure, par la mise en pratique de la méthode expérimentale, le savant de type baconien.
Puis au XVIIe siècle, le physicien René Descartes (1596-1650) marque une évolution dans l'histoire du magnétisme. Il fut le premier à établir une théorie physique sur le magnétisme dans son ouvrage « Les principes de la philosophie » (1644).
XIXe siècle : la révolution de l'électromagnétisme
Expérience de Luigi Galvani(1791)
La deuxième moitié du XVIIIe siècle voit naître un intérêt croissant pour les phénomènes électriques ainsi que le début d’une quête visant à découvrir le lien entre l’électricité et le magnétisme.
Cela commence avec le physicien et médecin italien Luigi Galvani. Ce dernier étudie l’influence de l’électricité sur les membres inférieurs de grenouilles. Ses expériences l’amènent à publier ses résultats dans une étude : « De viribus electricitatis in motu musculari. Commentarius » en 1791. Dans cette étude, il formule l’hypothèse d’une « électricité animale » sécrétée par le cerveau et qui se déchargerait en reliant les nerfs et les muscles par du métal.
Mesmer - Mémoire sur la découverte du magnétisme animal
Ces travaux inspirèrent le médecin viennois Franz Mesmer2 qui exploitait le « magnétisme animal » pour prodiguer des soins à ses patients. Devant la popularité de cette méthode pourtant controversée, le roi Louis XVI ordonne, en 1784, à deux commissions composées de médecins et de scientifiques d’évaluer la rigueur scientifique de cette méthode. Ces commissions condamnèrent le magnétisme animal pour cause de moralité publique. C’est donc à cette période que le mot « magnétisme » prend deux sens différents : on distingue désormais le magnétisme animal du magnétisme physique.
En 1820, pour la première fois, le lien entre l’électricité et le magnétisme est mis en évidence par le physicien danois Hans Christian Œrsted au cours d’une expérience. Le physicien place une boussole sous un fil dans lequel il fait passer un courant électrique. Il observe comme résultat que l’aiguille de la boussole se place perpendiculairement à la direction du fil traversé de courant. Une vidéo de vulgarisation réalisée par le CNRS permet de voir et comprendre cette expérience3. Il publie ses résultats le 21 juillet 1820 dans un article « Experimenta circa effectum conflictus electrici in acum magneticam » qui sera traduit et diffusé dans toute l’Europe. La même année, les résultats d’Œrsted arrivent entre les mains des physiciens français François Arago et André-Marie Ampère, qui s’empressent de refaire l’expérience avec succès.
Cette expérience marque le début de la « révolution électromagnétique » : les années qui vont suivre 1820 seront témoins de grands changements tant par la compréhension des phénomènes électromagnétiques que par la mise en application de ces phénomènes par de nouvelles inventions.
Toujours en 1820, les français Jean-Baptiste Biot et Félix Savart parviennent à décrire mathématiquement le champ magnétique généré par une distribution de courants continus. La loi de Biot-Savart constitue le pilier de la magnéto-statique (étude des champs magnétiques indépendants du temps).
En 1821, André-Marie Ampère théorise le magnétisme par l’existence dans les matériaux conducteurs d’innombrables particules minuscules chargées électriquement et en mouvement. La même année, Michael Faraday crée un premier moteur électrique primitif en « inversant » l’expérience d’Œrsted. Il place un aimant permanent dans un bain de mercure et place un fil parcouru par un courant électrique dans ce bain. Le fil se met à tourner de manière circulaire.
En 1825, le physicien anglais William Sturgeon crée le premier électro-aimant pratique. Peu de temps après l’invention du moteur électrique, Michael Faraday découvre en 1831 l’induction électromagnétique, soit l’apparition d’une force électromotrice dans un conducteur électrique soumis à un champ magnétique variable. Ce phénomène constitue actuellement la base de notre technologie et trouve son application dans les transformateurs, les dynamos ou bien encore dans les alternateurs. Faraday décrit également en 1845 le paramagnétisme et le diamagnétisme.
La deuxième partie du XIXe siècle sera marquée par la formulation des équations de Maxwell publiées en mars 1861 dans l’étude « On physical lines of forces ». Dans cette étude, le physicien écossais James Clerk Maxwell4 rassemble les travaux sur le magnétisme et sur l’électricité réalisés par Michael Faraday et André-Marie Ampère en un ensemble de vingt équations qui, plus tard, seront réduites à quatre. Ces équations décrivent le comportement du champ électromagnétique et ses interactions avec la matière.
En 1887, l’inventeur Nikola Tesla invente le premier moteur électrique à induction, utilisant les travaux de Michael Faraday sur le moteur électrique, l’induction électromagnétique et le courant alternatif. En 1890, le physicien et ingénieur écossais James Alfred Ewing étudie les propriétés magnétiques des métaux et découvre le phénomène d’hystérésis.
Quelques années plus tard, le physicien français Pierre Curie étudie à son tour les propriétés magnétiques des matériaux et met en évidence que la susceptibilité magnétique d’un matériau est inversement proportionnelle à sa température. Il en tirera la loi de Curie en 1895.
Enfin, en 1898, l’ingénieur danois Valdemar Poulsen invente l’enregistrement magnétique en créant un dispositif permettant de transformer les variations de champ magnétique d’une bande en un signal électrique.
XXe siècle : des progrès scientifiques et techniques
C'est à la fin du XIXe siècle et au début du XXe que l'étude théorique des matériaux magnétiques est abordée avec succès. Paul Langevin, s'inspirant notamment des travaux de Pierre Curie, utilise la physique statistique de Boltzmann pour établir la théorie statistique classique du paramagnétisme. Il précise également les notions de magnétisme induit et permanent.
Ses théories de l'antiferromagnétisme (1936) et du ferrimagnétisme (1948) vaudront à Louis Néel le prix Nobel de physique en 1970. C'est un an après la publication de la première qu'est découvert le premier antiferromagnétique incontestable, MnO, par Henri Bizette et Belling Tsaï.
L'avènement de la mécanique quantique, et particulièrement la découverte du spin de l'électron en 1925 par George Uhlenbeck et Samuel Goudsmit, eurent une importance fondamentale. En effet, cela permit d'expliquer l'origine des champs moléculaires gigantesques observés dans les substances fortement magnétiques, dont l'existence ne pouvait être démontrée par la seule interaction dipolaire magnétique5 entre moments magnétiques atomiques. Werner Heisenberg montra ainsi en 1929 que ces champs étaient d'origine électrostatique et de nature quantique, et qu'ils pouvaient s'interpréter en termes de couplage entre deux spins voisins.
Le phénomène de résonance magnétique nucléaire (RMN), basé sur le couplage entre le moment magnétique du noyau des atomes et le champ magnétique externe, est découvert par Felix Bloch et Edward Purcell en 1946, ce qui leur vaudra un prix Nobel en 1972. Dès les années 1960, des scientifiques comprennent que la RMN peut avoir des applications dans le domaine de la médecine, et c'est ainsi que la première image obtenue par résonance magnétique (IRM6) est réalisée par l'américain Paul Lauterbur en 1973.
Une autre découverte importante du XXe siècle est celle des supraconducteurs, effectuée par Kamerlingh Onnes en 1911. Les supraconducteurs ouvrent des perspectives immenses car ils permettent d'utiliser une composante du magnétisme jusqu'alors sous-exploitée : la lévitation.En 1986, Johannes Georg Bednorz et Karl Müller, découvrent des supraconducteurs à haute température critique7 (supérieure à 30K), contredisant les théories établies jusqu'alors. Cette famille de matériaux permet de transporter beaucoup plus d'électricité dans des câbles bien plus petits, et laisse donc envisager des progrès considérables dans les domaines des transports ou encore des nouvelles technologies. Des trains à sustentation magnétiques utilisant les supraconducteurs sont actuellement en fonctionnement et promettent une révolution de nos moyens de transport.
Notions de base
Définition des grandeurs fondamentales du magnétisme
Le champ magnétique est une grandeur ayant le caractère d'un champ vectoriel, c'est-à-dire caractérisée par la donnée d'une norme, d’une direction et d’un sens définis en tout point de l'espace, permettant de modéliser et de quantifier les effets magnétiques du courant électrique ou des matériaux magnétiques comme les aimants permanents.
On peut le mettre en évidence à l'aide d'une aiguille aimantée, qui prend alors une direction déterminée. Le champ magnétique, au point de l'espace qu'occupe l'aiguille, est caractérisé par les propriétés suivantes :
- direction : celle de l'aiguille aimantée, qui s'oriente le long des lignes de champ ;
- sens : choisi selon le sens sud-nord de l'aiguille aimantée ;
- norme : le tesla (noté T), unité du Système international.
Il existe deux types de sources externes de champ magnétique :
L’aimantation est une grandeur vectorielle qui caractérise à l'échelle macroscopique le comportement magnétique d'un échantillon de matière. C'est la somme des moments microscopiques orbitaux et des moments magnétiques de spin des électrons et des atomes. Elle se mesure en ampères par mètre (A/m ou A m−1), mais on donne parfois μ 0 M → qui se mesure en teslas, μ 0 étant la perméabilité du vide.
On pose : H → = B → μ 0 − M →
H → est qualitativement le champ magnétique duquel on a retiré la contribution de la matière. Comme M → , il s'exprime en ampères par mètre.
H → et B → sont deux champs vectoriels apparentés dont les dénominations sont mal définies. Les conventions officielles donnent à H → le nom de champ magnétique et à B → celui d' induction magnétique. Dans cet article, nous utiliserons les dénominations d'usage : B → sera appelé champ magnétique et H → excitation magnétique.
La présence du champ magnétique se manifeste par l'apparition d'une force agissant sur les charges électriques en mouvement (dite force de Lorentz) ainsi que par divers effets affectant certains matériaux et qui seront détaillés dans cet article (paramagnétisme, diamagnétisme ou ferromagnétisme selon les cas). La grandeur qui détermine l'interaction entre un matériau et un champ magnétique est la susceptibilité magnétique, définie par le coefficient de proportionnalité, noté χ m , donnant la relation M → = χ m ⋅ H → .
Perméabilité et susceptibilité magnétiques
La présence du matériau modifie le champ magnétique. On pose :
On définit par M → le vecteur aimantation acquise par la matière
On pose aussi :
Cycle d'hystérésis d'un matériau ferromagnétique doux
Hc : Champ coercitif
Br : Champ rémanent
Bsat : Champ saturant
Cycles d'hystéresis
Lorsqu'on a magnétisé un échantillon de matériau jusqu'à la saturation et que l'on fait décroître l'excitation H, on constate que B décroît également, mais en suivant une courbe différente qui se situe au-dessus de la courbe de première aimantation. Ceci est le fait d'un retard à la désaimantation. On dit qu'il y a hystérésis.
Lorsque H est ramené à 0, il subsiste un champ magnétique Br appelé champ rémanent (du latin remanere, rester). Pour annuler ce champ rémanent, il est nécessaire d'inverser le courant dans le solénoïde, c’est-à-dire d'imposer à H une valeur négative. Le champ magnétique s'annule alors pour une valeur de l'excitation Hc appelée champ coercitif.
Description macroscopique du magnétisme dans la matière
Faraday a montré que toute substance est aimantable mais le plus souvent l'effet n'est appréciable que dans un champ magnétique intense ; en plaçant dans un champ magnétique non uniforme des barreaux de substances différentes :
- certains sont attirés vers les régions de champ intense en s'orientant parallèlement aux lignes de champ comme le ferait un barreau de fer doux. Les substances qui sont comparables au fer sont dites ferromagnétiques ;
- d'autres sont repoussées vers les régions où le champ magnétique est faible et s'orientent perpendiculairement aux lignes de champ ; de telles substances sont dites diamagnétiques.
Les substances qui subissent des actions de même nature que le fer mais beaucoup moins intenses sont dites paramagnétiques.
Un solénoïde (enroulement cylindrique) parcouru par un courant d'intensité I crée un champ magnétique noté B → 0 . Si, à l'intérieur de ce solénoïde on place un matériau, on constate une modification du module du vecteur champ magnétique que l'on notera maintenant B → .
Remarque : dans certains ouvrages anciens ou certains livres techniques B → est appelé vecteur induction magnétique
Matériaux sans ordre magnétique à l'état naturel
Diamagnétisme
Le diamagnétisme est un comportement des matériaux qui les conduit, lorsqu'ils sont soumis à un champ magnétique, à générer un autre champ magnétique opposé, créé par une très faible aimantation. Lorsque le champ n’est plus appliqué, l’aimantation disparaît. Le diamagnétisme est un phénomène qui apparaît dans toute la matière atomique, mais il est masqué par les effets du paramagnétisme ou du ferromagnétisme lorsque ceux-ci coexistent avec lui dans le matériau.
Description classique du diamagnétisme
Quand on applique un champ magnétique, le flux magnétique passant à travers la surface décrite par la trajectoire fermée de l'électron est modifié. L'électron réagit selon le phénomène classique d'induction, ce qui induit un moment magnétique opposé et proportionnel au champ appliqué. C'est l'origine du diamagnétisme qui est un phénomène présent dans tous les matériaux mais qui peut être masqué par les autres phénomènes (en particulier paramagnétiques) dont l'effet est plus important.
Limite de la description classique
Cette description a ses limites. En effet, on a dû supposer que le rayon de l'orbite de l'électron était constant ; autrement le calcul donnerait une réponse magnétique nulle.
Ainsi, il n'est pas possible d'ignorer l'aspect quantique de ce phénomène : en 1919, dans sa thèse de doctorat, J. H. van Leeuwen prouva qu'il était impossible d'expliquer le magnétisme uniquement à l'aide de l'électrodynamique de Maxwell et de la mécanique statistique classique. C'est l'essence du théorème de Bohr-van Leeuwen.
Description quantique du diamagnétisme
- Dans les isolants : si la vision classique du diamagnétisme avec la loi de Lenz est erronée, l'approche quantique à partir de l'écriture de l'hamiltonien en présence d'un champ magnétique justifie cette interprétation de la modification des orbites électroniques.
- Dans les métaux : en plus du diamagnétisme atomique précédent des électrons de cœur, on peut observer une autre contribution des électrons de conduction. Celle-ci est due à la présence de niveaux de Landau discrets (à la place de la structure de bandes continue) dès que le champ appliqué est non nul. C'est le diamagnétisme de Landau.
Remarque : on emploie le terme de diamagnétisme parfait pour désigner le comportement des supraconducteurs qui créent en leur sein des courants induits surfaciques qui s'opposent à toute variation de champ magnétique et maintiennent un champ magnétique interne nul pour les supraconducteurs de type I. Cette propriété est utilisée pour produire la lévitation magnétique avec des supraconducteurs (de type II).
Paramagnétisme
Le paramagnétisme désigne en magnétisme le comportement d'un milieu matériel qui ne possède pas d'aimantation spontanée mais qui, sous l'effet d'un champ magnétique extérieur, acquiert une aimantation dirigée dans le même sens que ce champ d'excitation. Un matériau paramagnétique possède donc une susceptibilité magnétique de valeur positive (contrairement aux matériaux diamagnétiques), en général assez faible. Cette aimantation disparaît lorsque le champ d'excitation est coupé, il n'y a donc pas de phénomène d'hystérésis comme pour le ferromagnétisme.
Le paramagnétisme ne désigne pas une propriété intrinsèque d'un matériau mais un comportement en réponse à un champ magnétique, comportement qui peut changer selon les conditions considérées. Ainsi, un matériau ferromagnétique devient paramagnétique quand sa température dépasse sa température de Curie.
À l'échelle microscopique, on peut décrire un matériau paramagnétique comme un ensemble de dipôles magnétiques indépendants. La réponse du système à un champ magnétique appliqué est alors déterminée par le rapport de forces entre l'énergie magnétique d'une part qui tend à ordonner les dipôles en les alignant selon le champ appliqué, et l'énergie d'agitation thermique d'autre part qui favorise le désordre. Le traitement de ce problème par la physique statistique permet de démontrer la loi de Curie qui affirme que la susceptibilité magnétique d'un matériau paramagnétique est inversement proportionnelle à la température.
Description classique du paramagnétisme
Lorsque les atomes possèdent leur propre moment magnétique permanent, le diamagnétisme (toujours présent) est masqué par le paramagnétisme. Sous l'effet d'un champ magnétique extérieur, ces atomes, petits aimants permanents, s'orientent selon le champ appliqué et l'amplifient. Ce phénomène est limité par l'agitation thermique et dépend fortement de la température : (loi de Curie : M = C ⋅ B T )
Limite de la description classique
On a supposé que les moments magnétiques avaient une norme constante μ alors que la mécanique classique autorise tous les moments, car encore une fois on aurait trouvé une réponse magnétique inexistante. Le raisonnement précédent est donc semi-classique, et doit être complété par un raisonnement quantique.
Description quantique du paramagnétisme
- Dans les isolants : il faut modifier l'approche classique en se rappelant que les valeurs possibles de la projection du moment cinétique sont discrètes. Au lieu de calculer une intégrale donnant le paramagnétisme de Langevin, on doit calculer une somme discrète donnant le paramagnétisme de Brillouin. Ces deux approches tendent vers le même résultat dans la limite classique où le moment cinétique J tend vers + ∞ .
- Dans les métaux : il existe une contribution supplémentaire due aux électrons de conduction, mais nettement plus faible que le paramagnétisme des isolants car elle ne concerne que les électrons près du niveau de Fermi. L'application d'un champ magnétique va énergétiquement favoriser les électrons de spin parallèle (énergie Zeeman), et le système aura alors plus d'électrons de conduction de spin parallèle qu'anti-parallèle. Ainsi, on observe une réponse paramagnétique, c'est le paramagnétisme de Pauli. Pour des électrons presque libres, on montre que la réponse paramagnétique de Pauli est en valeur absolue trois fois plus grande que la contribution de Landau. Donc le diamagnétisme est caché par l'effet paramagnétique.
Aimants naturels et permanents : ferromagnétisme
Ferromagnétisme
Paramagnétisme, ferromagnétisme et ondes de spin
Les matériaux ferromagnétiques sont des corps qui ont la capacité de s'aimanter sous l'effet d'un champ magnétique extérieur et de garder cette aimantation. Ils se distinguent des paramagnétiques qui ne conservent pas leur aimantation à champ nul. Il en existe deux sous catégories, à savoir les ferromagnétiques durs (qui sont utilisés pour fabriquer des aimants permanents) et les ferromagnétiques doux. Ces matériaux sont communément utilisés dans le monde de l'industrie, ainsi que dans la vie quotidienne. L'usage le plus commun est le « magnet » qui est un aimant permanent (un ferromagnétique dur) que l'on collectionne sur son réfrigérateur. L'aimantation rémanente est due à un ordre à l'échelle microscopique (défini par l'interaction d'échange d'Heisenberg) et par un ordre à l'échelle du matériau (paroi de Bloch, domaine de Weiss).
En effet, lorsqu'un matériau est ferromagnétique ou ferrimagnétique, il est divisé en domaines, appelés domaines de Weiss, à l'intérieur desquels l'orientation magnétique est identique. Chaque domaine se comporte alors comme un aimant. Ces domaines sont séparés par des parois dites parois de Bloch.
- Ces domaines n'existent pas lorsque les dimensions du matériau sont très faibles (quelques nm). Ces matériaux sont dits nanocristallins.
- Le déplacement de ces parois est responsable des phénomènes d'hystérésis.
Les anisotropies magnétiques expliquent les axes d'aimantation faciles.
Corps ferromagnétiques
Pour l'usage industriel, le fer, le cobalt et le nickel sont les matériaux ferromagnétiques les plus utilisés. De plus, certaines terres rares (les Lanthanides dans la classification périodique) sont également ferromagnétiques à basse température et utilisées dans l'industrie.
En ce qui concerne les alliages, la situation est très complexe : certains alliages de fer et de nickel ne sont pas ferromagnétiques (ex: acier inoxydable austénitique), alors qu'un alliage de Heusler, constitué uniquement de métaux non ferromagnétiques (par exemple 61 % Cu, 24 % Mn, 15 % Al), est ferromagnétique.
Enfin, il faut ajouter les ferrites, dont la composition est de la forme (MO ; Fe2O3) où M est un métal divalent et dont le représentant le plus ancien est la magnétite Fe3O4 (FeO ; Fe2O3).
Courbe de première aimantation
Partons d’une aimantation nulle à champ nul. En augmentant faiblement le champ extérieur, des moments magnétiques dans certains domaines vont se retourner. Si un domaine est déjà aligné dans le sens du champ appliqué, les domaines voisins vont petit-à-petit s’aligner. Cela revient à dire que l’on a déplacé la paroi de Bloch. Ce mécanisme est réversible pour de faible champ. Il devient irréversible pour des champs extérieurs moyens. Enfin, pour de fortes excitations magnétiques, se produit une rotation des aimantations des domaines dans la direction du champ extérieur. Macroscopiquement, Msat est atteinte.
Conséquences de l'hystérésis pour des matériaux ferromagnétiques
L'aimantation de la matière absorbe de l'énergie qui n'est que partiellement restituée au cours de la désaimantation. Cette énergie est dissipée sous forme calorifique : le matériau s'échauffe. On démontre que les pertes par hystérésis sont proportionnelles à l'aire du cycle d'hystérésis.
Dans le cas où une substance ferromagnétique doit décrire un grand nombre de cycles d'hystérésis (machines tournantes, transformateurs…), il faut choisir des matériaux tels que l'aire du cycle soit aussi petite que possible. Ces matériaux sont dits magnétiquement « doux. »
À l'opposé, c'est grâce à une hystérésis importante que l'on peut réaliser des aimants permanents. On utilise pour leur fabrication des matériaux magnétiquement durs : certains aciers à l'aluminium, au nickel ou au cobalt conviennent parfaitement. On réalise aussi des aimants avec de la poudre de fer agglomérée dans un isolant.
Matériaux magnétiques doux
Les matériaux ferromagnétiques doux forment un sous-groupe des matériaux ferromagnétiques, ce qui signifie qu’ils sont capables de s'aimanter lorsqu'ils sont soumis à un champ magnétique extérieur. La particularité des matériaux ferromagnétiques doux est que l'action de créer ou d’annuler l’aimantation dans le matériau nécessite moins d'énergie que pour les matériaux ferromagnétiques durs. Les ferromagnétiques doux sont utilisés dans les transformateurs, les électro-aimants ou dans toute application dans laquelle le matériau travaille à haute fréquence. Ils possèdent un champ coercitif très faible avec une très forte susceptibilité. C'est cette forte susceptibilité qui permet d'obtenir une forte induction à partir d'un faible champ extérieur et ainsi être utile dans les électro-aimants ou à la canalisation des lignes de champs. Un faible champ coercitif et une forte susceptibilité entrainent l'étroitesse du cycle d'hystérésis. L'aire de ce cycle représente l'énergie dissipée sous forme de chaleur lors d'un parcours complet du cycle, appelée « pertes magnétiques ».
Les matériaux magnétiques doux sont utilisés pour réaliser des électroaimants (leur aimantation doit pouvoir facilement être annulée) ou des circuits magnétiques fonctionnant en régime alternatif (machines électriques, transformateurs).
Matériaux magnétiques durs
Les matériaux ferromagnétiques durs forment un sous groupe des matériaux ferromagnétiques. Ils possèdent une aimantation naturelle présente en absence de champ magnétique extérieur, ainsi qu'un champ coercitif et une rémanence élevés. Comme pour les autres matériaux ferromagnétiques, les ferromagnétiques durs ont la particularité de s’aimanter fortement en présence d’un champ magnétique extérieur. On distingue les ferromagnétiques durs des ferromagnétiques doux par leurs propriétés magnétiques, telles que la forme de leur cycle d’hystérésis. Le cycle d'hystérésis des ferromagnétiques doux est fin et allongé vers le haut, alors que celui des ferromagnétiques durs est aplati et allongé sur l'axe des abscisses. Les matériaux ferromagnétiques durs sont à la base des aimants permanents, et notamment des aimants à forte puissance.
Contrairement aux précédents, les cycles sont extrêmement larges : plusieurs centaines de kA m−1. Il est impossible de les dessiner dans un même repère que les précédents.
Certains de ces matériaux à base de terres rares (alliages samarium-cobalt ou néodyme-fer-bore) ne se désaimantent pas, même lorsqu'on annule le champ magnétique interne (l'excitation vaut alors HcB). Pour annuler (en fait inverser) l'aimantation, il est nécessaire de fournir une excitation magnétique que l'on appelle HcM : excitation de désaimantation irréversible.
L'application de ces matériaux est la réalisation d'aimants permanents de très forte puissance. Les ferrofluides sont des suspensions de particules aimantées de taille nanométrique dans un liquide. Ces liquides réagissent à un champ magnétique extérieur (par exemple, leur surface se hérisse de pointes).
Origine microscopique du ferromagnétisme
Pour obtenir un matériau avec un champ coercitif important, il faut limiter la nucléation et/ou la propagation des parois, à l’origine du renversement de l’aimantation. Plus l'aimantation se renverse facilement, plus le champ coercitif du matériau est faible, et plus il existe de domaines magnétiques. Les défauts structuraux agissent comme sites de nucléation. Afin d’éviter ce phénomène, le matériau peut être divisé en plusieurs parties isolées magnétiquement. De ce fait, le renversement de l’aimantation provoqué par un défaut reste localisé, et ne provoque pas d'effet de cascade de renversement dans le matériau. La technique la plus utilisée pour obtenir une telle microstructure est la métallurgie des poudres.
Domaines de Weiss
Lorsqu'un matériau est ferromagnétique ou ferrimagnétique, il est divisé en domaines, appelés domaines de Weiss, à l'intérieur duquel l'orientation magnétique est identique. Ce domaine se comporte alors comme un aimant. Ces domaines sont séparés par des parois dites parois de Bloch.
- Ces domaines n'existent pas lorsque les dimensions du matériau sont très faibles (quelques nm). Ces matériaux sont dits nanocristallins.
- Le déplacement de ces parois est responsable des phénomènes d'hystérésis.
Classification des effets magnétiques
Ci-dessous un récapitulatif des principales familles de matériaux magnétiques évoquées dans cet article, classées selon leur susceptibilité magnétique χ :
Type de magnétisme | Valeur de χ | Signe de χ | Moment magnétique des atomes | Variation de χ en fonction de la température8 | Exemples |
Diamagnétisme |
Extrêmement faible, de l'ordre de 10- 5 |
Négatif |
Aucun |
χ = constante |
Argent, or, cuivre, mercure, plomb, presque tous les composés organiques |
Paramagnétisme |
Très faible, de l'ordre de 10- 3 |
Positif |
Orientés au hasard |
χ suit la loi de Curie : χ = C T |
Platine, manganèse, aluminium et certains composés d'éléments ferromagnétiques par exemple l'alliage 68 % fer 32 % nickel |
Ferromagnétisme |
Très grande, il peut atteindre 10 5 |
Positif |
Alignés et parallèles
|
En électrotechnique, seuls les matériaux ferromagnétiques et ferrimagnétiques sont importants car ce sont les seuls à produire des augmentations du champ magnétique qui sont significatives (voir la partie sur les applications ci-dessous).
Applications
On dénombre de nombreuses applications du magnétisme dans la vie de tous les jours et dans le monde de l'industrie, deux d'entre elles sont présentées dans cette partie.
Stockage de l'information
L’intérêt d’utiliser le magnétisme comme support de l’information s’est posé lorsque l’on cherchait à minimiser l’énergie nécessaire au stockage. En effet, le principe repose sur les propriétés ferromagnétiques qui permettent de garder en mémoire l’orientation d’un champ externe appliqué. Ce sont sur des petits objets magnétiques que sont inscrites les données sauvegardées sur un disque dur par exemple. Ce type de stockage d'information ne nécessite pas un courant électrique et permet donc de conserver l'information dans les disques durs sans nécessiter de batterie ou de pile.
La technologie actuellement permet de stocker de plus en plus de données sur un espace réduit grâce à la miniaturisation de ces objets et à la précision de plus en plus élevée des moyens de lecture de ces informations.
Capteur de courant à effet Hall
Comme nous l’avons vu précédemment, lorsqu’un courant passe dans un conducteur, cela provoque la création d’un champ magnétique autour de ce conducteur. Cette propriété est utilisée pour mesurer des courants, avec les capteurs à effet Hall.
Le principe de l’effet Hall est simple, le courant que l’on veut mesurer va générer un champ magnétique autour du fil, et c’est ce champ magnétique que l’on va pouvoir quantifier avec le capteur, et remonter ensuite à la valeur du courant qui parcourt le fil.
Pour des composants électroniques, les capteurs à effet Hall sont relativement peu coûteux. On peut les retrouver dans les smartphones ou les ordinateurs portables. Ce sont eux qui permettent de mettre en veille votre appareil quand l'écran d'un ordinateur portable est replié.
Notes et références
- Margaret Llasera, Représentations scientifiques et images poétiques en Angleterre au XVIIe siècle : à la recherche de l'invisible, ENS éditions, (lire en ligne [archive]).
- « Biographie de Mesmer » [archive], sur medarus.org, (consulté le ).
- [vidéo] Expérience d'Œrsted [archive] Sur le site ampere.cnrs.fr
- « Œuvre de Maxwell » [archive], sur CNRS, (consulté le ).
- « Description de l'interaction d'échange » [archive], sur www.g2elab.grenoble-inp.fr (consulté le )
- « Histoire de l'Imagerie par Résonance Magnétique » [archive], sur www.rim-radiologie.fr, (consulté le )
- « Supraconducteurs à haute température critique » [archive], sur www.toulouse.lncmi.cnrs.fr (consulté le )
- Aurélien Roudier , Formulaire de physique Synthèse de cours et d’applications, Casteilla, 2012
Bibliographie
- (en) Chris Rees, Magnets and Magnetism: A Brief History, Polaris Magnets, 8 janvier 2015.
- (en) Nancy Forbes, Faraday, Maxwell, and the Electromagnetic Field: How Two Men Revolutionized Physics, Prometheus Books, 11 mars 2014.
- (en) Gerrit L. Verschuur, Hidden Attraction: The History and Mystery of Magnetism, New Ed, 3 octobre 1996.
- (en) Paul Fleury Mottelay, Bibliographical History of Electricity and Magnetism, General Books, 13 janvier 2010.
- Étienne Du Tremolet De Lacheisserie, Magnétisme I, EDP Sciences, 2001.
- Jean Daujat, Origines et formation de la théorie des phénomènes électriques et magnétiques, Hermann, 1945, 530 p.
- Charles Kittel (trad. Nathalie Bardou, Évelyne Kolb), Physique de l’état solide [« Solid state physics »], [détail des éditions]
- Laurent Patrick Lévy, Magnétisme et Supraconductivité, EDP Sciences
- Lev Landau et Evgueni Lifchits, Physique théorique, t. 8 : Électrodynamique des milieux continus [détail des éditions]
- Neil W. Ashcroft et N. David Mermin, Physique des solides [détail des éditions]
- Jean-Paul Poirier et Jean-Louis Le Mouël, de l'Institut de physique du globe de Paris , Une brève histoire du magnétisme, Belin, 176 p., 2013 (ISBN 978-2-7011-7532-4)
Voir aussi
Articles connexes
Liens externes
Sur les autres projets Wikimedia :
-
Atome
Un atome (grec ancien ἄτομος [átomos], « insécable »)1 est la plus petite partie d'un corps simple pouvant se combiner chimiquement avec un autre. Les atomes sont les constituants élémentaires de toutes les substances solides, liquides ou gazeuses. Les propriétés physiques et chimiques de ces substances sont déterminées par les atomes qui les constituent ainsi que par l'arrangement tridimensionnel de ces atomes.
Contrairement à ce que leur étymologie suggère, les atomes ne sont pas indivisibles, mais sont constitués de particules subatomiques2. Ils comprennent un noyau, qui concentre plus de 99,9 % de leur masse, autour duquel se distribuent des électrons, qui forment un nuage 10 000 à 100 000 fois plus étendu que le noyau lui-même3,4, de sorte que le volume d'un atome, grossièrement sphérique, est presque entièrement vide. Le noyau est formé de protons, porteurs d'une charge électrique positive, et de neutrons, électriquement neutres ; l'hydrogène fait exception, car le noyau de son isotope 1H ne contient aucun neutron. Les protons et neutrons, également appelés nucléons, sont maintenus ensemble dans le noyau par la liaison nucléaire, qui est une manifestation de l'interaction forte. Les électrons occupent des orbitales atomiques en interaction avec le noyau via la force électromagnétique. Le nuage électronique est stratifié en niveaux d'énergie quantifiés autour du noyau, niveaux qui définissent des couches et des sous-couches électroniques ; les nucléons se distribuent également selon des couches nucléaires, bien qu'un modèle approché assez commode popularise la structure nucléaire d'après le modèle de la goutte liquide.
Plusieurs atomes peuvent établir des liaisons chimiques entre eux grâce à leurs électrons. D'une manière générale, les propriétés chimiques des atomes sont déterminées par leur configuration électronique, laquelle découle du nombre de protons de leur noyau. Ce nombre, appelé numéro atomique, définit un élément chimique. 118 éléments chimiques sont reconnus par l'Union internationale de chimie pure et appliquée (IUPAC) depuis le . Les atomes d'éléments différents ont des tailles différentes, ainsi généralement que des masses différentes, bien que les atomes d'un élément chimique donné puissent avoir des masses différentes selon les isotopes considérés. Les atomes les plus lourds, ou dont le noyau présente un déséquilibre trop important entre les deux types de nucléons, tendent à devenir plus instables, et sont alors radioactifs ; le plomb 208 est l'isotope stable le plus lourd.
La théorie atomiste, qui soutient l'idée d'une matière composée de « grains » indivisibles (contre l'idée d'une matière indéfiniment sécable), est connue depuis l'Antiquité, et a été notamment défendue par Leucippe et son disciple Démocrite, philosophes de la Grèce antique, ainsi qu'en Inde, plus antérieurement, par l'une des six écoles de philosophie hindoue, le vaisheshika, fondé par Kanada. Elle fut disputée jusqu'à la fin du XIXe siècle et n'a plus été remise en cause depuis lors. L'observation directe d'atomes n'est devenue possible qu'au milieu du XXe siècle avec la microscopie électronique en transmission et l'invention du microscope à effet tunnel. C'est ainsi sur les propriétés des atomes que reposent toutes les sciences des matériaux modernes, tandis que l'élucidation de la nature et de la structure des atomes a contribué de manière décisive au développement de la physique moderne, et notamment de la mécanique quantique.
Structure
Ordres de grandeur
Le diamètre estimé d'un atome « libre » (hors liaison covalente ou cristalline) est compris entre 62 pm (6,2 × 10−11 m) pour l'hélium et 596 pm (5,96 × 10−10 m) pour le césium5, tandis que celui d'un noyau atomique est compris entre 2,4 fm (2,4 × 10−15 m) pour l'isotope 1H et 14,8 fm (1,48 × 10−14 m) environ pour le nucléide 238U6 : le noyau d'un atome d'hydrogène est donc environ 40 000 fois plus petit que l'atome d'hydrogène lui-même.
Le noyau concentre cependant l'essentiel de la masse de l'atomea : le noyau du lithium 7, par exemple, est environ 4 300 fois plus massif que les trois électrons qui l'entourent, l'atome de 7Li ayant une masse de l'ordre de 1,172 × 10−26 kg. Pour fixer les idées, la masse des atomes est comprise entre 1,674 × 10−27 kg pour le protium et 3,953 × 10−25 kg pour l'uranium 238, en s'en tenant aux isotopes qui ont une abondance significative dans le milieu naturel — il existe des noyaux plus lourds mais aussi bien plus instables que le nucléide 238U.
Cette masse est généralement exprimée en unités de masse atomique (« uma », ou « u »), définie comme la douzième partie de la masse d'un atome de 12C non lié, immobile et à son état fondamental, soit 1 uma = 1,660 54 × 10−27 kg ; dans cette unité, la masse du nucléide 238U vaut 238,050 782 6 uma. Une unité alternative également très employée en physique des particules est l'électron-volt divisé par le carré de la vitesse de la lumière (eV/c2), qui est homogène à une masse en vertu de la fameuse équation E = mc2 de la relativité restreinte, et qui vaut 1 eV/c2 = 1,783 × 10−36 kg ; dans cette unité, la masse du noyau 238U est égale à 221,7 GeV/c2.
Compte tenu de leur taille et de leur masse singulièrement réduites, les atomes sont toujours en très grand nombre dès qu'on manipule une quantité de matière macroscopique. On définit ainsi la mole comme étant la quantité de matière constituée par autant d'unités élémentaires (atomes, molécules, électrons, etc.) qu'il y a d'atomes dans 12 g de carbone 12, soit pas moins de 6,022 × 1023 unités élémentaires, ce qu'on appelle le nombre d'Avogadro.
Particules subatomiques
Bien que son étymologie signifie « indivisible » en grec ancien, un atome est en réalité constitué de particules élémentaires plus petites, et peut donc être divisé ; mais il constitue bien la plus petite unité indivisible d'un élément chimique en tant que tel : en brisant, par exemple, un atome d'hélium, on obtiendra des électrons, des protons et des neutrons, mais on n'aura plus un corps simple ayant les propriétés de l'hélium.
- L'électron e− est une particule très peu massive (9,109 4 × 10−31 kg, soit 511,00 keV/c2) et pourvue d'une charge électrique négative de −1,602 × 10−19 C.
- Le proton p+ est 1 836 fois plus massif que l'électron (1,672 6 × 10−27 kg, soit 938,27 MeV/c2) et porte une charge électrique positive de même valeur absolue que celle de l'électron, soit 1,602 × 10−19 C.
- Le neutron n0 est 1 838,5 fois plus massif que l'électron (1,674 9 × 10−27 kg, soit 939,57 MeV/c2), et électriquement neutre.
Le modèle standard de la physique des particules décrit les nucléons comme des baryons composés de particules élémentaires appelées quarks :
Les électrons, quant à eux, sont des leptons qui constituent, avec les quarks, le groupe des fermions. La grande différence entre quarks et leptons est que seuls les premiers connaissent toutes les interactions élémentaires, y compris l'interaction nucléaire forte, dont les médiateurs sont des bosons de jauge appelés gluons ; les leptons ne connaissent que l'interaction faible (via les bosons Z0 et W+) et l'interaction électromagnétique (via les photons).
Toutes ces particules connaissent a priori également l'interaction gravitationnelle, mais cette dernière n'a pas pu être intégrée au modèle standard de la physique des particules ; son intensité à l'échelle atomique est, quoi qu'il en soit, insignifiante comparée à l'intensité des trois autres interactions.
Nuage électronique
Représentation schématique d'un puits de potentiel. L'énergie
V(
x ) requise pour occuper chaque
abscisse x confine à l'intervalle [
x1,
x2 ] toute particule pourvue de l'énergie
E en
ordonnée.
L'essentiel des propriétés physiques et chimiques des atomes est dû à leur nuage électronique. C'est la compréhension de la nature et de la structure de ce nuage électronique qui a ouvert la voie à la compréhension de la structure de l'atome et, in fine, a conduit au développement de la physique des particules.
Le noyau atomique étant chargé positivement, il forme un puits de potentiel pour les électrons, qui sont chargés négativement. Ce puits de potentiel est constitué de niveaux d'énergie définis par des nombres quantiques dont la combinaison détermine des orbitales atomiques conférant aux fonctions d'onde correspondantes des dimensions et des formes caractéristiques.
Introduction au modèle de Schrödinger
L'électron manifeste, comme tout objet quantique, une dualité onde-corpuscule, en vertu de laquelle il se comporte tantôt comme une particule géométriquement délimitée occupant une position déterminée, tantôt comme une onde susceptible de présenter, par exemple, des phénomènes d'interférences. Ces deux aspects de l'électron coexistent dans l'atome, bien que le modèle de Schrödinger soit exclusivement ondulatoire7 :
- un électron n'est jamais localisé à un endroit précis d'une trajectoire définie autour du noyau, mais distribué au sein d'une orbitale atomique avec une probabilité de présence égale au carré de la norme de sa fonction d'onde, laquelle est corrélée à son état quantique, ainsi qu'avec une phase d'électron : c'est l'aspect ondulatoire ;
- cette distribution n'est pas statique, mais dynamique, en ce que l'électron est pourvu, au sein de son orbitale atomique stationnaire, d'une quantité de mouvement et d'un moment angulaire orbital : c'est l'aspect corpusculaire.
Par conséquent, un électron ne peut pas « tomber sur le noyau » comme un objet tombe par terre, car cela signifierait que l'extension spatiale de sa fonction d'onde serait réduite à un point, ce qui n'est le cas d'aucune fonction propre de l'équation de Schrödinger : cette dernière impose, au contraire, qu'un électron, au voisinage du noyau, se « dilue » dans un volume (une orbitale) à la géométrie déterminée par les nombres quantiques qui satisfont cette équation. On peut donc considérer qu'un électron dans un atome est déjà tombé sur le noyau, dans la mesure où il est confiné dans son voisinage par le puits de potentiel électrostatique.
De surcroît, la fonction d'onde d'un électron n'est pas nulle à l'intérieur du noyau, bien que sa probabilité de s'y trouver soit faible, car le noyau est de taille très réduite comparée à celle des orbitales atomiques. Les fonctions d'ondes possibles pour les électrons d'un atome étant centrées sur le noyau, on peut donc dire que l'électron est en fait tombé dans le noyau, bien qu'il ne s'y trouve que très rarement : du point de vue quantique, plusieurs particules peuvent en effet occuper le même espace en vertu de leur nature ondulatoire. Une façon imagée — mais approchée — de voir les choses est d'imaginer, par analogie, que la fonction d'onde de l'électron serait comme « diffractée » par le noyau atomique, ce qui lui donnerait différentes formes, selon son état quantique, par lesquelles la probabilité de présence de l'électron atteindrait son maximum en certaines zones plus ou moins éloignées du noyau — typiquement, plusieurs dizaines de milliers de fois le rayon nucléaire8.
Principe d'exclusion de Pauli
Chaque électron est décrit, dans un atome, par un quadruplet de nombres quantiques (n, ℓ, mℓ, ms) satisfaisant l'équation de Schrödinger et appelés respectivement :
Le principe d'exclusion de Pauli stipule que deux fermions appartenant au même système de fermions (ici, au même atome) ne peuvent avoir tous leurs nombres quantiques égaux en même temps. Ce principe est fondamental car il est à l'origine de la configuration électronique des atomes : les électrons qui « s'empilent » dans l'atome doivent avoir chacun un état quantique distinct des autres, ce qui explique que toutes les orbitales atomiques sont progressivement occupées de la plus liée à la moins liée au noyau au fur et à mesure qu'on ajoute des électrons à l'atome ; c'est le principe d'Aufbau (« édification » en allemand) matérialisé par la règle de Klechkowski (appelée aussi règle de Madelung), qui sous-tend l'agencement du tableau périodique des éléments chimiques en blocs et en périodes :
-
Orbitales moléculaires
Sa structure électronique confère à l'atome ses propriétés chimiques et magnétiques. Ainsi, les éléments chimiques sont communément classés dans un tableau périodique organisé en fonction de leurs propriétés chimiques et dont l'agencement est en réalité déterminé par la distribution des électrons sur les niveaux d'énergie des atomes.
Le recouvrement de deux orbitales atomiques appartenant chacune à un atome distinct peut conduire à la formation d'une orbitale moléculaire constituant une liaison chimique entre deux atomes ; si les orbitales atomiques en recouvrement appartiennent au même atome, on dit qu'il y a hybridation.
Une orbitale moléculaire est dite liante lorsque les phases d'électron des orbitales atomiques sont de même signe (interférence constructive) ; elle est dite antiliante lorsque les orbitales atomiques ont des phases de signe opposé (interférence destructive).
Noyau atomique
Protons et neutrons forment un noyau atomique de dimension femtométrique. Le rayon nucléaire d'un atome dont le nombre de masse est A vaut environ 1 , 2 A 3 fm, alors que l'atome lui-même a un rayon de l'ordre de la centaine de picomètres (environ 35 000 à 40 000 fois plus grand). Les protons étant chargés positivement, ils se repoussent au sein du noyau, mais l'intensité de cette répulsion électrostatique est très inférieure à celle de l'attraction entre nucléons induite par l'interaction nucléaire forte à des distances inférieures à 2,5 fm.
La géométrie des noyaux atomiques est généralement sphérique, bien que certains noyaux stables suffisamment massifs adoptent également des formes sphéroïdes étirées en ballon de rugby ou, au contraire, aplaties. Certains noyaux instables, dits noyaux à halo, sont caractérisés par un ou plusieurs nucléons aux fonctions d'ondes très distendues, qui donnent au noyau des contours flous et un volume apparent très augmenté ; ces noyaux ont une cohésion nucléaire à la limite extrême du champ d'action de l'interaction forte.
Dans le modèle de la goutte liquide, les protons tendent à se repousser les uns les autres et, par conséquent, à se concentrer vers l'extérieur des noyaux (aux « pôles » ou à l'« équateur » dans le cas de sphéroïdes), tandis que les neutrons tendent à s'accumuler au centre du noyau. Des dizaines de modèles ont été proposés afin d'expliquer les données expérimentales sur la nature et la structure des noyaux atomiques, mais aucun, à ce jour, ne suffit seul à rendre compte de l'ensemble des observations9.
Le volume nucléaire, estimé expérimentalement par des techniques de diffraction de faisceaux d'électrons, correspond à peu près à l'empilement de sphères dures représentant les nucléons, avec une densité nucléaire constante, ce qui se conceptualise très bien avec le modèle de la goutte liquide. Néanmoins, certaines propriétés quantiques de la structure nucléaire semblent mieux décrites par le modèle en couches, élaboré par les physiciens allemands Maria Goeppert-Mayer et Hans Daniel Jensen, qui ont obtenu le prix Nobel de physique en 1963 pour cette avancée. Leur modèle considère les nucléons comme des fermions soumis au principe d'exclusion de Pauli et répartis sur des niveaux d'énergie quantifiés — les « couches nucléaires » — de façon similaire aux électrons à l'échelle de l'atome. Dans le noyau, protons et neutrons constituent deux populations de fermions distinctes vis-à-vis du principe d'exclusion de Pauli.
L'analogie avec les électrons a cependant ses limites, car, si les électrons interagissent entre eux et avec le noyau via l'interaction électromagnétique, les nucléons interagissent entre eux essentiellement via l'interaction nucléaire forte et l'interaction faible. Les niveaux d'énergie au sein du noyau ont ainsi une distribution différente de celle des niveaux d'énergie des électrons d'un atome. De plus, les phénomènes de couplage spin-orbite sont bien plus sensibles pour les nucléons que pour les électrons, ce qui redistribue les sous-couches nucléaires en fonction du spin (indiqué en indice dans le tableau ci-dessous)10 :
-
|
Sous-couche 1s 1/2 |
2 états |
→ 1re couche : nombre magique = 2 |
|
Sous-couche 1p 3/2 |
4 états |
|
Sous-couche 1p 1/2 |
2 états |
→ 2e couche : nombre magique = 8 |
|
Sous-couche 1d 5/2 |
6 états |
|
Sous-couche 2s 1/2 |
2 états |
|
Sous-couche 1d 3/2 |
4 états |
→ 3e couche : nombre magique = 20 |
|
Sous-couche 1f 7/2 |
8 états |
→ 4e couche : nombre magique = 28 |
|
Sous-couche 2p 3/2 |
4 états |
|
Sous-couche 1f 5/2 |
6 états |
|
Sous-couche 2p 1/2 |
2 états |
|
Sous-couche 1g 9/2 |
10 états |
→ 5e couche : nombre magique = 50 |
|
Sous-couche 1g 7/2 |
8 états |
|
Sous-couche 2d 5/2 |
6 états |
|
Sous-couche 2d 3/2 |
4 états |
|
Sous-couche 3s 1/2 |
2 états |
|
Sous-couche 1h 11/2 |
12 états |
→ 6e couche : nombre magique = 82 |
|
Sous-couche 1h 9/2 |
10 états |
|
Sous-couche 2f 7/2 |
8 états |
|
Sous-couche 2f 5/2 |
6 états |
|
Sous-couche 3p 3/2 |
4 états |
|
Sous-couche 3p 1/2 |
2 états |
|
Sous-couche 1i 13/2 |
14 états |
→ 7e couche : nombre magique = 126 |
|
Sous-couche 2g 9/2 |
10 états |
|
Sous-couche 3d 5/2 |
6 états |
|
Sous-couche 1i 11/2 |
12 états |
|
Sous-couche 2g 7/2 |
8 états |
|
Sous-couche 4s 1/2 |
2 états |
|
Sous-couche 3d 3/2 |
4 états |
|
Sous-couche 1j 15/2 |
16 états |
→ 8e couche : nombre magique = 184 |
|
La saturation d'une couche nucléaire confère au noyau atomique une stabilité supérieure à celle calculée par la formule de Weizsäcker, issue du modèle de la goutte liquide — ce qui n'est pas sans rappeler l'inertie chimique des gaz rares, caractérisés par la saturation de leur sous-couche électronique p périphérique. Le nombre de nucléons d'une population donnée correspondant à la saturation d'une couche nucléaire est appelé « nombre magique » ; le noyau du plomb 208, qui est le plus lourd des isotopes stables, est ainsi constitué de 82 protons et 126 neutrons : 82 et 126 sont deux nombres magiques, ce qui explique la stabilité de ce nucléide par rapport à ceux qui n'en diffèrent que d'un ou deux nucléons.
Classification
Chimie et physique se rejoignent sur ce point, de sorte que les notions relatives à ces deux domaines des sciences se recouvrent à leur sujet. Ainsi, en physique nucléaire, on appelle nucléide un noyau atomique défini par un nombre déterminé de protons et de neutrons, terme souvent confondu avec la notion équivalente d'isotope, qui relève davantage de la chimie.
Un élément chimique se définit comme l'ensemble des atomes et des ions dont le noyau comporte un nombre donné de protons. Ce nombre est le numéro atomique, noté Z, de l'atome ou de l'élément chimique correspondant. Ainsi, tous les atomes n'ayant qu'un seul proton dans leur noyau (Z = 1) correspondent à l'élément chimique hydrogène. Il en existe trois variétés principales : le protium 1H, couramment appelé hydrogène (seul nucléide stable dépourvu de neutron), le deutérium 2H (stable, dont le noyau est constitué d'un proton et d'un neutron), le tritium 3H (radioactif, dont le noyau est constitué d'un proton et de deux neutrons). Ces nucléides sont des isotopes, car leur noyau compte le même nombre de protons mais un nombre différent de neutrons.
La classification des atomes suit celle des éléments chimiques, dont les propriétés chimiques — mais aussi physiques — présentent une périodicité découverte au XIXe siècle et à l'origine du tableau périodique des éléments. On emploie indifféremment les termes isotope stable et nucléide stable, radioisotope et radionucléide, ou encore élément superlourd et atome superlourd.
Propriétés
Noyaux atomiques
Moment magnétique nucléaire
Précession de
Larmor d'un
proton soumis à un champ magnétique
B0.
Les particules élémentaires possèdent un nombre quantique appelé spin, analogue à un moment angulaire et mesuré en unités de constante de Planck réduite (parfois appelée « constante de Dirac ») désignée par le symbole ℏ, qui se lit « h barre ». C'est également le cas des protons et des neutrons du noyau atomique, dont la résultante des spins se manifeste par un moment magnétique nucléaire. La valeur de ce dernier est spécifique à chaque noyau ; à l'état fondamental, elle est nulle pour les nucléides ayant à la fois un nombre pair de protons et un nombre pair de neutrons.
Cette propriété est mise à profit en imagerie par résonance magnétique (IRM), fondée sur la résonance magnétique nucléaire (RMN) : un matériau soumis d'une part à un rayonnement électromagnétique, et d'autre part à un champ magnétique intense (de l'ordre du tesla) qui oriente les noyaux atomiques dans une direction privilégiée (mais en les séparant en deux populations correspondant aux deux sens de cette direction), absorbe une partie du rayonnement électromagnétique à une fréquence déterminée par le rapport gyromagnétique du noyau ciblé, ce qui permet de déterminer par spectroscopie la concentration spatiale de ce noyau — typiquement dans le domaine des radiofréquences pour les champs magnétiques ne dépassant pas 20 T.
Énergie de liaison nucléaire
La liaison nucléaire est généralement décrite comme une manifestation résiduelle entre nucléons de l'interaction nucléaire forte qui maintient ensemble les quarks constituant les nucléons. L'énergie de liaison nucléaire est définie comme l'énergie nécessaire pour arracher un nucléon quelconque au noyau considéré. Elle est de l'ordre de quelques mégaélectron-volts par nucléon, partant de 0 (par définition) pour le protium 1H pour atteindre 7,57 MeV/A avec l'uranium 238 en passant par un maximum à 8,795 MeV/A pour le nickel 6211. Cette propriété fondamentale explique pourquoi ce sont uniquement les atomes légers qui libèrent de l'énergie par fusion nucléaire tandis que ce sont uniquement les atomes lourds qui libèrent de l'énergie par fission nucléaire :
- la fusion nucléaire survient lorsque des nucléons ou des noyaux atomiques s'assemblent pour former un noyau atomique plus gros. Si l'énergie de liaison nucléaire par nucléon est plus élevée dans le nouveau noyau, il y a libération d'énergie : c'est le cas dans les étoiles jusqu'au nickel 56, au niveau duquel s'arrête la nucléosynthèse stellaire ; le 56Ni étant instable, il se désintègre en fer 56, qui est stable. La nucléosynthèse ne se poursuit pas au-delà du nickel car le nucléide qui serait alors formé, le 60Zn, a une énergie de liaison nucléaire par nucléon inférieure à celle du 56Ni, et sa formation consommerait de l'énergie au lieu d'en libérer : c'est essentiellement tout à la fin de vie des étoiles, même de taille modeste, et particulièrement lors de l'explosion en supernovae des grosses étoiles, que les éléments plus lourds que le fer et le nickel sont formés ;
- la fission nucléaire n'est autre que l'éclatement d'un noyau atomique en au moins deux morceaux plus petits, avec libération de neutrons (car les noyaux légers sont proportionnellement moins riches en neutrons que les noyaux lourds). Si l'énergie de liaison nucléaire par nucléon est plus faible dans le noyau initial que dans les produits de fission alors il y a libération d'énergie : c'est le cas pour les noyaux plus massifs que ceux du nickel 62 ; l'uranium et le plutonium, par exemple, sont dans ce cas.
Stabilité nucléaire
La physique des noyaux atomiques est gouvernée par les trois interactions fondamentales du modèle standard de la physique des particules : l'interaction forte, l'interaction faible et l'l'interaction électromagnétique. Chaque noyau atomique est défini par le nombre de protons et de neutrons qu'il contient, ainsi que par son énergie totale, l'ensemble définissant les différents « arrangements » des particules selon lesquels l'énergie totale du système peut être distribuée. Plus il y a d'arrangements possibles et plus le système est stable : l'état présentant le plus grand nombre d'arrangements possibles est appelé état fondamental ; c'est celui vers lequel tendent tous les autres états de ce système.
Toute transition d'un état du système vers un autre requiert une énergie d'activation, fournie, dans le cas des noyaux atomiques, par les fluctuations du vide quantique. Lorsque de telles fluctuations suffisent à faire basculer un noyau atomique d'un état donné vers un état d'énergie inférieure, ce noyau est dit instable : on a affaire à un radionucléide. Jusqu'au calcium (Z = 20), les éléments chimiques ont des isotopes stables pour lesquels le nombre N de neutrons est à peu près égal au nombre Z de protons, tandis qu'au-delà de Z = 20 le ratio N/Z tend vers 3/2. Les isotopes instables, appelé radioisotopes, connaissent une désintégration radioactive qui leur permet de se rapprocher d'un état de plus grande stabilité.
Radioactivité
La radioactivité désigne l'ensemble des phénomènes physiques par lesquels un nucléide instable réorganise sa structure nucléaire afin de gagner en stabilité. Ces phénomènes de désintégration radioactive peuvent être les suivants :
- désintégration α : le noyau atomique émet une particule α 4He pour s'alléger et, notamment, réduire son numéro atomique (et donc sa charge électrique). Ceci concerne surtout les noyaux lourds ;
- désintégration β : il en existe plusieurs variantes, la principale étant l'émission d'un électron et d'un antineutrino électronique par un neutron converti en proton sous l'effet de l'interaction faible (désintégration β−) ; ceci concerne les noyaux riches en neutrons. La réaction inverse est également possible : émission d'un positron et d'un neutrino électronique par un proton converti en neutron (désintégration β+) ; ceci concerne les noyaux riches en protons. La capture électronique est une autre forme de désintégration β+, qui survient lorsqu'un électron interagit avec un proton du noyau pour former un neutron avec émission d'un neutrino électronique ; le noyau résultant se trouve alors dans un état excité. Les phénomènes de double désintégration β (le 48Ca donnant du 48Ti) et double capture électronique (le 78Kr donnant du 78Se par exemple) sont particulièrement rares, car ils impliquent respectivement deux neutrons et deux protons simultanément ;
- émission γ : le noyau atomique se trouve dans un état excité, un ou plusieurs de ses nucléons occupant des niveaux d'énergie supérieurs à ceux de l'état fondamental : un ou plusieurs photons γ sont émis au cours de la relaxation du noyau. Ceci est observé notamment lors d'une transition isomérique (le 99mTc donnant du 99Tc, par exemple) ;
- fission spontanée : un gros noyau atomique « explose » en au moins deux fragments plus petits, avec émission de neutrons. Ce type de désintégration est observé notamment lorsque le ratio Z2/A est au moins égal à 45 (c'est par exemple le cas du 252Cf) ;
- radioactivité de clusters : il s'agit d'un mode de désintégration toujours marginal, ayant un rapport de branchement de l'ordre de 10-10 (avec l'exception notable du 114Ba émettant du 12C), consistant en l'émission de noyaux atomiques de petite taille mais plus gros qu'une particule α ;
- conversion interne : un isomère nucléaire retombe à son état fondamental en transférant son énergie d'excitation à un électron de son nuage électronique en vertu de la probabilité non nulle qu'un tel électron se trouve dans le noyau.
Chaque radioisotope est caractérisé par une période radioactive, qui correspond au temps nécessaire pour que la moitié des atomes de cet isotope se soit désintégrée. Un même nucléide peut connaître plusieurs modes de désintégration, la proportion relative de chacun de ces modes étant appelée rapport de branchement.
Îlot de stabilité
Certaines théories extrapolent les résultats du modèle en couches et les propriétés des nombres magiques en prédisant l'existence d'un îlot de stabilité parmi les nucléides superlourds, pour un nombre magique de 184 neutrons et — selon les théories et les modèles — 114, 120, 122 ou 126 protons. Une approche plus moderne de la stabilité nucléaire montre toutefois, par des calculs fondés sur l'effet tunnel, que, si de tels noyaux superlourds doublement magiques seraient probablement stables du point de vue de la fission spontanée, ils devraient cependant connaître des désintégrations α avec une période radioactive de quelques microsecondes12,13,14 Un îlot de relative stabilité pourrait néanmoins exister autour du darmstadtium 293, correspondant aux nucléides définis par Z compris entre 104 et 116, et N compris entre 176 et 186 : ces éléments pourraient avoir des isotopes présentant des périodes radioactives atteignant quelques minutes.
Limite à la taille des noyaux
Le plus lourd des nucléides synthétisés jusqu'à présent est l'isotope 294Og15,16,17,18,19 et les recherches se poursuivent au GSI afin de produire l'isotope 302120. On ignore précisément jusqu'à combien de nucléons un noyau atomique peut contenir : on estime habituellement la limite d'observabilité expérimentale à environ Z ≈ 13020 et la limite théorique à Z = 173 : un 174e proton (ou neutron) conférerait à la couche nucléaire 1s1/2 une énergie de −511 keV, égale à la masse au repos d'un électron ou d'un positron ; un tel noyau serait donc instable par rapport à la désintégration β21,22.
Nuage électronique
Si les propriétés nucléaires de l'atome (masse, énergie nucléaire, radioactivité, etc.) relèvent de la physique, et particulièrement de la physique nucléaire et de la physique des particules, les propriétés des nuages électroniques des atomes (taille, énergie d'ionisation, conductivité électrique, valence, etc.) relèvent essentiellement de la chimie et de la science des matériaux.
Taille des atomes
Le nuage électronique d'un atome n'a pas de dimensions bien définies car il consiste en une superposition d'orbitales atomiques de nature probabiliste. Il n'existe donc pas de définition unique ni de mesure définitive de la taille des atomes : celle-ci est généralement définie en termes de distance moyenne entre noyaux d'atomes liés entre eux, mais cette distance varie en fonction de la nature chimique des atomes environnants, du nombre et de la géométrie des liaisons dans lesquelles l'atome est engagé, ou encore de la nature de ces liaisons (métallique, covalente, ionique, etc.). Une valeur théorique de l'extension des orbitales atomiques peut néanmoins être calculée pour chaque noyau atomique, ce qui donne une valeur en excès par rapport aux méthodes empiriques fondées sur la géométrie des mailles cristallines, ou aux mesures effectuées sur des molécules :
Au-delà des valeurs numériques, qui ne doivent être vues ici que comme indicatives, ce tableau permet d'illustrer deux tendances :
- en descendant le long d'un groupe du tableau périodique des éléments, la taille des atomes augmente en raison de l'occupation d'orbitales atomiques de nombre quantique principal n croissant, qui correspond à des électrons de moins au moins liés au noyau et donc de plus en plus étendues spatialement ;
- en parcourant une période (ligne du tableau) de gauche à droite, la taille des atomes diminue en raison de l'attraction croissante du noyau atomique, de plus en plus chargé positivement, qui limite l'extension spatiale des orbitales atomiques, chargées négativement, en les rapprochant du noyau.
La contraction des lanthanides illustre bien ce dernier phénomène, et est à l'origine du fait que les atomes des métaux de transition des cinquième et sixième périodes ont des tailles à peu près égales : à peine deux picomètres de plus pour le hafnium et le tantale que pour le zirconium et le niobium ; il s'ensuit une augmentation sensible de la masse volumique des métaux correspondants, par exemple 6,5 et 13,3 g/cm3 respectivement pour le zirconium et le hafnium — soit plus qu'un doublement.
Liaisons chimiques
L'une des propriétés les plus remarquables des atomes est leur propension à former toute une variété de liaisons chimiques avec d'autres atomes, afin de constituer des édifices moléculaires, des cristaux, voire des agrégats atomiques (clusters, « superatomes »). Ces liaisons résultent du recouvrement d'orbitales atomiques appartenant à deux atomes pour former une orbitale moléculaire occupée par deux électrons provenant chacun d'un des deux atomes engagés dans la liaison (on parle dans ce cas de liaison covalente), mais peuvent aussi provenir de l'attraction électrostatique entre atomes de charge électrique opposée (un cation positif et un anion négatif : on parle alors de liaison ionique).
La réactivité chimique des atomes dépend du nombre d'électrons qu'ils possèdent dans leurs sous-couches électroniques périphériques (sous-couches s et p) — les électrons de valence. En vertu de la règle de l'octet, chaque atome tend en effet à atteindre un état où ses sous-couches s et p périphériques sont saturées d'électrons : deux électrons dans la sous-couche s et six électrons dans la sous-couche p. Par exemple, l'hydrogène n'a qu'un unique électron dans sa sous-couche 1s, de sorte qu'il s'associe avec un autre atome pour acquérir le second électron qu'il manque à cette sous-couche pour être saturée : on dit que l'hydrogène est monovalent. L'oxygène, lui, a quatre électrons dans sa sous-couche 2p, et s'associe donc avec deux autres atomes pour acquérir les deux électrons qui manquent à cette sous-couche pour être saturée : l'oxygène est donc divalent. Le carbone, ayant deux électrons dans sa sous-couche 2p, est tétravalent. Les gaz rares les plus légers tels que l'hélium et le néon, avec respectivement deux électrons dans la sous-couche 1s et six électrons dans la sous-couche 2p, sont à peu près inertes chimiquement car leur configuration électronique est déjà saturée d'électrons de valence — mais il existe une chimie des gaz rares concernant les gaz rares plus lourds, qui présentent une réactivité chimique non nulle en raison de l'écrantage du noyau par les électrons de cœur qui rend les électrons périphériques plus mobilisables.
La liaison covalente est une liaison forte : celle qui unit les deux atomes d'iode de la molécule I2 n'est que de 151 kJ/mol, mais atteint 436 kJ/mol pour la molécule H2, 498 kJ/mol pour O2, et 945 kJ/mol pour N2.
Un autre type de liaison chimique s'observe dans les métaux : la liaison métallique. Les atomes métalliques ont en effet la propriété, lorsqu'ils s'assemblent, de faire apparaître, par recouvrement de leurs orbitales atomiques périphériques, une « bande de conduction » qui peut être occupée par des électrons délocalisés (on parle « d'aromaticité métallique ») issus des orbitales les moins liées de ces atomes ; la conductivité électrique des métaux résulte du fait qu'il existe un nombre bien plus élevé de configurations électroniques possibles (on parle de densité d'états électroniques) qu'il y a d'électrons dans cette bande de conduction, de sorte que ces derniers y constituent un « gaz d'électrons ».
Des atomes appartenant à des molécules distinctes peuvent également interagir avec leur nuage électronique autrement que par liaison covalente ou ionique. Ainsi, un atome d'halogène déficitaire en électrons et facilement polarisable peut former une liaison halogène avec les atomes ou groupements fonctionnels riches en électrons, tels que des dérivés oxygénés ou azotés. De même, une molécule ayant un atome d'hydrogène acide peut former une liaison faible (de 5 à 20 kJ/mol) avec un atome électronégatif ayant des doublets non liants. Enfin, l'interaction des moments dipôlaires de deux atomes est à l'origine de la force de van der Waals, dont la force est du même ordre de grandeur que celle de la liaison hydrogène.
Électronégativité et affinité électronique
Compte tenu de leur configuration électronique, certains atomes auront davantage tendance que d'autres à attirer des électrons en formant des liaisons chimiques covalentes. Cette propriété est appelée l'électronégativité d'un atome. Elle dépend en premier lieu de leur nombre de masse et, corrélativement, de l'intensité de la liaison entre le noyau atomique et des électrons de valence. Elle est généralement évaluée à l'aide de l'échelle de Pauling, du nom de Linus Pauling qui la mit au point en 193224. D'autres méthodes d'évaluation donnent des résultats légèrement différents, mais toutes révèlent les mêmes tendances à travers le tableau périodique.
H 2,2 |
|
He |
Li 0,98 |
Be 1,57 |
|
B 2,04 |
C 2,55 |
N 3,04 |
O 3,44 |
F 3,98 |
Ne |
Na 0,93 |
Mg 1,31 |
|
Al 1,61 |
Si 1,9 |
P 2,19 |
S 2,58 |
Cl 3,16 |
Ar |
K 0,82 |
Ca 1 |
|
Sc 1,36 |
Ti 1,54 |
V 1,63 |
Cr 1,66 |
Mn 1,55 |
Fe 1,83 |
Co 1,88 |
Ni 1,91 |
Cu 1,9 |
Zn 1,65 |
Ga 1,81 |
Ge 2,01 |
As 2,18 |
Se 2,55 |
Br 2,96 |
Kr 3 |
Rb 0,82 |
Sr 0,95 |
|
Y 1,22 |
Zr 1,33 |
Nb 1,6 |
Mo 2,16 |
Tc 1,9 |
Ru 2,2 |
Rh 2,28 |
Pd 2,2 |
Ag 1,93 |
Cd 1,69 |
In 1,78 |
Sn 1,96 |
Sb 2,05 |
Te 2,1 |
I 2,66 |
Xe 2,6 |
Cs 0,79 |
Ba 0,89 |
* |
Lu 1,27 |
Hf 1,3 |
Ta 1,5 |
W 2,36 |
Re 1,9 |
Os 2,2 |
Ir 2,2 |
Pt 2,28 |
Au 2,54 |
Hg 2 |
Tl 1,62 |
Pb 2,33 |
Bi 2,02 |
Po 2 |
At 2,2 |
Rn 2,2 |
Fr 0,7 |
Ra 0,9 |
** |
Lr 1,3 |
Rf |
Db |
Sg |
Bh |
Hs |
Mt |
Ds |
Rg |
Cn |
Nh |
Fl |
Mc |
Lv |
Ts |
Og |
|
↓ |
|
|
* |
La 1,1 |
Ce 1,12 |
Pr 1,13 |
Nd 1,14 |
Pm 1,13 |
Sm 1,17 |
Eu 1,2 |
Gd 1,2 |
Tb 1,1 |
Dy 1,22 |
Ho 1,23 |
Er 1,24 |
Tm 1,25 |
Yb 1,1 |
|
** |
Ac 1,1 |
Th 1,3 |
Pa 1,5 |
U 1,38 |
Np 1,26 |
Pu 1,28 |
Am 1,13 |
Cm 1,28 |
Bk 1,3 |
Cf 1,3 |
Es 1,3 |
Fm 1,3 |
Md 1,3 |
No 1,3 |
La lecture de ce tableau permet de dégager deux tendances principales :
- lorsqu'on parcourt de haut en bas une colonne du tableau, l'électronégativité diminue car les électrons de valence sont séparés du noyau par un nombre croissant de sous-couches électroniques et sont donc de moins en moins liés à lui, d'où une affinité d'intensité décroissante ;
- lorsqu'on parcourt de gauche à droite une période du tableau, l'électronégativité est minimale à gauche et maximale à droite ; cela provient du fait que les alcalins ont plutôt tendance à perdre un électron qu'à en gagner pour acquérir la configuration électronique d'un gaz rare, tandis que les halogènes ont fortement tendance à gagner un électron pour saturer leur sous-couche p et acquérir la configuration électronique d'un gaz rare.
Le cas des gaz rares eux-mêmes est particulier car les plus légers d'entre eux sont chimiquement inertes, une véritable chimie des gaz rares n'existant que pour le krypton et, surtout, le xénon — le radon est trop radioactif pour présenter une chimie significative.
L'électronégativité n'est pas une notion atomique absolue, mais plutôt une propriété chimique relative aux atomes engagés dans une liaison avec d'autres atomes. La propriété atomique stricto sensu correspondant à l'électronégativité est appelée affinité électronique et correspond à l'énergie libérée par l'adjonction d'un électron à un atome neutre pour former un anion. Il s'agit donc d'une grandeur physique mesurable, contrairement à l'électronégativité.
Les valeurs représentées par un astérisque dans le tableau ci-dessus sont voisines de zéro d'après l'interprétation quantique de la configuration électronique des atomes correspondants. On note que l'affinité électronique ne présente pas la périodicité régulière de l'électronégativité, mais qu'elle est tout de même la plus élevée pour les halogènes et sensiblement plus faible pour les métaux alcalins et, surtout, alcalino-terreux.
Magnétisme
Comme les nucléons, les électrons possèdent un spin, analogue à un moment angulaire, intrinsèque à chaque électron, auquel se superpose un moment angulaire orbital, représenté par le nombre quantique secondaire, généré par la distribution probabiliste de l'électron dans son orbitale atomique, qui s'assimile à un « mouvement ». Ces deux moments angulaires se combinent pour constituer un champ magnétique autour de l'atome. Lorsque deux électrons occupent une case quantique de l'atome, ils ont chacun un spin opposé en vertu du principe d'exclusion de Pauli, ce qui annule le moment angulaire résultant ; mais les atomes et les ions qui ont un nombre impair d'électrons ont par conséquent un moment magnétique résultant non nul provenant du spin de leurs électrons.
Les matériaux ferromagnétiques ont la particularité d'orienter dans la même direction les moments magnétiques de leurs atomes par interaction d'échange, ce qui crée un champ magnétique macroscopique : c'est le cas, par exemple, de la magnétite Fe3O4. Certains matériaux orientent au contraire les moments magnétiques de leur atomes dans des directions alternativement opposées, ce qu'on appelle « antiferromagnétisme ».
Les matériaux paramagnétiques révèlent leur magnétisme intrinsèque uniquement sous l'effet d'un champ magnétique extérieur, qui aligne le moment magnétique de leurs atomes tant qu'il est présent (susceptibilité magnétique positive) ; dès que ce champ magnétique extérieur cesse d'être appliqué, la magnétisation d'un matériau paramagnétique disparaît. Les atomes ayant des électrons non appariés dans leurs sous-couches d et f ont des propriétés magnétiques intenses car ces électrons sont fortement localisés ; en particulier, les lanthanides font des aimants particulièrement puissants en raison de leur moment magnétique induit par jusqu'à sept électrons non appariés — notamment le néodyme et le samarium. Il existe une méthode d'analyse spectroscopique sous champ magnétique analogue à la résonance magnétique nucléaire (RMN) qui fait intervenir le spin des électrons au lieu de celui des noyaux : la résonance paramagnétique électronique (également appelée de façon plus propre « résonance de spin électronique »).
Le diamagnétisme, quant à lui, est un phénomène assez général dû au moment angulaire orbital des électrons et non au spin de ces derniers, qui consiste en l'apparition d'un champ magnétique de direction opposée à tout champ magnétique extérieur ; c'est un phénomène généralement de faible intensité, hormis quelques cas particuliers tels que, par exemple, l'or, le mercure, le bismuth et surtout les matériaux supraconducteurs (effet Meissner).
Fluorescence et phosphorescence
Un électron d'un atome peut être excité par absorption d'un photon incident, ce qui le fait occuper une orbitale atomique d'énergie supérieure à celle de son état fondamental. De nombreuses molécules aromatiques ou présentant des liaisons π conjuguées sont susceptibles d'être ainsi excitées simplement par éclairage ; leur relaxation vers l'état fondamental se traduit alors par l'émission d'un ou plusieurs photons, selon deux mécanismes distincts :
- la fluorescence consiste en l'émission, par un atome excité, d'un photon d'énergie inférieure au photon incident et correspondant exactement à la différence d'énergie entre l'état excité de l'électron et son état fondamental. Il s'agit par conséquent d'un phénomène quasi instantané, la durée de vie de l'état excité des matériaux usuellement employés pour leurs propriétés fluorescentes étant de l'ordre de 0,5 à 20 ns : la fluorescence cesse donc dès que l'éclairage cesse. La longueur d'onde émise est supérieure à celle de la lumière absorbée, ce qui permet par exemple d'obtenir des effets esthétiquement intéressants par éclairage ultraviolet de matériaux fluorescents émettant dans le spectre visible ;
- la phosphorescence diffère de la fluorescence en ce que la relaxation fait intervenir un état tripletc entre les deux états singulets que sont l'état excité et l'état fondamental. Un électron excité dans un état singulet peut passer facilement dans un état triplet par conversion intersystème, mais s'y trouve alors « piégé » car il ne peut rejoindre l'état fondamental singulet qu'à travers des transitions « interdites » ; ces dernières sont néanmoins possibles du point de vue quantique, notamment grâce à des couplages spin-orbite, mais demeurent cinétiquement très défavorisées, ce qui explique que la phosphorescence soit un phénomène pouvant persister pendant, parfois, plusieurs heures.
Raies spectrales
L'interaction d'atomes avec un rayonnement électromagnétique peut également se traduire par l'apparition de raies d'absorption ou d'émission à certaines longueurs d'onde particulières sur un spectre par ailleurs continu. Ces longueurs d'onde correspondent à l'énergie de transition entre couches électroniques et sous-couches électroniques : lorsqu'un atome est atteint par un photon ayant une énergie égale à l'une de ces transitions entre niveaux d'énergie électroniques, un électron peut absorber ce photon et passer à un niveau d'énergie supérieur, laissant une longueur d'onde déficitaire en photons, ce qui se matérialise dans le spectre par une raie d'absorption.
Chaque atome, chaque ion, et même chaque molécule ou radical libre, possède ainsi une signature spectrale caractéristique, très employée par exemple en astrophysique pour détecter leur présence et déterminer leur concentration dans le milieu interstellaire, voire l'espace intergalactique : la disposition des raies spectrales, leur éventuel décalage (décalage vers le rouge), leur largeur, leur netteté et leur éventuelle séparation en plusieurs composantes (ce qu'on appelle leur structure fine) sont ainsi des paramètres riches d'informations sur le milieu traversé par le rayonnement analysé entre sa source et sa détection par les instruments de spectroscopie.
Exemple de spectre d'absorption.
- La présence d'un champ magnétique dans le milieu analysé peut être détectée par effet Zeeman, qui scinde une raie spectrale unique en trois composantes ou davantage, en raison de l'interaction du champ magnétique ambiant avec le moment magnétique de spin des électrons de l'atome : si plusieurs configurations électroniques partagent le même niveau d'énergie en l'absence de champ magnétique, cela cesse d'être le cas lorsqu'un champ magnétique est appliqué et chacune de ces configurations électroniques acquiert un niveau d'énergie légèrement différent des autres, leur multiplicité devenant alors visible sur le spectre d'absorption.
- La présence d'un champ électrique peut être détectée dans le spectre de la même façon, cette fois en raison de l'effet Stark.
- La vitesse radiale du milieu étudié par rapport à l'observateur peut être déterminée par le décalage des raies spectrales vers le rouge (éloignement) ou vers le bleu (rapprochement) par effet Doppler-Fizeau : c'est un résultat très utile en astronomie pour évaluer la distance d'un objet à partir de son redshift en appliquant la loi de Hubble.
États de la matière
Lampe à plasma, objet de décoration très en vogue dans les années 1980. La lumière est émise lors de la recombinaison des
électrons avec les
cations du
plasma, soulignant le phénomène de filamentation du courant dans le globe.
La matière baryonique peut exister à l'état solide, liquide ou gazeux selon sa température et sa pression : les transitions entre ces états surviennent à des niveaux de température et de pression directement en rapport avec les propriétés des atomes et de leurs arrangements moléculaires qui constituent chaque matériau. Les états solide et liquide sont qualifiés d’états condensés, tandis que les états liquide et gazeux sont qualifiés d’états fluides. Les cristaux liquides (une mésophase) sont un état intermédiaire entre solide et liquide.
Il existe par ailleurs des états de la matière moins courants sur Terre et qui dérivent des précédents :
Formation et évolution des atomes
Les atomes constituent environ 4 % de l'énergie totale observable de l'univers, avec une concentration moyenne d'un atome pour quatre mètres cubes27. Dans le milieu interstellaire d'une galaxie telle que la Voie lactée, la concentration d'atomes varie selon les régions entre cent mille et un milliard d'atomes par mètre cube, bien que l'environnement immédiat du Soleil soit bien plus ténu : à peine cinquante mille atomes par mètre cube, ce qui définit précisément la bulle locale comme une cavité dans le milieu interstellaire formée par l'explosion de supernovas voisines il y a deux à quatre millions d'années28. Les étoiles se forment à partir de nuages denses, et les réactions de fusion nucléaire qui se déroulent en leur sein conduisent à la formation d'éléments chimiques plus lourds que l'hydrogène, l'hélium et le lithium produits à la suite du Big Bang.
Plus de 95 % des atomes de la Voie lactée se trouvent dans les étoiles, et les atomes « visibles » de notre galaxie représentent environ 10 % de sa masse : le reste de cette masse serait constitué d'une mystérieuse matière noire.
Nucléosynthèse
Dans les premières minutes de l'existence de l'univers, les quatre éléments les plus légers se sont formés au cours de la nucléosynthèse primordiale : environ 75 % d'hydrogène 1H, 25 % d'hélium 4He, 0,01 % de deutérium 2H, et des traces (de l'ordre de 10-10) de lithium 7Li. Cette nucléosynthèse aurait été trop brève pour permettre la synthèse d'éléments plus lourds que le lithium et pour permettre la fusion du deutérium. Les atomes proprement dits, avec leur nuage électronique, se seraient formés lors de la recombinaison, environ 377 000 ans après le Big Bang, et les premiers quasars et étoiles se seraient formés après 150 millions d'années.
La nucléosynthèse stellaire aurait alors pris le relais pour former tous les éléments chimiques jusqu'au fer par fusion successive de noyaux d'hélium :
- fusion de l'hydrogène :
- fusion de l'hélium :
- fusion des éléments plus lourds jusqu'au fer :
À ce stade, la fusion cesse d'être exothermique et des réactions nécessitant un milieu très énergétique interviennent pour former les éléments plus lourds : capture neutronique (processus r, processus s), protonique (processus rp), et photodésintégration (processus p), qui interviennent tout à la fin de vie des étoiles, même peu massives, et surtout lors de l'explosion de supernovas.
Sur Terre
Selon toute vraisemblance, la grande majorité des atomes qui constituent la Terre étaient déjà présents dans la nébuleuse solaire, dont l'effondrement gravitationnel aurait engendré le système solaire. Les atomes apparus depuis proviennent le plus souvent de la désintégration radioactive d'éléments primordiaux instables, et les rapports isotopiques des éléments correspondants offrent le moyen d'évaluer l'âge de la Terre par datation radiométrique29. Par ailleurs, l'abondance naturelle de l'hélium 3 sur Terre par rapport à l'hélium 4 des gisements de gaz naturel permet de déduire que 99 % de l'hélium 4 terrestre provient de la radioactivité α30. D'autres atomes, qualifiés de « cosmogéniques, » proviennent de l'interaction des rayons cosmiques avec l'atmosphère terrestre : c'est le cas bien connu du carbone 14, mais aussi, par exemple, du béryllium 10. Enfin, de très nombreux atomes synthétiques sont produits en laboratoire à des fins essentiellement scientifiques, parfois militaires, rarement industrielles (en raison du coût prohibitif des matériaux ainsi produits), tels que le silicium 42 (pour valider certaines hypothèses sur le modèle en couches décrivant la structure nucléaire), le plutonium 239 (matériau de choix pour les armes nucléaires), le technétium 99m (très utilisé en médecine nucléaire) ou encore l'américium 241 (employé industriellement dans les détecteurs de fumée).
Atomes de Rydberg
Sous certaines conditions, il est possible d'exciter des atomes, par exemple avec un laser à colorant, pour placer certains de leurs électrons dans des orbitales atomiques correspondant à un nombre quantique principal n égal à plusieurs dizaines d'unités, voire supérieur à 10031. De tels atomes sont appelés atomes de Rydberg. Ils ont des propriétés remarquables, telles qu'une très grande susceptibilité électrique et magnétique32, une relative stabilité, et des fonctions d'onde électroniques approchant, dans une certaine mesure, l'orbite décrite par un électron en mécanique classique autour du noyau. Les électrons de cœur écrantent le champ électrostatique du noyau du point de vue de l'électron périphérique, pour lequel le potentiel du noyau est identique à celui d'un atome d'hydrogène33. Le comportement de cet électron particulier est particulièrement bien décrit par le modèle de Bohr, pourtant très insuffisant pour modéliser les atomes « conventionnels ».
Les atomes de Rydberg ont une taille très supérieure à celle des atomes à l'état fondamental : l'état d'excitation jusqu'à n = 137 d'un atome d'hydrogène correspond à un rayon atomique d'environ 1 μm, soit cinq ordres de grandeur au-dessus du rayon d'un atome d'hydrogène à l'état fondamental (n = 1). Ils ne peuvent exister dans le milieu naturel terrestre car leur énergie d'ionisation y est bien inférieure à l'énergie thermique, mais représentent une partie importante de la matière du milieu interstellaire, où ils peuvent persister longtemps sans interaction avec d'autres atomes ni avec des champs électriques ou magnétiques susceptible de provoquer leur retour à l'état fondamental. La raie spectrale à 2,4 GHz révélatrice de la transition de nombre quantique principal entre n = 109 et n = 108 de l'atome d'hydrogène est ainsi très fréquemment observée par les astronomes34.
Compte tenu de leur susceptibilité électrique et magnétique très élevée, les propriétés électriques et magnétiques des milieux contenant une proportion significative d'atomes de Rydberg sont sensiblement altérées par leur présence.
Formes atomiques rares ou hypothétiques
Différentes formes d'atomes exotiques ont été conjecturées, et parfois observées. C'est le cas, par exemple, des atomes muoniques, dans lesquels un électron est remplacé par un muon : ce dernier étant plus massif qu'un électron, il présente des orbitales plus proches du noyau, ce qui donne des « atomes » plus petits. De la même façon, un électron peut être remplacé par un hadron, tel qu'un méson, une particule Σ−, voire un antiproton. Le seul atome exotique ayant une durée de vie significative — qui n'excède cependant pas 2,2 μs — est le muonium, résultant de l'interaction d'un électron avec un muon μ+ servant de « noyau ». Ces formes d'atomes sont utiles pour vérifier certains aspects du modèle standard de la physique des particules, notamment les interactions élémentaires.
L'interaction d'un positron avec un antiproton donne un atome d'antihydrogène, qui est un atome d'antimatière. Il existe a priori un « antiatome » pour chaque atome ; la production d'antimatière demeure néanmoins une expérience particulièrement coûteuse en énergie, et seul l'antihydrogène 1H a été synthétisé à ce jour.
Il existe également tout une variété d'atomes « conventionnels » mais néanmoins absents du milieu naturel et donc produits artificiellement. Ces éléments synthétiques sont, à deux exceptions près35, des transuraniens, qui sont de plus en plus instables à mesure que leur numéro atomique augmente.
Histoire du concept d'atome
La notion d'atome est particulièrement bien admise par le grand public, pourtant, paradoxalement, les atomes ne peuvent pas être observés par des moyens optiques et seuls quelques rares physiciens manipulent des atomes isolés. L'atome est donc un modèle essentiellement théorique. Bien que ce modèle ne soit plus aujourd'hui remis en cause, il a beaucoup évolué au cours du temps pour répondre aux exigences des nouvelles théories physiques et rendre compte des résultats expérimentaux obtenus au fil du temps.
Antiquité : un concept philosophique
Il est possible que divers peuples aient développé la notion de « grain composant la matière », tant ce concept peut sembler évident lorsque l'on morcelle une motte de terre, ou en regardant une dune. Dans la culture européenne, ce concept apparaît pour la première fois dans la Grèce antique au Ve siècle av. J.-C., chez les philosophes présocratiques, notamment Leucippe (environ 460-370 av. J.-C.), Démocrite et plus tard Épicure. La théorie atomiste sera ensuite magnifiquement exposée par le Romain Lucrèce dans son œuvre De rerum natura36, qu’il résume en affirmant que « les corps premiers sont [...] d’une simplicité impénétrable, et forment un ensemble homogène et étroitement cohérent de particules irréductibles [...] dont la nature ne permet pas qu’on puisse encore rien retrancher ni soustraire37. » Un des arguments majeurs développé par les atomistes est la permanence de l'univers qui suggère l'existence d'objets ultimement insécables rendant nécessaire une certaine quantité d'énergie pour disséquer la matière. Dans le cas contraire, toute énergie non nulle suffirait à dégrader la matière et userait l'univers qui prendrait peu à peu la forme de poussières impalpables. L'univers étant pensé ancien par les Grecs, cette idée d'une continuité de la matière était donc incompatible avec la stabilité du monde observée38.
Il s'agit d'une conception du monde qui fait partie de la recherche des principes de la réalité, recherche qui caractérise les premiers philosophes : on suppose que la matière ne peut se diviser indéfiniment, qu'il y a donc une conservation des éléments du monde, qui se transforment ou se combinent selon des processus variés. La décomposition du monde en quatre éléments (eau, air, terre, feu) peut donc compléter cette thèse. L'atomisme est une solution concurrente, qui naît de l'opposition de l'être et du néant : l'atome est une parcelle d'être qui se conserve éternellement, sans quoi les choses finiraient par disparaître. Les atomes sont indivisibles ; ils composent la matière comme les lettres composent les mots. Ce fut sans doute un tournant philosophique majeur, à l'origine du matérialisme et de la séparation de la science et de la religion. Cependant, même si l'empirisme épicurien tente d'établir cette hypothèse sur des bases scientifiques, l'atome demeure une intuition sans confirmation.
La chimie du XVIIIe siècle — les éléments
Depuis des millénaires, on a remarqué que les produits se transforment : le feu, la métallurgie, la corrosion, la vie, la cuisson des aliments, la décomposition de la matière organique, etc. Par exemple, pour Empédocle, les transformations de la matière s'expliquaient de la manière suivante : il y avait quatre types d'éléments (eau, air, terre, feu) qui s'associaient et se dissociaient, en fonction de l'amour ou de la haine qu'ils se portaient — les fameux « atomes crochus ». Au Moyen Âge, les alchimistes ont étudié ces transformations et remarqué qu'elles suivent des règles bien précises. Vers 1760, des chimistes britanniques commencent à s'intéresser aux gaz produits par les réactions, afin d'en mesurer le volume et de les peser. Ainsi, Joseph Black, Henry Cavendish et Joseph Priestley découvrent différents « airs » (c'est-à-dire gaz) : l'« air fixe » (le dioxyde de carbone), l'« air inflammable » (le dihydrogène), l'« air phlogistiqué » (le diazote), l'« air déphlogistiqué » (le dioxygène)… (Le terme « phlogistique » provient de la théorie du chimiste allemand Georg Ernst Stahl, au début du XVIIIe siècle, pour expliquer la combustion ; cette théorie fut balayée par Lavoisier.)
Antoine Lavoisier énonce en qued : « Rien ne se perd, rien ne se crée, tout se transforme » (formulé d'une manière légèrement différente à l'époque) signifiant par là que :
- la masse se conserve pendant les réactions chimiques. Les scientifiques avaient observé que si l'on pesait la matière solide avant et après la combustion, on avait une variation de masse ; ceci provient d'un échange avec l'air (l'oxygène s'incorpore et alourdit, le dioxyde de carbone et la vapeur d'eau s'en vont et allègent). Il suffit pour s'en rendre compte de faire brûler dans une cloche fermée, et de peser la cloche en entier, somme solide et gaz (compris) : la masse totale ne change pas ;
- les substances se décomposent en « éléments », c'est l'organisation de ces éléments qui change lors d'une réaction.
Cette observation marque la naissance de la chimie. Les scientifiques commencent donc à recenser les éléments dont sont composées toutes les substances et à créer une nomenclature systématique — oxygène : qui produit des acides (οξυs signifie « acide » en grec) — hydrogène : qui produit de l'eau… Par exemple, en , Lavoisier, en suivant les travaux des chimistes britanniques, établit que l'air se compose d'« air vital » (dioxygène) et d'« air vicié et méphitique, mofette » (diazote) ; en , il décompose l'eau (en faisant passer de la vapeur d'eau sur du fer chauffé au rouge) et montre donc que ce n'est pas un élément, mais que l'eau est décomposable en éléments (c'est en fait une pyrolyse). Le terme d'« analyse » provient d'ailleurs de cette notion de décomposition, lusis (λυσιs) signifie « dissolution » en grec : on décompose les produits (par attaque acide, en les brûlant, en les distillant, etc.) jusqu'à obtenir des substances simples reconnaissables facilement (l'hydrogène, l'oxygène, le carbone, le fer, etc.).
On a donc la première constatation expérimentale de la décomposition de la matière en substances élémentaires.
La physique du XVIIIe siècle — les particules
Un autre pas, fait en parallèle, vient de l'étude des propriétés des gaz et de la chaleur (thermodynamique).
Les fluides (liquides et gaz) sont étudiés en Europe depuis l'Antiquité, mais c'est au milieu du XVIIe siècle que l'on commence vraiment à cerner leurs propriétés, avec l'invention du thermomètre (thermoscope de Santorre Santario, ), du baromètre et du vide pompé (Evangelista Torricelli, ), l'étude de l'expansion des gaz (Gilles Personne de Roberval, ), la pression atmosphérique (Blaise Pascal et Florin Perrier, ), les relations entre pression et volume (Robert Boyle en , Edme Mariotte en ), la notion de zéro absolu (Guillaume Amontons, ), etc.
René Descartes (mathématicien, physicien et philosophe français) émet l'idée, en , que les gaz sont composés de particules tourbillonnantes. Mais il ne s'agit là encore que d'une conception imagée, sans appui expérimental ; dans le même ordre d'idées, Descartes pensait que c'était aussi un tourbillon de « matière subtile » qui entraînait la rotation des planètes (ceci fut mis en défaut par Isaac Newton avec l'attraction universelle en ).
Cependant, cette notion de corpuscules inspire d'autres scientifiques. Les mathématiciens suisses Jakob Hermann () et Leonhard Euler (), mais surtout le physicien suisse Daniel Bernoulli (), effectuent des calculs en supposant que les gaz sont formés de particules s'entrechoquant, et leurs résultats sont en accord avec l'expérience. C'est la conception « cinétique » des gaz, c'est-à-dire l'explication de la température et de la pression par des particules en mouvement.
Une autre science se développe à la fin du XVIIIe siècle : la cristallographie. Ce qui intrigue les scientifiques, c'est l'observation des formes géométriques des cristaux naturels, et leur capacité à se cliver selon des plans lisses respectant ces symétries. Reprenant l'idée de classification des êtres vivants de Carl von Linné, on commence à rechercher et classer les minéraux (Jean-Baptiste Romé de L'Isle, ). L'abbé René Just Haüy, en , suppose que la forme des cristaux reflète la symétrie d'une « brique élémentaire », le cristal étant un assemblage de ces briques. On retrouve ici cette notion de composant élémentaire de la matière.
XIXe siècle — le triomphe de l'atome
À ce stade, ressortent trois notions :
- les corps chimiques sont décomposables en substances élémentaires ;
- les gaz sont composés de corpuscules qui volent et s'entrechoquent ;
- les cristaux sont composés de cellules dont la forme détermine la forme extérieure du cristal.
Ces notions ont en commun le fait que la matière homogène est composée de corpuscules tous semblables entre eux, mais trop petits pour être visibles. Les découvertes du XIXe siècle permettent de faire converger ces trois notions, et d'établir les notions de molécule et d'atome.
John Dalton, en , mesure les masses des réactifs et des produits de réaction, et en déduit que les substances sont composées d'atomes sphériques, identiques pour un élément, mais différents d'un élément à l'autre, notamment par la masse de ces atomes. Il découvre également la notion de pression partielle (dans un mélange de gaz, la contribution d'un gaz donné à la pression totale). Il fut le premier à émettre les idées de la théorie atomique.
En , Joseph Louis Gay-Lussac, établit la loi reliant la température et la pression d'un gaz. En , il établit que les gaz réagissent en proportions déterminées ; les rapports des volumes des réactifs et des produits de réaction sont des nombres entiers petits. Le fait que ce soit des nombres entiers, a induit fortement à penser que la matière n'est pas « continue » (pensée dominante à cette époque), mais faite d'éléments discontinus.
Amedeo Avogadro (physicien italien), en , énonce, sans preuve, que pour une température et une pression fixées, un volume donné de gaz contient toujours le même nombre de molécules, et ce quel que soit le gaz. Il fait également l'hypothèse que les gaz sont polyatomiques, et définit nettement molécules et atomes. André-Marie Ampère (1814), Jean-Baptiste Dumas () et William Prout () arrivent à la même conclusion.
En 1813, Jöns Jacob Berzelius inventa et fit admettre universellement des formules chimiques analogues aux formules algébriques pour exprimer la composition des corps ; le système actuel de notation fut adopté grâce à lui qui le proposa.
En , John Herapath (en) publie une théorie cinétique des gaz pour expliquer la propagation des sons, les changements de phase (vaporisation, liquéfaction) et la diffusion des gaz. Robert Brown, en , observe le mouvement de particules à l'intérieur de grains de pollen ; ceux-ci vont en ligne droite, et ne changent de direction que lors d'un choc avec un autre grain ou bien contre une paroi. C'est de ce comportement, le « mouvement brownien », que s'inspireront les physiciens pour décrire le mouvement des molécules de gaz.
Gabriel Delafosse, en , suppose que l'on peut dissocier la composante élémentaire du cristal et son organisation ; ainsi, la brique élémentaire de Haüy pourrait être un réseau aux nœuds duquel se trouveraient des « molécules » ; ce serait la forme du réseau qui donnerait la forme au cristal et non pas nécessairement la forme des molécules.
Louis Pasteur, en , établit le lien entre la forme des molécules et la forme des cristaux (en fait, la molécule donne sa forme au réseau, et le réseau sa forme au cristal). Auguste Bravais, en , détermine les 32 réseaux cristallins possibles.
En , Stanislao Cannizzaro insiste sur la distinction, précédemment émise par Avogadro sous forme d'hypothèse, entre le poids moléculaire et atomique et montre comment le poids atomique des éléments contenus dans des composés volatils peut être déduit de la connaissance de leur chaleur spécifique et comment le poids atomique des composés dont la densité de vapeur est inconnue peut aussi être déduite de la chaleur spécifique. La même année, Rudolf Clausius (physicien allemand) définit le libre parcours moyen d'une molécule dans un gaz (distance moyenne parcourue entre deux chocs). Partant de là, en , James Clerk Maxwell introduit la notion de dispersion statistique des vitesses des molécules dans la cinétique des gaz. Ceci permet à Ludwig Boltzmann, en , d'estimer la taille des molécules et de définir la répartition statistique des vitesses dans un gaz.
En 1863, John Newlands publie le premier tableau périodique des éléments, ordonnés en fonction de leur masses atomiques relatives, et émet l'hypothèse, en , de la « loi des octaves » selon laquelle les propriétés chimiques d'un élément de la table se retrouvent tous les huit éléments. Personne n'y croit à l'époque.
La première version du tableau périodique des éléments de Mendeleïev
Dimitri Ivanovitch Mendeleïev (chimiste russe), en , classe les atomes par masse croissante, et remarque qu'il y a bien une périodicité dans leurs propriétés chimiques. Il établit donc un tableau classant les éléments ; les trous dans ce tableau donnent l'élan à des scientifiques de rechercher les éléments manquants.
Bilan
La notion d'atome et de molécule a donc permis le succès de la thermodynamique statistique, de la chimie et de la cristallographie. À cette notion, vont correspondre des modèles qui seront affinés au cours du développement de la physique et particulièrement précisés par les découvertes de la physique quantique durant le XXe siècle, et notamment :
Historique des modèles de l'atome
Dans l'histoire des sciences, plusieurs modèles de l'atome ont été développés, au fur et à mesure des découvertes des propriétés de la matière. Aujourd'hui encore, on utilise plusieurs modèles différents ; en effet, le modèle le plus récent est assez complexe, l'utilisation de modèles « anciens » ou partiellement faux, mais plus simples, facilite la compréhension, donc l'apprentissage et la réflexion.
Depuis l'antiquité grecque, on supposait que la matière pouvait se fractionner en petits morceaux jusqu'à obtenir des grains indivisibles, qu'elle était comme « de la poussière dans la lumière ». C'est avec l'expérience de Rutherford que l'on atteint enfin ce grain : les particules α, en traversant la matière, voient leur trajectoire perturbée, ce qui va permettre enfin de savoir comment est organisée cette « poussière »…
- 1675 : Jean Picard observe une luminescence verte en agitant un tube de baromètre ; on découvrira quelques siècles plus tard que cela est dû à l'électricité statique et aux vapeurs de mercure ;
- 1854 : Heinrich Geissler et Julius Plücker découvrent les rayons cathodiques, des rayons verts luminescents lorsque l'on établit une forte tension électrique dans une ampoule dont on a pompé l'air (faible pression de gaz) ; ils inventent ainsi la lampe à décharge, qui éclaire maintenant nos supermarchés d'une lumière blanche, nos rues et nos stationnements d'une lumière orange (lampes au sodium) ;
Comparaison de 4 premiers modèles atomiques sur l'exemple de l'atome de bore
- 1897 : J. J. Thomson établit que ces rayons cathodiques sont constitués de particules chargées négativement arrachées à la matière, et découvre ainsi l'électron ; c'est la première décomposition de l'atome ;
- 1900 : Max Planck montre la quantification des échanges d'énergie dans la matière (recherches sur le corps noir) ;
- 1911 : expérience de Rutherford : il bombarde une feuille d'or par des particules alpha (des noyaux d'hélium, chargés positivement, obtenus par radioactivité) ; il en déduit que :
- la plupart des particules vont en lignes droites, donc la matière est « pleine de trous » ;
- mais certaines sont déviées et même rebroussent chemin, donc elles rencontrent des îlots très concentrés de matière chargée positivement (les + se repoussent entre eux).
- Il en déduit le modèle atomique planétaire : l'atome est constitué d'un noyau positif très petit et d'électrons tournant autour ; ce modèle pose un gros problème : en tournant, les électrons devraient perdre de l'énergie par rayonnement, et donc s'écraser sur le noyau… (ex.: Capture K)
- 1913 : Niels Bohr réunit les concepts de Planck et de Rutherford, et propose un modèle atomique quantique: les orbites des électrons ont des rayons définis, il n'existe que quelques orbites « autorisées » ; ainsi, les échanges d'énergie quantifiés correspondent à des sauts entre les orbites définies, et lorsque l'électron est sur l'orbite la plus basse, il ne peut pas descendre en dessous et s'écraser (mais ce modèle n'explique pas pourquoi) ;
- 1914 : l'expérience de Franck et Hertz valide le modèle de Bohr : ils bombardent de la vapeur de mercure avec des électrons ; l'énergie cinétique perdue par les électrons traversant les vapeurs est toujours la même ;
- 1924 : Louis de Broglie postule la dualité onde-corpuscule ;
- 1926 : Schrödinger modélise l'électron comme une onde, l'électron dans l'atome n'est donc plus une boule mais un « nuage » qui entoure le noyau ; ce modèle, contrairement aux autres, est stable car l'électron ne perd pas d'énergie.
Modèles obsolètes
Les modèles présentés dans cette section sont trop éloignés de la réalité pour pouvoir être utilisés. Ils ne sont présentés ici qu'à titre historique.
Modèle de J.J. Thomson ou modèle de l'électron élastiquement lié à l'atome
Le pudding de Thomson, la charge positive est répartie uniformément dans tout le volume, qui est parsemé d’électrons
Avec la découverte de l’électron en 1897, on savait que la matière était composée de deux parties : une négative, les électrons, et une positive, le noyau. Dans le modèle imaginé alors par Joseph John Thomson, les électrons, particules localisées, baignaient dans une « soupe » positive, à l’image des pruneaux dans le far breton (ou dans le plum-pudding pour les Britanniques ou encore comme des raisins dans un gâteau). Ce modèle fut invalidé en 1911 par l'expérience d’un de ses anciens étudiants, Ernest Rutherford.
Modèle planétaire de Rutherford
L'expérience de Rutherford met en évidence que les charges positives ne sont pas « étalées » entre les électrons, mais sont concentrées en de petits points. Il bombarda une fine feuille d'or par un faisceau de particules alpha (particules de charges électriques positives). Il observa que les particules étaient déviées faiblement, ce qui ne correspondait pas au résultat prévu par le modèle de Thomson, pour lequel, elles n'auraient pas dû la traverser.
Rutherford imagine donc un modèle planétaire : l'atome est constitué d'un noyau positif autour duquel tournent des électrons négatifs. Entre le noyau — très petit par rapport à l'atome (environ 100 000 fois) — et ses électrons, un très grand vide existe.
Ce modèle fut très vite mis en défaut par les équations de Maxwell d'une part, qui prédisent que toute charge accélérée rayonne de l'énergie, et par les expériences montrant la quantification des niveaux d'énergie d'autre part.
Modèles approchés couramment employés
Modèle des sphères dures
Le modèle le plus simple pour représenter un atome est une boule indéformable. Ce modèle est très utilisé en cristallographie. Une molécule peut se voir comme plusieurs boules accolées, un cristal comme des boules empilées. On utilise parfois une représentation « éclatée » : les atomes sont représentés comme des petites boules espacées, reliées par des traits, permettant de faire ressortir les directions privilégiées, les angles et de visualiser le nombre des liaisons.
Modèle des
sphères dures pour représenter l'atome ; représentation d'une molécule d'eau et d'un cristal cubique à faces centrées, compacte (gauche) et éclatée (à droite).
Ce modèle correspond bien à certaines propriétés de la matière, comme la difficulté de comprimer les liquides et les solides, ou bien le fait que les cristaux ont des faces bien lisses. En revanche, il ne permet pas d'expliquer d'autres propriétés, comme la forme des molécules : si les atomes n'ont pas de direction privilégiée, comment expliquer que les liaisons chimiques révèlent des angles bien définis ?
Modèle de Bohr
Modèle de l’atome de Bohr : un modèle planétaire dans lequel les électrons ont des orbites définies.
Un modèle fut développé par Niels Bohr en 1913 à partir des propriétés mises en évidence par Planck et Rutherford. Dans le modèle des sphères dures, l’atome est un objet entier, indécomposable. Or, on sait depuis le milieu du XIXe siècle que l’on peut en « arracher » des particules portant une charge électrique négative, les électrons. Dans le modèle de Bohr, l’atome est composé d’un noyau chargé positivement, et d’électrons tournant autour, les rayons des orbites des électrons ne pouvant prendre que des valeurs bien précises.
Le noyau est très compact, d’un diamètre d’environ 10-15 à 10-14 m, c’est-à-dire que le noyau est cent mille à un million de fois plus petit que l’atome ; il porte une charge électrique positive. C’est aussi la partie la plus lourde de l’atome, puisque le noyau représente au moins 99,95 % de la masse de l’atome. Les électrons sont ponctuels, c’est-à-dire que leur rayon est admis quasi nul (tout du moins plus petit que ce que l’on peut estimer). Ils portent une charge négative. Pour des raisons de lisibilité, le schéma ci-dessous n’est donc pas à l’échelle, en ce qui concerne les dimensions du noyau et des électrons, ni aussi pour les rayons des différentes orbites (on notera ici que le nombre d’électrons sur les orbites n’est pas prédit par le modèle).
Cette vision permet de décrire les phénomènes spectroscopiques fondamentaux, c’est-à-dire le fait que les atomes absorbent ou émettent seulement certaines longueurs d’onde (ou couleur) de lumière ou de rayons X. En effet, le système {noyau+électrons} étant stable et confiné, d’énergie négative, il ne possède qu’un ensemble discret d’états (et donc de niveaux) d’énergie : c’est le passage d’un état à l’autre de l’atome qui provoque une émission discrète d’énergie, ce qui explique donc les raies spectroscopiques des atomes. Le modèle de Bohr, décomposant l’atome en deux parties, un noyau et un nuage d'électrons, est plus précis que le modèle des sphères dures, pour lequel la surface de la sphère correspond à l’orbite des électrons extérieurs.
Cependant, très vite, le modèle de l’atome de Bohr ne permettra pas d’expliquer l’ensemble des observations (effet Zeeman, etc.). Il faut attendre 1924-1926 pour qu’avec Schrödinger, les orbites deviennent orbitales avec des énergies stationnaires : la mécanique quantique est née.
Modèle actuel : modèle de Schrödinger
La naissance de la mécanique ondulatoire de Louis de Broglie en 1924, généralisée par Erwin Schrödinger en 1926 amène à proposer un nouveau modèle, dont les aspects relativistes furent décrits par Paul Dirac en 1928 ; il permet d'expliquer la stabilité de l'atome et la description des termes spectroscopiques.
Dans ce modèle, les électrons ne sont plus des billes localisées en orbite, mais des nuages de probabilité de présence. Ce point de vue, révolutionnaire, peut choquer en première approche. Cependant la représentation que l'on pouvait se faire d'un électron — une petite bille ? — était dictée par les formes observées dans le monde macroscopique, transposées sans preuves dans le monde microscopique. Il faut bien se douter du fait que ce que l'on connaît de l'électron ne repose que sur des manifestations indirectes : courant électrique, tube cathodique (télévision)…
Depuis les années 1930, on modélise ainsi l'électron par une « fonction d'onde », généralement notée Ψ, dont le carré de la norme représente la densité de probabilité de présence. Pour représenter fidèlement les propriétés de l'électron, on ne dispose que de fonctions mathématiques compliquées ; cette abstraction rebute encore bien des physiciens. Nous essayons ci-dessous de donner une image de la notion de fonction d'onde, image nécessairement imparfaite.
- Imaginons que hors de l'atome, l'électron soit une petite bille. Lorsque l'électron est capturé par l'atome, il se « dissout » et devient un nuage diffus, il s'« évapore ». Quand on l'arrache de l'atome, il redevient une petite bille, il se « recondense ». Il existe d'autres exemples d'objet qui changent de forme, par exemple, hors de l'eau, le sel est sous forme de cristaux ; mis dans l'eau, il se dissout, et si l'on fait s'évaporer l'eau, on retrouve des cristaux. Le sel change de forme (cristal compact ou dissous dans l'eau), mais on a tout le temps du sel.
Image simplifiée de l'arrachement d'un électron du nuage électronique dans le modèle de Schrödinger.
De manière un peu plus exacte : un électron, hors d'un atome, est représenté par un paquet d'ondes, qui peut être considéré, dans certaines limites, comme une petite bille. La mécanique quantique démontre qu'un tel paquet d'ondes s'étale au cours du temps ; au contraire, un électron d'un atome conserve la structure de la fonction d'onde associée à l'orbite qu'il occupe (tant qu'il n'est pas éjecté de l'atome). La mécanique quantique postule donc, non la conservation de la forme (non connue) de l'électron, mais la conservation de l'intégrale de la probabilité de présence.
Dans le modèle de Schrödinger, les nuages correspondant aux différents électrons s'interpénètrent ; il n'est pas question de se donner une représentation individuelle des électrons chacun sur son orbite, comme cela était dans le cas du modèle de Bohr. Cela est d'autant plus vrai que les électrons sont des particules identiques indiscernables. Les effets d'échange amènent à considérer que chaque électron de l'atome est à la fois sur chaque orbitale occupée (correspondant à une configuration électronique donnée). L'ionisation de l'atome (l'arrachement d'un électron de l'atome) peut alors être représentée par le schéma simplifié ci-dessous.
Pour éviter des complications inutiles, on considérera l'atome le plus simple (l'atome d'hydrogène) afin de montrer quelques schémas dévoilant les points fondamentaux du modèle :
- le nuage électronique associé à l'état fondamental, révélant (comme d'autres états) la possibilité pour l'électron d'être au sein du noyau, ce qui a des conséquences en physique nucléaire : capture électronique ;
- le nuage électronique associé à une combinaison linéaire de deux orbitales associées au premier niveau excité. Cet exemple montre la possibilité d'obtenir des nuages électroniques pointant vers l'extérieur de l'atome… Nous sommes ainsi préparés aux liaisons moléculaires.
Densités de probabilité de présence de l'électron, dans l'état fondamental de l'atome d'hydrogène. (1) Dans un plan
Oxy passant par le centre de l'atome, la densité ponctuelle
p ( r ) est représentée par des niveaux de gris : elle est maximale au centre et décroît continûment en s'en éloignant. (2) Dans un diagramme
OrP on a tracé le
graphe de la densité radiale
P ( r ) : elle croît depuis 0 puis décroît jusqu'à 0, et prend son maximum à une distance
r 1 égale au premier rayon de Bohr.
Soit p ( r , θ , ϕ ) la densité de probabilité de présence de l'électron au point de coordonnées sphériques ( r , θ , ϕ ) . Par définition de cette densité, la probabilité que l'électron se trouve dans l'élément de volume d 3 V = r 2 sin θ d r d θ d φ entourant le point ( r , θ , ϕ ) est p ( r , θ , ϕ ) d 3 V . Dans l'état fondamental, la densité de probabilité est de symétrie sphérique, c'est-à-dire que p ne dépend pas de θ ni de φ : on peut la noter plus simplement p ( r ) . On montre que p ( r ) est maximale pour r = 0 (et décroît jusqu'à 0 quand r → ∞ ) ; autrement dit, le point où l'électron a le plus de chances de se trouver est au centre de l'atome.
Considérons maintenant la densité radiale de probabilité de présence de l'électron, P ( r ) . Par définition de cette densité, la probabilité que l'électron se trouve dans une couronne sphérique d'épaisseur d r autour de la distance radiale r, de volume d V = 4 π r 2 d r , est P ( r ) d r , donc P ( r ) = 4 π r 2 p ( r ) . On montre que P ( r ) est une fonction croissante puis décroissante de r, nulle pour r = 0 et r → ∞ et maximale pour r = r 1 où r 1 est le rayon de la première orbite du modèle de Bohr (0,052 9 nm). Autrement dit, la distance du centre de l'atome à laquelle l'électron a le plus de chances de se trouver est r 1 .
En fonction de l'état quantique de l'électron (fondamental, excité…) ces nuages peuvent prendre différentes formes, qui sont décrites en particulier par les harmoniques sphériques. La forme la plus simple est la symétrie sphérique, montrée en particulier, ci-dessus, dans le cas de l'état fondamental, |1s>.
Graphe de la densité de probabilité de présence.
Des combinaisons linéaires de fonctions d'onde, utilisant des harmoniques sphériques distinctes, permettent l'apparition d'une anisotropie qui va devenir essentielle pour le passage de la notion d'atome à celle de molécule. Le schéma ci-contre montre une coupe de la densité de probabilité de présence de l'orbitale hybride | 2 s p z > de l'atome d'hydrogène, coupe contenant Oz axe de symétrie de l'orbitale atomique. Pour cet exemple, l'axe Oz devient une direction privilégiée, mais de plus la densité de probabilité de présence s'étale plus loin pour une orientation donnée.
Ce modèle permet d'expliquer :
- la stabilité de l'atome, les charges sont accélérées, mais elles sont contraintes par la mécanique quantique (relations d'incertitude) ;
- la forme des molécules : orientation préférentielle des nuages électroniques ;
- l'organisation des cristaux : le nuage électronique se comporte comme une coquille dure ;
- les effets spectroscopiques (la quantification des échanges d'énergie) : le nuage ne peut prendre que des formes déterminées, notamment en ce qui concerne la distance r1 du maximum de densité au noyau.
On notera pour terminer que des corrections relativistes sont à apporter, dans le cas des atomes de numéro atomique élevé, pour la détermination des niveaux internes (les vitesses des électrons sur les orbites du modèle de Bohr sont alors importantes).
Noyau atomique
Si la mécanique quantique permit d'expliquer rapidement les caractéristiques spectroscopiques des atomes et des molécules, le cœur de l'atome, son noyau, fut plus difficile à comprendre. Les difficultés sont ici de deux ordres : l'une correspondant à l'importance de l'énergie des particules sondes permettant d'atteindre les dimensions de l'ordre du fermi, l'autre à la nécessaire invention d'au moins une interaction supplémentaire permettant la stabilité d'un noyau constitué de protons (qui se repoussent électriquement) et de neutrons.
Cette compréhension de la cohésion du noyau devait aussi expliquer les phénomènes de radioactivité alpha, bêta et gamma, dont les premières observations dataient de la dernière décennie du XIXe siècle.
La décennie qui précéda la Seconde Guerre mondiale mena à la découverte des deux interactions maîtresses de la stabilité du cœur : l'interaction forte et l'interaction faible. La petitesse de la portée de ces deux interactions, respectivement 10-15 m et 10-18 m explique les difficultés expérimentales rencontrées. Les difficultés théoriques ne manquent pas, non plus ; il ne s'agit pas de lois physiques aussi simples que celles de l'électromagnétisme, même compliquées par la mécanique quantique, mais de la compréhension de toutes les particules élémentaires… L'invention des quarks et des gluons donne ainsi la vision actuelle de l'interaction qui maintient ensemble les nucléons.
Cette physique nucléaire mène aussi à l'explication de la nucléosynthèse, expliquant les aspects nucléaires du tableau de Mendeleïev. On se retrouve là dans le foisonnement de la naissance de l'univers et de la dynamique des étoiles.
Notation
Un atome est couramment désigné par son symbole chimique, complété par son nombre de masse A (égal au nombre de nucléons de l'atome) placé en haut et à gauche du symbole.
Exemple : le carbone 12 de nombre de masse 12 est noté 12 C .
Il est d'usage de compléter cette écriture par le numéro atomique Z, placé en bas et à gauche du symbole, pour décrire une réaction nucléaire dans laquelle intervient un isotope.
Le carbone 12 est ainsi noté 6 12 C .
Ainsi, le carbone 14 6 14 C et le carbone 12 6 12 C sont deux isotopes.
Notes et références
Notes
- Cette notion avait déjà été énoncée dans l'Antiquité, par Anaxagore, et elle fut acceptée par un grand nombre de philosophes (épicuriens, stoïciens, etc.) ; ce principe se fondait sur les observations possibles pour l'époque et fut élaborée selon une démarche scientifique.
Références
- Informations lexicographiques [archive] et étymologiques [archive] de « atome » dans le Trésor de la langue française informatisé, sur le site du Centre national de ressources textuelles et lexicales.
- « Atome » [archive], sur Encyclopédie Larousse en ligne (consulté le ).
- (de) « Atombau » [archive], sur Tomchemie (consulté le ).
- (en) « Atomic Physics » [archive], sur Pellissippi State Community College (consulté le ).
- (en) E. Clementi, D.L.Raimondi, W.P. Reinhardt, « Atomic Screening Constants from SCF Functions. II. Atoms with 37 to 86 Electrons », J. Chem. Phys., vol. 47, , p. 1300 (DOI 10.1063/1.1712084).
- (en) « Nuclear Size and Density » [archive].
- (en) Philip J. Brucat, « The Quantum Atom » [archive], University of Florida, (consulté le ) « Copie archivée » (version du 7 décembre 2006 sur l'Internet Archive).
- (en) « Atomics orbitals » [archive], sur orbitals.com.
- Models of the atomic nucleus: with interactive software Par Norman D. Cook sur Google Livres.
- Hyperphysics – Shell Model of Nucleus [archive] Description du modèle en couches du noyau atomique et des nombres magiques.
- The Most Tightly Bound Nuclei [archive].
- (en) C. Samanta, P. Roy Chowdhury et D.N. Basu, « Predictions of alpha decay half lives of heavy and superheavy elements », Nucl. Phys. A, vol. 789, , p. 142–154 (DOI 10.1016/j.nuclphysa.2007.04.001).
- (en) P. Roy Chowdhury, C. Samanta et D. N. Basu, « Search for long lived heaviest nuclei beyond the valley of stability », Phys. Rev. C, vol. 77, , p. 044603 (DOI 10.1103/PhysRevC.77.044603, lire en ligne [archive]).
- (en) P. Roy Chowdhury, C. Samanta et D. N. Basu, « Nuclear half-lives for α -radioactivity of elements with 100 < Z < 130 », At. Data & Nucl. Data Tables, vol. 94, , p. 781 (DOI 10.1016/j.adt.2008.01.003).
- « Livermore scientists team with Russia to discover element 118 », LLNL Public Affairs, Livermore press release, (lire en ligne [archive], consulté le ) « Copie archivée » (version du 27 mai 2010 sur l'Internet Archive).
- (en) Yu. Ts. Oganessian, « Synthesis and decay properties of superheavy elements », Pure Appl. Chem., vol. 78, , p. 889–904 (DOI 10.1351/pac200678050889).
- (en) « Heaviest element made - again » [archive] (consulté le ).
- (en) Phil Schewe, Ben Stein, « Elements 116 and 118 Are Discovered » [archive], Physics News Update, American Institute of Physics, (consulté le ).
- (en) Rick Weiss, « Scientists Announce Creation of Atomic Element, the Heaviest Yet » [archive], Washington Post, (consulté le ).
- (en) Encyclopædia Britannica [archive], article Transuranium Element, dont la brève section End of Periodic Table en fin d'article situe entre 170 et 210 la borne supérieure théorique au numéro atomique, et à Z ≈ 130 la limite d'observabilité des atomes.
- CEA Saclay – Spectroscopy of very heavy elements [archive] Slide #16 – Limit of stability: positron emission.
- (en) « Resource Letter QEDV-1: The QED vacuum » [archive] (consulté le ) avec notamment tout une liste de références à consulter sur le thème de l'électrodynamique quantique.
- (en) E. Clementi, D.L.Raimondi, W.P. Reinhardt, « Atomic Screening Constants from SCF Functions. II. Atoms with 37 to 86 Electrons », J. Chem. Phys., vol. 47, , p. 1300 (DOI 10.1063/1.1712084)
- (en) Pauling, L., « The Nature of the Chemical Bond. IV. The Energy of Single Bonds and the Relative Electronegativity of Atoms », Journal of the American Chemical Society, vol. 54, no 9, , p. 3570–3582 (DOI 10.1021/ja01348a011).
- (en) E. Blackburn, J. M. Goodkind, S. K. Sinha, J. Hudis, C. Broholm, J. van Duijn, C. D. Frost, O. Kirichek, R. B. E. Down, « Absence of low temperature anomaly in the Debye-Waller factor of solid He-4 », Physical Review B, vol. 76, , p. 024523 (DOI 10.1103/PhysRevB.76.024523, lire en ligne [archive], consulté le ).
- (en) E. Kim, A. Clark, X. Lin, J. West, M. H. W. Chan, Superfluidity in solid helium and solid hydrogen [archive], Penn State University.
- (en) Gary Hinshaw, « What is the Universe Made Of? » [archive], NASA/WMAP, (consulté le ).
- Local Chimney and Superbubbles [archive], Solstation.com.
- (en) G. Brent Dalrymple, « The age of the Earth in the twentieth century: a problem (mostly) solved », Geological Society, London, Special Publications, vol. 190, , p. 205–21 (DOI 10.1144/GSL.SP.2001.190.01.14, lire en ligne [archive], consulté le ).
- (en) Foulger, G. R. ; Meibom, Anders, « Helium: Fundamental models » [archive], MantlePlumes.org, (consulté le ).
- (en) Thomas F. Gallagher, Rydberg Atoms, Cambridge University Press, , 512 p. (ISBN 978-0-521-02166-1, présentation en ligne [archive]).
- (en) Metcalf Research Group, « Rydberg Atom Optics » [archive], Stoney Brook University, (consulté le ) « Copie archivée » (version du 26 août 2005 sur l'Internet Archive).
- (en) James Nolan, « Rydberg Atoms and the Quantum Defect » [archive], Davidson College, (consulté le ).
- « http://cc.oulu.fi/~jpoutane/teaching/ISM07/ism_2007_intro.pdf »(Archive.org • Wikiwix • Archive.is • http://cc.oulu.fi/~jpoutane/teaching/ISM07/ism_2007_intro.pdf" rel="nofollow" class="external text">Google • Que faire ?).
- Le technétium et le prométhium.
- Dans cet article de Wikipédia, voir en particulier le § « Atomes et vide, être et non-être, finalisme et efficience ».
- (la) Lucrèce, De rerum natura, Paris, Les Belles Lettres, , 324 p., p. 26 (vers 609/613)
Voir aussi
Sur les autres projets Wikimedia :
Bibliographie
- Michel Chauvin, De l'atome au nucléaire : un siècle de prouesses scientifiques et d'enjeux politiques, Presses internationales Polytechnique, (présentation en ligne [archive]).
- Bernard Fernandez, De l'atome au noyau : une approche historique de la physique atomique et de la physique nucléaire, Ellipses, (EAN 978-2-340-025158, présentation en ligne [archive])
- Ben Still, La vie secrète des atomes - Les mystères des 118 éléments qui constituent la matière, Dunod,
- (en) M. Russell Wehr et James A. Richards, Jr., Physics of the atom, Addison-Wesley Pubishing Company.
Filmographie
Articles connexes
Liens externes