Imprimer
Catégorie : Education Nationale
Affichages : 845

Renouvellement de l'air intérieur

 
 
 

Le renouvellement de l'air des volumes intérieurs est une nécessité dans le domaine de l'architecture et de la conception des habitacles. Ses enjeux concernent le confort, la santé, mais aussi les économies d'énergie.

La ventilation peut être passive ou mécaniquement assistée.

Pourquoi aérer

Il est nécessaire de renouveler l'air intérieur d'une pièce habitée, d'un habitacle de véhicule, d'un élevage, d'une serre, tout d'abord parce que la respiration animale (ou végétale, la nuit) y diminue la quantité de dioxygène disponible, augmente la quantité de gaz carbonique et d'humidité. Ce renouvellement est particulièrement important dans les enceintes totalement fermées (station spatiale, véhicule spatial, sous-marin, certains avions, etc.).

L'air intérieur étant de deux à cinq fois plus pollué que l'air extérieur, l'aération fréquente est plus que nécessaire. La présence des polluants à la ville ou à la campagne est plus faible le matin et le soir, l'aération est donc recommandée à ces moments de la journée1.

Sources de pollution

L'« Institut de la Terre » (Earth Institute) de l'université Columbia estime2 qu'environ 1.5 million de personnes meurent chaque année dans le monde parce qu'elles sont exposées aux fumées, gaz et goudrons de foyer non fermé pour le chauffage ou la cuisine dans l'intérieur de leur logement (maison, hutte, tente, bidonville..)

Effets sur la santé

L’air intérieur peut être plus pollué que l’air extérieur. Cela peut entraîner des effets sur la santé selon le sexe, l’âge des personnes exposées, leur durée d’exposition ou encore le type de pollution. Certains polluants présents dans l’air intérieur sont suspectés par de nombreuses études scientifiques d’être allergènes, mutagènes, neurotoxiques, cancérigènes, reprotoxiques ou irritants. Selon l’Organisation mondiale de la santé (OMS), la pollution de l’air intérieur serait responsable de 2 millions de décès prématurés. Face à ce constat, des médecins de l'Association santé environnement France (ASEF) ont lancé une étude sur la pollution de l'air au sein des crèches3. Celle-ci a révélé l’importance du lieu de construction des crèches, de leur mode de construction et de leur ameublement.

Mauvaise aération fréquente

En théorie et en moyenne, on estime que l'air d'une maison ancienne se renouvelle en ½ heure, que celui d'une maison moderne non isolée se renouvelle en 1 heure, et que sans ventilation, l'air d'une maison bien isolée se renouvelle en 10 heures, mais ce n'est pas toujours le cas en réalité.

Le taux de CO2 et le débit de renouvellement d’air nocturne ont été mesurés dans les chambres à coucher. Dans les logements datant d’après 1982, les débits étaient moindres et homogènes, et à peu près similaires pour tous les systèmes de ventilation sur l’ensemble du parc étudié (VMC ou avec ventilation naturelle).
L’OQAI a aussi montré que le fait d’ouvrir la nuit une porte ou une fenêtre d’une chambre y améliorait fortement le débit de renouvellement d’air nocturne, quel que soit le système de ventilation présent. Et des études antérieures avaient déjà montré qu'aérer une chambre la nuit avait peu d’effet sur les taux de formaldéhyde généré par les sources habituelles d'une maison, il faut donc parallèlement en diminuer les sources en utilisant des écomatériaux.

L'OQAI conduit aussi des études (en cours) sur les origines du formaldéhyde, et sur la relation entre ventilation, pollution et humidité.

Ces problèmes sont souvent exacerbés par l'isolation croissante des logements et par le temps croissant que nous passons dans les locaux et les habitacles de véhicules :

Solution

Dans les pays où ces problèmes ont été pris en compte, des normes de construction fixent un débit minimal, en général on estime que la moitié de l'air d'une pièce doit être renouvelé par heure. S'il n'y a pas de circulation d'air spontanée, il faut avoir recours à une ventilation mécanique contrôlée (VMC) ou une ventilation mécanique des bâtiments par insufflation (VMI).

Le principal problème consiste à concilier isolation, économies d'énergie et renouvellement de l'air. En effet, un renouvellement spontané suppose une circulation d'air avec l'extérieur, et donc une fuite de chaleur (l'air chaud sort) ou d'air frais. Sans précaution, l'isolation phonique est également fortement diminuée. (Les sons pénètrent par les ouvertures permettant le passage de l'air).

Il existe des entrées d'air dites « acoustiques » (ECA) permettant de laisser passer l'air tout en arrêtant les sons.

Pour le problème de fuites thermiques, il existe plusieurs solutions :

On peut aussi faire varier la ventilation en fonction du taux d'humidité utilisé ou du taux de CO2, le confort à une température donnée dépendant beaucoup du taux d'humidité et du CO2. On sait qu'un fort taux de CO2 diminue la vigilance et le rendement du personnel jusqu'à 15 %.

Problèmes en cas d'incendie et d'accident industriel

Le feu est alimenté par l'oxygène de l'air. Dans un bâtiment où l'air circule facilement (maison mal isolée, entrepôt), le feu se développe relativement rapidement. Si par contre l'air circule mal, le feu se développe plus lentement, mais on risque un accident thermique lors de l'ouverture d'une porte ou d'une fenêtre (pour la fuite des occupants et l'intervention des pompiers).

Une des principales préoccupations des pompiers est donc la maîtrise de l'air, et notamment :

Par ailleurs, certains accidents industriels peuvent provoquer des émanations de gaz toxiques (fuite, explosion, accident de la route ou catastrophe ferroviaire impliquant un camion- ou un wagon-citerne). Dans ces cas-là, l'unique mesure de protection des populations est le confinement, ce qui implique de limiter au maximum le renouvellement de l'air : couper les VMC et climatisations, fermer toutes les ouvertures (portes, fenêtres, trappes), boucher les aérations et les fuites (dessous de porte), et couper toutes les flammes (chauffe-eau, cuisinière). Ceci devrait être une conduite réflexe en cas d'alerte aux populations, avant même de connaître l'origine du problème, sauf cas particulier (par exemple, alerte spéciale pour les zones en aval des barrages ou pour les zones côtières menacées de tsunami).

Cas particuliers

Aération des habitacles d'automobiles

Le problème de renouvellement de l'air se pose aussi pour les automobiles. En effet, le véhicule est dans le flux de la circulation exposé à la pollution des véhicules le précédant, et les matières plastiques sont de plus en plus utilisées par les constructeurs (avec une odeur caractéristiques de « neuf », incluant des polluants organiques volatils, en particulier lorsque la voiture chauffe au soleil. Par ailleurs, les entrées d'air se situent en général sur le capot, à la base du pare-brise. Elles permettent à un air très pollué par les gaz d'échappement des véhicules précédents de pénétrer dans l'habitacle, en particulier dans les tunnels, voies en tranchées et rues très achalandées et peu aérées.

Une enquête menée par l’Association Santé Environnement France a mesuré la qualité de l’air à l’intérieur des voitures dans 3 villes françaises : Paris, Marseille, Grenoble. L’enquête a retrouvé à l’intérieur des voitures des taux important d’oxydes d’azote et de particules fines 6.

Une étude7 récente a montré que la pollution de l'air mesurée en bord de route ne reflète pas ce qui est respiré à l’intérieur des habitacles (de plus pour éviter les dégradations les capteurs sont parfois placés à plus de 2 m de hauteur et en recul par rapport aux grands axes). L'étude a mesuré la pollution intérieure de l’habitacle d’un véhicule équipé d’appareils de mesure en continu des polluants de l’air intérieur (particules, NO, NO2, SO2, ozone, etc.). Au fur et à mesure, l’environnement du véhicule et son trajet et sa vitesse étaient mesurés avec l’aide notamment d’un GPS et d’une caméra fixée à l’avant. La première partie de l'étude a porté sur 2 parcours différents : 72 km en agglomération rouennaise et 400 km en agglomération parisienne (soit 5 000 km au total)[pas clair]. À titre de comparaison, la pollution de proximité a aussi été mesurée (en bordure de route) et la pollution de fond (en ville) enregistrée à Rouen.
Résultats :

L'auteur recommande de ne pas activer la ventilation dans un tunnel ou quand on sent l'odeur des échappements dans l’habitacle, si possible avant d'être dans cette situation et conclut que les études épidémiologiques d’exposition aux polluants automobiles devraient maintenant aussi tenir compte du temps passé en voiture.

Les concentrations de particules de 300 µg/m3 et des concentrations de NO2 de 2 000 µg suffisent à provoquer une ischémie myocardique à l’effort (ou « angine de poitrine ») chez les insuffisants cardiaque8, or ces taux sont susceptibles d'être atteints dans un habitacle de voiture. Des aménagements de voirie peuvent favoriser la dispersion des polluants pour éviter l’effet « canyon » (en sachant que c’est aussi disperser la pollution plus loin) et exposer un plus grand nombre de gens à de faibles doses.

Cas des habitacles de tracteurs

Les conducteurs de tracteurs et engins agricoles sont exposés à des poussières quand il fait chaud et sec, à des germes (virus, bactéries, champignons lors des épandages de lisiers et fumiers) et parfois à leur propre fumée de diesel ou à celle d'un autre engin agricole, et aussi à des pesticides (lors des épandages) ou résidus ou métabolites de pesticides toxiques. Les tracteurs modernes sont pour cette raison équipés d'une climatisation avec filtration de l'air plus ou moins efficace (il faut un filtre à charbon activé régulièrement changé pour épurer l'air des pesticides qu'il véhicule).

Précision scientifique du langage

L'ADEME considère que l'argument « plantes dépolluantes » n'est pas validé scientifiquement au regard des niveaux de pollution généralement rencontrés dans les habitations et des nouvelles connaissances scientifiques dans le domaine9.

Notes et références

  1. « Plantes et épuration de l'air intérieur – ADEME » [archive], sur ADEME (consulté le ).

Annexes

Articles connexes

Liens externes

 

Gouttière (architecture)

 
 
 
 
Gouttière
 
Trois hirondelles sur la gouttière d'un toit d'ardoise.

Une gouttière est un ouvrage de collecte des eaux pluviales disposé à l'égout d'un toit. Elle diffère d'un chéneau par la nature discontinue de son support. Le chéneau est posé sur une fonçure faite généralement de voliges ou de frises jointives, quelquefois de plâtre. La gouttière est portée par des crochets dont les profils caractérisent des façons régionales.

La gouttière est dite pendante quand les crochets sont fixés à l'extrémité des chevrons en saillie, soit directement, soit par l'intermédiaire d'un bandeau d'égout. Elle est dite rampante si les crochets sont fixés à la face supérieure des chevrons ou au voligeage de l'égout. On la pose aussi sur entablement à la façon anglaise, ou sur des crochets munis d'une chevillette fichée dans le mur gouttereau, à la façon du Nord.

On utilise pour façonner les gouttières divers métaux laminés assez rigides pour franchir sans risque de fluage la distance entre les chevrons : le zinc, le cuivre, le fer galvanisé, l'acier inoxydable et l'aluminium, et aussi le PVC.

Elles sont composées d'éléments de longueur standardisée, emboîtés et soudés (ou collés). Elles peuvent aussi être roulées ou profilées en pleine longueur d'usage sur le chantier. Les talons ferment les extrémités. Le fond est ouvert en bas de pente par une naissance ou moignon qui déverse l'eau dans la descente directement, par une volée de coudes ou par une cuvette.

Historique

 
En Finlande, gouttière en bois, elle protège le seuil du rideau de pluie.
 
En Suisse, le fut recreusé est porté par des potences clouées.
 
Gouttière en bois. Maison traditionnelle en bois, Forêt-Noire, Allemagne

La nécessité d'éloigner le ruissèlement du toit des fondations de l'édifice s'est avérée dès que l'homme sédentaire a voulu assurer la pérennité de son installation et la conservation de ses victuailles. On a eu recours, tout d'abord, à une large saillie de l'égout à l'aplomb duquel on aménageait un caniveau destiné à évacuer l'eau dans la pente du terrain ou vers un cours d'eau naturel. Cet usage garda sa pertinence autant que l'habitat resta peu groupé.

La densité d'occupation des cités, surtout quand elles se renfermèrent dans des murs, imposa un contrôle plus rigoureux de la destination des eaux pluviales. On en vint à concevoir une collecte par réseaux publics, intégrés à la voirie et composés de caniveaux de rue et d'égouts souterrains. L'adduction privée y aboutissait par des gargouilles au bas de la pente de chéneaux de pierre parfois revêtue de plomb, lesquels chéneaux couraient sur les murs gouttereaux1.

 
Tuiles gouttières

Viollet-le-Duc mentionne, dans son Dictionnaire raisonné, des tuiles gouttières utilisées depuis le XIIe siècle sur l'habitat bourgeois. Ce sont de longues tuiles de courant souvent vernissées et dont une rive est rabattue et prolongée en méplat pour former une queue qu'on scelle entre l'entablement et le rang de doublis2. L'usage en est encore vivant dans le Roussillon et en Catalogne.

En 1845 M. Toussaint de Sens définit la gouttière dans le vocabulaire qu'il annexe à son manuel d'architecture, puis il ajoute qu'« on en fait aussi en bois de chêne recreusé. »3 Augustin Magné et Henri Somme signalent encore en 1947 des gouttières en bois: « …on en voit encore dans les campagnes composées simplement de deux planches clouées d'équerre et aboutissant à une descente formée d'une simple corde tendue par le poids d'une pierre qui conduit, tant bien que mal, l'eau dans un tonneau. »4

Avant le XIXe siècle, dans les Alpes où le bois abonde, on creusait des demi-futs de résineux minces qu'on fixait à l'aide de chevilles sous l'égout des toits de bardeaux. C'est une façon que l'on peut encore observer au début du XXIe siècle dans certaines vallées de Savoie5, et dans d'autres pays où l'on construit en bois.

À Ouessant, où l'eau douce est rare, une ruellée de mortier biaise disposée à l'égout, dirige le ruissellement vers une citerne. On trouve aussi en pays Bigouden des ruellées rampantes en forme d'accent circonflexe au-dessus de la porte, pour protéger le seuil du rideau de pluie6.

Les premières vraies gouttières étaient en cuivre et permettaient au mur gouttereau de devenir la façade du bâtiment. Pourtant, ce n'est que dans la deuxième moitié du XIXe siècle, avec l'essor de l'industrie du zinc laminé, que l'usage des gouttières se répandit dans les centres urbains. Les travaux haussmanniens favorisèrent l'élaboration et la diffusion de cette nouvelle technique qui se généralisa bientôt.

Les parties de la gouttière

 
À gauche, le dosseret à pince, un peu plus haut que l'ourlet, à droite.

La gouttière forme une rigole dont le fond est en pente, chacune de ses extrémités est fermée par un talon rapporté et soudé ou emboité. Le fond du bas de pente est ouvert par une naissance cylindrique ou conique dont le collet battu est soudé, et qui dirige le ruissellement vers un tuyau de descente ou vers un « jet de volée », d'où l'eau tombe directement au sol.

Elle est fabriquée industriellement en éléments de deux, quatre ou six mètres par profilage de bandes de métal, ou façonnée par le zingueur en atelier ou sur le chantier. La rive extérieure est ourlée d'un « boudin » pour améliorer la rigidité et l'aspect, la rive intérieure ou dosseret a le bord franc ou muni d'une pince7 assez ouverte.

Les éléments peuvent être emboités à recouvrement, quelquefois rivetés, et collés ou soudés jusqu'à atteindre une longueur totale de dix à douze mètres pour le zinc et le PVC, et davantage pour l'aluminium, le cuivre et l'acier. La nécessité de ménager un jeu pour la dilatation interdit de dépasser des longueurs définies par les normes (en France, le DTU 40-41 pour le zinc). Au-delà de ces longueurs, on doit diviser la gouttière par un joint de dilatation. Les joints de dilatation sont de plusieurs sortes :

Les joints à besace ont l'inconvénient de diviser la pente et d'ajouter des descentes.

Les éléments peuvent aussi être joints en retour d'angle lorsque la ligne d'égout est brisée par un arêtier ou par une noue. Les deux bouts à joindre sont coupés d'onglet et l'on façonne un bord, par étirage et rétreint, au côté qui recouvre, puis l'on soude. Des retours d'équerre sont emboutis en usine.

Les types de gouttières

La gouttière peut être suspendue sous un égout saillant ou posée sur un entablement par l'intermédiaire de crochets qui déterminent la pente. C'est alors une gouttière pendante, dont le dosseret est dans un plan vertical donc sécant au plan du rampant. Les gouttières pendantes ont souvent le profil demi-circulaire, on les appelle « demi-ronde ». Il y en a une variante, la gouttière lyonnaise, qui a l'ourlet plus gros. On en fait d'autres dont le profil est rectangulaire et certaines dont la face est ornée de moulures parfois même estampées de guirlandes florales. Sur entablement, on pose la gouttière anglaise, demi-ronde à gros ourlet, dont le développement latéral est inconstant pour que l'ourlet reste de niveau.

Certaines gouttières sont posées sur le bas du rampant, leur dosseret est dans le plan du rampant, ce sont les gouttières rampantes. Il en existe quelques variantes régionales dont l'ourlet se relève par une courbure tangente ou par un pli. Un pli de cent dix degrés fait un relevé de huit ou dix centimètres à la gouttière nantaise, dite aussi gouttière Laval. La gouttière ardennaise, dite aussi gouttière havraise, est roulée selon un rayon de cinq centimètres environ sur cent quarante degrés.

Chaque type régional peut être façonné en plusieurs dimensions selon le débit d'eau qu'on attend qu'il aura. La dimension, définie par la largeur développée en centimètre, est de dix-sept, vingt-cinq, trente-trois ou quarante : les divisions entières par douze, huit, six et cinq de la feuille de deux mètres qu'on fabriquait exclusivement au XIXe siècle. Les gouttières rampantes peuvent aussi être façonnées à développement variable; on règle alors le dosseret de niveau pour éviter le tranchis d'égout biais.

Les matériaux utilisés

Les gouttières, surtout en milieu urbain, sont façonnées le plus souvent dans des feuilles de métal laminé (acier galvanisé adapté au climat montagnard, acier inoxydable, aluminium brut ou laqué, cuivre ou zinc). On les monte aussi à partir d'éléments moulés en PVC (moins chers et plus légers, résistants à la corrosion mais au moins bon vieillissement) ou en fibrociment. Certaines façons traditionnelles étroitement localisées font usage de bois ou de terre cuite.

Les gouttières en aluminium, sont elles profilées en continu sur le site de pose. Les parties droites sont sauf très grandes longueurs en une seule pièce, en cas de raccord « en angle » des pièces d'adaptation permettent une jonction par rivetage et jointoiement en silicone. Ce matériau est en outre revêtu d'une laque « époxy » dans une gamme de couleur contribuant à une meilleure esthétique des constructions8.

La pose

Le débit d'une gouttière dépend de sa pente, de la surface, et de la forme de la section de son écoulement. On admet que la pente ne doit pas être inférieure à cinq millimètres par mètre, mais la dénivellation des extrémités d'une gouttière de douze mètres atteint six centimètres qui ne peuvent guère être dépassés sans désordres techniques et esthétiques. Aussi s'en tient-on souvent à cette pente raisonnable.

La section d'écoulement doit être considérée la gouttière étant en place, avec le dosseret plus haut que l'ourlet de dix millimètres au moins, pour tourner à l'extérieur d'éventuels débordements. Sa surface est en proportion du carré de la largeur développée de la gouttière. Le DTU 60.11 donne un tableau qui permet d'évaluer la section minimale nécessaire à desservir une toiture mesurée en plan. Les sections minimales requises de formes rectangulaires et triangulaires doivent être majorées respectivement de dix et de vingt pour cent. Ainsi une gouttière demi-ronde pendante de vingt-cinq permet de traiter l'égout d'un pan de couverture (ou d'un ensemble de pans) dont la surface en plan égale trente-sept mètres carrés, tandis que celle de trente-trois traite une surface en plan de quatre-vingt-cinq mètres carrés9.

Précautions

Les gouttières obstruées provoquent une accumulation d’eau, ce qui peut occasionner des infiltrations dans la maison. Ayant du mal à s’écouler, cette eau stagnante favorise la prolifération des moustiques et des mauvaises herbes dans les gouttières.

Pour prévenir l’obstruction des gouttières, il est important de nettoyer régulièrement les feuilles et autres débris qui s’y accumulent. Les gouttières bouchées peuvent déborder et miner les fondations, endommager la charpente de toit et favoriser la formation de blocs de glace par temps froid.

Protège-gouttières

Le protège-gouttières aide la gouttière à remplir son rôle, qui est de capter l’eau qui ruisselle sur le toit et de l’éloigner des façades et des fondations de la maison. Il empêche ainsi les feuilles, les déchets végétaux, la poussière, les aiguilles et la mousse de s’y accumuler, réduisant du coup les risques d’obstruction de la gouttière ou de la descente et l’entretien nécessaire pour les garder propres. Le protège-gouttière permet également de garder la neige et la glace hors des gouttières, favorisant ainsi un bon écoulement de l’eau toute l’année. Enfin, il sert de barrière contre la vermine pour éviter que les petits animaux, les oiseaux et les insectes n’entrent dans la gouttière.

Types de protège-gouttières

On trouve plusieurs sortes de dispositifs de protection de gouttières sur le marché : des protège-gouttières encliquetables en métal et en plastique, des modèles en acier inoxydable, à filtres et à charnières, des crépines, des couvre-gouttières en métal et en plastique et même des brosses qui ressemblent à d’énormes chenilles velues.

Certains protège-gouttières sont composés d’un filet ou d’un treillis, en rouleau ou en morceaux, qu’on installe sur les gouttières. Généralement, ce filet est en métal, mais il en existe également des modèles en plastique. On retrouve également des plaques d’aluminium ou de PVC perforées de différentes épaisseurs qui se fixent ou se vissent sur le dessus de la gouttière. Il y a aussi des modèles composés de brosses de métal ou de morceaux de mousse qui remplissent complètement la gouttière pour filtrer les débris. Enfin, certains modèles sont fabriqués en cuivre pour protéger les gouttières de cuivre qui réagissent aux autres métaux.

Indépendamment du modèle choisi, tous les systèmes de protection de gouttières doivent être inspectés deux fois par année aux fins de nettoyage et de réparation.

Inconvénients

Les protèges gouttières, en fonction des types de végétaux situés dans l'environnement des constructions ne sont pas forcément la solution parfaite : feuilles plates se collant à plat sur les grilles, aiguilles de résineux se "plantant" dans les protèges gouttières, etc. Une autre solution consiste donc en la mise en place de crapaudines aux jonctions des gouttières et des descentes.

Notes et références

  1. Cf Le mémento du couvreur zingueur, Vmzinc, 2010, page 52.

Voir aussi

Sur les autres projets Wikimedia :

Bibliographie

Articles connexes

Ventilation

 
 
 
 
Mécanisme d’insufflation d'air frais dans une mine de charbon aux États-Unis.

La ventilation est l'action qui consiste à créer un renouvellement de l'air, par déplacement dans un lieu clos. Elle est mise en œuvre dans les lieux où l'oxygène risque de manquer, ou bien où des polluants et autres substances indésirables (humidité, par exemple) risqueraient de s'accumuler en son absence : logements, bureaux, magasins, salles de spectacles, d'enseignement, ouvrages souterrains, tunnel routier, atelier industriel, mine

L'AFSSET a en France constaté que « le fonctionnement constaté de ces dispositifs ne correspond pas toujours au fonctionnement théorique et que le cheminement de l’air dans les bâtiments n’est pas toujours conforme aux prévisions »1.

Histoire

Avant le XIXe siècle

L'éventail, inventé par les Chinois et autres Pankas (ou Punkha), faisant partie des appareils de ventilation2 les plus élémentaires et les plus anciens, permettent de ménager un courant d'air rafraîchissant, dans les ambiances surchauffées des régions orientales3. Dans le même esprit les Badgirs ou « tour à vent » réalisent par tirage, une ventilation naturelle dans les édifices persans depuis des siècles et associée à une Yakhchal, permettent même la conservation de la glace dans des conditions de chaleur extrême en Iran, ainsi les ingenieurs persans de l'époque réalisent une des premières climatisation.

L'appareil de ventilation le plus commun et le plus primitif est toutefois probablement la cheminée, ou le trou ménagés au-dessus d'un foyer dans toutes les constructions du monde; L'air chaud est éventuellement aspiré dans un tuyau de cheminée, la force chargée de mettre en mouvement la colonne d'air est assurée par la chaleur du foyer, l'arrivée d'air se fait par les fissures et imperfections des parois de la construction.

Dans la Rome antique et jusqu'au Moyen Âge, les fenêtres étaient juste pourvues de volets, que l'on devait ouvrir pour faire entrer la lumière4. On ne parlait pas de ventilation mais la circulation d'air à l'intérieur du bâtiment était libre et abondante, assurées par les jeux de pression qui existent hors et dans le bâtiment.

Surtout dans le Nord, la nécessité de se protéger du froid et de retenir la chaleur des foyers, oblige à substituer aux panneaux de bois des volets, des éléments translucides, dans le meilleur cas du verre, transformations successives qui aboutissent au châssis de fenêtre moderne, qu'il n'est pas nécessaire de laisser ouvert pour faire entrer la lumière. D'une manière générale, par une amélioration des fermetures de baie, des matériaux et de leur mise en œuvre, le bâtiment va vers une plus grande étanchéité à l'air. On voit dès lors, la ventilation associée au chauffage, l'un étant antinomique de l'autre.

Lorsqu'elle s'érige en science milieu XVIIIe siècle, la ventilation s'intéresse à des milieux confinés dont font désormais partie les bâtiments3.

Mais la science s'est d'abord attachée à des lieux comme les mines, puis les intérieurs de navires, ensuite les prisons, les casernes et enfin les hôpitaux « où des masses de chair humaine en décomposition plus ou moins avancée empoisonnent l'atmosphère3».

La première ventilation artificielle dont l'histoire fasse mention est celle que conseille Hippocrate en –4605, lors d'une épidémie à Athènes et celle qu'on appliqua encore au XIXe siècle quelques villes du Midi de la France pendant la quatrième pandémie de choléra, à savoir l'allumage de vastes foyers sur les places publiques. Ces foyers brûlaient une partie des miasmes aériens et provoquaient un courant d'air dans l'atmosphère ambiante, mais ils exigeaient une masse énorme de combustible et n'agissaient que sur des surfaces très restreintes3.

 
Caisse à ventilateur du docteur Hales, composée de deux caisses en bois parallèles (a, b, c, d) dans lesquelles l'air est aspiré ou refoulé par une série de valves (h).
 
Moulin à vent actionnant le ventilateur du docteur Hales à la prison de Newgate.
 
En 1776, on voit appliquer en Angleterre le ventilateur à soufflet mû par un balancier, décrit dans le supplément de l'Encyclopédie Diderot et d'Alembert.
 
Principe de ventilation des hôpitaux par Léopold Genneté, 1767.

La figure 124 tirée de son ouvrage indique presque tous les progrès réalisés au XIXe siècle. Il conseille :

  1. Un foyer extérieur pour l'introduction de l'air pur préalablement chauffé en hiver ;
  2. La pente à donner au plafond pour faciliter la sortie de l'air vicié par un tuyau central ;
  3. Des gaines séparées pour chaque étage ;
  4. Un foyer d'appel placé dans les combles où il indique clairement tous les moyens usités au XIXe siècle y compris la prise d'air sur les toits quand on a à craindre les émanations du sol.

    Léopold Genneté. Principe de ventilation des hôpitaux, 1767.

Un ouvrage de 1557, que Georgius Agricola publie à Bâle sur l'exploitation des mines, le De re metallica6, indique les moyens employés alors pour la ventilation et on reconnaît dans le dessin de l'époque les mêmes moyens artificiels encore employés au XIXe siècle: Le soufflet, le ventilateur rotatif, le ventilateur à ailes et à quadruple compartiments. Il est déjà question de divisions pour les courants montants et descendants3.

En 1745, Samuel Sutton s'occupe spécialement de la ventilation des navires7.

À partir de 1734, John Theophilus Desaguliers3, et le physiologiste, chimiste et inventeur britannique Stephen Hales, introduisent les ventilateurs mécaniques pour aérer la prison de Newgate, les hôpitaux et surtout les Chambres des communes où une « roue centrifuge » est employéen 1. En 1750, un comité est institué à Londres, par la Royal Society, pour examiner le mauvais état de ventilation de ces prisons qui produit alors « la maladie bien connue sous le nom de fièvre des prisons ». Sir John Pringle auteur de Observations on the Nature and Cure of Hospital and Jayl Fevers et le docteur Hales recommandent l'usage d'un ventilateur inventé par ce dernier et bientôt les décès à Newgate sont réduits de sept ou huit par semaine, à environ deux par mois. On a une idée de ce qu'est alors la prison de Newgate, par ce fait que des onze ouvriers employés à établir le ventilateur, sept sont attaqués de la fièvre et un en meurt8.

Devant la presque disparition de mort par la « fièvre des prisons », l'usage des ventilateurs inventés par Stephen Hales, se généralise dans ces établissements, ainsi que dans les hospices et les navires. Leur emploi se répand également en France, où Hales obtiendrait du roi Louis XV, à l'occasion d'une guerre avec la France, l'autorisation de faire installer de tels dispositifs dans les dépôts où sont retenus des prisonniers anglais.

En France, Duhamel du Monceau est le premier qui en 1759 indique dans son ouvrage l'emploi de l'appel fourni par les fourneaux de cuisine des navires pour désinfecter les cales3. Il s'inspire des travaux de Hales dans l'établissement de la ventilation des greniers à blé.

En 1767, Léopold Genneté faisant ressortir les inconvénients des moteurs mécaniques de ses devanciers, expose l'application aux hôpitaux de la ventilation par appel d'air qu'il a observée à Liège dans les mines où on la pratique depuis des siècles3.

Apports du XIXe siècle

La chimie connaît un énorme progrès quantitatif avec Antoine Lavoisier qui l'a promue en science exacte. Les bases de la théorie de la chaleur sont posées, on étudie la propagation de la chaleur à travers les corps, les lois du réchauffement et du refroidissement9, les phases gazeuses, etc.

Début XIXe siècle, les questions de ventilation, de chauffage et d'assainissement en général, deviennent une préoccupation majeure, sous l'impulsion des courants hygiénistes, d'abord en Angleterre (prison de Pentonville, Guy's Hospitaletc.), plus tard en France. Il est question de la ventilation dans les habitations particulières, dans les casernes et les hôpitaux. En France, Jean-Pierre-Joseph d'Arcet est le premier qui au commencement du siècle applique la science d'une manière pratique et sérieuse à la salubrité des ateliers et des théâtres3. « En hygiène publique l'air est à là fois comme l'eau un aliment et un agent de désinfection ou de purification ». Le renouvellement de l'air peut être obtenu de diverses manières et est principalement indispensable là où se trouvent réunis beaucoup d'individus donnant lieu à de la chaleur et à des miasmes soit par eux-mêmes soit par les matières qu'ils travaillent ou par suite de leurs maladies hôpitaux ou dans des lieux destinés à recevoir les immondices ou les matières excrémentielles. L'hygiène publique se préoccupe de l'« aération extérieure », celle qui résulte de la disposition des cours de tous les édifices et maisons, de la largeur des rues, de leur direction, de leur exposition au midi, etc. « Faire de larges rues, des maisons peu élevées, des places spacieuses, des cours d'habitation proportionnées à la surface des bâtiments, […] tels sont les grands moyens de ventilation publique d'une ville que toute bonne administration doit chercher à établir malgré les oppositions et le mauvais vouloir de certains intérêts privés10 ».

Les principes de la ventilation sont alors toujours assez simples. Pour ventiler une pièce il faut trois choses une entrée, une sortie, une force. Toute capacité close où l'on voudra produire un renouvellement de l'air doit être munie d'au moins deux orifices, un orifice d'entrée et un orifice de sortie, l'un placé en haut autant que possible, l'autre dans le bas et loin du premier.
L'orifice de sortie est mis en communication avec une colonne d'ascension soumise à une force calorifique quelconque ou à un ventilateur mécanique et cette force combinée avec la grandeur des orifices et la hauteur de la colonne détermine la mesure de la ventilation obtenue.

L'appareil de ventilation par excellence celui qui est le plus commun, est alors et toujours la cheminée d'appartement; la colonne d'ascension c'est le tuyau de cheminée, la force c'est le foyer, l'arrivée ce sont souvent les fissures des portes et des fenêtres quand il n y a pas de ventouses suffisantes et de prise d'air derrière le foyer. Un foyer ordinaire d'appartement peut déterminer par son tirage une évacuation de 800 à 1 000 m3 d'air par heure et malheureusement c'est là le rôle principal des cheminées. En effet cette évacuation d'air à l'extérieur et par conséquent le refroidissement des pièces sont d'autant plus considérables que le chauffage fonctionne avec plus d'activité. Rarement les prises d'air extérieur qu'on a ajoutées dans des systèmes de tuyaux plus ou moins contournés sont suffisantes pour alimenter la combustion et pour remplacer l'air ascendant du tuyau de fumée. Ce sont toujours les portes et les fenêtres qui viennent donner le complément d air indispensable3.

Dans les grands espaces, des ventilateurs mécaniques sont actionnés par des machines à vapeur qui nécessitent éventuellement, l'assistance d'un machiniste!

Dès 1800, le gaz d'éclairage arrive dans les appartements. Encore au début du XXe siècle, causés par le gaz de houille le gaz principalement utilisé, des utilisateurs se plaignent de mauvaises odeurs, de céphalées et de vomissements. Le gaz de houille, issu d'une pyrolyse de la houille est un mélange empoisonné de monoxyde de carbone, de sulfure d'hydrogène (et de méthane et d'hydrogène qui eux ne sont pas toxiques) qui oblige à une épuration physique et chimique qui sera longtemps imparfaite11. La combustion du gaz de houille d'une part emprunte à l'air ambiant l'oxygène dont elle a besoin, et d'autre part rejette dans celui-ci le dioxyde de carbone, le dioxyde de soufre et lorsque la combustion est incomplète ou lorsqu'il y a des fuites, le très dangereux monoxyde de carbone, autant de produits toxiques ou corrosifs qui obligent dès lors à ventiler. L'emploi des ventilateurs et ventouses, fait désormais loi dans les appartements12.

Le gaz d'huile et surtout la lumière oxhydrique sont envisagés comme solutions alternatives car moins polluants. À partir de 1880, l'électricité en remplaçant le gaz dans ses applications d'éclairage, signifie une amélioration substantielle de la qualité de l'air intérieur.

Les progrès réalisés dans les machines à vapeur profite aux installations de chauffage domestiques. Les calorifères, un des premiers système de chauffage central, réalisent une petite révolution en délocalisant une chaudière unique, source de pollutions diverses, et permettent de mieux contrôler le chauffage et la ventilation des pièces d'habitation. Des fluides caloporteurs sont mis en œuvre, acheminés dans des tuyaux vers des radiateurs, chargés de disperser la chaleur dans les pièces13.

Apports du XXe siècle

 
Dans les maisons de type maison passive, le Test d'infiltrométrie, permet de connaître la quantité d'air qui entre dans l'habitat en dehors des systèmes de ventilation et par la suite de colmater pour les supprimer, les infiltrations d'air parasites.
 
Depuis un observatoire au sommet, on observe les ventilateurs installés sur le toit de la Place Ville Marie, à Montréal.

La climatisation moderne est inventée par Willis H. Carrier en 1902.

Le chauffage, ventilation et climatisation, sont de plus en plus souvent associés. Aux États-Unis, on les retrouve dans une discipline unique appelée « HVAC » (pour Heating, Ventilation and Air-Conditioning). L'HVAC devient une entreprise mondiale dont le rôle consiste en l'exploitation, la maintenance, la conception et la construction de systèmes, la fabrication et la vente d'équipements, l'éducation et la recherche. Cette industrie est historiquement régulée par les fabricants d'équipements HVAC, mais des organismes de régulation et de standardisation comme l'American Society of Heating, Refrigerating and Air-Conditioning Engineers (ASHRAE) sont instaurés dès 1894 pour soutenir l'industrie et encourager des standards élevés de finition.

Le premier choc pétrolier en 1973 aboutit dans les climats froids et tempérés, et surtout dans les pays occidentaux, à un nouveau type de construction faisant un usage intensif de l'isolation thermique. La pose de l'isolation s'accompagne de membranes plus ou moins étanches, de pare- et de freines-vapeurs qui visent à protéger l'isolant de toute atteinte par l'humidité ambiante ou extérieure. Les bâtiments de fait deviennent de plus en plus étanches, et la ventilation, qui est naturelle ou forcée, se préoccupe désormais d'évacuer le surplus d'humidité intérieur et surtout d'assurer le renouvellement d'air nécessaire à la respiration.

Dans les concepts du type « maison passive », développé à partir d'expériences réalisées dans les années 1970, les bâtiments sont totalement étanches, et la ventilation totalement assurée par des moyens artificiels.

Avec le protocole de Kyoto en 1997, visant à la réduction des émissions de gaz à effet de serre, les États s'arment d'une batterie de règlements visant à améliorer la performance énergétique des bâtiments ainsi que leur dépendance aux sources d'énergies fossiles. La conception des bâtiments prend en considération désormais les caractéristiques thermiques, l'étanchéité à l'air du bâtiment, les équipements de chauffage et d'approvisionnement en eau chaude ; les installations de climatisation, la ventilation, ainsi que dans l'implantation la compacité et l'orientation du bâtiment, les systèmes solaires passifs et les protections solaires, l'éclairage natureletc. La paroi devient un objet de haute technicité.

Les matériaux de construction modernes contenant par exemple du formaldéhyde et d'autre part la découverte de nouvelles sources de pollution, telles le radon, deviennent un motif supplémentaire de ventilation.

Utilités

La ventilation d'un lieu a de manière générale plusieurs justifications :

Suivant le lieu où elle est mise en œuvre, l'une de ces justifications est plus spécifiquement poursuivie.

Moyens mis en œuvre

Pour assurer le déplacement de l'air, on peut avoir recours à plusieurs systèmes :

Type de ventilations

Dans les bâtiments habités, six grands types de ventilations existent :

Ventilation naturelle

Elle se fait par ouvrants extérieurs ou via des conduits à tirage naturel.

Elle se base, passivement, sur trois moteurs naturels que sont le vent, le tirage thermique (l'air chaud monte) et le tirage aéraulique (suscité par la différence de pression entre un point haut et un point bas : la pression atmosphérique plus faible en hauteur induit une dépression faisant spontanément circuler l’air dans le bâtiment). Gratuite et passive, généralement silencieuse, la ventilation naturelle est présente dans la plupart des constructions traditionnelles et immeubles d'habitation (en France dans près des 2/3 du parc de logements soit presque tous les logements construits avant 1975)14 ;

Ventilation hybride

Elle combine les avantages de la ventilation naturelle et de la ventilation mécanique en jouant sur le dimensionnement des gaines de ventilation naturelle, et en utilisant des dispositifs légers (éléments autoréglables, hygroréglables ou statiques) couplés à une assistance mécanique intermittente à basse pression. En générale, une sonde de température, un anémomètre ou un pressostat active automatiquement l'apport mécanique pour compléter l'action des moteurs naturels, uniquement quand c’est nécessaire, en fonction des conditions climatiques et de l'activité des utilisateurs du bâtiment (ex : ventilation accentuée au moment des repas)14.

Il est ainsi permis de valoriser au mieux les forces motrices gratuites et naturelles, en réduisant fortement la consommation électrique des auxiliaires et le bruit de ventilation (qui peut gêner certaines personnes autistes ou hypersensibles) ;
Des entrées d'air hygroréglables font entrer l'air extérieur dans les pièces de vie (chambres, salon, séjour) alors que l'air intérieur vicié est extrait via les pièces techniques (toilettes, salle de bain, cuisine) par des orifices d’extraction, éventuellement hygroréglables donnant sur la gaine de ventilation connectée au ventilateur. Si le système est bien dimensionné, les pressions générées en ventilation hybride sont très faibles, proches de celles de la ventilation naturelle, c'est à dire de 5 à 15 Pa au niveau des grilles (ce pourquoi les conduits adaptés à la ventilation naturelle et hybride sont prévus pour fonctionner à des dépressions de l’ordre d'environ 10 Pa et peuvent être moins étanches que les conduits adaptés à la ventilation mécanique, qui doivent eux supporter des dépressions de 100 Pa et plus)14. Pour le meilleur confort sensoriel, en tenant compte des prospectives climatiques, une attention particulière est à porter à l'humidité, aux phénomènes de condensation, aux calculs de force motrice naturelle disponible, de pertes de charge, de calcul du débit à extraire, du foisonnement et du besoin d'assistance mécanique, avec prise en compte des débits de pointe. Idéalement le système est à concevoir avant la construction. Pour des raisons environnementales et d'évolution de la réglementation évoluant, la gestion hybride de l’air tend à être pilotée par un automate associé à des capteurs intelligents14.

Dans le cadre des lois Grenelle chargées de mettre en oeuvre le Grenelle de l'environnement et des engagements de la France à réduire ses émissions de gaz à effet de serre, elle est encouragée par l'ADEME qui qa publié un guide dédié au sujet, ainsi qu'un cœur de calcul logiciel (« DimVNHy® ») ; outil qui peut être couplé au logiciel SIREN du CSTB pour mieux évaluer la qualité de l'air intérieur des locaux et compléter les Avis Techniques des systèmes hybrides et/ou asservis (hygroréglables)14.

Ventilation mécanique contrôlée simple flux

Elle est plutôt présente dans l'habitat individuel et dans l'habitat collectif récents, ainsi que dans certains bâtiments du secteur tertiaire.

Ventilation électrique contrôlée double flux

Elle est surtout présente dans le bâtiment tertiaire.

Ventilation centralisée

Contrôlée par une ou plusieurs centrale de traitement d'air, avec ou sans recyclage d'air, on la trouve surtout dans les bâtiments tertiaires (hypermarchés, centres commerciaux et immeubles de bureaux, Laboratoires) ;

Ventilation industrielle

Présente dans les usines, elle peut utiliser des débits plus importants, être associé à des processus de détection et gestion des risques et dangers ([ex : HACCP] (cf. gaz inflammables, mélange explosif ou toxique, nanoparticules, microparticules, contaminants biologiques, bactériologiques ou radioactifs, etc. ).

Utilisations

Dans les mines

En milieu de soins

Plusieurs travaux de l'OMS15 recommandent la ventilation naturelle en milieu hospitalier, comme l'une des mesures environnementales efficaces pour réduire le risque de propagation d'infections en milieu de soin. L'OMS spécifie notamment des débits minimums par patient.

La ventilation mécanique contrôlée peut s'avérer dans certaines circonstances plus efficace que la ventilation naturelle mais présenter des noyaux de condensation infectieux dans ses composants, et en définitive constituer un risque accru de transmissions de maladie.

Magasins, bureaux, véhicules, lieux publics

Dans de nombreux, pays, un système de ventilation contrôlé est obligatoire dans tout lieu clos accueillant du public. Une réglementation spécifique pour chaque type de bâtiments et usages définit les moyens à mettre en œuvre.

Généralement un système de renouvellement à aspiration type VMC grande échelle est la base de la ventilation de ces lieux. Elle intègre généralement la climatisation (chauffage et refroidissement).

Pour satisfaire aux prescriptions réglementaires en matière de sécurité, on lui associe, lors de la rénovation ou la construction du bâtiment, un système indépendant de ventilation opérationnelle de grande puissance permettant d'aspirer les fumées d'un d'incendie. Ce système annexe est directement et exclusivement contrôlé par les sapeurs-pompiers lorsqu'ils se rendent sur place.

Laboratoires

Les laboratoires d'analyse et de recherche ainsi que certains sites de fabrication sont munis de systèmes de ventilation spéciaux.

L'air venant de l'extérieur est filtré, chauffé ou refroidi, humidifié ou déshydraté, soufflé et réparti dans les pièces, ensuite il est extrait, filtré ou recyclé avant d'être rejeté à l'extérieur. La pression dans chaque pièce et les diverses consoles est contrôlée (surpression ou dépression).

Unités de fabrication

Dans les usines, les unités de fabrication mettent en pratique les découvertes des chercheurs. Les ouvriers et opérateurs doivent pouvoir œuvrer sans danger pour leur santé. Les mêmes conditions de ventilation que pour les laboratoires s'appliquent encore, parfois à plus grande échelle.

Tunnels routiers

 
Des ventilateurs en attente de pose dans le tunnel de l'A14 à la Défense.

La ventilation des tunnels routiers pose un problème particulier, notamment en ville : il est nécessaire d'évacuer les gaz d'échappement des moteurs thermiques des véhicules, et la fumée toxique en cas d'accident.

À la suite de l'incendie du tunnel du Mont-Blanc, une vaste campagne de mise aux normes de la ventilation des tunnels en France est en cours.

Véhicules automobiles

Utilisations particulières et problèmes liés

Bibliographie

Notes et références

Notes
  1. En 1734, M. Désaguliers invente une machine appelée roue centrifuge ; elle a sept pieds de diamètre et un pied d'épaisseur, elle est divisée en douze séparations dirigées de la circonférence vers le centre qu'elle n'approche cependant qu'à la distance de neuf à dix pouces ; cette roue est reçue dans une boîte cylindrique et traversée par un axe au moyen duquel un homme la met en mouvement. Un tuyau d'aspiration établit une communication entre l'espace circulaire voisin de l'axe et celui dont on veut renouveler l'air en sorte que ce fluide entraîné par 1a révolution de la roue se porte à la circonférence et s'échappe par un tuyau de décharge en même temps que de nouvel air arrive dans la salle par une ouverture faite dans cette intention. Dans M. De Fontenay, Manuel des constructions rustiques, ou guide pour les constructions rurales, 1836. Lire en ligne [archive].
Références

Voir aussi

Sur les autres projets Wikimedia :

Articles connexes

Conduite hydraulique

 
 
 
 
Conduite d'eau passant à l'intérieur d'un regard de l'aqueduc Médicis, à Arcueil.

Une conduite hydraulique est une suite de tuyaux conduisant l'eau d'un lieu à un autre.

Histoire

Les conduites hydrauliques sont initialement du domaine de la fontainerie, ensuite celle du plombier et des techniciens en installation sanitaire. Les conduites furent réalisées en fer fondu, en cuivre, en plomb, en terre cuite ou en bois1.

Les conduites hydraulique sont désormais l'objet d'étude de multiples disciplines, parmi celles-ci, l'hydraulicien, technicien qui étudie l'écoulement des fluides.

Description

Les conduites hydrauliques sont de formes, dimensions et fonctions variées :

  1. selon la nature du contenu, eaux usées, eaux pluviales, autres fluides, etc.
  2. et de l'écoulement du fluide, en charge (sous pression), ou libre, voire mixte.

D'une envergure s'échelonnant de 0,1 à 4 mètres, ces conduites peuvent de tout leur long, être des tubes fermés ou des chenaux ou des successions diverses, et acheminer les liquides sur toutes les échelles de distance (par exemple les pipelines pour le transport d'hydrocarbures).

Conçues et dimensionnées en rapport avec leur usage prévu, et selon la règle du moindre coût pour le meilleur rendement, les conduites non circulaires se sont avérées fort avantageuses dans bien des cas, notamment concernant les égouts. Dans ce cas, les sections ovoïdes ont été retenues à peu près universellement.

Conduites ovoïdes des réseaux d'égouts

À section égale, un ovoïde présente divers avantages sur un cercle, concernant les égouts :

  1. De forme étendue en hauteur, la conduite ovoïde est plus facilement visitable par un égoutier.
  2. Le fond de l'égout étant plus étroit, les débits y sont moins favorables aux dépôts de boues persistants, et on obtient plus facilement la condition d'auto-curage.

Conduite d'eau en bois

Conduite d'eau en terre cuite

Conduite d'eau en plomb

Notes et références

  1. J.M. Morisot, Tableaux détaillés des prix de tous les ouvrages du bâtiment. Vocabulaire des arts et métiers en ce qui concerne les constructions (fontainerie), Carilian, 1814

Voir aussi

Épuration des eaux

 
 
 
 
Station d'épuration des eaux à Aguas Corrientes, en Uruguay.

L’épuration des eaux est un ensemble de techniques qui consistent à purifier l'eau soit pour réutiliser ou recycler les eaux usées dans le milieu naturel, soit pour transformer les eaux naturelles en eau potable.

Histoire de l'épuration « intensive » des eaux

La fin du XIXe siècle marque l'essor des réseaux d'égouttage et d'assainissement en France (courant hygiéniste, rénovation de Paris du baron Haussman). Il s'agit d'éloigner les eaux usées des habitations et des lieux de vie. Très vite se pose le problème du devenir de ces eaux usées. « Les quantités croissantes (déjà 2 000 m3 par jour en 1875) de vidange à stocker ou à épandre se heurtent en banlieue au refus des habitants »1. Avec les travaux de Pasteur, les connaissances en microbiologie se développent. Le rôle des microorganismes dans la dégradation de la matière organique est mis en évidence.

« En 1914, deux Anglais, Edward Ardern et William Lockett, mettent au point le premier procédé intensif d'épuration, un système de bassin où les boues issues de la biodégradation des effluents sont aérées »1. L'oxygène permettant à la fois d'activer le travail des bactéries et de favoriser leur multiplication. Le principe des boues activées est né. Des brevets sont déposés et mis en œuvre aux États-Unis et en Grande-Bretagne. En France, La première station d'épuration est celle d'Achères (aujourd'hui Seine Aval), mise en service en 19402. Il faut cependant attendre 1960 pour l'essor des stations d'épuration à boues activées en zone urbaine dans les villes, puis dans les zones rurales. Quant aux procédés physico-chimiques, leur utilisation en France coïncide avec le développement des stations de sport d'hiver au début des années 60. « Les procédés de coagulation par traitement chimique étaient aussi utilisés dans quelques stations balnéaires françaises et en Norvège pour protéger les fjords de l'eutrophisation due notamment aux rejets de phosphore »1.

Le traitement des eaux usées conduit aujourd'hui à des produits finaux (boues d'épuration) qui ne peuvent pas être réduits ou éliminés par des changements de processus à la source. L'élimination des boues dans le sol peut éventuellement permettre de tirer un avantage de la teneur fertilisante du matériau.Les problèmes d'évacuation des eaux usées et des boues ont été exacerbés depuis le XIXe siècle par le détournement des déchets industriels aqueux vers les installations de traitement utilisées pour les eaux usées domestiques, ce qui, bien que permettant un traitement efficace de leurs composants dégradables, augmente la contamination des eaux usées par des matières persistantes et/ou toxiques3.

Techniques

Il existe trois techniques principales pour épurer les eaux, s'appliquant tant au traitement des eaux usées qu'à la production d'eau potable :

  1. les procédés physico-chimiques, essentiellement réservées à la production d'eau potable ;
  2. les procédés biologiques ;
  3. les procédés chimiques, qui se basent sur l'oxydation des composés. Ils sont très efficaces mais également onéreux. Les produits les plus utilisés sont l'ozone et des composés chlorés.

Entre 1997 et 2016, de nombreuses avancées en recherche et développement ont été nécessaires pour faire face à la complexité croissante de la pollution, quelle qu’en soit sa source. Les nouveaux engrais mis sur le marché, ainsi que la prise de conscience et l’identification de nouvelles sources de pollutions industrielles ou pharmaceutiques, tels que les résidus de médicaments actifs rejetés par les individus4, posent de nouveaux défis technologiques à l’épuration.

Filières biologiques

 
Schéma de principe.

Les procédés biologiques sont utilisés pour le traitement secondaire des eaux résiduaires urbaines et industrielles. Dans leur configuration de base, ils sont essentiellement employés pour l’élimination des composés carbonés présents sous forme soluble tels que sucres, graisses, protéines, pour lesquels les solutions par voie physico-chimique sont souvent peu efficaces, coûteuses ou difficiles à mettre en œuvre. Ceux-ci sont nocifs pour l'environnement puisque leur dégradation implique la consommation de l'oxygène dissous dans l'eau nécessaire à la survie des animaux aquatiques. Le but des traitements biologiques est d’éliminer la pollution organique soluble au moyen de microorganismes, bactéries principalement. Les microorganismes hétérotrophes, qui utilisent la matière organique comme source de carbone et d’énergie, ont une double action :

Si nécessaire, la transformation des ions ammonium (NH4+) en nitrate (NO3) ou nitrification peut être réalisée simultanément.

Ces procédés peuvent aussi permettre d’éliminer l’azote et le phosphore par voie biologique moyennant la mise en œuvre d’étapes supplémentaires dans la filière de traitement : mise en place d’un bassin d’anoxie, d’un bassin d’anaérobie.

Les différents procédés utilisés peuvent être classés en fonction des conditions d’aération et de mise en œuvre des micro-organismes. Ainsi, on distingue différents procédés :

La charge en polluants organiques est mesurée communément par la demande biochimique en oxygène sur cinq jours (DBO5) ou la demande chimique en oxygène (DCO).

Traitement aérobie

 
Traitement biologique avec apport artificiel d'oxygène par diffusion de microbulles.

Les filières biologiques aérobies font appel aux micro-organismes présents dans le milieu naturel pour dégrader la pollution. Elles s'inspirent des propriétés d'épuration des sols (filtres plantés de roseaux ou phytoépuration, filtres à sable) ou des rivières (lagunage, boues activées). L'apport d'oxygène peut être naturel (le vent ou système de cascade) dans les petites installations de lagunage, ou artificiel (turbine ou diffusion de microbulles) dans les stations d'épuration de type « boues activées ».

Les bactéries peuvent être libres (boue activée, lagunage) ou fixées (lit bactérien, filtres plantés, filtres à sable, biofiltre) ou encore biodisques.

Traitement anaérobie

Cette zone permet une autooxydation. Cela oblige les microorganismes à puiser l’énergie dans leurs réserves pour leur activité et reproduction : c’est ce qu’on appelle la « respiration endogène ». On obtient ainsi la transformation des produits azotés (en azote ammoniacal) et carbonés.

Élimination de l'azote

Si les réacteurs biologiques permettent un temps de contact suffisant entre les effluents et les bactéries, il est possible d’atteindre un second degré de traitement : la nitrification. Il s’agit de l’oxydation de l’azote ammoniacal en nitrite, puis en nitrate par des bactéries nitrifiantes. L’ammoniac est toxique pour la faune piscicole et il entraîne une forte consommation d'oxygène dans le milieu récepteur. Les bactéries nitrifiantes sont autotrophes (elles fixent elles-mêmes le carbone nécessaire à leur croissance dans le CO2 dissous dans l'eau). Elles croissent donc beaucoup plus lentement que les hétérotrophes. Une station d'épuration communale doit d’abord éliminer les composés organiques avant de pouvoir nitrifier.

Une troisième étape consiste à dénitrifier les nitrates résultants de la nitrification. Pour cela, plusieurs techniques existent : soit la dénitrification est effectuée dans le bassin d'aération lors de la phase d'arrêt des turbines, soit une partie de l’eau chargée de nitrates de la fin de traitement biologique est pompée et mélangée à l’eau d’entrée, en tête de traitement. La dénitrification se passe alors dans un réacteur anoxique, en présence de composés organiques et de nitrate. Le nitrate est réduit en azote moléculaire (N2) qui s’échappe dans l’air sous forme de bulles, éliminées dans le dégazeur dans le cas de dénitrification dans le bassin d'aération. Les nitrates en excès sont des polluants qui sont à l’origine de l’envahissement d’algues dans certaines mers, en particulier la Mer du Nord.

Filières physicochimiques

Les filières physicochimiques utilisent des moyens physiques (décantation, flottation, filtres et membranes) et/ou des produits chimiques, notamment des coagulants (chlorure ferrique, sulfate d'aluminium…) et des floculants. On les utilise pour certains effluents industriels (toxiques) ou lorsque l'on doit gérer des variations rapides des flux à traiter (cas des stations d'épuration de communes touristiques, ou lorsqu'avec un réseau unitaire on veut faire face à l'arrivée d'eau de pluie).

Dans l'état actuel des technologies[Quand ?], les membranes de microfiltration, ultrafiltration et nanofiltration sont surtout utilisées pour la potabilisation de l'eau.

Dans les installations complexes devant traiter plusieurs paramètres, on peut rencontrer les deux filières simultanément.

Classiquement une station d'épuration urbaine à boues activées comprend les étapes suivantes :

Le traitement secondaire peut comporter des phases d'anoxie (ou une partie séparée en anoxie) qui permet de dégrader les nitrates.

Ces étapes se divisent en trois menus qui sont :

Les filières de traitement de l'eau peuvent comporter une étape finale, dite « traitement tertiaire », incluant un ou plusieurs des processus suivants :

Mais chaque étape génère des sous-produits qu'il faut également éliminer : déchets grossiers, sables et surtout les boues constituées, entre autres, de bactéries mortes.

En parallèle du circuit de traitement de l'eau, les usines de dépollution comportent également une chaîne de traitement des boues. Le but du traitement des boues est de stabiliser ces boues (les rendre inertes) par un moyen qui peut, être, physicochimique avec par exemple de la chaux, ou biologique en laissant séjourner la boue dans des digesteurs (réacteur chauffé et brassé pour permettre une digestion anaérobie)5.

Le traitement comprend ensuite des ouvrages de décantation (on parle alors d'épaississement), de stockage et de déshydratation (presse, filtre-presse, centrifugeuse), voire de séchage, la valorisation en biogaz, ou même d'incinération5. Les métaux en solution dans l'eau peuvent être neutralisés : en faisant varier le pH de l'eau dans certaines plages, on obtient une décantation de ces polluants.

La digestion des boues produit du méthane (CH4), qui, lorsqu'il est produit en assez grande quantité, est utilisé comme énergie : production électrique, chaudière ou injection dans le réseau de gaz naturel5, et de l'hydrogène sulfuré (H2S), qui peut provoquer des asphyxies en milieu confiné.

Lorsque les boues d'épuration sont exemptes de tout produit toxique, on peut les recycler comme engrais en agriculture moyennant un conditionnement propre à faciliter leur manutention et leur entreposage sur site (traitement à la chaux). Lorsqu'elles sont polluées, il est nécessaire de les mettre en décharge. Une solution élégante pour les collectivités locales est de les composter avec les résidus verts ou de réaliser une méthanisation pour produire du biogaz. Selon les pays, les filières d'élimination peuvent varier. En Suisse par exemple, la mise en décharge de boues est interdite et la valorisation agricole a pris fin le (avec prolongation de deux ans dans certains cas) en raison des risques pour la santé et les sols et en vertu du principe de précaution. La seule filière autorisée est l'élimination thermique (usines d'incinération des ordures ménagères, cimenteries).

Enfin, un troisième circuit (facultatif) assure le traitement de l'air pollué. Il peut être lui aussi biologique ou chimique.

Assainissement collectif et non collectif

Notion règlementaire (France)

Distinction établie par l'article L.2224-8 du code général des collectivités territoriales, concernant l'épuration des eaux usées domestiques6.

L'assainissement collectif
Celui qui est pris en charge intégralement par la collectivité (la commune, ou l'établissement public de coopération intercommunale — EPCI — auquel elle a délégué cette compétence) : collecte, transport, traitement, rejet dans le milieu naturel des eaux traitées, et élimination des sous-produits.
L'assainissement non collectif
Celui qui ne bénéficie pas de cette prise en charge. La commune a néanmoins l'obligation d'en exercer le contrôle (contrôle de conception, d'exécution, de bon fonctionnement, de bon entretien) et peut, si elle le souhaite, en prendre en charge l'entretien.
L'article L.2224-107 impose aux communes de définir, sur l'ensemble de leur territoire, les zones qui relèveront de l'assainissement collectif ou non collectif8.

Notion technique

Les techniques d'assainissement collectif sont décrites ci-avant.

Il n'y a pas de technique d'assainissement non collectif à proprement parler, puisqu'il s'agit d'une notion règlementaire, et non technique[pas clair].

Cependant, pour l'épuration des eaux usées d'une habitation individuelle (quelques habitants), il existe des techniques spécifiques, que l'on qualifiera d'assainissement individuel, ou autonome.

Ces techniques font exclusivement appel à des filières biologiques.

Quatre éléments sont nécessaires à une installation d'assainissement autonome :

  1. Collecte : Il s'agit de faire sortir les eaux usées de l'immeuble, pour les guider vers le point où le prétraitement aura lieu. C'est donc l'ensemble des tuyaux d'écoulement depuis chacun des points d'eau de l'immeuble.
  2. Prétraitement : L'objectif est de changer la nature des eaux usées pour rendre possible leur épuration par la filière de traitement à l'aval vers laquelle elles vont être ensuite dirigées. Les eaux sont dirigées, en sortie d'immeuble, vers un grand récipient fermé et la plupart du temps enterré, nommé « fosse toutes eaux » ou fosse septique toutes eaux (en comparaison aux anciennes installations qui ne possédaient qu'une fosse septique le plus souvent de 1,5 m3 ne recevant que les eaux vannes : eaux des WC, les autres eaux étaient rejetées directement dans le puisard ou le fossé suivant les régions). Dans cette fosse, les flottants (dont graisses) seront retenus, les particules solides lourdes également (elles tombent au fond), et des processus de fermentation (notamment les bactéries anaérobies) liquéfient les matières solides organiques, et cassent les chaînes macromoléculaires. Un certain abattement de pollution a déjà lieu dans la fosse, par la rétention des flottants et des matières solides. Il peut atteindre 30 %. en amont de la fosse, il est recommandé de poser un bac dégraisseur pour éviter les colmatages des canalisations (longueur importante et pente faible) et les apports importants de graisses dans la fosse, nuisibles au prétraitement. Ce bac qui possède aussi un panier pour récupérer les solides est posé sur le conduit arrivant de la cuisine, il doit être nettoyé régulièrement (« facile » par l'utilisateur).
  3. Traitement : En sortie de fosse, les effluents sont dirigés vers un filtre (colonies bactériennes sur support fixé, voir plus haut) qui assure l'épuration. Composé de sable, il doit être aéré en permanence pour permettre la respiration des bactéries aérobies épuratrices. Il ne doit donc pas être trop enterré, et la surface qui le recouvre ne doit être ni compactée, ni imperméabilisée (goudron ou ciment sont proscrits). La répartition des effluents dans le filtre est permise par l'écoulement des eaux dans une série de tuyaux perforés (épandage) qui recouvrent le filtre.
  4. Évacuation : Selon la configuration du sol (ex. : couche imperméable), une évacuation des eaux traitées vers le réseau superficiel peut être nécessaire, le plus souvent la réception des eaux après leur traitement dans un lit de sable se fait par un autre réseau de drains situé en dessous (environ 0,80 m) qui collecte et évacue les eaux traitées vers un exutoire (ex: tertre d'infiltration drainé).

Limites et problèmes

Beaucoup de stations d'épuration ont permis de réels progrès en matière de qualité d'eau, mais elles ne peuvent généralement traiter correctement les nitrates et les phosphates, ni certains types de virus ou bactéries, et aucune des stations classiques n'est capable de dégrader les nombreux micropolluants (médicaments, cosmétiques, détergents, etc.) présents dans les eaux usées. Ainsi, selon Roberto Andreozzi, de l’université de « Naples Federico II », « L’attention accordée jusqu’ici par les gouvernements et les scientifiques à l’impact des produits pharmaceutiques sur l’environnement peut être qualifiée de faible ou négligeable » et « dans les effluents analysés, nous avons relevé la présence de 26 agents pharmaceutiques appartenant à six classes thérapeutiques : des antibiotiques, des bêta-bloquants, des antiseptiques, des antiépileptiques, des anti-inflammatoires et des régulateurs de lipides »9. Des lagunages tertiaires ou une épuration tertiaire par un taillis courte rotation de saule ont été efficacement testés, mais ne se développent que très lentement (moins de 1 % des stations d'épuration en France). D'autres systèmes de traitements tertiaires peuvent être utilisés comme la désinfection aux UV ou l'ozonation. Certaines stations d'épuration sont obsolètes, ou débordées à certaines époques ou par des flux d'eaux pluviales en cas de crues. Enfin, après le traitement de l'eau se pose le problème du devenir des boues d'épuration (parfois significativement contaminées par des polluants non dégradables, qui, si ces boues sont mal gérées, peuvent plus tard rejoindre les eaux superficielles ou la nappe phréatique). Mieux l'eau est épurée, plus les boues contiennent de toxiques si en amont, les produits non biodégradables n'ont pas été éliminés des filières risquant de polluer l'eau. Les stations d'épuration des communes qui vivent des sports d'hiver ou de stations balnéaires doivent gérer des pics brutaux de fréquentations.

Paradoxalement, certaines stations polluent. Ainsi plus d'un an après que Thames Water (l'entreprise de l’eau britannique) ait en gravement pollué la rivière Wandle par du chlore à l'occasion du nettoyage d’une de ses stations d’épuration, sans avoir immédiatement alerté les autorités, l’Agence de l’environnement britannique a annoncé que « En 2007, les compagnies de l’eau ont été (au Royaume-Uni) responsables du cinquième des pollutions sérieuses, causées par la mauvaise maintenance, la surexploitation ou l’obsolescence des stations d’épuration »10. En aval de Paris, dans les Yvelines, la station d'épuration Seine-Aval d'Achères traite les eaux usées de six millions de Franciliens. Cette station ne respectait pas, en 2007, une directive adoptée en 1991, sur le traitement des eaux résiduaires urbaines11. À la suite des travaux « DERU », la station d'Achères — aujourd'hui dénommée Seine-aval — respecte les dispositions de la directive européenne de 1991.

Bien qu'interdit par la loi (notamment la loi littoral de 1986), on trouve exceptionnellement quelques stations d'épuration dans des sites sensibles (site classé, site Natura 2000, zone littorale, etc.) comme Amphitria située au cap Sicié ou la station de Saint-Jean-de-Luz, Ciboure et Urrugne12. Amphitria est cependant l'une des usines du bassin méditerranéen à être conformes à la règlementation européenne, tout comme le sont les stations de Nice (Haliotis), Montpellier, La Ciotat, etc.

En 2013, six ans après un 1er avertissement (juillet 2004, pour 140 agglomérations en non-conformité), la Cour de justice de l'Union européenne (CJUE) a confirmé la non-atteinte des objectifs13, le non-respect par la France de ses obligations concernant la directive 91/271/CEE14 traitement des eaux urbaines résiduaires dite « Deru »15 pour l'agglomération de Basse-Terre et pour les agglomérations d'Ajaccio-Sanguinaires, de Bastia-Nord, de Cayenne-Leblond et de Saint-Denis.

Recherche et développement

Mieux caractériser les boues d'épuration urbaine

Mieux et plus rapidement connaitre la physicochimie des boues, leur BmP et leurs variations saisonnières ou accidentelles de qualité est nécessaire pour une valorisation sans risques des boues (méthanisation, épandage des digestats).

En 2014, un programme de recherche dit Mocopée (« MOdélisation, Contrôle et Optimisation des Procédés d'Épuration des Eaux »16) a été lancé avec le SIAAP (producteur de 230 000 tonnes de MS de boues par an), l'IRSTEA et l’Université de Technologie de Compiègne, associant près de 15 équipes scientifiques et industrielles pour mieux caractériser les boues urbaines. On espère par exemple pouvoir évaluer l’activité biologique d'une boue par mesure directe de fluorescence (collaboration ENVOLURE-Siaap)17

Lutte contre les micropolluants

Les traitements classiques des stations d’épuration ne permettent pas de détruire la plupart des micropolluants (résidus de pesticides, de détergents, de médicaments, d’hormones, etc.) présents dans les eaux usées. Or, ces molécules, même à de très faibles doses, sont toxiques pour la vie aquatique. Des traitements complémentaires sont nécessaires pour les éliminer et répondre aux exigences de plus en plus contraignantes de la Directive cadre européenne sur l’eau. Dans le cadre du projet Micropolis-Procédés18, une première expertise du traitement des micropolluants par ozonation dans des conditions réelles de fonctionnement d’une station d’épuration a été réalisée de 2014 à 2016. L’étude menée dans la station de Sophia-Antipolis a permis de confirmer la dégradation de toutes les molécules (76 micropolluants organiques et métalliques) en appliquant des doses d’ozone variables selon les classes de micropolluants19. Selon les scientifiques d'Irstea, pilote du projet, « la consommation électrique du traitement par ozonation représentait jusqu’à 25% de la consommation électrique globale de la station. Elle est principalement due au fonctionnement du système de production d’air, du générateur d’ozone et du destructeur thermique, dont les consommations pourraient être diminuées »20. Débarrasser l'eau de ses ultimes polluants se traduit par une dépense supplémentaire de 10 à 18 centimes d’euros (hors taxes) par m3 d’eau traitée, soit une dizaine d’euros TTC par an (estimation pour une consommation annuelle d’environ 50 m3 par habitant).

Réduire les consommations d'énergie liées

Une étude21 a modélisé les consommations énergétiques de 5 grandes filières de traitement des eaux les plus utilisées en France, sur la base de référentiels de consommation énergétique établis par filière, et pour chaque étape du traitement : par poste (traitement de l’eau, traitement des boues, etc.) et par sous-poste (aération des bassins, digestion des boues, etc.)22. Constat : plus d’énergie est ainsi consommée en France que dans d’autres pays comparables22 ; ceci serait dû à un effort d'économies d'énergie plus tardif en France dans ce domaine, et à un dimensionnement des stations basé sur la semaine qui apporte le plus d’eaux usées dans l’année (sans bassin-tampon) qui rend la dépense énergétique sous-optimale le reste du temps. Le procédé « boues activées » (privilégié en France ; 80 % des stations d’épuration de plus de 2 000 éq.Hab.) est le moins énergivore mais n’épure pas complètement l’eau. Les bioréacteurs à membranes (en fort développement) produisent une eau plus propre mais sont très énergivores (et ils pourraient être optimisés)22.

Irstea a mis au point en 2012-2016 un logiciel (dit ACV4E23) pour les petites et moyennes collectivités (jusqu’à 10 000 habitants environ). Primé24, il sert à évaluer l'impact environnemental de réseaux d'assainissement et/ou de stations d’épuration de collectivités22. Il renseigne aussi sur les marges de progrès portant notamment sur l’utilisation d’outils de suivi et d’alerte, les systèmes de régulation et d'optimisation de l'aération (1re source de consommation d’énergie). Irstea a publié des recommandations pour les constructeurs, collectivités et exploitants, pouvant permettre 5 à 20 % d’économies d’énergie selon les stations22.

La transition énergétique tendrait à rendre les stations d’épuration plus autonomes en énergie, voire positive en énergie, et également moins émissives en gaz à effet de serre (cf. N2O et CH4) en valorisant mieux les déchets des stations (boues d'épuration notamment, avec production de biogaz pouvant alimenter la station elle-même). Mais malgré des améliorations, on en est loin : l’épuration des eaux usées est encore énergivore et contribue à l’effet de serre22.

Émissions de protoxyde d'azote (gaz à effet de serre)

Le protoxyde d'azote (ou N2O) est un gaz à effet de serre 300 fois plus impactant que CO2 ; ses émissions par les systèmes d’épuration sont très sous-estimées. Une évaluation du GIEC donnait 3,5 % des émissions anthropiques de N2O vers 2010 mais fortement biaisée car basée sur un facteur d'émission calculé sur une station d’épuration américaine destinée à traiter essentiellement le carbone et non l'azote. Or en France, « les stations d'épuration traitent à la fois le carbone et l’azote », « De plus, même de faibles émissions de N2O peuvent avoir un impact considérable sur l’impact climatique et le bilan carbone des stations, jusqu’à 80 % selon nos résultats »25.

Une modélisation selon le facteur d’émission du GIEC donne 0,035 % d'azote pour une station d’épuration parisienne alors que la vraie donnée est 2,5 à 5 %, soit l’équivalent en émissions de 5 % de l’émission de CO2 des transports, 4 milliards de kilomètres parcourus en auto par an, les déplacements annuels de 400 000 personnes ou 1,5 million d'aller-retour en avion Toulouse-Paris par habitant26.

Depuis 2012, l'Irstea et l'ONEMA (aujourd'hui AFB) notamment via les projets Mocopee16 et N2O TRACK (2015-2018)26 cherchent à mieux quantifier le N2O respectivement émis par les filières boues activées, filtres plantés de roseaux, biofiltres, montrant que certains paramètres de gestion et d’exploitation des stations favorisent ces émissions, qui varient beaucoup en outre selon le procédé utilisé (de 0 à 5 % de la charge d’azote entrante) et – pour un même procédé – en fonction de la période de l’année25. Ceci montre que les approches et modélisations basées sur des facteurs d’émission fixes de N2O ne sont pas pertinentes25.

Financements

Selon le principe pollueur-payeur, les stations d'épuration sont souvent financées par des taxes, via les agences de l'eau dans les pays où elles existent. Dans les pays en développement des programmes spéciaux d'incitation existent parfois comme le PRODES au Brésil depuis 2001.

Rôle futur de l'épuration des eaux

En termes de prospective, et dans une dynamique rifkinienne et dans le cadre de la « Ville durable et intelligente » (incluant la domotique), une tendance apparait qui, à l’instar du Smart Grid qui rend les réseaux d'énergie « intelligents », propose des solutions techniques pour rendre les réseaux de distribution d’eau plus « intelligents » et performants (on parle alors de Smart Water27). Un domaine commun entre ces deux approches pourrait être la récupération des calories des eaux usées dans les égouts ou en amont, ou l'utilisation de réseau d'eau pour le transport de frigories. Le projet européen Powerstep, lancé en juillet 2015 sous égide européenne, coordonne des études visant à rendre les stations d'épuration productrices d'électricité28.

Un autre point important conditionnant le futur des stations d’épuration concerne la réutilisation des eaux usées traitées (REUT) pour l’irrigation agricole qui permet d’apporter à la fois de l’eau et des nutriments aux cultures. Dans le monde, la réutilisation maîtrisée des eaux usées concerne environ 5 % des eaux usées traitées (Israël, États-Unis, Australie, Espagne, Tunisie, Pays du Golfe…)29. En France, la REUT est très contrainte par la législation qui, compte tenu des risques de dispersion ou de dépôt des germes pathogènes sur les cultures, applique le principe de précaution. Les cas d’application sont donc limités à quelques projets (Clermont-Ferrand, Île de Noirmoutier, Golf de Royan, etc.)30. Depuis 2017, le gouvernement français présente une forte ambition pour la REUT29, notamment dans les régions à déficit hydrique récurrent. C’est dans ce contexte que des appels à projet ont été lancés par l’agence de l’eau Rhône Méditerranée Corse. Les projets en cours en 2018 ont pour objectif de développer des connaissances permettant des pratiques optimales de réutilisation, et au-delà proposer des recommandations pour la modification de la règlementation31.

Notes et références

Bibliographie

Voir aussi

Articles connexes

Liens externes

Portail

 
 
 
 
 
Portail baroque d'un palais privé à Brescia.

Le mot portail est employé pour désigner toute porte plus monumentale qu'une porte ordinaire. Le sens ancien était « grand panneau de bois servant de porte », puis dès le XVIIe siècle, on note les sens actuels restreints aux édifices religieux de « façade d'une église où est la porte principale » et « grande porte d'une église ou d'un temple ».

Étymologie

"Portail" est un dérivé du mot porte, par adjonction du suffixe -al (l'ancien pluriel était portaus1), ce suffixe a été confondu avec -ail, le pluriel étant analogue.

Types de portails

Il existe différents types de portails et il peut s'agir notamment :

Autres significations

Le terme "portail" peut également avoir une signification dérivée dans certains domaines :

Notes et références

  1. étymologie de portail [archive], site du CNRTL

Voir aussi

Articles connexes

Sur les autres projets Wikimedia :

Liens externes

Mur

 
 
 
 
Façade rouge dans l'Hérault, France.

Un mur est une structure solide, souvent fait en briques ou en parpaing, qui sépare ou délimite deux espaces.

Dans les bâtiments les murs forment les pièces. En plus de définir l'espace intérieur du bâtiment, leur utilité est en règle générale de supporter les étages et la toiture.

En plein air, ils délimitent un espace, offrant une zone de sécurité contre les intrusions ou restreignant simplement la libre circulation des animaux ou des personnes. Certains murs ont une fonction de protection contre les effets naturels comme l'eau (on parle dans ce cas de digue ou de barrages).

Le mur peut avoir des fonctions symboliques (propriété, apparat) et/ou de protection et défense (mur d'enceinte, de forteresse, de prison).

Par extension, on qualifie de mur tout assemblage d'éléments de taille et de forme similaire (généralement rectangulaire) : mur de carreaux de verre, mur de télévisions. De la même manière, tout obstacle ayant une apparence relativement unie et infranchissable peut être qualifié de mur : mur d'eau (pour une vague très haute), mur de brouillard, mur de flammes ou de chaleur.

Fonction

Un mur est un ouvrage destiné :

Échelle

Un mur peut séparer deux pièces d'habitation, deux maisons mitoyennes, deux parcelles de terrain, deux affectations de terrain bien typées (pensons au mur des cimetières) voire servir de limite entre États. Un mur peut aussi préserver plusieurs bâtiments de leur environnement (mur d'enceinte).

Murs de séparation

 
Murets de séparation, dits en « pierre sèche », c'est-à-dire maçonnés sans mortier, en Irlande

Murets

Un muret est une clôture artificielle formée au mieux par l'agencement méticuleux, au pire par l'empilement simple de pierres employées soit sèches, soit liées avec du mortier. Les murets sont apparus dans toutes les régions où s’est développée une agriculture sédentaire. Ils ont été construits moins, comme on le croit trop souvent, par la simple collecte et l’empilement des pierres éparses mises au jour par le travail du sol, que par le défonçage et l'épierrement massif de parcelles nouvellement créées.

Murs mitoyens

Un mur est mitoyen lorsqu'il sépare deux parcelles et appartient en copropriété aux deux propriétaires. La propriété et les charge inhérentes à l'entretien des mitoyennetés sont détaillées par le code civil français (cette notion de mitoyenneté n'existait pas dans le droit romain parce que les maisons à Rome étaient isolées (insulae). Les rapports de mitoyenneté forcée n'existaient donc pas1).

Un mur n'est pas mitoyen lorsque des titres notariés le prouvent ou que le mur est conçu d'une manière qui prouve qu'il n'est pas mitoyen. Sont alors présents les éléments suivants :

Murs d'enceinte et fortifications

 

Une muraille est un mur de grande hauteur destiné à protéger un ensemble de bâtiments par leur enceinte. La fortification désigne les ouvrages de défense eux-mêmes, ainsi que l'art militaire d'utiliser de tels ouvrages de défense dans le but de renforcer une position ou un lieu contre une attaque.

Limites entre États

 
Mur en Cisjordanie séparant physiquement les Palestiniens des Israéliens
 

Au cours de l'Histoire, de nombreux murs aux dimensions exceptionnelles ont été édifiés (voir Liste des murs). En voici quelques exemples :

Le Mur de l'Atlantique (France), la ligne Maginot (France) et la ligne Siegfried (Allemagne) étaient en fait des lignes de places fortifiées (blockhaus) distantes les unes des autres, et non des constructions continues.

 

Cycle de vie d'un mur

 
Appareillages de pierre et brique, avec quelques moellons de calcaire blanc, protégés du gel dans la profondeur de ce mur (d'une citadelle construite selon les instructions de Vauban). Une partie des briques brisées l'ont été sous l'effet du gel (cryoclastie), alors que -trop poreuses- elles étaient gorgées d'eau. Les briques et pierres de grès dur, bien plus solides constituent la partie externe du mur. Le médaillon en bas à gauche montre des pierres d'un calcaire crayeux qui se sont délitées sous l'effet du gel, en quelques jours

Dans les maçonneries les pierres, les briques et les mortiers s'écaillent, s'égrènent ou pourrissent par suite de l'action du temps aidée de celle des intempéries, de l'atmosphère et particulièrement du gel (cryoclastie). Les joints se dégarnissent de mortier et l'on voit aussi les pierres se fendre, s’épaufrer ou éclater par suite de tassements irréguliers d'une mauvaise répartition des charges ou de défauts cachés quelquefois aussi par l'effet de la germination des plantes dont les graines emportées par les vents se sont déposées dans les joints de maçonnerie. D'autres fois des filtrations d'eaux pluviales ou des tassements irréguliers font séparer les parements du corps des maçonneries. Ils se bombent prennent du ventre comme on dit en termes du métier puis finissent par tomber par grandes parties. D'autres fois encore ce sont les fondements qui manquent, des tassements totalement imprévus se manifestent dans le terrain et entraînent le déchirement le déversement et parfois la chute des maçonneries. Ailleurs les mêmes effets sont produits par la destruction lente et graduelle du système de fondations (semelle, radier, pieux) utilisés pour suppléer au manque de solidité du sol. Parfois le terrain attaqué et miné par les eaux, les influences atmosphériques cesse à la longue d'offrir aux maçonneries un appui suffisamment solide. Des chocs extérieurs et purement accidentels, l'incendie et les moyens destructeurs que l'homme a à sa disposition sont encore autant de causes qui apportent leur contingent aux détériorations qui atteignent les maçonneries même les mieux faites et les plus solides3.

Une bonne conception dès le départ, la prise en compte de la nature du sol, de l'exposition du mur aux intempéries, le soin apporté au choix des matériaux, aux techniques mises en œuvre, à la finition des surfaces, l'entretien apporté au cours des ans, le soin apporté aux rénovations et aménagements successifs sont déterminants pour la bonne tenue du mur dans le temps.

Efficacité d'un mur

Le mur est techniquement efficace, c'est-à-dire qu'il doit remplir la fonction qu'on lui assigne. Certains murs ont fait les frais de ce qu'ils n'étaient plus techniquement efficaces: par exemple les fortifications successives de nos villes qui ont dû s'adapter aux progrès de l'artillerie.

Dans les sociétés dites « développées » et de par les objectifs environnementaux que se sont fixés les États dans le cadre du Protocole de Kyoto, le mur devient un objet technique et marketing sophistiqué, composite, qui en plus d'assurer la stabilité du bâtiment doit isoler thermiquement, acoustiquement, assurer l'étanchéité à l'humidité, voire l'étanchéité à l'air dans le cas d'une ventilation mécanique contrôlée.

Composition

La composition d'un mur, est décidée généralement par la disponibilité en matériaux, le niveau de technique, la fonction, l'environnement, etc.

Disponibilité des matériaux

Le mur peut être construit par assemblements de troncs ou planches, en terre banchée, par simple empilement de matériaux, (appareil de pierres sèches), par assemblage (appareillage) de matériaux (murs en pierre, en brique crue ou cuite, en bloc de béton) avec un liant (ciment, mortier, torchis) ou d'un seul tenant (mur coulé en béton ou en béton armé dans un coffrage).

Histoire

 
Reconstitution d'un mur celtique en fascines de saule, recouvertes de terre argileuse. Ce type de mur est entièrement biodégradable

Le bois, le feuillage et les peaux d'animaux furent les premiers constituants de l'architecture naissante des pays tempérés. Pour les régions du globe où la végétation est rare, ainsi pour la plupart des rivages méditerranéens, ce fut l'argile qui fut le matériau le plus utilisé. On retrouve par la suite l'argile et le bois associés, dans une architecture plus mûre, constituant les structures dites à maison à pans de bois4.

Beaucoup de techniques utilisées dans les temps anciens se retrouvent encore pratiquées en France au XVIIIe siècle et jusqu'à nos jours. Ainsi en 1825 aux environs de Paris, à côté d'une architecture prestigieuse qui utilise abondamment la pierre, les bâtiments ruraux sont construits en torchis (charpente dont les interstices sont remplis avec de la terre argileuse mêlée de foin ou de paille), avec de la bauge (terre d'argile, mêlée de paille, construction qui a l'avantage de réserver le bois pour les ouvrages où son emploi est indispensable), avec de la terre sèche battue au pisoir, ou avec des briques desséchées au soleil (adobe). On utilise aussi du caillou silex, ou des bloc marneux (prélevés sur les rives de la Seine) posé en mortier de chaux et sable, ou simplement avec de la poudre marneuse délayée à consistance de mortier.

Certains murs ou reste de murs ont été construit depuis plusieurs millénaires et ont traversé l'histoire.

La manière traditionnelle d’assurer la verticalité d'un mur est d'utiliser un fil à plomb ou son équivalent.

Typologie

L'étude de l'ethnologue, qui parlera éventuellement d'« écran », par opposition à l'ossature5, conduit à dégager une typologie constructive de murs dans laquelle est allé puiser l'humanité depuis des temps très anciens: c'est le vocabulaire des architectures rurales ou vernaculaires, partout dans le monde, toutes époques confondues.

Les écrans de matières minérales autoporteurs et porteurs
 
Briques de terre cuite polychromes, Radzyń Chełmiński (Pologne).

On distingue :

Les écrans de matières minérales portés, placés sur des ossatures
 
Parement en ardoise à Lannion-Région Bretagne.

On distingue :

Les écrans de matière végétale
 
Charmille en Allemagne

On distingue :

Les écrans de matière animale

On distingue :

Aspects hygrométriques

En Europe, la composition et l'épaisseur du mur ont été dictées par des impératifs d'étanchéité. Le mur devait être suffisamment épais et suffisamment étanche pour qu'entre deux saisons successives de temps pluvieux, le mur ait le temps de sécher suffisamment pour qu'à aucun moment l'humidité du mur ne parvienne jusqu'à la face intérieure du mur. Utilisant de la pierre ou de la brique les murs devaient être très épais. Pour remédier à cet inconvénient quatre compositions de mur extérieur se sont constituées6 :

Aspects thermiques

En termes de « transmission de chaleur » le mur est appelé paroi.

Le premier choc pétrolier en 1973, accouche dans les climats froids et tempérés, et surtout dans les pays occidentaux, d'un nouveau type de construction faisant un usage intensif de l'isolation thermique. Sa mise en pratique impose de telles contraintes constructives que sa mise en œuvre ne se fait pas immédiatement de manière rigoureuse. Dans les murs en contact avec les ambiances extérieures, un isolant est placé entre une couche intérieure souvent porteuse et une couche extérieures qui sert de parement.

Pour répondre à cette nouvelle gageure de l'isolation, l'industrie a fabriqué des produits: plaques de granit de 15 mm d'épaisseur, méthodes constructives d'assemblage avec des parements de 6 mm d'épaisseur, etc.8. D'autres matériaux sont envisagés comme solution de bardage. Le bois employé en bardage extérieur pourrait être une solution performante, de même que le verre ou les panneaux de fibre ciment7.

Avec le Protocole de Kyoto en 1997, visant à la réduction des émissions de gaz à effet de serre, les états s'arment d'une batterie de règlements visant à améliorer la performance énergétique des bâtiments et ainsi diminuer leur dépendance aux sources d'énergies fossiles.

Les murs et sont désormais l'objet de calculs savants: la caractérisation des matériaux permet de déterminer pour chaque composant du mur, la conductivité thermique (λ), l'aptitude du matériau à retenir ou non la chaleur. Cette valeur est déterminante dans le calcul du coefficient de transmission thermique (U) d'un mur qui permet de quantifier l'isolation thermique d'une paroi :

Inertie thermique du mur

D'autre part, un mur massif contribue à l'inertie thermique du bâtiment, c'est-à-dire sa capacité à conserver la chaleur. Le mur Trombe, invention de Félix Trombe, un mur capteur qui accumule le rayonnement solaire du jour et le restitue pendant la nuit tire profit de cette inertie et de l'énergie solaire passive.

Organe de chauffe

 
Mur intégrant un serpentin pour le chauffage.

Un mur peut également devenir un organe de chauffe lorsqu'il est parcouru par un circuit de chauffage sur sa face intérieure.

Apport solaire

Les murs offrent une grande surface d'exposition au soleil. Lorsque le mur est paré de panneaux solaires photovoltaïque, il peut être générateur de l'énergie électrique9.

Stabilité

Lorsqu'il a une fonction structurelle ou lorsque son poids et la nature du sol l'exigent, le mur repose sur un système de fondation.

Pour un bâtiment, on applique principalement le terme à un mur porteur ayant une fonction statique dans une construction et destiné à porter une charge, notamment la charpente et les planchers. Une distinction s’opère lorsque le mur est placé en façade, on parle de mur de contre-façade, et lorsqu'il est placé perpendiculairement à la façade, à l'intérieur du bâtiment, formant ainsi contrefort, on parle de mur de refend.

Les matériaux maçonnés les plus courants sont6 :

 
Chocolaterie Menier (Moulin Saulnier à Noisiel) Ossature acier, remplissage en brique

Dans un autre type d'architecture, la fonction structurelle est réalisée par une ossature de poutres et poteaux en bois, en acier ou en béton. Les murs n'ont pas d'autre fonctions que de fermer les espaces et ont valeur de remplissage.

Pour un mur intérieur sans fonction de soutènement et destiné uniquement à la séparation de pièces, on parle plutôt de cloison. Dans ce cas, il peut être réalisé avec des matériaux plus légers et moins résistants comme des briques de plâtre ou, pour une meilleure isolation sonore et thermique, des cloisons « sandwich » en plaque de plâtre montées sur une armature en métal ou en bois.

Pour améliorer ses performances mécaniques, le mur peut être renforcé par des contreforts, éventuellement transformés en élément décoratif. Autrefois, pour assurer la stabilité, les murs étaient souvent d'épaisseur décroissante, du bas vers le haut.

Ornementation

Un mur qui n'est pas entièrement aligné mais comporte des renfoncements en creux à certains endroits fournit pour son ornement architectural des niches à statues, des renfoncements pour arcatures.

Un mur bas, supportant ou non d'autres éléments de séparation d'espaces est appelé « muret ».

Ouverture

Le mur est percé de baies qui peuvent être des portes ou des fenêtres (dans le cas des murs extérieurs). Un mur extérieur sans ouverture est dit « aveugle ».

Murs et biodiversité

Forme d'érigéron (Erigeron karwenkianus) (ici en Bretagne, France)
 
Forme muricole d'érigéron (Erigeron karvinskianus) (ici en Bretagne, France)
 
Green Hill, Volcan près de Auckland, Nouvelle-Zélande

Plus récemment, on a aussi attribué au mur des vocations environnementales. Le mur peut, en effet, contribuer à préserver ou améliorer la biodiversité (faune et flore), en particulier dans le cas des murets et murs de pierres sèches. Des murs artificiellement végétalisés sont aussi conçus pour leur aspect décoratif.

Un mur de pierre sèche surtout associé à une haie et/ou un fossé, ou tout mur humide et/ou riche en anfractuosité peut constituer un habitat de substitution pour de nombreuses espèces des parois rocheuses.

La flore (mousses, lichens, fougères et plantes supérieures) qui poussent naturellement sur les murs ou dans leurs anfractuosité et certaines espèces animales (Lézard des murailles par exemple) sont dites muricoles (ou cavernicoles lorsqu'elles vivent dans l'intérieur même des murs, dans les cavités).

Celles qui vivent sur l'extérieur des murs sont généralement aussi xérophiles, c'est-à-dire supportant de longues périodes de sécheresse.

En mesurant la quantité de plante et d'animaux présent sur un mur, on peut lui attribuer un indice de biodiversité muricole ou murale (« IBM »)10.

Inversement, un mur haut et long, bien jointoyé (type « muraille de Chine ») est infranchissable pour de nombreuses espèces. Il peut alors générer des impacts importants en termes de fragmentation écopaysagère

 

Expressions

 

(Voir Mur symbole).

Dans la culture

 
Plan aérien des trois murs dans l'attaque des titans.

Ces 3 édifices entoure chacun des zones de civilisation nommés districts, (se référencer au plan à gauche) ils ont chacun un nom; le mur Maria, le plus large des trois, contient le district de Shiganshina, puis le mur Rose, contenant lui quatre districts, et enfin, au centre, le mur Sina renferme quatre districts, ainsi que la ville souterraine et la capitale royale (Mitras).

L'histoire fait évoluer premièrement les personnages à l'intérieur de ces derniers, représentant alors un barrière infranchissable qui pousse le lecteur ainsi que les protagonistes, à se questionner sur leurs origines, et sur le monde se trouvant au delà. Se pourrait-il que les personnages changent leurs point de vue envers ces édifices ?

 
La maison d'Adam d'Angers est une maison gothique en pan de bois de la fin du Moyen Âge, les murs sont en colombage constitué d'une structure en charpente de bois avec des espaces remplis de torchis.

Notes et références

Voir aussi

Sur les autres projets Wikimedia :

Bibliographie

Articles connexes

Liens externes

Parpaing

 
 
 
 
Les pierres A sont des carreaux ; les pierres B, des boutisses parpaignes ; les pierres C, des parpaings.

Un parpaing (du latin perpetaneus, « ininterrompu ») est à l'origine un élément de maçonnerie taillé qui présente deux faces lisses afin de réaliser en même temps les deux faces opposées d'un mur. L'expression « faire parpaing », « traverser le mur de part en part pour en assurer la solidité », vient de là1.

Le parpaing peut varier en taille, mais est généralement d'un ratio de 5:22.

Le terme s'emploie également comme adjectif (masculin : parpaing, féminin : parpaigne) comme dans « boutisse parpaigne ».

Par analogie, le mot fut employé dès le début du XXe siècle pour désigner le bloc de béton manufacturé que l'industrie produisait de plus en plus massivement à moindre coût.

Références

  1. Article parpaing [archive], lexique en ligne du CNRTL.

Voir aussi

Sur les autres projets Wikimedia :

Articles connexes

Bibliographie

Lumière

 
 
 
 
Rayons de lumière sortant des nuages.

Dans son sens le plus habituel, la lumière est le phénomène à l'origine d'une sensation visuelle. La physique montre qu'il s'agit d'ondes électromagnétiques. Le spectre visible est la zone du spectre électromagnétique à laquelle est sensible l'espèce humaine ; il inclut — comme pour les autres espèces animales — la longueur d'onde où l'éclairement énergétique solaire est maximal à la surface de la Terre, par un effet d'adaptation à l'environnement. Il s'étend autour d'une longueur d'onde de 550 nm, plus ou moins un tiers.

L'optique est la discipline qui étudie la lumière. Comme les lois de la propagation de la lumière sont largement semblables à celles des autres rayonnements électromagnétiques, d'autant plus que leurs longueurs d'onde sont proches du spectre visible, l'optique s'étend souvent à d'autres ondes électromagnétiques situées dans les domaines infrarouge et ultraviolet ; c'est ainsi qu'on parle de lumière noire, de lumière ultraviolette ou de lumière infrarouge, ce qui pousse parfois à utiliser le terme de lumière visible pour éviter toute ambiguïté. La lumière, y compris ces rayonnements invisibles, transporte une grande partie de l'énergie solaire jusqu'à la surface de la terre et maintient l'équilibre de l'environnement naturel, avec la régénération de l'oxygène par la chlorophylle des plantes.

Pour l’être humain, la lumière indispensable à la vision tient une part importante du bien-être et de la vie sociale. L'éclairage est une spécialité artistique et industrielle qui fait l'objet de normes légales. L'optique physiologique étudie plus particulièrement la perception de la lumière par les êtres humains. La photométrie relie les mesures physiques des rayonnements électromagnétiques à la vision humaine ; la colorimétrie les relie à la perception des couleurs.

La lumière a une forte valeur symbolique; permettant de percevoir les objets avant de les toucher, elle s'associe, dans toutes les cultures humaines, à la connaissance.

Propagation et perception

La lumière se déplace en ligne droite dans le vide à une vitesse strictement fixe. Dans les autres milieux, la propagation, toujours plus lente, peut dépendre de la longueur d'onde ; on parle alors de milieu dispersif. La lumière est un peu plus lente dans l'air que dans le vide, et notablement plus lente dans l'eau.

La présence de particules entraîne la diffusion des ondes lumineuses. Quand ce phénomène est négligeable à l'échelle où on l'étudie, on parle de milieu homogène. La diffusion des ondes par l'air, cause de la couleur du ciel, est négligeable à l'échelle d'un instrument d'optique.

La lumière peut changer de trajectoire lors du passage d'un milieu à un autre. Le principe de Fermat ou les lois de Descartes relient les changements de trajectoire de la lumière lorsqu'elle passe d'un milieu à l'autre à sa vitesse dans chacun des milieux. Quand le milieu est dispersif, la trajectoire varie selon la longueur d'onde, et le faisceau lumineux se trouve décomposé selon la longueur d'onde. Ce phénomène se rencontre dans la nature avec l'arc-en-ciel.

La lumière n'est perçue par un récepteur que si elle va directement dans sa direction.

La perception de la lumière est qualitativement différente selon son intensité et son incidence sur l'œil. Quand la lumière est faible, ou qu'elle atteint une région périphérique de la rétine, l'être humain n'en perçoit que l'intensité : c'est une vision en « noir et blanc » et gris intermédiaires. Quand l'éclairement se trouve dans le domaine de vision de jour, une partie centrale de la rétine, la fovéa, analyse grossièrement le spectre lumineux en trois bandes, ce qui permet la vision des couleurs.

Limites du spectre visible

La physique caractérise les ondes électromagnétiques par leur longueur d'onde ou leur fréquence. La fréquence d'un rayonnement ne change pas, mais sa longueur d'onde est proportionnelle à la vitesse de la lumière dans le milieu où il se propage. Quand on parle de longueur d'onde pour la lumière sans autre précision, c'est dans le vide. Cette longueur d'onde est peu différente de celle dans l'air.

Les limites du spectre visible sont imprécises, car la sensibilité visuelle diminue progressivement en s'éloignant d'un maximum autour de 550 nm dans le domaine de vision diurne, 510 nm quand la lumière est faible. Cette sensibilité varie selon les espèces, dont les relations avec leur environnement déterminent l'importance pour la survie de telle ou telle région du spectre1, tout en correspondant toujours approximativement à celle où l'énergie du rayonnement solaire est la plus forte à la surface de la Terre2. Elle décroît progressivement autour du maximum ; les limites qu'on lui donne dépendent donc du seuil qu'on lui fixe3.

La lumière visible se situe à une fréquence de 540 ± 200 THz (longueur d'onde dans le vide 550 ± 120 nm). Il est parfois intéressant de considérer l'énergie photonique, vers 2,2 ± 0,7 électron-volts.

Limites du rayonnement lumineux

La physique étudie l'environnement en essayant de s'affranchir des incertitudes de la perception humaine, mais son développement historique en a dépendu étroitement. Avant que les physiciens considèrent la lumière comme une partie du rayonnement électromagnétique, l'optique a établi des méthodes à partir de la lumière visible. La photographie a montré que les lois de l'optique s'appliquaient à des rayons invisibles. Si l'on définit la lumière par « rayonnement qui s'étudie par des systèmes optiques », on peut étendre énormément son champ. Un radiotélescope les applique dans ses antennes. Ce sont les points communs de ces rayonnements qui les font assimiler à la lumière :

Photométrie

Du point de vue physique, il est tout à fait indifférent qu'un rayonnement soit visible ou non. L'évaluation de l'effet d'un rayonnement électromagnétique sur l'éclairement est l'objet de la photométrie. Ces études, entreprises depuis le XVIIe siècle, ont abouti à l'établissement de courbes ou de tables d'efficacité lumineuse spectrale. On peut ainsi, connaissant la puissance d'un rayonnement pour chaque longueur d'onde, calculer son effet lumineux. Plus pratiquement, avec un capteur muni d'un filtre (optique) approprié, on peut mesurer un flux lumineux ou un éclairement lumineux4.

Couleur

Lorsque le niveau lumineux est suffisant (vision photopique), l'être humain distingue des couleurs, correspondant à la répartition spectrale des lumières qui lui parviennent. La vision est une perception complexe, une activité cognitive dans laquelle plusieurs aires cérébrales collaborent, comparant les sensations à celles enregistrées dans la mémoire, avec plusieurs effets en retour. En particulier, la vision des couleurs s'adapte à l'éclairage ambiant, de façon à attribuer aux objets une couleur, même si, du fait d'une variation de la lumière, la rétine reçoit des rayonnements différents5.

L'être humain est trichromate, son œil comporte trois types de récepteurs, dont la sensibilité spectrale est différente ; les différences entre leurs réponses est à la base de la perception des couleurs. Par conséquent, deux lumières de composition spectrale très différente peuvent être perçues comme étant de la même couleur, si leur influence sur les trois types de récepteurs est égale. On dit alors que les lumières sont métamères. C'est cette particularité que l'on exploite dans la photographie et l'impression en couleurs, ainsi que dans les écrans de télévision et d'ordinateur. Avec trois couleurs bien choisies, dites couleurs primaires, on peut créer, soit par synthèse additive, soit par synthèse soustractive, la perception de très nombreuses couleurs. L'étude de la perception des couleurs, selon les caractéristiques physiques du rayonnement lumineux, est l'objet de la colorimétrie6.

Description physique de la lumière

Ondes et corpuscules

Divers phénomènes physiques mettent en évidence parfois l'aspect corpusculaire, parfois l'aspect ondulatoire de la lumière. Selon les cas, la lumière présente des propriétés soit propres à une onde, sans localisation — diffraction, polarisationetc., soit propres à un objet localisé, un corpuscule — effet photoélectrique, spectre d'émission des matériaux, chimie des colorantsetc..

L'approche corpusculaire est inévitable lorsque les énergies en jeu sont si faibles qu'on ne peut rien en prélever pour la mesure sans perturber le système. L'approche ondulatoire sert en optique et dans les cas qui concernent des puissances incomparablement plus grandes que celle des photons. Ses modèles supposent que les phénomènes sont mesurables sur une échelle continue.

Vitesse

La vitesse de la lumière dans le vide, notée c (comme célérité), est une constante de la physique. Cette propriété a été induite de l'expérience d'interférométrie de Michelson et Morley et a été clairement énoncée par Albert Einstein en 1905.

La vitesse de la lumière dans le vide est la vitesse maximale possible pour tout déplacement d'énergie.

Addition des vitesses et célérité

La loi d'addition des vitesses v' = V+v est à peu près vraie pour des vitesses faibles par rapport à la vitesse de la lumière. Du point de vue de la physique classique, un voyageur marchant dans un train a, par rapport au sol, une vitesse égale à celle du train plus (vectoriellement) sa propre vitesse de marche dans le train. Et l'on écrit d = (V+v) t = Vt+vt, soit la distance parcourue par le train plus la distance parcourue dans le train est la distance parcourue par le voyageur par rapport au sol dans le temps t qui est classiquement le même dans le train et au sol, ce qui implique la loi classique d'addition des vitesses. Cette approximation devient de moins en moins précise à mesure que la vitesse v considérée augmente.

Un photon va à la même vitesse c que ce soit par rapport au sol ou par rapport au train ! La loi d'addition des vitesses n'est qu'une approximation de la loi dite de transformation sur les vitesses de Lorentz (appelée parfois d'addition des vitesses, ou plus correctement loi de composition des vitesses). Ce résultat est l'une des caractéristiques de la relativité restreinte ; la loi de composition des vitesses issue des transformations mathématiques de Lorentz donne à la limite des faibles vitesses (par rapport à la vitesse c) les mêmes résultats que les transformations de Galilée.

Dans les matériaux

La vitesse de la lumière n'est pas toujours la même dans tous les milieux et dans toutes les conditions. Les écarts de vitesse observés entre deux milieux sont liés à l'indice de réfraction, qui caractérise les réponses des milieux à la traversée d'une onde électromagnétique.

L'écart entre la vitesse de la lumière dans le vide et la vitesse de la lumière dans l'air est très faible (moins de 1 %), ce qui a permis de parler en général de vitesse de la lumière au lieu de vitesse de la lumière dans le vide. Cependant, dans la matière condensée, une onde lumineuse peut être considérablement ralentie (par exemple, de 25 % dans l'eaua. Les physiciens sont même parvenus à ralentir la propagation lumineuse par transparence induite électromagnétiquement jusqu'à une vitesse de quelques mètres par seconde dans des cas extrêmes7.

Dans le Système International (SI)

Actuellement, la plupart des unités du Système international sont définies à partir de la célérité de la lumière. Une vitesse étant le quotient d'une longueur par une durée, on peut définir une distance comme étant le produit d'une durée par une vitesse (en l'occurrence c), ou une durée comme la division d'une distance par c.

La seconde est définie dans le Système International par un phénomène lumineux : c'est la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les deux niveaux hyper-fins de l'état fondamental de l'atome de césium 133.

Le mètre, unité du Système International de longueur. De nos jours, il est défini comme la distance parcourue par la lumière, dans le vide, en 1299 792 458 seconde. Il s'agit là d'une définition conventionnelle, car toute évolution dans la définition de la seconde aurait une incidence directe sur la longueur du mètre. Avec la définition actuelle de la seconde, le mètre est donc égal à :

9 192 631 770 299 792 458 fois la longueur d'onde de la radiation choisie.

On peut également dire que la vitesse de la lumière dans le vide est précisément 299 792 458 m/s : il n'y a pas d'incertitude sur cette valeur8.

Année-lumière

En astronomie, on emploie, surtout en vulgarisation, une unité qui donne une idée de l'énormité des distances qui séparent les astres. Une année-lumière est la distance que parcourt la lumière en un an. Elle vaut un peu moins de 9,5 pétamètres — 9,5 millions de millions de kilomètres. L'étoile la plus proche du système solaire s'en trouve à 4,22 années-lumière. Les communications scientifiques préfèrent souvent le parsec ou l'unité astronomique. La mesure des distances en astronomie limite l'usage de chaque unité à une plage de distances appropriée.

Histoire de l'étude de la lumière

Les premières études expérimentales sur la lumière remontent à l'Antiquité. La propagation en ligne droite, la loi de la réflexion sont connues à l’époque de Aristote9.

Cependant la philosophie hésite quant à la nature de la lumière. L'expérience humaine ordinaire ne permet pas de décider si un objet est visible lorsque personne ne le voit. On peut, comme les philosophes de la Grèce antique, interroger la notion de lumière. La théorie de l'extramission considère la vision comme un sens proche du toucher, dans lequel des rayons rectilignes, impalpables, sortent de l'œil pour aller palper les objets. Cette théorie ne fait pas obstacle au développement de la perspective ni à celle des miroirs. Les cultures considèrent les astres, qu'on ne peut toucher, comme des êtres surnaturels. Le doute sur la nature de la vision, et par conséquent de la lumière, va se maintenir jusqu'à la Renaissance, et bien plus tard en ce qui concerne les couleurs, dont le rapport à l'expérience physique est plus distant. Ces notions seront à la base des résistances aux théories scientifiques de la lumière.

Autour de l'An mille, le savant perse Ibn Al Haytham (965 - 1039), de son nom latinisé Alhazen, rédige à Bagdad son Traité d'optique. Il est le premier à penser que la lumière se déplace à vitesse finie et en particulier que cette vitesse est plus élevée dans les milieux de faible densité9. La traduction latine d'une partie de son œuvre alimente la science occidentale, quelques siècles plus tard.

L’optique bascule brutalement avec la découverte fortuite des lentilles par des artisans italiens vers la fin du XIIIe siècle. L’Allemand Johannes Kepler résume l’ensemble des connaissances de l’optique dans son ouvrage Dioptrice, après avoir vérifié les travaux de Galilée. L'étude de la lumière se confond alors avec celle des instruments permettant de voir les objets lointains ou minuscules. Au XVIIe siècle, Snell, Fermat et Descartes abordent la lumière par l'optique géométrique. Fermat est parmi les premiers à affirmer que la vitesse de la lumière est finie. En 1676, Rømer la calcule pour la première fois à partir des décalages de l'orbite de Io par rapport aux prévisions. Huygens montre en 1677 que les lois de Snell-Descartes sont conservées si l'on suppose une propagation de la lumière sous la forme d'ondes10.

Newton publie en 1704 son Opticks qui interprète les phénomènes lumineux de manière corpusculaire : les faisceaux lumineux qui se propagent dans l’éther sont une succession de grains de lumière dont la taille est reliée à la couleur. Le prestige de l'auteur paralyse pendant près d’un siècle les suppositions selon lesquelles la lumière pouvait être une onde9. Ses travaux sur la décomposition de la lumière blanche transforment radicalement la conception de la couleur : la lumière blanche qui était supposée primordiale s'avère la composition de rayonnements colorés. Ce changement rencontre pendant plus d'un siècle des résistances fondées sur les failles réelles du raisonnement de Newton, aussi bien que sur des expériences de perception et la défense des arguments traditionnels11.

Au XIXe siècle, Hippolyte Fizeau puis Léon Foucault mesurent la vitesse de la lumière avec un faisceau qu'une roue dentée divise en impulsions réfléchies par des miroirs. Thomas Young étudie expérimentalement la diffraction et les interférences de la lumière, qui soutiennent la théorie ondulatoire. Augustin Fresnel énonce que cette conception est seule capable d’expliquer de façon convaincante tous les phénomènes de polarisation.

En 1873, James Clerk Maxwell interprète la lumière comme étant un phénomène électromagnétique10. Les recherches de la physique sont dès lors entièrement détachées de la lumière visible. Les équations de Maxwell permettent de développer une théorie générale de l'électromagnétisme. Elles s'apliquent aussi bien la propagation de la lumière qu'au fonctionnement d'un électroaimant — on démontre que les lois de l'optique géométrique en sont un cas particulier. Cette description classique est la plus utilisée.

En 1905, Albert Einstein publie sa théorie de la relativité restreinte où il étudie les conséquences mathématiques du principe physique selon lequel la vitesse de la lumière a la même valeur dans tous les référentiels galiléens. Après les travaux de Ludwig Boltzmann et Max Planck, Einstein reprend l'idée que la lumière peut avoir une nature corpusculaire. L'étude de l'interaction rayonnement-matière donne naissance à la mécanique quantique, et au concept de dualité onde-corpuscule pour ces rayonnements12.

La révolution industrielle crée, au cours du XIXe siècle, de nouveaux procédés d'éclairage, dont la comparaison suscite des études sur la perception de la lumière. La photométrie se dégage de la comparaison entre éclairage au gaz et éclairage électrique. Le développement de la photographie oblige à préciser ce qu'est la lumière visible par rapport au rayonnement en général : des rayonnements invisibles comme les ultraviolets marquent la surface sensible, tandis que des rayonnements visibles, correspondant au rouge, ne s'y impriment pas et donnent du noir, jusqu'au perfectionnement de la pellicule panchromatique. On distingue l'intensité énergétique de l'intensité lumineuse du rayonnement.

Énergie lumineuse et vie

 

Biologie

Même si certaines formes de vies au fond des océans peuvent s'en passer, la lumière du Soleil est la première source d'énergie des écosystèmes terrestres, par la photosynthèse. Elle contrôle les cycles écogéobiologiques et le stockage du carbone tels qu'ils existent depuis 3,7 milliards d'années. Elle joue aussi un rôle important en entretenant la couche d'ozone et en limitant la pullulation des microbes sensibles aux ultraviolets et/ou à l'infrarouge. Cette sensibilité est utilisée par certaines techniques de stérilisationb.

Inversement, elle contribue à certaines formes de pollution dites « photochimiques » (ozone troposphérique, oxydes d'azote) et inversement à dégrader (photodégradation) certains polluants de l'air, du sol superficiel ou de l'eau (certains pesticides présents dans l'air) par exemple. La lumière corrige les horloges biologiques animales, par la production de mélatonine qui est une hormone uniquement produite la nuit, chez la plupart des animaux et chez d'autres espèces. Chez la plupart des espèces la lumière naturelle est vitale au bon accomplissement des cycles biologiques. Chez l'humain, l'exposition aux ultraviolets de la lumière solaire sont nécessaires à la synthèse de la vitamine D[réf. souhaitée].

Les plantes possèdent des protéines sensibles à la lumière sous différentes longueurs d'onde.

Les phytochromes peuvent passer de la forme inactive, Pr, à la conformation active, Pfr, sous la lumière rouge. Le processus est thermodynamiquement réversible sous l'effet des infrarouges proches (710 à 850 nm). Les phytochromes actifs peuvent induire la germination des graines ou inhiber la croissance de la tige ; ils contrecarrent ainsi les protéines PIFs impliquées dans l'expression des gènes en empêchant leur action. Les phytochromes jouent aussi un rôle dans l'évitement de l'ombre et la rectification de l'horloge circadienne en cas de changement de la durée du jour[réf. souhaitée].

Les cryptochromes peuvent agir de concert avec les phytochromes, mais sont sensibles à la lumière bleue. Ils sont capables d'inhiber la croissance de la tige, de réguler l'horloge circadienne et d'induire la floraison et la croissance des cotylédons. Chez les animaux elles jouent un rôle dans le cycle circadien.

Les ultraviolets B activent les protéines UVR8 (en) qui provoquent la production de flavonoïdes qui filtrent les rayonnements. Associé à la réparation d'ADN, l'UVR8 peut induire une acclimatation ainsi qu'une élongation de la tige. Une exposition trop intense aux UV-B peut conduire à la mort de la plante[réf. souhaitée].

La durée du jour est essentielle pour contrôler l'apparition des bourgeons, feuilles, fleurs, ou l'ouverture et la fermeture de fleurs. La présence de lumière artificielle dans l'environnement nocturne peut altérer le comportement ou les fonctions de certaines espèces ou des écosystèmes[réf. nécessaire] ; ce phénomène est généralement décrit sous le nom de « pollution lumineuse »[réf. souhaitée].

Vision

De nombreuses espèces animales possèdent un sens visuel, permettant de réagir à des objets distants. Un bon nombre de ces espèces réagissent différemment aux objets selon le spectre de la lumière qu'ils émettent ou réfléchissent, exhibant ainsi les caractères d'une forme de vision des couleurs. Les organismes sont généralement sensibles aux parties du spectre électromagnétique issu du rayonnement solaire sont les plus puissantes dans leur environnement. La vision humaine définit celle qu'on appelle spectre visible, dont les fréquences supérieures produisent une perception de couleur violette et les fréquences inférieures correspondent au rouge. La limite du spectre visible est arbitraire ; la sensibilité de l'œil diminue progressivement, et la limite en fréquence dépend du niveau que l'on considère comme négligeable (1 %, 0,1 % de la meilleure sensibilité, par exemple)14. On donne en général les valeurs de longueur d'onde de 400 à 700 nanomètres (nm), des valeurs simples à retenir, allant jusqu'à une sensibilité de moins de 1 % du maximum. Les tables photométriques vont de 360 à 830 nm ; les longueurs d'onde inférieures à 450 nm se perçoivent comme des couleurs bleu-violet profond très peu différentes de teinte, mais de plus en plus sombres, tandis que toutes les longueurs d'onde supérieures à 630 nm donnent, de même, la même impression visuelle rouge, si on en augmente suffisamment l'intensité. La largeur de bande de la lumière visible par les animaux peut varier quelque peu par rapport aux capacités visuelles des êtres humains.

Dans la vision photopique, diurne, la transformation de la lumière en influx nerveux par les cônes permet la perception colorée. L'adaptation visuelle change les caractères de la perception pour la faire correspondre à l'éclairement de la scène vue, et aux rapports perçus entre les surfaces du champ visuel. La correspondance entre lumière définie physiquement et la perception est assez lâche en général. On attribue aux objets une couleur constante même si le rayonnement qui en parvient à l'œil varie. Les êtres vivants, en dehors d'un contexte technologique, n'ont aucun avantage à mesurer la lumière. La vision leur sert à identifier les objets à distance. Les animaux porteurs des caractères les plus à même de favoriser cette fonction ont gagné un avantage dans la sélection naturelle et les ont propagés15.

Cycle circadien

La lumière naturelle est pulsée par le rythme circadien, qui influe sur l'ensemble des fonctions vitales. Chez l'humain on peut produire ou soigner une dépression par l'absence ou la présence de lumière. Une étude sur des pensionnaires de maison de retraite été démontré en 2008 que la prise de mélatonine et l'exposition à la lumière naturelle améliorent les symptômes de troubles des cycles du sommeil ; la prise de mélatonine facilite l'endormissement (huit minutes plus tôt en moyenne) et allonge le sommeil de vingt-sept minutes en moyenne16. L'exposition à la lumière naturelle diminuerait aussi chez ces personnes âgées les symptômes de dépression (-19 %), les limitations fonctionnelles au quotidien (- 53 %) et la détérioration cognitive (- 5 %). L'association lumière + mélatonine a aussi diminué les comportements agressifs (- 9 %), les phases d'agitation et de réveils nocturnes.

Le Dr Albert Lachman (spécialiste des troubles du sommeil) estime qu'en améliorant le sommeil du malade, ses fonctions cognitives et l'humeur sont améliorées. Il conseille « de bien éclairer les pièces en journée, de laisser les rideaux ouverts et, à l'inverse, de diminuer les sources de lumière en soirée pour que l'organisme reçoive le signal que la nuit est là […] Malheureusement, dans certaines maisons de repos, pour des questions d'organisation, on fait plutôt l'inverse » ajoute-t-il17.

Il est apparu que des récepteurs situés dans les cellules ganglionnaires de la rétine, surtout sensibles à la lumière bleue présente dans la lumière du jour, participent à la régulation de mélatonine et du rythme circadien. Une précaution d'hygiène lumineuse doit faire éviter de perturber ce cycle par un éclairage artificiel « lumière du jour » la nuit18.

Sources lumineuses

Mesure

En matière de mesure de la lumière, il importe de bien définir de quoi on parle :

 
faisceaux de lumière cohérente issus de lasers.

La lumière est constituée d'ondes électromagnétiques, caractérisées par la longueur d'onde dans le vide, correspondant à un niveau d'énergie, et l'intensité. La répartition des longueurs d'onde régit la perception de couleur de la lumière. Une onde électromagnétique constituée d'ondes de la même longueur d'onde — pour autant qu'on puisse le vérifier, est dite monochromatique. Si en plus toutes les ondes ont la même polarisation, alors la lumière est cohérente : c'est ce qui se passe dans un laser.

La mesure de la lumière est compliquée par le fait qu'on s'intéresse, en pratique, à la lumière visible, alors que la sensibilité humaine dépend de la longueur d'onde. Le rapport entre ces deux grandeurs, déterminé empiriquement, se trouve dans le tableau des valeurs d'efficacité lumineuse spectrale.

Sources naturelles de lumière

Le Soleil est le principal luminaire naturel. Les étoiles plus lointaines rayonnent suffisamment pour être visibles, mais pas assez pour éclairer. La lumière solaire est suffisamment puissante pour que la petite partie de son rayonnement diffusée par l'atmosphère terrestre et réfléchie par les objets de la surface suffise pour voir les parties qu'elle n'atteint pas directement.

La Lune réfléchit suffisamment de lumière solaire pour permettre la vision scotopique (nocturne), sans perception des couleurs, des objets que son rayonnement frappe directement.

Les autres petits corps célestes, planètes et leurs satellites, astéroïdes, comètesetc.), produisent de même moins de rayonnement qu'ils n'en reçoivent, et leur rayonnement, comme celui des étoiles, est insuffisant pour éclairer à la surface de la Terre. Certaines planètes géantes (comme Jupiter ou Saturne) produisent un peu plus de rayonnement qu'elles n'en reçoivent, mais pas suffisamment pour être facilement visibles à l'œil nu depuis la Terre. Les étoiles filantes, quant à elles, sont échauffées par la friction avec l'air et finissent par y brûler. Ce phénomène est source d'une lumière également insuffisante pour éclairer.

Les objets chauds émettent un rayonnement électromagnétique dont l'énergie dépend de leur température ; un corps noir produirait une lumière de spectre lumineux à peu près semblable à celui du Soleil à une température d'environ 5 500 kelvins. Les combustions en milieu ouvert échauffent suffisamment de poussières pour que celles-ci produisent de la lumière.

Certains organismes vivants : poissons, mollusques, lucioles et vers luisants, produisent de la lumière par bioluminescence.

Sources de lumière artificielles

 

Les humains se sont d'abord éclairés par la lumière du feu. Le bitume et la poix renforcent l'éclat des torches. Les archéologues ont découvert des lampes à huile rudimentaires parmi des objets remontant au Néolithique. Les chandelles et bougies, de principe identique, présentent l'avantage pratique d'un combustible solide, qui ne se liquéfie que par la chaleur de la combustion.

Pour éclairer il faut des matières dont la combustion imparfaite produit des poussières, chauffées par la réaction de parties plus volatiles avec l'oxygène de l'air. La combustion du pétrole ou du gaz, bien réglée, est trop parfaite pour éclairer. On disposait les luminaires à pétrole ou à gaz de sorte qu'un excès de combustible produise les poussières nécessaires, jusqu'à ce que l'invention du manchon à incandescence à la fin du XIXe siècle permette l'amélioration du rendement des lampes.

La lampe à incandescence électrique inventée à la fin du XIXe siècle a révolutionné l'éclairage. Les lumières électriques sont depuis lors les sources les plus courantes de lumière artificielle.

Des systèmes basés sur la luminescence ont ensuite rivalisé et souvent remplacé la lampe à incandescence : le tube fluorescent, la lampe électroluminescente. Les plus récents sont de plus en plus économes en énergie.

Législation

De nombreux équipements destinés à la signalisation, à la communication, à la publicité émettent de la lumière dans et hors des habitations. Ils peuvent, comme les appareils d'éclairages, être à l'origine de pollution lumineuse.

La lumière compte parmi les facteurs environnementaux dans la loi sur la protection des émissions. Les émissions lumineuses issues de systèmes d'éclairage artificiels peuvent perturber significativement le cycle du sommeil indispensable à l'humain et à la nature en empêchant la réalisation de certains processus naturels. Les règlements sur la lumière, particuliers à chaque pays, définissent l'éclairage normal de l'éclairage intérieur et le seuil d'éblouissement. Les lumières aux couleurs intenses et clignotantes peuvent s'avérer particulièrement perturbantes. L'État veille à la bonne application de la loi en la matière, incluse en France dans le Code de l'environnement. La lumière intéresse la sécurité en matière de transport : niveau et répartition de l'éclairage urbain, réglage des phares de voiture pour éviter l'éblouissement. Les effets néfastes de la lumière artificielle sur la faune sauvage (par exemple, sur les insectes nocturnes, la perturbation des oiseaux migrateurs), la pollution lumineuse nuisible à l'observation de l'espace motivent les limitations réglementaires.

Esthétique

L'importance de la lumière dans la peinture19, la spécialité technique et artistique de l'éclairage, qui produisent une lumière artistique, témoignent des valeurs esthétiques liées à la lumière, naturelle ou artificielle, dont Paul Souriau a tenté d'établir des caractères20. « La beauté de la lumière ne se peut pas mesurer exactement au photomètre21 ».

Symbolisme

 

La lumière a une forte valeur symbolique; permettant de percevoir les objets avant de les toucher, elle s'associe, dans toutes les cultures humaines, à la connaissance, tandis que l'opposition entre lumière et ténèbres se relie à celles entre vie et mort et entre bien et mal. Dans de nombreuses religions, Dieu est associé à la lumière.

Le langage entretient, par des métaphores devenues des clichés, cette association. Ainsi, diverses religions expriment l'accession soudaine à un savoir mystique par le mot « illumination » ; tandis qu'en Europe, l'époque où se structure la méthode scientifique et où la connaissance du monde platonicienne se transforme en élaboration mathématique à partir de la mesure se désigne comme siècle des Lumières tandis que par la suite, la philosophie des Lumières diffuse ce nouveau genre de savoir, qui se présente comme supérieur à l'obscurantisme des religions instituées.

La propriété de la lumière de se transmettre à distance sans support matériel alimente une métaphore ancienne, qui l'associe aux idées. Vitellion, savant polonais du XIIIe siècle traducteur de l’Optique d'Alhazen, rapproche la lumière physique, manifestation de Dieu et la lumière divine, c'est-à-dire le sentiment de Dieu[réf. souhaitée]. Pour Georges Duby, l'architecture des cathédrales de l'époque s'organise selon ce parallèle, dit théologie de la Lumière22.

Annexes

Sur les autres projets Wikimedia :

Il existe une catégorie consacrée à ce sujet : Lumière.
 

Bibliographie

Articles connexes

Liens externes

Notes et références

  1. Deux cents pulsations lumineuses de cent nanosecondes chacune ont montré des effets très significatifs13.

  1. Georges Duby, Le temps des cathédrales, .

Sécurité

 
 
 
 
Le transport dans de bonnes conditions de matériel est une des conditions de santé et sécurité au travail dans certains pays. Cet exemple de mode de transport pour des bouteilles de gaz pressurisé a une forte probabilité de mise en péril des biens et des personnes.

Physiquement, la sécurité est l'état d'une situation présentant le minimum de risque.

Psychiquement, la sécurité est l'état d'esprit d'une personne qui se sent tranquille et confiante. Pour l'individu ou un groupe, c'est le sentiment (bien ou mal fondé) d'être à l'abri de tout danger et risque.

Généralités

La sécurité d'une entité (objet, personne, entité politique, juridique, intellectuelle, écologique, informatique) s'envisage individuellement ou collectivement, soit comme objectif (objectif de sécurité), en tant que droit (droit à la sécurité), en tant que valeur (la sécurité est la première des libertés), en tant qu'état de ce qui est sécurisé, en tant que fonction ou d'activité qui vise à sécuriser cette entité ; face à des risques et/ou à des menaces (ces deux notions n'étant pas réductibles l'une à l'autre)1.

S'agissant des risques, il peut s'agir de risques de défaillance ou de dégradation (voire de destruction) de cette entité qui sont imputables soit à une erreur, soit à une faute imputable à l'entité elle-même et/ou à son environnement extérieur, ou encore de risques dits systémiques généralement liés à l'incomplétude, à la non prévisibilité, à la non intégrité, à la non fiabilité, à la non robustesse ou à l'incohérence conceptuelle d'une théorie, d'un système ou d'une organisation (par exemple les risques liés à la défaillance des systèmes monétaire et bancaire internationaux, ou les risques environnementaux).

S'agissant des menaces, elles peuvent prendre la forme de menaces de nature criminelle (y inclus le terrorisme), de nature délictuelle, de nature politique, de nature militaire, de nature diplomatique, de nature technique (hacking…), de nature économique, de nature financière, de nature sociale, ou encore de nature environnementale (cyclones, dérèglement climatique, désertification, risques de pollution, sécheresse, incendie ou d'inondation…) (NB : la menace environnementale étant essentiellement imputable aux aléas naturels, alors que le risque environnemental est essentiellement imputable à l'activité humaine).

La sécurité comporte un aspect psychologique et un aspect objectif. On parle dès lors de sécurité subjective et de sécurité objective.

L’approche objective de la sécurité s’intéresse aux causes (anglais : security) et aux effets (anglais : safety). « Security » étant les mesures prises contre les actes commis par malveillance (vols, incendies volontaires, attentats, etc.), et « safety » les mesures prises contre les phénomènes accidentels, naturels (tempêtes, fuites d'eau, etc.). Elle procède de la mise en œuvre de mesures passives ainsi que de mesures actives. C'est une démarche qui peut s'appliquer à de multiples domaines (sécurité juridique, construction mécanique…). Du point de vue méthodologique, la démarche de sécurité est, comme la qualité, une démarche transversale, que l'on peut trouver dans les ingénieries complexes, dans lesquelles le principe de Pareto devient un outil de tout premier plan.

On distingue parfois la sécurité passive, très liée au domaine de la prévention) et de la sécurité active. Ces deux notions se complètent, chacune étant facteur d'une meilleure sécurité : la prévention, qui vise à diminuer le risque de survenance, et la protection (sécurité « active ») qui diminuera les conséquences si l'événement dommageable survient.

La sécurité est un concept applicable à de nombreux domaines. On peut en citer quelques-uns, avec les organismes ou services destinés à prévenir un risque ou un danger.

La défense

La défense d'une entité (politique, juridique, économique, physique, humaine…) rassemble l'ensemble des activités et des moyens qui concourent à prévenir et à opposer des parades offensives et défensives, actives et passives, militaires ou non militaires à des menaces de toute nature, potentielles, déclarées ou avérées à l'égard de cette entité. Opérant autant à l'encontre des causes que des effets de ces menaces, elle constitue à ce titre une composante majeure de la sécurité.

La politique internationale

Le Conseil de sécurité de l'ONU est chargé de veiller à la sécurité et à la paix dans le monde.

La sécurité nationale

La sécurité nationale, en tant que concept explicite, est un concept nouveau en France et, plus généralement, au sein de l'Union européenne (il apparaît pour la première fois dans le nouveau traité, dit traité de Lisbonne, adopté par les chefs d'État et de gouvernement le ).

Il recouvre l'ensemble des instruments (institutions, doctrines, activités et moyens) de nature civile (politique, diplomatique, économique, juridique…) et de nature militaire que met en œuvre un État pour protéger ses intérêts nationaux essentiels (intérêts vitaux, intérêts de souveraineté, intérêts de sécurité, intérêts stratégiques), en temps de guerre, en temps de crise comme en temps de paix, contre des risques et des menaces de toute nature, militaire ou non militaire, potentiels, déclarés ou avérés tant à l'égard de la nation que de l'État.

La sécurité nationale concourt à prévenir et à opposer des parades offensives et défensives, actives et passives, militaires ou non militaires à ces risques et à ces menaces. Opérant autant à l'encontre des causes que des effets de ces derniers, elle constitue une composante centrale de la sécurité d'un pays, au même titre que la défense qui n'en constitue qu'un élément particulier dédié spécifiquement au traitement des seules menaces.

La sécurité civile

La sécurité civile est l'ensemble des moyens mis en œuvre par un État ou une organisation pour protéger des populations civiles (personnes morales et personnes physiques), ainsi que leurs biens et activités, en temps de guerre, en temps de crise comme en temps de paix contre des risques et des menaces de toute nature, civile ou militaire.

Elle consiste notamment à garantir la sécurité des personnes morales et physiques civiles contre les risques naturels (incendies d'origine naturelle, inondations, ou inhérents à l'activité humaine (risques chimiques…), ou contre les menaces diverses qui peuvent mettre en danger leur sécurité, comme celle de leurs biens ou de leurs activités (actes de terrorisme, actes de vandalisme…).

Elle ne résume pas à elle-seule le volet civil de la sécurité (lequel comporte notamment la sécurité publique, la sécurité intérieure, la défense civile, la sécurité environnementale, la sécurité alimentaire, la sécurité sanitaire, la sécurité économique, la sécurité industrielle, la sécurité juridique, etc.).

Constituant un droit civil fondamental, elle est due non seulement au citoyen de cet État mais également à toute personne morale ou physique résidant sur le territoire sur lequel cet état ou cette Organisation exerce une compétence en la matière. Bien que ce terme évoque spontanément la notion de « protection civile » (protection des civils), il ne s'y réduit absolument pas.

La sécurité civile relève d'une compétence régalienne qui incombe actuellement au ministère de l'intérieur (compétence déléguée par le gouvernement qui est l'institution compétente en regard des dispositions constitutionnelles en la matière) et dont la mise en œuvre peut être déléguée, pour partie, à des organisations internationales, nationales ou régionales, civiles, publiques ou privées.

La sécurité intérieure

La sécurité intérieure est l'ensemble des instruments (objectifs, institutions, doctrine, instruments juridiques et de procédures, moyens opérationnels, etc.) que conçoit et met en œuvre un État - ou une organisation (par exemple, l'Union européenne) - pour garantir la sécurité de la Nation, de l'État, de la population résidant sur le territoire sur lequel il exerce sa souveraineté, de leurs biens patrimoniaux (matériels et immatériels) et de leurs activités face à des menaces de nature criminelle relevant de la justice pénale.

La sécurité juridique

Ce sont les méthodes qui ont pour but de protéger les citoyens contre les effets secondaires négatifs des lois, et qui touchent à la cohérence des codes, lois, et règlements à l'intérieur du droit et de la structure juridique d'un pays.

Stabilité du cadre social

La sécurité économique

On entend par sécurité économique l'ensemble des mesures visant à garantir un environnement économique sûr, équitable, et dynamique, propice aux innovations, aux investissements intérieurs et étrangers et à une croissance soutenue, ce qui assure à la population un niveau de vie élevé et en progression constante.

La sécurité des approvisionnements

La sécurité des approvisionnements concerne tous les produits qui doivent être importés :

La sécurité des approvisionnements comprend notamment :

En Europe, la sécurité des approvisionnements pétroliers demande des mesures d'harmonisation des gestions de stocks et de la législation.

La sécurité financière

Ce sont les procédures qui touchent à la gestion des risques financiers, à la sécurité des échanges financiers entre organismes (entreprises, banques…).

La sécurité alimentaire

Le concept de sécurité alimentaire fait référence à la disponibilité ainsi qu'à l'accès à la nourriture en quantité et en qualité suffisantes.

Le management de la sécurité des denrées alimentaires fait l'objet d'une série de normes ISO (ISO 22000, ISO 22002, ISO 22004, ISO 22005).

La sécurité sanitaire

Un volet important de la sécurité sanitaire est la sécurité alimentaire, mais ce n'est pas le seul.

La sécurité alimentaire fait l'objet d'une attention de plus en plus soutenue de la part des professionnels de cette filière, en raison des risques sanitaires et de la complexité du cycle de vie dans les activités agroalimentaires. Il est nécessaire d'être vigilant sur ce type de risque, et de mettre en œuvre des mesures visant à une meilleure qualité sanitaire de la nourriture. Les industries agroalimentaires adoptent de plus en plus des mesures de traçabilité.

Sécurité assurée par les acteurs sociaux

La sécurité industrielle

Dans la gestion d'entreprise, la sécurité consiste de façon générale à garantir la pérennité de l'entreprise, c'est-à-dire à concilier les exigences de rentabilité à court terme, avec les exigences de sécurité visant à réduire les risques, sur le plan environnemental, social, économique, générés par l'activité de l'entreprise sur un plus long terme, pouvant affecter ses parties prenantes (voir Responsabilité sociale des entreprises).

La sécurité au travail

La sécurité en entreprise ou en collectivité locale (conseils généraux, mairies, établissements recevant du public…) est devenue, avec la prise de conscience face aux risques, un domaine incontournable. Cette prise de conscience, qui n'évolue malheureusement qu'au fur et à mesure des accidents industriels (grands incendies, explosions, pollutions, etc.), suit par ailleurs les avancées technologiques.

Trois exemples illustrent cette évolution de notre conscience du risque :

Chaque activité, de toute nature que ce soit, engendre des risques plus ou moins prononcés pour l'Homme, ses biens et l'environnement qui l'entoure. Afin de minimiser l'occurrence de ces risques (et donc de diminuer les conséquences qui en découlent) et ses conséquences, de nouveaux métiers sont apparus.

Ces métiers, que l'on assimilera à « la sécurité » dans son sens le plus large, visent à protéger notamment :

La sécurité au travail repose sur des principes logiques, que l'on retrouvera par exemple dans les principes énoncés dans le Code du Travail :

N'oubliez pas que malgré la présence de ces nouvelles professions, la sécurité au travail n'est pas que du ressort de spécialistes, c'est aussi l'affaire de tous. En effet, chacun a son propre rôle :

La sécurité des systèmes d'information

Ce sont les politiques et les procédures qui permettent d'éviter les intrusions (confidentialité), les incohérences (intégrité) et les pannes (disponibilité) des systèmes d'information, et qui définissent les règles d'authentification.

La sécurité des systèmes d'information est un domaine particulièrement stratégique de la sécurité, car, à travers les systèmes de contrôle, les systèmes de gestion, et d'une façon générale à travers l'ingénierie des systèmes, elle doit s'intéresser à l'interopérabilité des systèmes, et faire en sorte que la sécurité soit obtenue au travers de standards et de normes de description des structures de données.

La sécurité des transports

La sécurité des transports est un thème de plus en plus sensible, en raison de l'interconnexion des réseaux de transport (intermodalité) et du transport de matières dangereuses.

Les différents types de sécurité correspondent aux modes de transport :

La sécurité nucléaire

La sécurité nucléaire concerne les dispositifs techniques organisationnels et humains permettant de protéger les personnes et de l'environnement contre les effets d'actes malveillants (comme le vol, le détournement ou le sabotage) visant les matières nucléaires, les installations nucléaires ou les transports de matières nucléaires. Elle doit être distinguée de la sûreté nucléaire.

Le social

La sécurité privée

La sécurité privée inclut diverses activités en fonction des pays, telles que d'une part les sociétés militaires privées, d'autre part la surveillance, le transport de fonds ou la protection physique des personnes à la demande et au bénéfice de particuliers ou de sociétés (voir Sécurité privée en France).

Les professions de sécurité privée peuvent également englober d'autres activités comme au Canada, les entreprises de serrurerie2, mais aussi les activités de conseil en sécurité ou les systèmes électroniques de sécurité (alarmes).

En France la sécurité privée englobe les agences de recherches privées comme le rappelle un avis [archive] de la Commission nationale de déontologie de la sécurité qui confirme sa compétence sur les détectives privés3.

Courant 2011, les sociétés d'intelligence économiques devaient être incluses dans un titre III de la loi sur les professions de sécurité privée, mais les dispositions ont été annulées par le Conseil constitutionnel4 et la loi du a donc été promulguée sans le chapitre concernant cette activité qui, dès l'instant où elle effectue des investigations, tombe donc sous le coup du titre II de ce texte relatif aux agences de recherches privées.

En Belgique, les professions de sécurité englobent également les alarmes.

Lorsque la sécurité des biens et personnes devient une obsession au sein d'une société, on parle de sécuritarisme ou esprit sécuritaire.

Facteur de sécurité

La notion de sécurité met en relation les milieux techniques et humains : elle touche directement la formation des personnes

Dans le domaine de l’ingénierie, cette approche est vérifiée de manière formelle . Dans le domaine des services, on parle aussi de sûreté.

Concepts principaux en sécurité

Système de sécurité

Un système de sécurité est constitué des éléments suivants :

Politique de sécurité

Pour un État, une politique de sécurité constitue un élément central du système de sécurité découlant du modèle de sécurité que cet État a édifié. Elle consiste :

Pour une organisation régionale telle que l’Union européenne, une politique commune de sécurité constitue un élément central du système de sécurité découlant du modèle de sécurité que cette organisation a édifié. Elle consiste :

Garanties positives et négatives de sécurité

Les garanties négatives de sécurité consistent en un engagement d'une entité compétente en matière de sécurité et de la collectivité qu’elle rassemble à ne pas recourir ou menacer de recourir à des mesures coercitives à l’encontre de quiconque qui ne ferait courir aucun risque ou aucune menace sur la vie et les activités collectives et individuelles à l’intérieur de ses frontières (lorsqu’il s’agit de sécurité intérieure) ou à l’encontre de tiers parties à des traités, conventions, protocoles ou accords ayant trait à la sécurité (lorsqu’il s’agit de sécurité extérieure ou de sécurité internationale).

Les garanties positives de sécurité consolident les garanties négatives en engageant cette entité à prendre des mesures appropriées en cas de violation des obligations découlant de son droit interne (lorsqu’il s’agit de sécurité intérieure), ou des obligations découlant des traités, conventions, protocoles et accords ayant trait à la sécurité (lorsqu’il s’agit de sécurité extérieure ou de sécurité internationale). Ces dernières consistent en un grand nombre de mesures dédiées qui sont conçues et mises en œuvre de manière à permettre à cet acteur régional d’accomplir les fonctions opérationnelles suivantes :

Mesures de confiance et de réassurance

Les mesures de confiance attachées à une politique de sécurité consistent principalement en des actions pacifiques de contrôle ou de vérification du respect d’obligations découlant de traités, conventions ou accords, qui sont entreprises dans le cadre d’un mandat international et qui sont régies par des codes de procédure définis et adoptés par la Communauté internationale.

Les mesures de réassurance consistent en la conclusion d’alliances, d’accords de sécurité et/ou de défense, et en l’établissement de Conventions et de Traités ayant pour objet la consolidation d’une dynamique de sécurité collective (ONU), de défense collective (OTAN), et/ou de sécurité coopérative (OSCE).

Sécurité active et sécurité passive

Les mesures de sécurité sont des actions destinées à procurer ou à garantir la sécurité. On distingue :

Les éléments intervenant en sécurité

Les standards de sécurité

En sécurité informatique, on trouve les standards suivants :

Cette dernière norme est toutefois en cours de réactualisation, sous une forme plus globale, avec la série ISO 27000 (voir ISO/CEI 27001, 2013).

Une meilleure sécurité peut être obtenue, sur les aspects d'interopérabilité des systèmes, par une meilleure standardisation des données. Ce chapitre fait l'objet de l'architecture de données et de la sécurité des données.

Sur l'aspect normatif, voir :

Failles de sécurité

Les produits qui n'offrent pas la sécurité à laquelle on peut s’attendre, notamment en fonction :

sont considérés par la législation européenne comme des produits défectueux5.

La commercialisation de tels produits engage la responsabilité du producteur.

Notes et références

Voir aussi

Sur les autres projets Wikimedia :

Il existe une catégorie consacrée à ce sujet : Sécurité.
 

Bibliographie

Articles connexes

Liens externes

Défense

 
 
 

Sur les autres projets Wikimedia :

De manière générale, la défense est la réaction d'un être, destinée à réduire ou annuler ce qu'il perçoit comme une agression, et par extension l'ensemble des moyens et des mesures d'identification et de mesure du risque ou du danger, ainsi que les moyens de protection ou de riposte.

C'est aussi une interdiction : Défense de fumer.

Domaine militaire

On distingue généralement la défense active de la défense passive.

Droit

Biologie et médecine

Toponymes

Défense est un nom de lieu notamment porté par :

Sport

Divers