Une paire d'enceintes acoustiques de type bibliothèque, de la marque française
Focal JMlab.
Structure d'une enceinte acoustique basique.
Une enceinte est un coffret comportant un ou plusieurs haut-parleurs, permettant la reproduction du son à partir d'un signal électrique fourni par un amplificateur audio1. La partie amplification peut être intégrée ou non à l'enceinte, et des dispositifs électroniques comme des filtres sont souvent incorporés.
Principes de base
Enceinte acoustique 3 voies de marque
JBL.
On désigne souvent une enceinte par le terme anglais de baffle2. Cette appellation est une métonymie (la partie pour le tout) puisque le baffle désigne en réalité le support plan, plaque généralement en bois voire en plastique, sur lequel est fixé le haut-parleur, et non l'enceinte dans sa totalité. Le baffle permet d'éviter que les ondes sonores émises par l’arrière du haut-parleur ne viennent interférer, voire annuler, les ondes sonores émises par l’avant du haut-parleur. Lorsqu'il est refermé sur lui-même en encerclant un certain volume d'air, il forme une enceinte.
Lorsqu'un haut-parleur est mis en fonctionnement, la membrane de celui-ci fait vibrer l'air devant, mais aussi derrière. Au moment de la vibration où la membrane avance, la pression de l'air augmente devant, mais diminue derrière, et inversement au moment où la membrane recule : On dit que l'onde arrière est déphasée de 180°. Les variations de pression de l'air - le son - ne sont donc pas correctement transmises à l'air environnant puisque l'air a tendance à circuler entre l'avant à l'arrière de la membrane pour égaliser les pressions. C'est le phénomène dit du court-circuit acoustique. Il est donc nécessaire de supprimer (ou du moins de gérer au mieux) les vibrations arrières. Dans la pratique, on appelle charge acoustique la façon dont on va gérer ce problème. La solution théorique idéale consiste à fixer le haut-parleur sur un « baffle infini », c'est-à-dire une plaque de très grande dimension. Cette solution étant peu praticable, les spécialistes ont trouvé une multitude de manières, plus ou moins complexes, de le faire3.
Une enceinte contient en général non seulement le ou les haut-parleurs, mais aussi les éventuels filtres, modules d'amplification, boutons de mise sous tension ou de réglage, grilles de protections, ou encore des évents pour le cas d'une enceinte bass-reflex. Enfin, elle est équipée de connecteurs destinés à brancher un amplificateur ou autre source de modulation contenant l'information sonore à diffuser. Certaines enceintes dites « sans fil » peuvent se passer d'une telle connexion, la modulation arrivant par transmission radio (actuellement Bluetooth le plus fréquemment pour les produits grand public) ou parfois infrarouge. De telles enceintes sont souvent alimentées par piles ou batterie en faisant ainsi des appareils mobiles.
Il existe une multitude de types d'enceintes acoustiques correspondant d'une part à des usages très variés, et d'autre part à des niveaux de qualité différents, étant généralement considéré que les enceintes sont le maillon faible de la chaîne de restitution sonore avec le local d'écoute. L'usage que l'on souhaite en faire est donc primordial : sonorisation, monitoring, Hi-Fi ou encore home cinema. Le genre musical n'a, contrairement à une idée reçue largement répandue, rien à voir avec l'enceinte à choisir : une enceinte de bonne qualité doit être capable de restituer correctement n'importe quel type de son. Cela fait même partie des critères et techniques de sélection d'une enceinte4. Cependant, l'application visée détermine les critères à sélectionner, ainsi on n'utilisera pas les mêmes solutions pour diffuser de la musique en grande surface, et pour sonoriser un concert en extérieur.
Histoire
Le premier dispositif permettant au grand public d'écouter de la musique chez lui est le phonographe, breveté par Thomas Edison le . Il fut suivi par le gramophone inventé par Émile Berliner en 1888, qui utilisait des supports en forme de disques. Dans ces deux appareils, il n'y a pas d'« enceinte » à proprement parler : le son est émis par une membrane liée à l'aiguille au contact du support, et amplifié uniquement grâce à un pavillon. Le principe du pavillon acoustique5 consiste à réaliser une adaptation d'impédance entre la membrane émissive et l'air ambiant. On obtient ainsi une amélioration spectaculaire de l'efficacité si bien que les pavillons restent, au moins pour les fréquences médium et aigu, presque universellement utilisés dans le domaine de la sonorisation de puissance. Pour le grave, la taille du pavillon devient le plus souvent prohibitive ainsi cette solution reste rare mais il faut citer l'enceinte Klipschorn de Klipsch, créée dans les années 1940, qui utilise un pavillon dans le grave grâce à l'exploitation des murs de la salle en étant positionnée en encoignure6.
L'un des premiers haut-parleurs à bobine mobile, inventé par Rice et Kellogg en 1924.
Les premières réalisations de haut-parleur quant à elles, remontent au XIXe siècle. Mais les véritables débuts du haut-parleur à bobine mobile tel qu'on le connaît datent de 1924, date à laquelle Chester W. Rice et Edward W. Kellogg en déposèrent le brevet, en même temps qu'un amplificateur capable de fournir une puissance de 1 watt pour leur dispositif. Ce dernier, le Radiola Model 104, avec amplificateur incorporé, fut mis sur le marché l'année suivante. On parle de haut-parleur de Rice-Kellogg pour désigner cette première réalisation. La paternité est toutefois contestée, des travaux similaires ayant eu lieu dans les principaux pays développés dont la France7.
Les haut-parleurs utilisent toujours le même principe de base et ont pris assez rapidement leur forme définitive mais les évolutions n'en sont pas moins très importantes : matériaux utilisés, conception et test à l'aide de systèmes informatiques font que les performances ont connu des progrès considérables, y compris sur les modèles de grande diffusion.
Longtemps, l'utilisation des haut-parleurs s'est effectuée par simple montage sur un baffle plan ou un coffret ouvert à l'arrière (baffle replié) mais une étape importante a été franchie en 1954 par l'Américain Edgar Villchur (en) qui a monté un haut-parleur à suspension souple dans un coffret clos de taille réduite : c'est la technique dite de la « suspension acoustique ». Commercialisé par Acoustic Research (AR), le modèle AR 3 a connu un grand succès pendant de nombreuses années8,9.
L'idée d'exploiter l'émission arrière du haut-parleur semble remonter à la fin des années 1920 et le premier brevet déposé en ce sens est dû à Albert L. Thuras (et non à A.C. Thuras comme on peut lire assez souvent) en 193210. Ce principe général deviendra la charge connue sous le nom de « bass-reflex ». Ce sont les travaux des chercheurs Neville Thiele (en) en 1961 et Richard H. Small (en) en 1973 qui marqueront une avancée déterminante dans la modélisation permettant l'exploitation efficace de ce type de charge. À tel point que les paramètres électromécaniques des haut-parleurs sont désormais associés à leur nom sous la dénomination de « paramètres de Thiele et Small » (en) ou « paramètres T/S »11.
Les premières chaînes hifi, permettant à l'époque d'écouter des disques microsillons, apparaissent dans les années 1950 ; et la première enceinte active multi-amplifiée a été réalisée par le Français Cabasse en 1958.
Pour la construction de l'enceinte proprement dite, si le bois reste largement utilisé, le plastique l'est de plus en plus. Outre ses qualités propres, il permet de réaliser des formes complexes, mieux adaptées à un bon rendu acoustique qu'un parallélépipède, ce qui était impossible à un prix raisonnable avec les matériaux traditionnels.
Caractéristiques et spécifications d'une enceinte
Puissance admissible
La puissance électrique admissible ne représente pas sa capacité en terme d'énergie sonore. Il s'agit de sa capacité à encaisser sans dommage une puissance électrique. Le haut-parleur, qui est un transducteur, transforme cette énergie électrique en énergie acoustique, son rendement détermine le niveau sonore obtenu. Ainsi, la puissance admissible d'une enceinte ne représente pas le niveau sonore émis par celle-ci. Ce n'est pas non plus une garantie de qualité sonore.
Dans la pratique, définir la puissance admissible d'une enceinte acoustique est difficile. En effet, une enceinte est destinée à reproduire de la musique dans des conditions variées et non un signal parfaitement défini et stable dans un laboratoire. La meilleure démonstration de ces faits est la multiplicité des manières de définir (et éventuellement de mesurer) la puissance admissible d'une enceinte acoustique : puissance nominale, puissance musicale, puissance programme, puissance en crête, etc. Il existe des normes comme IEC 268-5, AES2-1984 ou, plus ancienne, AFNOR NFC 97-330 mais le consensus est difficile à trouver.
La compréhension et une bonne interprétation de ces normes n'est pas à la portée du grand public. Pour ce dernier, la meilleure indication et la plus facilement compréhensible est une recommandation, par le constructeur, de la puissance d'amplification à associer à une enceinte : par exemple « Amplification recommandée : 50 à 150 W efficaces ».
Réponse en fréquence
Réponse en fréquence haute résolution (à gauche) et par tiers d'octave (à droite) d'une enceinte acoustique.
|
La réponse en fréquence permet de déterminer quelles fréquences sonores seront reproduites par l'enceinte et avec quelle erreur par rapport au niveau de référence (généralement le niveau à 1 kHz). Elle peut être mesurée rapidement à l'aide d'un analyseur de spectre12. La réponse en fréquence est souvent indiquée sous une forme chiffrée simplifiée : typiquement limite basse (en Hz) - limite haute (en Hz ou kHz), erreur acceptée (en décibels). Cela donne, par exemple, 40 Hz −18 kHz, −6 dB. Une réponse dépourvue d'indication de l'erreur acceptée n'est d'aucune utilité, cette erreur pouvant être considérable.
L'indication d'une réponse en fréquence sous forme chiffrée ne donne toutefois que peu d'informations. On lui préfère une courbe de réponse, tracée sur un diagramme de Bode. C'est toutefois (pour une enceinte acoustique) un document complexe qui demande à être interprété par des personnes compétentes pour en tirer des informations pertinentes. Par ailleurs, une interprétation correcte exige de connaître dans quelles conditions et avec quels paramètres techniques elle a été relevée. Généralement, l'abscisse du graphe représente la fréquence et s'étend de 20 Hz à 20 000 Hz, et l'ordonnée représente le niveau en dB12.
Dans la pratique, il faut distinguer les courbes de réponse à destination d'un public relativement large qui sont des versions simplifiées donnant une idée globale de la réponse d'une enceinte et les courbes destinées aux ingénieurs et techniciens, beaucoup plus détaillées mais aussi plus complexes. À la limite, les courbes simplifiées deviennent une sorte d'illustration voire un document publicitaire : ce type de document a connu une grande vogue dans les années fastes de la haute fidélité13. Il existe néanmoins des courbes de réponse relativement simples à comprendre et à interpréter : les courbes par tiers d'octave. Elles tentent de correspondre aux réelles capacités auditives de l'oreille humaine.
Relever et tracer la courbe de réponse d'une enceinte a longtemps été une opération complexe, souvent longue et faisant appel à un matériel onéreux avec, si possible, une chambre anéchoïque. La disponibilité d’ordinateurs puissants et peu onéreux et le traitement numérique du signal, ont sensiblement changé les choses : les mesures font typiquement appel à un ordinateur associé à une interface et un logiciel spécialisé (certains sont gratuits). Un tel système permet de réaliser (sous certaines conditions et dans certaines limites) des mesures comparables à celles obtenues dans une chambre anéchoïque avec une grande rapidité14.
Impédance
Courbe d'impédance d'une enceinte acoustique.
L'impédance est une caractéristique essentielle d'une enceinte acoustique. Elle s'exprime en ohms. Elle doit être connue (du moins approximativement) pour une bonne adaptation à l'amplification utilisée. Pour cela, les constructeurs spécifient une impédance normalisée ou impédance nominale pour leurs enceintes acoustiques. Les valeurs les plus courantes sont de 4 et 8 Ω mais d'autres valeurs sont possibles. En principe, les spécifications de l'amplificateur utilisé indiquent quelles valeurs d'impédances sont acceptables : c'est l'impédance de charge. Il ne s'agit, en aucun cas, d'une adaptation d'impédances mais d'indiquer une compatibilité entre équipements.
En réalité, l'impédance d'une enceinte acoustique est une donnée complexe qui ne se résume pas à un seul chiffre. En effet, l'impédance ou, plus exactement, le module d'impédance varie avec la fréquence. Pour l'étude d'une enceinte acoustique, on relève donc sa courbe d'impédance, la variation de l'impédance en fonction de la fréquence. Cette courbe permet d'obtenir un certain nombre de renseignements techniques, de vérifier que certains défauts de construction ont été évités mais aussi de déterminer la valeur qu'il conviendra d'indiquer pour l'impédance nominale.
Rendement et efficacité
Le rendement d'une enceinte exprime le rapport entre la puissance acoustique délivrée et la puissance électrique consommée. Le rendement s'exprime en % et se calcule de la manière suivante : Rendement = Puissance acoustique délivrée/Puissance électrique absorbée. Dans les faits, le rendement est fort rarement mesuré et utilisé car sans beaucoup d'utilité pratique. Dans le langage courant, il est fréquent de constater une confusion entre rendement et efficacité, le « rendement » indiqué étant en fait l'efficacité. Le rendement des enceintes se situe généralement entre 0,3 et 3 %15. Il convient de noter que ce rendement est variable suivant la fréquence de mesure ce qui complique son appréciation, sans tenir compte d'autres paramètres plus complexes. Son utilité et son appréciation ne sont donc pas du domaine grand public mais réservés aux ingénieurs et chercheurs.
L'efficacité (parfois appelée à tort sensibilité) indique la pression acoustique (en dB SPL) obtenue à 1 m quand on applique une tension de 2,83 V à l'entrée de l'enceinte (2,83 V sur une impédance nominale de 8 Ω soit une puissance de 1 W : P = U2/R = 2.832/8 = 1 W). Elle est généralement indiquée sous la forme : dB/2,83 V/1 m car les amplificateurs audio sont assimilables à des générateurs de tension et il est possible de ne pas tenir compte de l'impédance donc de la puissance réellement absorbée. Là encore la mesure est une opération complexe, le résultat pouvant être influencé par de nombreux paramètres comme le signal utilisé pour la mesure.
Bien que l'expression précédente soit la plus correcte sur le plan technique, l'efficacité est souvent exprimée en dB/1 W/1 m : pression acoustique en dB SPL, pour une puissance absorbée de 1 W, la pression étant mesurée en champ libre à 1 m de distance. Dans la pratique, la puissance réellement absorbée est très rarement mesurée et cette expression est trompeuse.
Connaissant l'efficacité, l'impédance de l'enceinte et la tension appliquée, il est possible de calculer le niveau de pression acoustique à 1 m : Pression en dB SPL = sensibilité + (10logU2/Z), U étant la tension et Z l'impédance. Pour d'autres distances il faut retrancher 20*log(distance en mètres). Ceci vaut uniquement pour un rayonnement sphérique en champ libre, soit 4 pi stéradian et correspond à 6 dB d'atténuation à chaque fois que la distance double. Il s'agit donc de valeurs théoriques, le plus souvent assez éloignées des valeurs pratique qui dépendent des réflexions dans l'environnement de l'enceinte.
Par exemple, si l'on applique un signal d'une amplitude 32 volts efficaces à une enceinte ayant une efficacité de 90 dB/1 W/1 m et une impédance nominale de 8 Ω, la pression à 1 m sera 90 + 10*log (322/8) = 111 db SPL. À 7 m, la pression sera 111 - 20*log 7 = 94,1 dB SPL. Insistons sur le fait qu'il s'agit d'un calcul théorique, les conditions de champ libre n'étant jamais réunies dans le monde réel.
L'efficacité des enceintes acoustiques s'étage en général entre 85 dB et 105 dB. La plupart des modèles grand public ont une efficacité qui environne 90 dB/2,83 V/1 m.
Directivité
Diagrammes de directivité pour six fréquences d'une enceinte colonne Bosch.
Il est aisé de constater, en se déplaçant par rapport à l'axe de diffusion d'une enceinte, que le son se modifie au fur et à mesure qu'on s'éloigne de cet axe. Une mesure de la réponse en fréquence en dehors de l'axe permet de constater qu'elle est différente du résultat obtenu dans l'axe. Cette modification est plus ou moins importante suivant la conception de l'enceinte. Elle se traduit généralement par une diminution progressive du niveau de l'aigu (car la directivité augmente avec la montée en fréquence) mais d'autres modifications sont possibles. Ce phénomène fait que l'écoute n'est vraiment conforme aux attentes que sous un angle donné par rapport à l'axe ; pour cette raison il est préférable que l'auditeur soit placé le plus en face possible des enceintes.
La directivité est rarement indiquée pour les enceintes grand public mais fait partie des spécifications essentielles des modèles professionnels. Le constructeur indique l'angle sous lequel l'enceinte est utilisable, et avec quel niveau d'atténuation. Il ne s'agit là que de la directivité horizontale mais un phénomène similaire se produit dans l'axe vertical : la directivité est donc indiquée sous les deux angles. Par exemple 60° × 40° : soixante degrés horizontalement et quarante degrés verticalement, pour une atténuation de 6 dB par rapport à la réponse dans l'axe.
Niveau sonore maximal
Niveau sonore obtenu pour une enceinte offrant une efficacité de 90 dB/1 W/1 m et une puissance maximale de 100 W. La zone rouge indique le risque de destruction de l'enceinte.
Le niveau sonore maximal à 1 mètre, parfois appelé par abus de langage « SPL max », n'est pratiquement jamais indiqué pour les enceintes grand public mais est un élément important pour les enceintes professionnelles, pour le cinéma ou le home cinéma. Il permet en effet à l'utilisateur d'évaluer et éventuellement de calculer s'il disposera d'un niveau sonore conforme à ses besoins. Le niveau maximal théorique pouvant être obtenu peut être calculé à partir de l'efficacité et de la puissance admissible, cependant d'autres facteurs interviennent dans le niveau effectivement fourni, par exemple la directivité et la compression thermique. La valeur calculée n'est donc pas exacte en pratique. L'indication du niveau maximal est donc une sorte d'engagement du constructeur permettant à l'utilisateur une évaluation rapide des possibilités offertes dans ce domaine.
Nombre de voies
Une enceinte trois voies, dont les trois haut-parleurs du bas sont réservés au graves.
Pour reproduire correctement l'ensemble du spectre audible, un seul haut-parleur se révèle peu performant. On est donc conduit à utiliser plusieurs haut-parleurs dans une même enceinte acoustique, chacun spécialisé dans une partie du spectre audible : grave, médium, aigu. Chaque division du spectre est appelé voie, la division étant réalisée par un filtre : on obtient ainsi couramment des enceintes deux voies (minimum de deux haut-parleurs) ou trois voies (minimum de trois haut-parleurs). Il peut exister un plus grand nombre de voies (quatre ou plus) mais ces formules complexes sont rares.
Il faut remarquer que le nombre de haut-parleurs et le nombre de voies ne sont pas forcément identiques : par exemple une enceinte peut utiliser plusieurs haut-parleurs (généralement identiques) pour la restitution d'une même voie (voir image ci-contre). Cette technique est souvent utilisée pour la restitution du grave afin de permettre, par exemple, l'utilisation de haut-parleurs de faible diamètre sans que le niveau sonore ne devienne trop faible.
Le dernier type de filtrage est la « demi-voie », la configuration la plus courante étant deux voies et demie. Le principe consiste à utiliser deux haut-parleurs identiques pour la voie basse du spectre, l'un des deux haut-parleurs étant filtré par un passe-bas avec une fréquence de coupure plus précoce que l'autre. L'objectif est d'améliorer le niveau dans le grave tout en évitant les interférences entre deux transducteurs dans le médium.
Passives / actives
Chaque haut-parleur ne doit recevoir que la plage de fréquences qui lui est destinée. Pour cela, on peut filtrer le signal soit avant l'amplification (filtrage dit actif) soit après l'amplification (filtrage dit passif). Dans tous les cas, l'amplification peut être intégrée dans l'enceinte (dite alors active) ou non (passive). Pour cela on peut répartir en cinq grandes familles les enceintes :
- les enceintes passives (avec un filtre passif intégré). Elles ne nécessitent que l'arrivée d'un signal sonore amplifié ;
- les enceintes passives avec filtrage externe. Elles nécessitent donc l'utilisation d'un filtre actif, travaillant sur le signal niveau ligne, c'est-à-dire avant même l'étage d'amplification (qui est externe également). Par exemple, un crossover divise le signal et route le sous-signal basses-fréquences vers un canal de l'amplificateur pour reproduction par un subwoofer passif, puis le sous-signal hautes-fréquences vers un autre canal de l'amplificateur pour reproduction par des enceintes passives dites satellites ;
- les enceintes actives (avec filtre actif interne). Elles intègrent l'amplification et le filtrage actif dans le coffret et nécessitent donc une alimentation électrique. L'entrée audio s'effectue au niveau ligne. Suivant le nombre de voies, cela donne les terminologies suivantes : deux voies = bi-amplifiée, trois voies = tri-amplifiées, etc. Chaque voie possède une amplification dédiée. Il existe toutefois des enceintes actives possédant une partie passive. Par exemple une enceinte trois voies bi-amplifiée utilisant un filtrage passif entre médium et aigu ;
- les enceintes actives (avec filtre passif interne). Ici l'amplification et le filtrage sont toujours intégrée à l'enceinte mais le filtrage s'effectue sur le signal amplifié ;
- les enceintes actives avec filtrage externe. Ces enceintes peuvent posséder des amplificateurs intégrés au coffret ou utiliser une amplification externe. Tout comme les enceintes passives avec filtrage externe, ce type d'enceinte est principalement utilisé dans le domaine professionnel (sonorisation).
Filtre passif
Filtre passif complexe d'une enceinte acoustique
Jusqu'à une date relativement récente[Quand ?], la très grande majorité des enceintes acoustiques utilisaient un filtrage passif. Ce filtre, inséré entre l'entrée de l'enceinte et les haut-parleurs assure la répartition des fréquences sonores vers les haut-parleurs aptes à les restituer. Il se compose principalement de condensateurs, d'inductances et de résistances mais peut intégrer d'autres composants, en particulier pour la protection des transducteurs contre les excès de puissance. Le tout peut être soudé sur un circuit imprimé, câblé de façon traditionnelle, voire directement inséré sur le câblage interne de l'enceinte pour les réalisations les plus simples.
Le filtre passif d'une enceinte acoustique peut être très simple, se limitant à un condensateur en série sur le tweeter pour une enceinte deux voies. Dans ce cas, il constitue une cellule passe-haut à 6 dB/octave, le boomer n'étant pas filtré et voyant sa réponse s'atténuer naturellement dans le haut du spectre sonore. Ce type de filtrage est courant en entrée de gamme. Les filtres plus élaborés comportent généralement une cellule par voie, utilisant plusieurs composants afin d'obtenir des pentes de 12 dB/octave (deuxième ordre) ou 18 dB/octave (troisième ordre). Le filtre peut également intégrer des cellules de correction pour le transducteur employé. Le résultat devient assez rapidement complexe, aussi les filtrages très élaborés sont de plus en plus réalisés en actif. En effet, le filtrage passif est de plus en plus délicat à réaliser et les inductances nécessaires coûteuses au fur et à mesure que la fréquence de filtrage diminue. Pour cette raison, les caissons de grave sont presque exclusivement réalisés avec un filtrage actif.
Contrairement à ce que l'on pourrait penser, le filtrage passif ne concerne pas que les enceintes multivoies. Sur une enceinte une voie (généralement équipée d'un seul haut-parleur large bande), il est possible d'intégrer un filtre passif destiné à améliorer la réponse en fréquence du haut-parleur utilisé. Naturellement, l'opération s'effectue aux dépens de l'efficacité mais lorsque ce dernier point n'est pas critique cette technique peut apporter une amélioration sensible de la qualité sonore.
Connectique
Pour raccorder une enceinte acoustique à une source de signal audio, elle est munie d'un ou plusieurs connecteurs. Ces connecteurs diffèrent (du moins en principe) suivant qu'il s'agit d'une enceinte passive ou amplifiée. Dans le premier cas il s'agit de pouvoir transmettre une puissance qui peut être importante (plusieurs centaines de watts) et une tension élevée, éventuellement dangereuse. Dans le second la puissance est négligeable et la tension faible : les exigences sont très différentes. Par ailleurs, suivant l'utilisation prévue de l'enceinte (écoute domestique grand public, installation de sonorisation fixe, sonorisation mobile, musiciens), les connecteurs et les qualités requises varient fortement.
Enceintes passives
Connexions par bornes à pression (en sortie d'amplification)
Connexions par bornes vissantes acceptant les fiches banane et par jack 6,35
mm
Les enceintes passives, destinées à être raccordées à une amplification de puissance, doivent utiliser des connecteurs capables de transmettre de la puissance sans pertes sensibles et assurer une bonne sécurité à la fois pour l'utilisateur et pour le matériel (pas de risque de court-circuit).
Bornes avec cavaliers permettant la bi-amplification passive
Pour les utilisations grand public (haute-fidélité et assimilé) deux types de connecteurs se sont imposés : d'une part les bornes à pression (on glisse un fil dans un trou en appuyant sur un bouton et lorsqu'on le relâche un système à guillotine assure le contact) et les borniers acceptant également la fiche banane 4 mm16. Ces borniers peuvent recevoir l'extrémité de fils dénudés ou munis de cosses. Ce sont souvent les connecteurs préférés par les amateurs exigeants car offrant une plus grande surface de contact et une plus grande universalité d'emploi. Bien qu'une directive européenne interdise l'usage des fiches banane pour des tensions supérieures à 25 V, elles restent largement employées car très pratiques. Le principal inconvénient de tous ces modes de connexions est l'absence de dispositif détrompeur. Ainsi il est possible de brancher une enceinte acoustique à l'envers, ce qui ne présente aucun risque mais détériore fortement le rendu acoustique puisqu'une partie des transducteurs de l'installation présentent une inversion de phase. Il est donc nécessaire de vérifier ce point, la technique classique consistant à utiliser une pile électrique : lorsqu'on branche une pile sur un haut-parleur ou une enceinte acoustique, la membrane du haut-parleur avance si le branchement est correct (le plus branché au plus et le moins au moins), elle recule si le branchement est hors phase.
Les enceintes haute-fidélité offrent parfois plusieurs paires de bornes d'entrée (généralement deux paires), normalement reliées deux à deux par des cavaliers. En retirant ces cavaliers, on a accès aux différentes cellules du filtre passif afin de réaliser une multi-amplification passive. Typiquement, une bi-amplification avec filtrage passif passe-bas pour le grave et passe-haut pour l'aigu. Il faut naturellement disposer de quatre canaux d'amplification. Les passionnés utilisent également la présence de deux paires de bornes pour le bi-câblage, chaque voie étant censée bénéficier d'un câble mieux adapté aux fréquences transmises. Il s'agit là de phénomènes contestés et non démontrés à ce jour. En revanche, ces modes de raccordement complexifient le câblage et toute erreur peut amener la destruction des équipements utilisés.
Connexions par prises Speakon
Pour les utilisations professionnelles, c'est le connecteur Speakon17 qui s'est imposé : spécialement conçu pour cet usage par Neutrik, il ne présente aucun risque d'erreur d'enfichage ni d'inversion de branchement et se verrouille automatiquement, évitant tout débranchement intempestif. Il existe plusieurs modèles de connecteurs Speakon pour répondre à des besoins spécifiques. Les enceintes professionnelles sont pratiquement toujours équipées d'au moins deux connecteurs afin d'assurer un renvoi de la modulation pour des associations d'enceintes ou autres besoins.
Les musiciens ont longtemps utilisé (et continuent souvent à utiliser) des connecteurs jack 6,35 mm (1/4 de pouce)18. Ce connecteur, très peu onéreux et pratique, a toutefois l'inconvénient d'être employé pour d'autres usages d'où des risques de confusion dommageables. De plus (en dehors des modèles coudés assez rares) il dépasse à l'arrière de l'enceinte et peut donc être facilement cassé. Il peut aussi être facilement déconnecté si on tire sur le câble aussi son emploi pour cet usage est à éviter. Les jacks (du moins pour cet emploi) se trouvent surtout sur le matériel semi-professionnel mais ils peuvent être présent en parallèle d'autres connecteurs, surtout des Speakon.
Enfin, les connecteurs professionnels XLR ont parfois été employés pour la connexion d'enceintes passives mais, là encore, c'est une pratique à éviter en raison des risques de confusion avec les emplois habituels de ce type de connecteur.
Enceintes amplifiées
Connexions sur une enceinte acoustique amplifiée avec entrée sur prise combinée acceptant les jacks
Les enceintes intégrant l'amplification de puissance peuvent recevoir, suivant les modèles, un signal analogique au niveau ligne ou un signal numérique suivant une norme correspondant à son usage.
Les enceintes professionnelles (sonorisation et assimilé) utilisent, pour les liaisons analogiques, des connecteurs XLR permettant des liaisons symétriques. Sur les équipements mobiles ces connecteurs peuvent être d'un type dit "combiné" permettant aussi bien l'emploi d'une prise XLR que d'un jack 6,35 mm. Les entrées sont normalement au niveau ligne mais de nombreux modèles offrent une entrée micro, parfois avec mixage. Comme pour les enceintes passives, les connecteurs sont doublés afin d'assurer le renvoi de modulation si nécessaire. Par ailleurs, il peut exister, sur embase Speakon, une sortie de l'amplification intégrée afin de pouvoir raccorder une enceinte passive.
Typologie
Une enceinte de type bipolaire
La distinction entre ces types d'enceintes se fait pour les enceintes surround utilisées en home cinema.
Les enceintes unipolaires sont les plus courantes. Elles sont constituées de haut-parleurs situés sur un même plan ; elles rayonnent donc directement vers l'auditeur.
Les enceintes bipolaires ou dipolaires ont quant à elles des haut-parleurs disposés sur deux plans (deux faces) séparés par un angle. Ainsi leurs transducteurs ne sont pas placés directement vers l'auditeur. Leur utilisation ne se fait que dans le cadre du home cinéma en surround, car ces enceintes génèrent un champ diffus où la précision est moindre, dans le but de créer une ambiance pour envelopper l'auditeur.
La différence entre bipolaire et dipolaire se fait au niveau de la phase : les haut-parleurs des deux faces d'une enceinte bipolaire fonctionnent en phase, tandis qu'une enceinte dipolaire possède une inversion de phase entre les haut-parleurs reproduisant la même bande passante (ceci ayant pour objectif d'augmenter l'enveloppement au détriment de la précision). Les enceintes dipolaires sont notamment conçues pour les systèmes THX. L'inversion de phase a aussi pour effet de causer un court-circuit acoustique dans les basses fréquences car les longueurs d'onde et le rayonnement font que les basses fréquences sont en opposition acoustique. Une solution pour conserver un bon niveau de grave est l'enceinte semi-dipolaire, qui consiste à conserver le principe unipolaire pour les basses fréquences avec l'usage d'un ou plusieurs haut-parleurs et de garder le reste du spectre en typologie dipolaire pour l'enveloppement. Ainsi, on préserve tous les avantages de cette solution, car le grave est omnidirectionnel (rayonnement sur 360°). Certaines enceintes permettent de fonctionner selon les deux modes, avec un commutateur pour passer de l'un à l'autre.
Il existe également des enceintes tripolaires, mais cette solution est plus rare.
Principaux types de charge acoustique
Enceinte close
Il s'agit simplement d'une boîte hermétique, dont le but est de supprimer le court-circuit acoustique en emprisonnant le rayonnement arrière dans un volume relativement petit19. On peut la remplir ou la capitonner d'un matériau absorbant suivant les besoins.
La membrane est en « suspension acoustique », car le volume d'air (VB) contenu agit comme un ressort et la freine19. De ce fait son volume doit être calculé en fonction des caractéristiques du haut-parleur : fréquence de résonance à l'air libre (FS ou FR), volume d'air équivalent à l'élasticité de la suspension (VAS) et, de son coefficient de surtension total (QT ou QTS).
La réponse dans le grave conserve la meilleure extension dans le grave sans surtension quand le QTC = 0,707.
- Q T C = Q T V A S V B + 1 {\displaystyle QTC=QT{\sqrt {{\frac {VAS}{VB}}+1}}}
Pour les valeurs de QTC < 0,707, donc dans un volume d'enceinte plus grand que pour QTC = 0,707, la courbe de réponse commence à chuter plus haut en fréquence. La fréquence de coupure est aussi située plus haut.
Pour les valeurs de QTC > 0,707, donc dans un volume d'enceinte plus petit que pour QTC = 0,707, la courbe de réponse aura une surtension (bosse) avant la fréquence de coupure : +1,5 dB si QTC = 1.
À volume comparable, la fréquence de coupure dans le grave est située plus haut que dans une enceinte de type bass-reflex, mais avec une pente plus douce à 12 dB/octave avant la fréquence de coupure (Fc).
Une enceinte close de très grand volume est appelée enceinte infinie. Dans ce cas, l'air qu'elle contient n'a plus d'effet de ressort. Elle se rapproche pour cela du baffle plan. Ce genre d'enceinte peut être réalisé en intégrant un ou des haut-parleurs dans le mur d'une pièce, l'enceinte infinie étant alors la pièce d'à côté.
Enceinte bass-reflex
Elles sont facilement identifiables grâce à leur(s) évent(s). Le principe est de récupérer le rayonnement arrière pour l'ajouter en phase avec le rayonnement avant19. Elles sont construites sur le principe du résonateur d'Helmholtz qui est constitué d'un volume et d'un (ou de plusieurs) évent(s). L'évent est caractérisé par sa surface et sa longueur, ce qui définit un volume d'air y circulant et donc une fréquence propre ainsi que des résonances secondaires.
Le but d'une enceinte bass-reflex est que le haut-parleur puisse exciter l'évent (ou les évents) dans une partie de la bande passante où ce dernier voit son efficacité diminuer. Ainsi l'évent accumule de l'énergie et la restitue avec un décalage temporel, c'est pour cela qu'il y a une augmentation du délai de groupe sur les charges exploitant un résonateur, contrairement aux charges close ou pavillonnaire par exemple.
Schémas représentant le parcours de l'onde arrière, qui ressort par l'évent en phase avec l'onde avant émise par la membrane.
|
Contrairement à une idée reçue, il ne s'agit pas uniquement de « récupérer » l'onde arrière, sinon l'évent redistribuerait le même spectre sonore que le haut-parleur, ce qui n'est pas le cas. Le système bass-reflex peut être considéré comme un système masse-ressort-masse20. Selon cette analogie, le haut-parleur possède une masse (membrane + bobine) et un équivalent ressort (suspension + spider). L'ajout d'un résonateur relie la masse du haut-parleur à une nouvelle masse (celle de l'air dans l'évent) par un nouveau ressort (l'air contenu dans le volume de la charge). L'air constitue à la fois un ressort et une masse, mais celui contenu dans l'évent est considéré uniquement comme une masse, à cause de la faible surface de l'évent qui lui donne une vitesse et donc une inertie non négligeables20. Au contraire, l'air contenu dans le volume de l'enceinte est considéré comme un ressort à cause de son volume relativement important et sa faible vitesse.
Lorsque la fréquence du haut-parleur est très basse, les ondes de l'évent sont en opposition de phase avec celles de la membrane, les deux s'annulant21. Mais en montant en fréquence et en approchant de la fréquence d'accord, la masse de l'évent va commencer à suivre les mouvements et l'amplitude de la masse du haut-parleur. C'est à cette fréquence d'accord que l'évent va générer le plus de volume sonore par accumulation de l'énergie transmise par le haut-parleur. Cette énergie est captée, réduisant ainsi drastiquement les mouvements de la membrane, ce qui réduit d'autant les distorsions. Le débattement de la membrane est ainsi bien plus faible à cette fréquence que si elle était chargée par une enceinte close, et la majorité du son à cette fréquence est émis par l'évent et non par la membrane21,19. À la fréquence de résonance, le mouvement de la membrane et celui de l'air dans l'évent sont en opposition, et l'onde sonore sortant de l'évent est donc en phase avec celle émise par le haut-parleur21. Ensuite, plus la fréquence augmente, moins la masse de l'évent va pouvoir suivre les mouvements : il redevient « inactif » et n'opère plus son rôle de rayonnement acoustique, seule la membrane émet donc. Le système bass-reflex permet un gain uniquement aux alentours de la fréquence d'accord21.
Le dimensionnement du volume de l'enceinte et de l'accord de l'évent se fait en fonction des caractéristiques du haut-parleur et du désir d'alignement vis-à-vis de ce dernier.
Il existe une série de logiciels pour ordinateur personnel qui facilitent les calculs, incluant des simulations des courbes de réponses, du déplacement de la membrane, de l'impédance, du temps de propagation de groupe.
Pour un même haut-parleur, la charge bass-reflex permet pour un accord correctement choisi, une extension bien plus importante dans les basses fréquences que son homologue clos, ainsi qu'un meilleur rendement19. Il faut cependant veiller à ce que l'évent ne soit pas trop petit, auquel cas la vitesse de l'air dans l'évent sera importante et génèrera un bruit audible et désagréable. Attention aussi aux très basses fréquences lorsque l'évent ne rayonne plus, car le débattement de la membrane augmente considérablement, le haut-parleur n'étant plus « tenu » par l'élasticité qui est par exemple présente dans un caisson clos grâce à herméticité. Bien souvent des filtres passe-haut (dit subsonique) sont utilisés pour éviter les talonnements voire la casse.
Enceinte à radiateur passif
Enceinte à radiateur passif
Une enceinte satellite, dont les deux membranes du haut et du bas sont passives.
C'est une variante du bass-reflex, qui utilise un haut-parleur de basses démuni de moteur (bobine et aimant) à la place de l'évent. Le terme exact est « radiateur passif » ou « radiateur auxiliaire ». Elle permet une extension de la réponse grave, comme pour son homologue.
La membrane du haut-parleur passif agit de la même manière que l'évent d'une enceinte bass-reflex pour les fréquences basses, c'est-à-dire en résonnant à une fréquence précise, mais n'émet pas les fréquences moyennes, grâce à la masse de la membrane passive et la raideur de la suspension22.
L'avantage de ce genre de solution réside dans une réduction de l'encombrement, car l'évent sur une solution bass-reflex occupe une partie du volume qu'il faut déduire du volume interne utile. Autre avantage, aucun bruit d'écoulement n'entre en jeu, contrairement à un système bass-reflex. Ce type d'enceinte a également un meilleur rendement qu'une enceinte close, en particulier à la fréquence de résonance. L'inconvénient majeur est la difficulté de réglage, en effet on ne peut choisir la fréquence d'accord désirée, il faut faire avec la fréquence de résonance du radiateur passif. L'autre problème est les distorsions supplémentaires engendrées par la suspension et le spider du radiateur passif qui ne sont pas linéaires en fonction de l'élongation, problème qui s'accentue avec l'augmentation du débattement.
Charge passe-bande
Principe et calcul d'une charge passe-bande pour un haut-parleur
La charge passe-bande, dite aussi charge symétrique ou parfois charge Kelton, consiste à utiliser une enceinte munie d'une paroi interne, divisant le volume interne en deux, sur laquelle est montée le haut-parleur. Ce dernier est donc soumis à une charge acoustique aussi bien sur sa face avant que sur sa face arrière. Généralement le volume se trouvant sur sa face avant comporte un évent et c'est par cet évent que s'effectue l'émission sonore. Le volume arrière est presque toujours clos mais des formules plus complexes sont possibles23.
Typiquement ce type d'enceinte présente une réponse similaire à celle d'un filtre passe-bande, d'où son nom. Le rayonnement n'étant effectué que par l'évent, il est exclusivement utilisé pour les caissons de grave car elle offre un filtrage acoustique naturel rendant moins nécessaire un filtrage électronique. Elle a aussi l'avantage, le haut-parleur se trouvant sur une paroi interne, de protéger totalement ce dernier d'un accident (coup, liquide ou autre).
Il en existe plusieurs types selon la configuration des charges et des évents24,25 :
- passe-bande du quatrième ordre, avec une charge close à l'arrière du haut-parleur et une charge bass-reflex à l'avant, c'est la plus courante ;
- passe-bande du sixième ordre, avec les deux charges accordées en bass-reflex ;
- passe-bande du septième ordre, avec une charge close à l'arrière, une charge bass-reflex à l'avant, qui donne sur une troisième charge bass-reflex.
Enceinte ouverte (baffle plan et ses variantes)
Baffle ouvert type U-frame
C'est une enceinte ouverte sans fond ou simplement une plaque plus ou moins grande, qui sépare l'onde arrière du haut-parleur de l'onde avant, limitant ainsi le court-circuit acoustique. Le baffle doit être d’autant plus grand que l’on veut descendre en fréquence16. Le court-circuit acoustique se produit tout de même aux basses fréquences, pour des longueurs d'onde qui dépassent la taille de la plaque.
Soit L la largeur de la plaque en mètres, et C la vitesse du son en mètres par seconde, le court-circuit acoustique se produit à la fréquence F = C/2L. Par exemple, pour une plaque de 1,5 m de large, et une vitesse du son de 343,4 m/s (à 20 °C), le court-circuit a lieu à F = 343,4/3 =114,5 Hz.
En dessous de la fréquence du court-circuit acoustique, la réponse chute à raison de 6 dB/octave jusqu’à la fréquence de résonance (FS) du haut-parleur. En dessous de la fréquence de résonance du haut-parleur, la réponse chute à raison de 18 dB/octave.
Avec un haut-parleur qui a une fréquence de résonance à 57 Hz sur un baffle de 1,5 m de large par exemple, la courbe de réponse passe par -3 dB à 114,5 Hz, -9 dB à 57 Hz et -27 dB à 28,5 Hz. La réponse dans le grave est limitée. La pièce rajoute cependant un peu de grave à ces valeurs théoriques.
Cette réponse dans le grave n'est obtenue que si le haut-parleur a des caractéristiques adaptées à cette charge. Le coefficient de surtension total (QTS) doit être idéalement de 0,70[réf. nécessaire]. Il est possible de remonter le QTS d'un haut-parleur qui serait par exemple de 0,4 en mettant en série une résistance de quelques ohms, généralement de 3 à 8 Ω.
Pour les enceintes ouvertes sans fond, il faut veiller à ce que les côtés ne dépassent pas un quart de la largeur pour ne pas avoir un accident dans la courbe de réponse.
L'application typique des enceintes ouvertes sans fond est l'enceinte pour guitare électrique.
La bande passante peut être améliorée dans le grave par l'ajout d'un filtre passe-bas du premier ordre dont la fréquence de coupure est à peine supérieure à la fréquence de résonance du haut-parleur. Ainsi, la réponse devient linéaire entre la fréquence de coupure du baffle et la fréquence de résonance du haut-parleur. Cependant, l'enceinte subit une perte de rendement relativement importante qui nécessite donc un amplificateur puissant ou l'utilisation d'un haut-parleur à très haut rendement.
La réponse impulsionnelle est encore meilleure qu'en enceinte close. Mais attention à la réponse en peigne qu'engendre ce genre de charge, des variantes existent comme les U-frames, H-frames, entre autres.
Enceinte à pavillon(s) ou à guide d'ondes
Fonctionnement d'un pavillon. A : le moteur à chambre de compression. B : le pavillon qui s'évase de plus en plus.
Quand on veut que sa voix porte loin, on met ses mains en entonnoir devant sa bouche. On réalise ainsi un pavillon. Dans la pratique, un système à pavillon, aussi appelé charge pavillonnaire, comporte un transducteur électrodynamique pourvu d'une membrane, généralement appelé « moteur » ou « moteur à compression », devant lequel on fixe un pavillon offrant les caractéristiques souhaitées (profil et angles de diffusion). L'entrée du pavillon est appelée « gorge » et sa sortie « bouche »26.
Enceinte à pavillons 4 voies Klipsch
Le principal intérêt du pavillon est d'améliorer le couplage avec l'air ambiant et donc l'efficacité. Ceci est réalisé grâce à une adaptation d'impédance entre la membrane émissive et l'air ambiant. Les vibrations du haut-parleur, de forte pression et de basse vitesse à la gorge du pavillon, sont transformées en vibrations de basse pression et de forte vitesse à la bouche26. Par ailleurs on concentre l'énergie sur un angle d'émission plus étroit, et on peut contrôler sa directivité. C'est pourquoi ils étaient utilisés au tout début de la reproduction sonore avec les phonographes, quand les amplificateurs n'existaient pas. La vibration de l'aiguille dans le sillon fait directement vibrer une petite membrane, la vibration est amplifiée par le pavillon en concentrant toute l'énergie acoustique émise dans un angle plus restreint. Plus tard, les premiers amplificateurs étant de très faible puissance, les pavillons restaient indispensables pour avoir un niveau sonore suffisant.
L'époque du début du cinéma parlant fut celle des pavillons, pour sonoriser des salles de 1000 ou 1500 places avec des amplificateurs de 10 ou 20 W seulement. Plusieurs pavillons se partageaient le spectre sonore du grave à l'aigu. C'est toujours le cas de nombre d'installations sonores pour cinémas.
Les systèmes de sonorisation utilisent presque tous des pavillons (ou des guides d'ondes dans le cas des line array), du moins pour les fréquences médianes et hautes. C'est en effet la seule technique qui permet d'obtenir les niveaux sonores très élevés exigés par la sonorisation de puissance pour les concerts et autres manifestations similaires.
En haute fidélité, à part une très petite minorité de passionnés qui les utilisent encore sur un système complet avec plusieurs pavillons du grave à l'aigu, ils sont surtout utilisés dans la reproduction des médiums/aigus. Les moteurs à compression sont équipés d'un pavillon qui assure le couplage à l'air ambiant. Pour les tweeters on use parfois d'un guide d'ondes ou d'une amorce de pavillon. Afin d'éviter une trop forte directivité, certains pavillons sont munis de fentes de diffraction ou de lentilles acoustiques afin de maintenir un angle d'émission suffisamment large.
Les principaux avantages restent l'augmentation de la sensibilité dans un axe plus restreint et un contrôle de la directivité dépendant du profil utilisé. Les systèmes à pavillons permettent d'obtenir, ou même de dépasser, pour l'ensemble du spectre sonore une efficacité d'environ 105 dB/2,83 V/1 m impossible à atteindre par d'autres techniques. Dans l'aigu, un système à pavillon peut atteindre des valeurs de l'ordre de 120 dB/2,83 V/1 m.
Sans entrer dans le détail, pour un même profil de pavillon, la taille de bouche et la longueur de pavillon dictent la fréquence basse qu'il est capable de reproduire. La gorge fixe la capacité à reproduire les fréquences aiguës sans voir une directivité devenir trop forte (plus l'entrée est petite plus l'aigu aura un rayonnement large).
Le profil du pavillon, c'est-à-dire la façon dont il s'élargit de la gorge à la bouche, est déterminé par sa « formule d'expansion ». Cette formule mathématique a une influence sur la directivité, la bande passante et la distorsion finales. Les formules les plus courantes sont : conique, exponentielle, hyperbolique, parabolique, à directivité constante et de type Tractrix27.
Simulateur de charge infinie
Baptisée isobaric par les anglo-saxons, cette charge consiste à utiliser deux haut-parleurs identiques et à les faire fonctionner ensemble l'un derrière l'autre, avec un volume clos entre eux (qu'il conviendra de minimiser pour bénéficier réellement des avantages de la charge). Isobarique signifie une pression constante en référence à l'air emprisonné entre les deux haut-parleurs. L'un des haut-parleurs rayonnera donc vers l'extérieur tandis que l'autre voit son rayonnement amorti à l'intérieur. Le niveau sonore et la bande passante restent identique à l'usage d'un seul haut-parleur, aucune modification de FS ou QTS, seul le paramètre VAS du haut-parleur est divisé par 2. Ceci permet donc de réduire la taille du coffret par 2 (hors charge isobarique). Il est possible aussi de placer les haut-parleurs aimant contre aimant ou membrane contre membrane (en inversant la polarité d'un des haut-parleurs, pour que le sens de déplacement des membranes ne soit pas en opposition). Le but est de réduire les distorsions en linéarisant l'élongation par l'asymétrie de déplacement28.
Push-pull
Il s'agit de faire rayonner deux haut-parleurs physiquement montés en sens contraire, mais câblés pour que les mouvements de membranes ne soient pas en opposition. Les deux haut-parleurs rayonnent vers l'extérieur, l'un par le côté membrane, l'autre par le côté aimant. Ils sont physiquement montés dans un même volume de charge. Le but est de réduire les distorsions causées par l'excursion de la membrane, grâce à la symétrie des deux haut-parleurs.
Les autres types de charge
Il en existe de toutes sortes ; voici une liste à explorer sachant que souvent la complexité est supérieure aux autres solutions précédentes et que les gains en performances ne sont pas souvent exceptionnels et le côté qualitatif est souvent bien inférieur. Il faut donc bien comprendre le pourquoi de l'usage de ces charges exotiques qui visent souvent une application particulière et/ou la coloration du son ne pose pas de problème :
Long horn, short horn, Scoop/toboggan, Tapped horn, passe-bande 6th order, Hybride, Band pass horn, Manifold, Planar, Rear load horn, ligne de transmission, etc.
Format des enceintes
Enceinte satellite
Système d'enceintes multimédia 2.1 pour ordinateur, constitué d'un caisson de graves et de deux satellites.
Le terme « satellite » se rapporte à des enceintes acoustiques généralement de petite taille conçues pour être utilisées en association avec un caisson de grave. Le terme vient de la comparaison avec un satellite qui tourne autour d'un astre dont il dépend. Les satellites reproduisent généralement les sons medium à aigus, et le caisson les sons graves. Ce système est largement employé aussi bien dans le monde de la haute-fidélité que de la sonorisation, du home cinéma et des enceintes multimédia pour ordinateurs. On parle par exemple de système acoustique 2.1 (deux enceintes satellites, un caisson de grave) ou encore de 5.1 (cinq satellites, un caisson de grave).
Il ne faut pas confondre la configuration du système acoustique et le nombre de canaux audio de la source (DTS 5.1, Dolby Digital 5.1) qui n'ont rien à voir : un système 2.1 est généralement utilisé pour restituer une source stéréo (deux canaux) tandis que, dans le cadre du home cinéma, les systèmes 5.1 ou 7.1 prennent en compte les signaux multicanaux (Dolby Digital, DTS, etc.).
Dans les configurations 5.1 ou 7.1, utilisées dans le home cinéma, les satellites sont placés autour de l'auditeur de manière qu'il puisse discerner des sons provenant de l'avant (dialogues par exemple), de sons provenant des côtés ou de l'arrière. Cela participe à l'immersion dans le film.
Enceinte colonne
Enceinte colonne Jamo 507.
Comme son nom l'indique, une enceinte colonne est un modèle beaucoup plus haut que large destiné à être posé directement sur le sol. En effet, une enceinte classique demande à être posée sur un support (support spécial, meuble, etc.) afin que l'émission sonore du haut-parleur de grave ne soit pas perturbée par la proximité du sol et que les haut-parleurs de médium et d'aigu se trouvent sensiblement à la hauteur des oreilles des auditeurs. Dans une telle configuration, le volume se trouvant entre l'enceinte et le sol est souvent « perdu ». L'idée de l'enceinte colonne est d'utiliser ce volume pour augmenter celui de l'enceinte sans que son encombrement augmente. Ce sont généralement les modèles qui offrent le meilleur rapport entre l'étendue et l'ampleur de la restitution du grave et l'encombrement puisque tout volume occupé est utilisé comme charge acoustique. Il n'y a plus également à se soucier de trouver un support adapté.
Couramment utilisées en hi-fi, elles servent aussi souvent en home cinema en tant qu'enceintes gauche et droites, accompagnées d'une enceinte centrale, d'enceintes surround et, parfois, d'un caisson de grave.
Enceinte bibliothèque
Une paire d'enceintes bibliothèque, l'une sans son cache, l'autre avec.
L'enceinte bibliothèque (en anglais : bookshelf), ou « enceinte compacte », est un modèle de petite taille destiné à l'origine, comme son nom l'indique, à être placé sur les rayons d'une bibliothèque. Ce type d'enceinte est particulièrement adapté pour ceux qui n'ont pas beaucoup de place à leur accorder. Elles peuvent également être placées sur des pieds adaptés afin d'être situé à hauteur des oreilles, sans pour autant avoir à les loger sur un meuble. Ces enceintes sont très couramment de type deux voies, avec un tweeter et un boomer. Elles comportent également souvent un évent bass-reflex, positionné soit à l'avant, soit à l'arrière pour gagner de la place sur la face avant.
En comparaison des colonnes, elles sont souvent plus limitées dans l'extension et le volume du grave, et sont plus adaptées pour sonoriser des pièces de taille plus réduites. Elles peuvent être utilisées en stéréo, mais également à l'arrière en tant qu'enceintes surround dans une configuration home cinema.
Utilisation d'enceintes
Moniteur
Le moniteur, également souvent appelé « enceinte de monitoring », « enceinte de contrôle » ou encore « écoute » dans le jargon professionnel, est une enceinte destinée à l'écoute dans un contexte professionnel : studio d'enregistrement, de mixage, de mastering, studio de radio ou de télévision. Le moniteur est généralement utilisé pour avoir un aperçu objectif d'une modulation audio, les constructeurs tentant lors de son développement d'obtenir une restitution aussi neutre que possible. Les moniteurs sont essentiellement utilisés pour repérer et corriger plus facilement les défauts d'un document audio, via la mise en valeur des défauts et la bonne spatialisation du son. Ils doivent également présenter le moins de distorsion possible et une bonne dynamique. Rien n'empêche par ailleurs de les adopter, dans un environnement domestique, pour l'écoute de loisir.
Les moniteurs sont en général des enceintes actives et à filtre actif, et disposent donc souvent d'un module d'amplification par voie. Cela leur permet de ne pas être dépendant d'une alimentation externe, et d'être calibrées afin d'obtenir une réponse en fréquence la plus linéaire possible. Elle disposent en outre souvent de boutons de réglage qui permettent d'adapter leur courbe de réponse à l'acoustique de la pièce d'écoute.
Il existe trois grands types de moniteurs : les moniteurs de proximité (near field), les moniteurs intermédiaires (mid field) et les « grandes écoutes » ou écoutes principales (far field : longue distance)29. Chacun de ces types est déterminé par la distance d'écoute prévue, mais d'autres facteurs sont à prendre en compte comme l'étendue de la réponse dans le grave et le niveau maximal possible.
Le positionnement des moniteurs principaux se fait avec beaucoup de soin dans le cas d'un studio de prise de son dont l'acoustique a été étudiée et traitée. En revanche, les moniteurs de proximité sont d'une mise en œuvre plus simple : en principe, ils sont utilisés en champ proche donc dans des conditions où l'acoustique de la pièce intervient peu. Ils doivent être dirigés vers l'auditeur selon un triangle équilatéral : c'est la base d'une restitution stéréophonique correcte.
Enceinte Hi-Fi
L'enceinte Hi-Fi (haute fidélité) décrit par abus de langage une enceinte destinée à un usage domestique et censée restituer un son fidèle à l'original. Dans les faits, les critères permettant de qualifier une enceinte de « Hi-Fi » sont assez vagues et tiennent surtout à l'usage qui en est fait : écoute domestique de loisir avec un souci de conformité à l'enregistrement original30,31.
Ce qui semblerait une définition contraire à la Hi-Fi est en fait une aubaine pour les constructeurs et pour l'auditeur. En effet, le son est une perception humaine qui traverse plusieurs filtres subjectifs. Pour autant, chacun attend vraisemblablement que l'enceinte produise du « bon son », alors qu'en réalité, on attend souvent qu'elle produise le son qu'on aime. Les goûts variant suivant les époques, les pays, le milieu social ou culturel, les constructeurs vont avoir tendance à paramétrer les enceintes Hi-Fi pour qu'elles produisent un son conforme aux goûts, réels ou supposés, du public visé. Les goûts variant également selon les individus, il existe une grande variété d'enceintes qui répondent à toute une gamme d'attentes et d'exigences de la part de l'auditeur (selon les genres musicaux, les préférences en termes de sonorités, l'usage, etc.).
Retour
Enceinte de retour de scène Martin Audio LE1200.
Les enceintes de retour sont des enceintes dédiées au retour de son des musiciens ou artistes sur scène. Elles permettent aux personnes sur scène de disposer d'une écoute individuelle afin d'entendre ce qui se passe collectivement32. Elles peuvent retransmettre le même mix que les enceintes de façade, mais pour des scènes importantes ou avec beaucoup de musiciens, une console appelée « console de retour » peut être dédiée au mixage des retours32.
Elles sont généralement conçues avec un pan coupé afin de diriger le son vers les oreilles des musiciens une fois posées au sol. En raison de cette disposition, elles sont parfois appelées « bain de pied », « stage monitor » ou « wedge »32. En dehors des modèles spécifiquement prévus pour cet usage, de nombreuses enceintes d'usage général sont pourvues d'un pan coupé afin de pouvoir être utilisées aussi bien en diffusion générale qu'en retour.
En principe, il faut éviter que les micros situés sur scène soit trop proches des enceintes de retour, pour éviter que se produise un effet Larsen, c'est-à-dire une boucle entre un micro, et le son amplifié et retransmis par une enceinte à ce même micro, ce qui produit un sifflement strident. Les retours de scènes doivent être placés en fonction de la directivité des micros de manière à éviter ce phénomène33.
Caisson de grave (subwoofer)
Série de caissons de grave devant la scène lors d'un concert
Le caisson de grave ou caisson de basses (subwoofer en anglais) est une enceinte spécialisée dans la reproduction des fréquences les plus basses du spectre sonore (inférieures à 150 Hz environ).
Il existe trois cas d'utilisation de caisson de basses :
- pour l'extension de la bande passante d'enceintes existantes, que ce soit en stéréophonie ou en home cinema, ceci nécessite un filtrage répartiteur entre les enceintes large bande et le caisson (c'est le « bass-management » des processeurs home cinema) ;
- pour la prise en charge de canal LFE (Low-frequency effects) des bandes sonores de films. Dans ce cas, la bande passante des formats Dolby Digital et DTS est de 3 à 120 Hz, le caisson doit donc pouvoir descendre le plus possible dans le grave (en fait les bandes sonores descendent rarement sous 20 Hz).
- pour obtenir des niveaux sonores très élevés et une meilleure répartition du grave en sonorisation professionnelle. En pratique, les sonorisations de grande ampleur utilisent systématiquement des caissons de grave.
Les caissons de grave grand public ont la plupart du temps un amplificateur-filtre incorporé, celui-ci permet la gestion d'un ou plusieurs paramètres :
- la fréquence de coupure : haute pour le recoupement avec les autres enceintes, en extension de bande passante, basse pour la protection du haut-parleur ;
- le niveau relatif du caisson vis-à-vis des autres enceintes ;
- la phase relative aux autres enceintes ;
- le filtre subsonique pour limiter les fortes excursions dans les très basses fréquences.
Le couplage du caisson avec la pièce d'écoute, suivant son emplacement, modifie le niveau possible et la répartition des fréquences basses dans la pièce. Objectivement, l'emplacement qui offre la meilleure répartition du niveau sonore dans la pièce est l'encoignure. Ce point a été parfaitement démontré par Alain Pouillon-Guibert (fondateur de la société APG) dans une série d'articles de la revue Sono Magazine34. Le même point de vue se trouve chez certains fabricants d'enceintes acoustiques et caissons de grave comme Focal35. Naturellement, la réduction de l'angle solide d'émission qui passe de 2Pi (terme anglais : 1/2 space) à Pi/2 (terme anglais : 1/8 space) amène une augmentation du niveau qui doit être compensée lors des réglages.
Enceinte de diffusion
Une enceinte de diffusion est le nom que l'on donne à une enceinte dont le but est de sonoriser un espace plus ou moins important à destination d'un public : grandes surfaces, salles de spectacles, salles de réunions, évènements divers en salle ou en plein air. Elle s'oppose ainsi aux enceintes présentes (en fonction de la conception et de l'ampleur de l'installation) dans les circuits de retour, de contrôle, d'ordre et de sécurité.
Enceinte de rappel/relais
Les enceintes de rappel (ou de relais) servent à renforcer le son pour des évènements en plein air ou dans de grandes salles : elles permettent au public du dernier rang d'entendre sans que le premier rang soit assourdi. Dans les installations de grande ampleur, on les alimente avec une ligne à retard, qui, comme son nom l'indique, retarde le signal de quelques millisecondes afin d'éviter l'impression d'écho. En effet, sans cet artifice, le son de la « façade » - les enceintes situées au niveau de la scène - arriverait aux spectateurs les plus éloignés avec un retard proportionnel à la distance façade-relais. Il ne s'agit que fort rarement d'un type d'enceinte spécifique mais d'un mode d'utilisation d'enceintes acoustiques classiques.
Compléments
Enceinte coaxiale
Enceinte Tannoy T12 à haut-parleur coaxial
Le terme est incorrect dans le cas d'un bafflage plan, il s'agit en fait d'une enceinte qui utilise un haut-parleur coaxial. Ce type de haut-parleur intègre un haut-parleur d'aigu au centre du haut-parleur principal, dans le même axe36. Ce principe permet d'avoir un centre acoustique en un seul point. Le but recherché est une meilleure cohérence de la diffusion et un alignement temporel qui ne varie pas selon l'angle d'écoute. Pour les enceintes professionnelles, il s'agit surtout d'obtenir une directivité conique cohérente sur un grand angle, évitant de gros accidents de la réponse en fonction de la disposition de l'enceinte. De plus, ces enceintes sont plus compactes. La forme conique du boomer dans lequel est placé le transducteur aigu constitue un pavillon pour celui-ci, bien qu'un véritable pavillon puisse être utilisé en supplément du haut-parleur de grave. La marque écossaise Tannoy (en) a été l'inventeur36 et la principale initiatrice de ce principe aujourd'hui utilisé par de nombreux fabricants d'enceintes acoustiques professionnelles comme L-Acoustics (en), APG, etc. Il est également présent dans le monde de la haute fidélité, chez Tannoy et Kef par exemple.
Le terme peut aussi s'appliquer aux enceintes omnidirectionnelles constituées de haut-parleurs positionnés horizontalement et alignés sur l'axe de révolution de l'enceinte. La particularité de ces enceintes est d'émettre le son dans toutes les directions grâce aux diffuseurs situés en regard des membranes.
Réalisations personnelles (DIY)
Le prix des enceintes acoustiques étant souvent très élevé, il est tentant de les fabriquer soi-même pour réaliser des économies. C'est souvent une fausse bonne idée, le prix de revient étant rarement attractif en termes de rapport qualité/prix. Les réalisations personnelles ne sont économiquement viables que lorsqu'il s'agit d'essayer de mettre ses éventuelles idées en pratique ou de fabriquer des modèles qui vous conviennent exactement (espace disponible, intégration dans une décoration, techniques particulières)[réf. nécessaire]. En revanche, le plaisir de construire soi-même est à considérer à défaut d'être économiquement quantifiable.
Il faut distinguer au moins deux démarches pour fabriquer ses enceintes :
- la conception complète en choisissant des haut-parleurs et en concevant un filtre et une caisse : cela suppose une excellente connaissance du sujet ! Cette démarche risque d'être longue et coûteuse puisqu'il faut envisager essais et erreurs.
- la réalisation pratique d'une enceinte dont on a le schéma, les plans ou même l'ensemble des éléments nécessaires. Dans ce dernier cas, on parle de kit et l'opération est à la portée de tout bricoleur soigneux. En revanche, pour la finition, le résultat esthétique dépendra des capacités de chacun.
Il subsiste des magasins spécialisés proposant des haut-parleurs séparés, des composants ou accessoires ainsi que des kits pour la réalisation d'enceintes acoustiques.
Association d'enceintes
Plusieurs enceintes acoustiques peuvent être raccordées sur un canal d'amplification. Les règles à suivre pour de tels raccordement sont simples : l'impédance résultant d'une association d'enceintes doit être conforme à l'impédance de charge spécifiée par le constructeur de l'amplificateur. En pratique, égale ou supérieure à l'impédance de charge minimale acceptée.
Pour le calcul de l'impédance de charge résultant d'une association d'enceintes, ce sont les règles de circuits série et parallèles qui s'appliquent. Ainsi, par exemple, deux enceintes d'impédance nominale 8 Ω associées en série donnent une impédance de 16 Ω, associées en parallèle elles offrent une impédance équivalente de 4 Ω. Il est possible de combiner des associations série et parallèle si le nombre d'enceintes est important37.
Les associations d'enceintes sont une pratique courante et normale dans le monde de la sonorisation. En revanche, pour l'écoute haute fidélité, c'est une pratique à proscrire : la multiplication des enceintes et donc des sources sonores sans contrôle de leur zone de diffusion crée des interférences préjudiciables à la qualité de la reproduction sonore.
Diffusion du son
La diffusion du son subit les lois ondulatoires (voir optique physique en considérant le son comme de la lumière) :
- Pour une source à rayonnement sphérique (dès que l'on se trouve à une distance grande en comparaison de la taille de la source), la puissance acoustique d'un son (W) est divisée par quatre lorsque la distance est multipliée par deux (la puissance de la source est répartie sur une surface quatre fois plus grande) mais sa pression acoustique (Pa) est divisée par deux seulement, ce qui engendre une diminution du niveau sonore (Lp) de 6 dB. Les sources à rayonnement cylindriques (exemple : bruit de route ou enceintes « lignes sources » dites line array) ne perdent que 3 dB lorsque l'on double la distance.
- Le son est homogène en intensité dans le cône d'émission du haut-parleur.
- Plus un son est aigu, plus il est directionnel : il a tendance à se propager en ligne droite.
- Les infra-sons se propagent surtout par le sol.
- Les sons aigus sont plus sensibles aux obstacles sur leur chemin. Ils ont tendance à perdre en intensité plus rapidement que les graves. Afin d'éviter au maximum les obstacles, on surélève les enceintes par rapport au public.
- À forte puissance, les enceintes interfèrent avec leur support : c'est une des raisons pour lesquelles on les suspend.
- Au-delà de 110 dB, le son est considéré comme dangereux (limiteurs dans les baladeurs et détecteurs dans les salles de concert).
- En un point où deux signaux arriveront en opposition de phase, aucun son (ou du moins un son très affaibli) ne sera perçu par l'oreille, pour éviter ce phénomène, on fait attention au positionnement des différentes enceintes.
Confort
L'utilisation des enceintes à niveau sonore élevé peut devenir une nuisance pour les voisins si l'immeuble est insuffisamment isolé. Pour limiter la transmission des vibrations vers la structure du bâtiment, il convient d'intercaler un support résilient entre l'enceinte et son support.
Les pointes rigides dites « pointes de découplage » ne conviennent pas pour cet usage, leur rôle étant au contraire de renforcer le couplage en vue de faciliter l'évacuation de l'énergie vibratoire de l'enceinte à travers le plancher.
Les supports résilients sont le plus souvent des plots antivibratiles. Ils améliorent l'isolation avec les appartements voisins en formant une rupture du pont phonique qui réduit la transmission entre l'enceinte et la structure porteuse. En contrepartie, les vibrations de l'enceinte ne sont pas évacuées, au détriment de la qualité du son.
Notes et références
- D. Bensoussan, Reproduire le son, Bordas, Paris, 1981 (ISBN 2-04-011525-0)
- Définition de « baffle » [archive] dans le dictionnaire Larousse.
- Enceintes acoustiques et haut-parleurs par Vance Dickason Elektor 1996 (ISBN 2-86661-073-3)
- Denis Mercier, Le livre des techniques du son, 2012.
- Technique des haut-parleurs et enceintes acoustiques 1992, p. 104.
- Technique des haut-parleurs et enceintes acoustiques 1992, p. 173.
- Jean Hiraga, Les haut-parleurs, 1980.
- Jean Hiraga, Les haut-parleurs, 1980, p. 215.
- Vance Dickason, Enceintes acoustiques et haut-parleurs : conception, calcul & mesure avec ordinateur, Elektor, , 322 p. (ISBN 2-86661-073-3), p. 15.
- (en) « Sound translating device » [archive], sur Google.
- Dictionnaire encyclopédique du son, 2008, p. 527.
- Dictionnaire encyclopédique du son, 2008, p. 28.
- (en) Glen Ballou, <Handbook for Sound Engineers : The New Audio Cyclopedia, SAMS, (ISBN 0-672-22752-5).
- (en) http://www.mlssa.com/pdf/MLSSA-Brochure.pdf [archive]
- Mario Rossi, Électro-acoustique, Dunod, (ISBN 2-04-016532-0), p. 295
- Dictionnaire encyclopédique du son, 2008, p. 44.
- Dictionnaire encyclopédique du son, 2008, p. 494.
- Dictionnaire encyclopédique du son, 2008, p. 299.
- Dictionnaire encyclopédique du son, 2008, p. 222.
- Denis Mercier, Le livre des techniques du son, 2012, p. 152.
- Denis Mercier, Le livre des techniques du son, 2012, p. 153.
- Son et enregistrement, Théorie et pratique. Francis Rumsey & Tim McCormick. Eyrolles.
- (en) Loudspeaker and Headphone Handbook, Focal Press, , 601 p. (ISBN 0-240-51371-1)
- « Charge symétrique, 4th, 6th et 7th order bandpass » [archive], sur petoindominique.fr (consulté le ).
- « Tout comprendre sur les caissons de basses : les différents types » [archive], sur Son-Video.com (consulté le ).
- Dictionnaire encyclopédique du son, 2008, p. 415.
- Dictionnaire encyclopédique du son, 2008, p. 256.
- (en) « Isobaric Subwoofer Design » [archive], sur VUE Audiotechnik, (consulté le ).
- (en) Ben Harris, Home Studio Setup : Everything You Need to Know From Equipment to Acoustics, Amsterdam/Boston, CRC Press, , 200 p. (ISBN 978-0-240-81134-5, lire en ligne [archive]), p. 95.
- « Définition de Fidélité » [archive], sur CNRTL (consulté le ).
- (en) Glen Ballou, Handbook for Sound Engineers : The New Audio Cyclopedia, SAMS, (ISBN 0-672-22752-5).
- Dictionnaire encyclopédique du son, 2008, p. 461.
- Dictionnaire encyclopédique du son, 2008, p. 307.
- Alain Pouillon-Guibert, « Comment positionner un caisson de grave ? », Sono Magazine, no 328, , p. 86.
- « Placement du caisson de grave » [archive], sur Focal (consulté le ).
- Dictionnaire encyclopédique du son, 2008, p. 223.
Annexes
Sur les autres projets Wikimedia :
Bibliographie
: document utilisé comme source pour la rédaction de cet article.
- Pierre-Louis de Nanteuil, Dictionnaire encyclopédique du son, Paris, Dunod, , 560 p. (ISBN 978-2-10-005979-9).
- Pierre Loyez, Technique des haut-parleurs et enceintes acoustiques, Paris, Eyrolles, , 323 p. (ISBN 2-903055-29-7).
- Jean Hiraga, Les haut-parleurs, Dunod, (ISBN 978-2-10-005268-4).
- Denis Mercier, Le livre des techniques du son, 4e éd., t. 2 - La technologie, Paris, Dunod, coll. « Audio-Photo-Vidéo », , 556 p. (ISBN 978-2-10-057026-3).
Articles connexes
- Composants d'une enceinte
- Types d'enceintes et utilisations
- Principales marques d'enceintes domestiques
Liens externes
- Jean-Claude Gaertner, « Calculez la charge optimale de votre haut-parleur », sur pure-hifi.info, facsimilé d'un article de la revue Audiophile, no 23, février 1982.
- Jacques Mahul, « Matériaux et enceintes acoustiques », sur pure-hifi.info, facsimilé d'un article de la revue Audiophile, no 9, mars 1979.
- Dominique Petoin, « Dôme acoustique : la conception des enceintes acoustiques » [archive] (consulté le ).
- Portail de la musique
- Portail de l’électricité et de l’électronique
-
Une personne utilisant des écouteurs dans un transport en commun.
Un écouteur est un dispositif qui se place dans une oreille et qui permet de restituer des contenus sonores. Il transforme des signaux électriques en sons perceptibles par l'oreille, on les accroche ou les met sur celle-ci pour l'écoute de sons. Il est également appelé oreillette ou casque par analogie de fonction avec le casque audio.
Particularités
Sur les oreillettes stéréo, l'une des oreillettes est destinée à l'oreille droite, l'autre à l'oreille gauche. L'oreillette destinée à l'oreille droite est souvent marquée de la lettre R (R pour Right, mot signifiant droite en anglais) ou d'un signe de couleur rouge. L'oreillette destinée à l'oreille gauche est souvent marquée de la lettre L (L pour Left, mot signifiant gauche en anglais) ou d'un signe de couleur bleue. Certains écouteurs, par exemple ceux destinés à équiper un téléphone portable, comportent un micro. Ils permettent ainsi d'écouter mais aussi de parler. Certains sont aussi étanches.
Dangers
Dangers physiologiques
Les bruits extérieurs recouvrant parfois le son des écouteurs, les utilisateurs ont tendance à augmenter le volume de façon à toujours entendre le son ce qui peut mener à des lésions de l'oreille et in fine à l'acouphène ou au handicap de Surdité.
Selon l’organisation mondiale de la santé ( OMS ) et son article parut le 1, « trois cent soixante millions de personnes dans le monde (environ 5% de la population mondiale) souffre de déficience auditive incapacitante, dont 32 millions d’enfants ». La prévalence de ce trouble est d’ailleurs en constante augmentation, elle passe de 1,7% chez les enfants a 7% chez les adultes. Par ailleurs, on estime que plus d’un milliard de jeunes de 12 à 25 ans présentent un risque accru de développer une déficience auditive et bien évidemment tout cela résulte de l’utilisation dangereuse d’appareils audio personnels.
Ce risque apparait dans la pratique de plus en plus en hausse consistant à écouter de la musique avec des écouteurs.
L’effet le plus dévastateur de la déficience auditive dans l’enfance concerne la communication.
La déficience auditive fragilise ou compromet ainsi l’apprentissage des fondamentaux, l’estime de soi et la sociabilité. De plus, dans les pays les plus défavorisés donc démunis de système encadrant les enfants souffrant de déficit auditif, ceux-ci se voient déscolarisés.
Et enfin sur le plan des personnes âgées, celles ayant une perte d’audition sont confrontés à d’importantes difficultés sur le plan physique et social, et l’incapacité contribue à l’isolement social et la perte d’autonomie, lesquels vont de pairs avec l’angoisse, la dépression, le déclin cognitif et la démence.
Danger et déconnexion de l'environnement
Les écouteurs mèneraient à un renfermement. Ils isolent plus ou moins des sons extérieurs ce qui peut mettre son utilisateur en danger, particulièrement lors de la conduite d'un véhicule ou la circulation dans des lieux publics, le bruit d'un danger approchant n'étant plus perçu.
En 2020, en Belgique, un cycliste a été tué alors qu'il portait des écouteurs. La Belgique ne compte pas le nombre de cyclistes tués alors qu'ils portent des écouteurs2.
« A vélo, je ne le conseillerais jamais, parce que, à vélo, vous avez besoin d’entendre tout ce qui se passe, que ce soit derrière vous ou à côté de vous, certainement dans un environnement urbain. A vélo, même en tant que piéton, il y a plusieurs études qui ont montré qu’être coupé des bruits de la circulation, ce n’est jamais une bonne idée. Ce sont des informations dont vous avez besoin en tant qu’usager faible. Donc, on le déconseille fortement »
— Benoît Godart, Vias
« Il y a aussi de plus en plus de voitures électriques. Déjà sans oreillettes, on entend juste un petit roulement. SI vous avez des oreillettes, c’est encore plus dangereux »
— Benoît Godart, Vias
En France et en Espagne, le port des oreillettes est interdit pour les cyclistes2.
En Allemagne, le port des oreillettes est autorisé mais le conducteur doit s'assurer que le bruit des oreillettes ne couvre pas l'environnement sonore, sous peine de perdre le bénéfice de son assurance2.
oreillettes bluetooth Airpods
Intra-auriculaire
Oreillette monophonique
Bluetooth (sans fil).
Oreillette stéréo bluetooth PKparis sans aucun fil.
Ce sont des écouteurs qui ont la particularité d'avoir les transducteurs directement dans le canal auditif quand ils sont placés dans l'oreille. Ils ont une partie en caoutchouc ou en mousse qui permet de mieux isoler l'oreille et de mieux percevoir le son.
Bluetooth
Ce sont des écouteurs qui communiquent avec le smartphone ou le PC en mode radio. Ils n'ont donc pas de fil et fonctionnent à l'aide d'une batterie incorporée. Les premières générations sont mono, il n'y a qu'un seul écouteur. En 2008, Sennheiser dévoile ses MX W1 qui sont les premiers écouteurs sans fil stéréo, en 2016 qu'Apple popularise ce type d'écouteur avec ses Airpods nouvelle génération d'écouteurs sans fil.
Notes et références
- Organisation mondiale de la santé, « Prévention de la surdité et de la déficience auditive », soixante-dizieme assemblée mondiale de la santé, , p. 1 (lire en ligne [archive])
Articles connexes
Sur les autres projets Wikimedia :
- Portail de la musique
- Portail des technologies
-
« CD » redirige ici. Pour les autres significations, voir CD (homonymie).
Un disque compact, le plus souvent désigné par son sigle anglais CD – abréviation de Compact Disc1 – est un disque optique utilisé pour stocker des données sous forme numérique.
Le Compact Disc a été développé par Sony et Philips et commercialisé à partir de décembre 1982 (mars 1983 en France).
Au début des années 1990, il se démocratise, et petit à petit, finit par remplacer les supports analogiques (disque microsillon, cassette audio).
Principe de fonctionnement
La technique du disque compact repose sur une méthode optique : un faisceau de lumière cohérente (laser) vient frapper le disque en rotation. Les irrégularités (appelées « pits », cavités dont la longueur varie entre 0,833 et 3,56 µm, et dont la largeur est de 0,6 µm) dans la surface réfléchissante de celui-ci produisent des variations binaires. Le rayon réfléchi est enregistré par un capteur. Plus précisément, lorsque le faisceau passe de la surface plane à cette cavité, il se produit des interférences : lorsque le faisceau ne rencontre qu'une surface plane, l'intensité lumineuse du faisceau réfléchi vers le capteur est maximale, et fait correspondre à cet état la valeur binaire 0 ; quand le faisceau passe sur le pit, le capteur détecte les interférences et l'intensité du signal reçu diminue. La valeur binaire 1 est alors attribuée2. En effet, lorsque le laser est émis sur une telle discontinuité, une partie des rayons lumineux émis sera réfléchie depuis le creux, tandis que l'autre partie sera réfléchie depuis le plat. Aussi se crée-t-il une différence de marche entre ces deux rayons réfléchis, c'est-à-dire un déphasage entre les deux ondes. Or la profondeur du pit est très spécifique à celle du laser utilisé pour la lecture, en effet elle est λ/4, avec λ la longueur d'onde du laser. Deux ondes issues d'une source cohérente sont dites constructives (c'est-à-dire que leurs amplitudes s'additionnent) lorsque la différence de marche notée δ vérifie : δ = λ·k, avec k un entier relatif. C'est le cas lorsque le laser se réfléchit sur un plat ou un creux (k = 0). Au contraire, lorsque le rayon se réfléchit sur un passage creux/plat (ou plat/creux), où l'onde réfléchie dans le creux parcourt donc la profondeur du pit multipliée par deux (aller plus retour) soit une distance d = 2λ/4 = λ/2, la valeur de la différence de marche vérifie : δ = λ (k + 0,5), correspondant à une différence de marche pour des ondes destructives (dont les amplitudes s'annulent). C'est donc l'intensité du signal lumineux réfléchi sur la piste du support de stockage et reçu par le capteur — lequel associe des variations de tension aux variations d'intensité reçues — qui est codée en binaire3. Lorsque le disque compact est utilisé comme support pour l’écoute musicale (premières utilisations), l’information binaire est ensuite transformée en un signal analogique par un convertisseur numérique-analogique.
Dès son apparition, ce support a été promu par ses inventeurs et les éditeurs musicaux comme offrant une meilleure qualité sonore que les autres supports existants (notamment les disques « vinyle »). Ces qualités sont parfois contestées et de nouveaux supports sont apparus, dotés d'une résolution supérieure (SACD : Super Audio Compact Disc, ou DVD-A : Digital Versatile Disc Audio). On constate par ailleurs, au cours des années 2010, un regain de popularité du support vinyle4.
Histoire
Création
Le disque compact fut inventé conjointement par les firmes Philips et Sony Corporation en 1982. Quand les deux entreprises ont décidé de travailler ensemble en 1979, le projet prévoyait que les platines laser seraient équipées des puces électroniques les plus puissantes jamais commercialisées pour un produit grand public. Les premiers CD ont été commercialisés à partir de ( en France).
Ce support apporta un progrès considérable par rapport aux microsillons (qui eux-mêmes avaient été un énorme progrès par rapport aux 78 tours), sur des aspects sonores et de maniabilité :
- amélioration de la dynamique sonore (±100 dB pour le CD, 45 dB maxi pour le microsillon), la lecture optique s'affranchissant des distorsions induites auparavant par l'ensemble sillon/pointe ;
- augmentation de la durée d'écoute : potentiellement jusqu'à 74, puis 80 minutes, soit le double de celle d'un 33t ;
- réduction des bruits de lecture d'origine mécanique : bruit de surface du disque, plateau et disque lui-même entrés en résonance mécanique et acoustique avec le moteur d'entrainement ;
- disque beaucoup moins vulnérable qu'un microsillon aux poussières (dont celles induites par l'électricité statique), voire aux rayures, le laser parvenant malgré celles-ci à suivre la piste de lecture, et les d'information non lisibles étant remplacées par un signal sonore tenant compte dans une certaine mesure de ce qui précède et de ce qui suit ;
- disque beaucoup plus petit, léger, moins encombrant et plus facile à manipuler qu'un microsillon ;
- possibilité d'un meilleur spectre sonore des fréquences graves et aiguës allant de 20 Hz à 22 kHz ;
- plus aucun problème de pointe de lecture fragile et s'encrassant (la cellule laser étant à nettoyer toutefois régulièrement) ;
- accessibilité directe au début de chaque plage, affichage du minutage, possibilité de lecture accélérée, lecture des premières secondes de chaque plage, lecture aléatoire, etc.
En 1980, le Red Book (en français littéral : « Livre rouge ») détermine les caractéristiques techniques du nouveau disque et le partage des brevets entre les deux concurrents : à Philips la conception du CD (sur la base de leur expérience de la technologie du Laserdisc) et des lentilles qui permettent la lecture ; à Sony la définition du format utilisé pour numériser la musique et la méthode de correction d'erreurs. Parmi les principaux membres de l’équipe, les plus connus sont Pieter Kramer (directeur du laboratoire de recherche optique de Philips dans les années 1970) et Kees A. Schouhamer Immink pour Philips, Toshitada Doi pour Sony.
Les premiers prototypes produits par Philips mesuraient 115 mm de diamètre, avec un codage sur 14 bits et une durée de 60 minutes. Sony insista pour qu’on adopte un codage sur 16 bits et une durée de 74 min, d'où un diamètre augmenté à 120 mm. Cette capacité aurait été choisie à la demande de Herbert von Karajan, afin que la version la plus lente de la 9e symphonie de Beethoven, celle enregistrée au festival de Bayreuth en 1951 sous la direction de Wilhelm Furtwängler, tienne sur un seul disque. Sony indiqua que c’était à la demande de l’épouse de son président, pour ces mêmes motifs. La vérité est moins romantique5 : au moment de lancer la production industrielle, Philips aurait eu un avantage grâce à une chaîne de production capable de fournir rapidement ces disques de 11,5 cm, ce qui ne faisait pas les affaires de Sony, la firme japonaise ayant pris du retard sur la fabrication des lecteurs. Philips ne souhaitait pas favoriser le format de 10 cm propre à Sony, pour les mêmes raisons. Le compromis fut le disque de 12 cm qui ne donnait l’avantage à aucun des deux fabricants, tout en permettant d’utiliser tous les développements techniques et électroniques mis au point précédemment. Ces décisions ont été prises par le management et ont été imposées aux experts des équipes techniques.
Un disque de 12 cm de diamètre avait un temps de lecture théorique de 74 min et 30 s. À l’époque, la durée maximale d’enregistrement plafonnait en pratique à 72 min car les premiers supports pour le mastering audionumérique étaient des cassettes vidéo au format U-matic, dont c’était la durée d’enregistrement maximale. La version la plus longue de la symphonie de Beethoven n’aurait de toute manière pas pu trouver place en entier sur un CD avant 1988, date de l’introduction de nouveaux supports pour le mastering numérique.
Philips et Sony annoncèrent fin août 1982 qu’elles étaient prêtes à sortir leur nouveau produit et commencèrent les ventes à l’automne . La production industrielle commença le 17 août 1982 à Langenhagen, près de Hanovre (RFA). Les premiers albums produits étaient Une symphonie alpestre, de Richard Strauss (Herbert von Karajan avec l'Orchestre philharmonique de Berlin) et The Visitors (ABBA). La première platine fut vendue au Japon le accompagnée de l’album 52nd Street de Billy Joel. En Europe, le premier lecteur de CD est commercialisé en 6.
Au début de la commercialisation des CD, on distingue les procédés analogique (A) ou numérique (D, pour digital) pour les trois phases principales d'enregistrement (indiquées théoriquement sur chaque CD du commerce)n 1 :
- AAD (Analogique-Analogique-Digital) : utilisation d'un magnétophone analogique pendant les séances d'enregistrement, le mixage et/ou le montage, et numérique pour la gravure. On trouve aussi la mention « AAD masterisé » dans le cas d'anciens enregistrements analogiques « digitalisés », en transformant le signal analogique en un signal numérique en « dents de scie » (en principe meilleur car formé de bits 0 ou 1, donc ôtant les signaux ou bruits de surface parasites notamment)[évasif] ;
- ADD (Analogique-Digital-Digital) : utilisation d'un magnétophone analogique pendant les séances d'enregistrement, puis numérique pour le mixage et/ou le montage, puis la gravure ;
- DDD (Digital-Digital-Digital) : utilisation d'un magnétophone numérique pendant les séances d'enregistrement, le mixage et/ou le montage, puis la gravure.
Un remplaçant du disque microsillon
Le succès du CD est progressif, d'autant que l'industrie du disque a décidé d'un prix de vente majoré de 60 à 70 % (en France) par rapport au microsillon et que les premiers appareils de lecture sont eux aussi d'un coût élevé (en 1983, supérieur au SMIC mensuel, en France, et en 1988 on commence à voir des modèles d'un coût de l'ordre de 50 % du SMIC mensuel) limité dans un premier temps à l’album The Visitors d’ABBA (PolyGram, label de Philips), et à un enregistrement de la Symphonie alpestre de Richard Strauss dirigée par Karajan. En effet, le CD passe surtout dans les premiers temps pour un support réservé aux mélomanes classiques, grâce à la qualité sonore qu’il offre. Quelque 200 titres, classiques essentiellement, sont ainsi produits par Philips. C’est la mise sur le marché, en 1985, de l’album Brothers in Arms, du groupe Dire Straits (premier album entièrement numérique), qui démocratise le CD : l’album se vend à plus d’un million d’exemplaires. Il ne fait plus de doute que le CD apparaît comme le support sonore de l’avenir.
Dès 1986, les platines laser se vendent mieux que les autres, et en 1988 les ventes de CD dépassent celles des disques vinyle. En France, la démocratisation du CD passe par l'activité d'éditeurs indépendants comme NTI (David Mufflarz) et Christian Brunet (Levitan SA - CD One music). Cet indépendant est le premier à travailler sur le « fond de catalogue », et donc sur un prix de vente raisonnable, alors qu'un CD est toujours proposé à des tarifs ne pouvant motiver que l'élite du public. Ainsi apparaissent dans le circuit de la grande distribution des collections très bon marché, là où les CD commercialisés par les majors sont excessivement chers. Dès 1991 sont vendus des coffrets de dix CD pour moins de 90 francs (13,72 euros)7. Cette collection (« Romance du classique ») sera vendue à plus de 2,5 millions d'exemplaires en moins d'un mois, durant les fêtes de fin d'année. Cette politique de prix fera exploser les ventes de lecteurs de CD en France.
Le CD a connu un large succès et s’est rapidement substitué aux disques vinyle comme support musical, notamment grâce aux qualités suivantes :
- absence d’usure due à la lecture optique (celle-ci supprime le contact mécanique et donc l’altération du support par frottement). Les utilisateurs soigneux conservent leurs CD en bon état en les stockant dans un boîtier (pour éviter la poussière et les rayures), verticalement (pour éviter la déformation), à l'abri de la chaleur, de la lumière et de l'humidité ;
- tailles du support : ses 12 cm de diamètre lui confèrent une portabilité que n’avait pas le disque microsillon. Un deuxième format de 8 cm est, lui aussi, normalisé, mais peu utilisé ;
- l’épaisseur nominale est de 1,2 mm ;
- qualité « théorique » de reproduction sonore supérieure aux cassettes audio et disques vinyle. (Rapport signal sur bruit bien plus important, reproduction exacte à chaque lecture grâce au système de correction d’erreur. Cependant, les audiophiles ou mélomanes exigeants préfèrent parfois le son « analogique » issu du vinyle qu’ils jugent plus musical, plus naturel et plus précis dans les aigus. Ceci est dû au repliement de spectre lors de l'enregistrement, dû à un mauvais filtrage des fréquences situées au-delà de la demi-fréquence d'échantillonnage (voir aussi Théorème d'échantillonnage de Nyquist-Shannon). Ce défaut fut assez fréquent dans les premiers enregistrements numériques qui ne disposaient pas de filtres de qualité suffisante. Le repliement de spectre donne des aigus agressifs et désagréables, qu'il est ensuite impossible de corriger. Le suréchantillonnage, qui consiste à mieux interpoler le signal, permet de simplifier le filtrage à la restitution. Le format numérique SACD présente une meilleure définition numérique que le CD, mais ne s'est pas imposé (ses avantages techniques étant imperceptibles pour une grande part des auditeurs potentiels, ne pouvant donc justifier son surcoût, tandis qu'il est apparu à une période de profonds changements dans les habitudes de consommation du grand public, avec l'avènement conjoint du piratage à grande échelle et de la diffusion de musique sous forme dématérialisée, conséquences de l'essor de l'informatique personnelle et du réseau internet) ;
- retour à l’écoute intégrale sans avoir à retourner le support audio dans le lecteur, avec un accès sans manipulation mécanique, ce qui ne s’était pas vu depuis la disparition des cartouches 8 pistes. Les disques vinyle sont enregistrés sur deux côtés, on doit donc les retourner à la mi-écoute ; certains magnétocassettes disposaient d'un système dit « autoreverse » inversant le sens de marche et commutant les têtes de lecture en fin de bande ;
- accès direct aux différents morceaux ainsi (pour certains lecteurs) qu'à des index pour chaque morceau ; certains magnétocassettes disposaient aussi d'un système de recherche de plages qui détectait les passages sans données audio (ce système est évidemment plus lent que sur un CD audio).
Les CD-R (CD vierges à graver) ont les mêmes dimensions, et peuvent être utilisés pour stocker des données Red Book (qui définit la norme audio pour le CD, telle que les 44,1 kHz de fréquence d'échantillonnage et 16 bits de résolution). On distingue les CD-R PC, qui sont conçus pour une utilisation avec un graveur intégré à un PC, et les CD-R Audio, qui sont conçus spécifiquement pour les enregistreurs domestiques autonomes (lesquels ne peuvent pas lire les CD-R PC). Ils sont d’ailleurs plus chers car il est tenu compte d'un pourcentage pour les droits d'auteur qui sont reversés à la SACEM en France ou la SABAM en Belgique.
Compact Disc est une marque déposée par la firme néerlandaise Koninklijke Philips Electronics N.V. et cette dernière refuse l’utilisation du terme déposé pour tout disque audio protégé contre la copie.
Détails physiques
Les disques compacts sont constitués d’une galette de polycarbonate de 1,2 millimètre d’épaisseur recouverte d’une fine couche d’aluminium (à l'origine, c’était d’une couche d’or et c’est encore le cas sur les disques à longue durée de vie) protégée par un film de laque. Ce film peut aussi être imprimé pour illustrer le disque. Les techniques d’impression sont l’offset et la sérigraphie. Les différentes couches sont déposées par la machine à l'état liquide sur le pourtour du centre du disque et réparties sur la surface par la force centrifuge, afin de garantir une répartition uniforme.
Les informations sur un CD standard sont codées sur une piste d’alvéoles en spirale moulée dans le polycarbonate. Chaque alvéole mesure environ entre 125 nm (0,125 µm) et 500 nm en largeur, et entre 833 nm et 3,5 µm en longueur. L’espace entre les pistes est de 1,6 µm. Pour se donner une idée des dimensions, si le disque était mis à l’échelle d’un stade de football, une alvéole aurait la taille d’un grain de sable. La spirale commence presque au centre du disque pour se terminer en périphérie, ce qui autorise plusieurs tailles de disques.
Un CD est lu par une diode laser de 780 nm de longueur d'onde à travers la couche de polycarbonate (diamètre du spot : 1,04 µm). La différence de profondeur entre une alvéole (creux) et la surface plane (bosse) est d’un quart de la longueur d’onde du laser, ce qui permet d’avoir un déphasage d’une demi-longueur d’onde entre une réflexion du laser dans une alvéole et sur la surface plane. L’interférence destructive causée par cette réflexion réduit l’intensité de la lumière réfléchie dans une alvéole comparée à une réflexion sur la surface plane. En mesurant cette intensité avec une photodiode, on est capable de lire les données sur le disque.
Les creux et les bosses ne représentent pas les « 0 » et les « 1 » des informations binaires. C’est le passage d’un creux à une bosse ou d’une bosse à un creux qui indique un « 1 ». S’il n’y a pas de passage bosse-creux, alors il s’agit d’un « 0 ». On appelle cela un « front »8.
Ensuite, ces données sont soumises au traitement EFM (Eight-to-Fourteen Modulation) utilisé lors du codage des données audionumériques en données numériques pour CD audio, de façon à obtenir les données audionumériques brutes.
-
-
-
CD avec couche métallique enlevée.
-
Gouttes d'eau sur un disque compact.
Cliquez sur une vignette pour l’agrandir.
Méthode de fabrication
La fabrication industrielle d’un CD se fait suivant différentes étapes : un CD ainsi produit assure une longévité de l’ordre d'un siècle s'il est stocké et manipulé soigneusement. En comparaison, un CD-R a une durée de vie de l’ordre d'une décennie, du fait de sa sensibilité aux rayons lumineux.
Prématriçage
Le prématriçage correspond à la transcription des informations du client sur une bande à neuf pistes, en passant par une phase de correction d’erreurs, et de formatage des fichiers au format ISO 9660 dans le cas d’un CD-ROM.
La fonction essentielle du prématriçage est le calcul du code détecteur et du code correcteur. Ces codes sont contenus sur 288 octets accolés à 2 ko d’informations plus des informations de synchronisation et d’en-tête. Ce procédé permet de prévenir les erreurs de transmission.
Une fois cette étape passée, il n’y a plus aucune modification des données à inscrire.
Création du disque matrice
La création du disque matrice, appelé aussi matrice de verre, correspond au marquage des données sur un disque de verre.
Le point de départ du disque matrice est une vitre fortement polie, dont les caractéristiques de surface ressemblent de près à celles d'un miroir astronomique. Cette plaque de verre est couverte d’un substrat sensible à la lumière, appelé résine photosensible. La couverture de la plaque par un procédé de rotation (dépôt par centrifugation) assure une couche absolument plane et uniforme de 120 nm d’épaisseur. C’est l’épaisseur de cette couche qui détermine la profondeur des creux.
L’inscription des données est effectuée grâce à un appareil émettant un rayon laser qui est activé et désactivé en fonction des informations transmises. Le rayon ainsi modulé marque la couche photosensible de la plaque de verre.
Le disque de verre est ensuite placé dans un bain de développement. Les emplacements altérés par le rayon sont lavés faisant ainsi apparaître les premiers creux.
Après séchage du disque matrice suit la vaporisation sous vide d’une fine couche argentée de 100 nm. À ce stade, le disque matrice est lisible par un lecteur spécial qui permet de contrôler la qualité de l’enregistrement.
Galvanisation
La galvanisation est une opération qui crée la matrice de production à partir de la matrice de verre.
La matrice de verre est plongée dans un bain de galvanisation comportant une anode de nickel. La couche argentée de la matrice de verre est transformée en cathode. Le courant ainsi créé entraîne un déplacement des ions de nickel sur l’anode, couvrant peu à peu la plaque de verre d’une couche de nickel.
La séparation de la couche de nickel de son support de verre amène la destruction de ce dernier. Si à ce stade de l’opération les normes de qualité ne sont pas respectées, tout le processus précédent est à refaire.
La couche de nickel, copie tirée directement de la matrice de verre, est nommée « original » ou « copie père » : c’est une reproduction en négatif de l’original. Pour éviter une perte de cet original, on en fait une copie appelée « copie mère », qui sert ensuite à tirer les sous-matrices.
Les sous-matrices sont, comme l’original, des négatifs et servent à imprimer les données sur les disques en plastique pendant leur fabrication. Elles sont perforées au centre et polies à l’endos. La qualité du dos de la matrice a une grande influence sur le bruit qui sera perçu par les photorécepteurs des lecteurs de CD-ROM. La rugosité moyenne maximale est de 600 nm. Comme l’air, la propreté de l’eau est importante pour la qualité finale du produit.
Fabrication en série
La fabrication en série des disques compacts peut se faire par moulage par injection ou par pression. Le premier principe consiste en l’injection du polycarbonate liquide dans la matrice ; le second procédé a pour principe l’impression des cuvettes dans le disque encore chaud par pressage.
Le polycarbonate a été retenu dans la conception des CD pour ses propriétés telles que la pureté optique, la transparence et un indice de réfraction constant.
Les disques ainsi obtenus voient leur face marquée par les données, puis métallisée par une couche d’aluminium de 40 à 50 nm. Pour ce faire, l’aluminium est atomisé dans un espace sous vide, et se dépose lentement sur le disque. L’atomisation est obtenue par réchauffement, ou à froid, par un procédé de pulvérisation cathodique.
La couche d’aluminium ainsi déposée est enfin protégée par l’application d’un vernis protecteur, à l’aide du procédé de dépôt par centrifugation. Le vernis devient ainsi une couche uniforme de 10 µm d’épaisseur.
Avant conditionnement, une étiquette est imprimée sur le vernis par le principe de la sérigraphie.
Il existe également des CD dont la face inférieure est noire.
Emballage
Les CD sont couramment protégés par des boîtiers standards en plastique. Ce matériau, bien que fragile (très sensible aux rayures, des fissures apparaissent si l'on appuie dessus et, à l'usage, les pattes permettant l'ouverture du boitier se cassent), a été choisi pour ses propriétés optiques. Très transparent, il permet la création d'un boitier attractif, où l'on peut glisser une feuille ou un livret, afin d'améliorer la présentation.
Il existe également des boitiers deux fois plus fins pour les CD-maxi-single (surtout au Royaume-Uni et en Allemagne), dits boitiers « slim », ou encore des doubles boitiers pour les double albums, voire plus par différents montages. On trouve aussi des pochettes en papier ou carton (souvent désignés par l’appellation Digipack). Certains albums ont eu une pochette dans d'autres matériaux (verre, métaux, bois, carton recyclé, etc.) dans le cas d'édition limitée ou de promotion en rapport avec le CD.
-
CD dans un boîtier en plastique.
-
Cloche contenant plusieurs CD.
-
CD dans une pochette en papier.
Format audio
Le format de données, connu sous le nom de norme Red Book, a été dressé par Dutch Electronics du groupe Philips qui possède les droits du CDDA et du logo qui apparaît sur les disques. En termes techniques, il s’agit d’une piste stéréo encodée en PCM à une résolution de 16 bits (linéaire en amplitude, sans compression logarithmique des amplitudes hautes) avec une fréquence d’échantillonnage de 44,1 kHz.
Échantillonnage
Les échantillons sont ensuite regroupés en frames, chaque frame comporte six échantillons stéréo (6 × 2 × 16 bits = 192 bits soit 24 octets), plus 8 octets de correction d’erreur et un 1 octet de subcode, soit un total de 33 octets par frame. Le code correcteur est ajouté pour permettre la lecture d’un disque comportant des salissures ou rayures modérées ; il s’agit de deux codes de Reed-Solomon à la suite et d’un entrelacement des données effectué entre les deux codages.
L’octet subcode est utilisé pour former huit canaux de contrôle (chaque canal ayant un débit binaire de 7,35 kb/s), dans le CD standard seul, les deux premiers canaux sont utilisés et servent pour indiquer les débuts de pistes, le temps, la préaccentuation, l’autorisation de copie, le nombre de canaux (stéréo ou quadriphonie, mais bien que le bit d’indication de quadriphonie existe dans la norme, la façon dont ces canaux supplémentaires doivent être codés n’est pas définie et il n’est donc pas utilisé), les six autres canaux sont utilisés dans les extensions comme le CD+G (permet l’insertion des paroles pour les karaokés) ou le CD-Text (nom des pistes, auteurs, interprètes).
La fréquence d’échantillonnage de 44,1 kHz est héritée d’une méthode de conversion numérique d’un signal audio en signal vidéo pour un enregistrement sur cassette vidéo qui était le seul support offrant une bande passante suffisante pour enregistrer la quantité de données nécessaire à un enregistrement audionumérique9. Cette technologie peut stocker six échantillons (trois par canal en stéréo) par ligne horizontale. Un signal vidéo NTSC possède 245 lignes utilisables par trame et 59,94 champs par seconde qui fonctionnent à 44 056 échantillons par seconde. De même, un signal vidéo PAL ou SÉCAM possède 294 lignes et 50 champs qui permet de délivrer 44 100 échantillons par seconde. Ce système pouvait en outre stocker des échantillons de 14 bits avec des corrections d’erreur ou des échantillons de 16 bits sans correction d’erreur.
Carte avec deux CNA TDA1541A S1 de Philips.
Il y eut un long débat entre Philips et Sony concernant la fréquence et la résolution de l’échantillonnage : Philips privilégiait le 44,100 kHz utilisé en Europe et une résolution de 14 bits (la firme néerlandaise ayant déjà développé des CNA 14 bits) tandis que Sony voulait imposer le 44,056 kHz utilisé au Japon et aux États-Unis, associé à une résolution de 16 bits. C’est pour cela que les premières platines CD étaient équipées de CNA 14 bits (les TDA1540), Philips ayant trouvé le moyen de les utiliser en 16 bits par un suréchantillonnage 4× : le CNA fonctionnait donc à 176,4 kHz au lieu de 44,1 kHz et était précédé d’un filtre numérique. Cette fréquence quatre fois plus élevée permettait d’avoir un filtre passe-bas avec une pente beaucoup plus progressive qu’avec les CNA concurrents. Le comportement dans les fréquences proches de 20 000 Hz était plus linéaire avec moins de rotation de phase et le son en était d’autant plus pur.
Structure logique
Un CD audio comme un CD-R est constitué, d'après le Orange Book, de trois zones constituant la zone d'information (information area) :
- Zone Lead-in
- La Lead-In Area contient des informations décrivant le contenu du support (ces informations sont stockées dans la TOC, Table of Contents). La zone Lead-in s'étend du rayon 23 mm au rayon 25 mm.
- Zone Programme
- La Program Area contient les données et commence à partir d'un rayon de 25 mm, elle s'étend jusqu'à un rayon de 58 mm. La zone programme peut contenir un maximum de 99 pistes (ou sessions) d'une longueur minimale de 4 secondes.
- Zone Lead-Out
- La Lead-Out Area contient des données nulles (du silence pour un CD audio) et marque la fin du CD. Elle commence au rayon 58 mm et doit mesurer au moins 0,5 mm d'épaisseur (radialement). La zone Lead-out doit ainsi contenir au minimum 6 750 secteurs, soit 90 secondes de silence à la vitesse minimale (1X).
Capacité de stockage et vitesse
Les spécifications du disque compact recommandent une vitesse linéaire de 1,22 m/s (soit 500 tr/min au passage de la diode laser près du bord intérieur de la surface réfléchissante, et 200 tr/min au bord extérieur de celle-ci) et un pas entre les pistes de 1,59 µm. Cela correspond à un CD-ROM (74 min) de 120 mm de diamètre et d'une capacité de 650 Mio (682 Mo) de données.
Néanmoins, afin d’autoriser des variations dans la fabrication des supports, il y a une tolérance dans la densité des pistes. En fabriquant délibérément des disques de plus haute densité, on peut augmenter la capacité et rester très proche des spécifications du CD. En utilisant une vitesse linéaire de 1,197 5 m/s et un pas entre les pistes de 1,497 µm, on atteint une nouvelle capacité maximale de 737 Mo (80 min). Bien que ces disques possèdent une légère variation de fabrication, ils sont lus par la plupart des lecteurs et seul un très faible nombre de lecteurs les rejettent.
Il existe des disques enregistrables de 99 min, capacité obtenue par augmentation de la densité des pistes, mais il s'agit d'un marché de niche (à cause des problèmes rencontrés au-delà de 80 min). La capacité maximale qu’un disque peut annoncer lui-même, en accord avec les spécifications du CD-R, est au plus à 80 min. De plus, les marqueurs de temps entre 90 et 99 min sur les disques sont normalement réservés pour indiquer au lecteur qu’il lit le début du disque et non la fin. Ces deux problèmes sont fonction des fabricants de disques, des graveurs et des logiciels de gravure.
Une autre technique pour augmenter la capacité d’un disque est d’écrire dans le préambule et dans la fin du disque qui sont normalement prévus pour indiquer les limites du disque. Cela permet d’étendre la capacité d’une ou deux minutes, mais cela peut provoquer des problèmes de lecture quand la fin du disque est atteinte.
Une heure de musique non compressée stéréo en 16 bits d’échantillonnage à 44,1 kHz, occupe 635 Mo10 de données (64,4 min occupent 682 Mo et 74 min occupent 783 Mo, 747 Mio).
Une heure de musique en 192 kbit/s soit compressée par 7,35 (joint stéréo, 16 bits d’échantillonnage à 44,1 kHz)11, occupe 86,4 Mo12 de données. Cette compression permet d'avoir 8,53 h sur le support « 80 min »13 (512 min)14.
Longévité
Les CD audio de l'industrie (pressés) ont une longévité annoncée initialement entre 50 et 200 ans. Toutefois, les analyses du Laboratoire national de métrologie et d'essais (France)15 montrent que la durée de vie des CD gravés (CD-R) est nettement inférieure, assujettie aux conditions d'archivage, au support et au graveur. Les causes du disc rot (en) résident principalement dans la migration d'encres ou de solvants à travers la mince épaisseur de plastique qui sépare la face des inscriptions de la couche réfléchissante portant l'enregistrement16.
Types
On distingue plusieurs formats de disques compacts répertoriés dans les Rainbow Books, en voici une liste non exhaustive :
- CD audio (CDDA ou CDA) : Compact Disc Digital Audio ou en français « Compact Disc Audio ». Cette famille comprend également les SHM CD, les Blu-spec CD ainsi que les DSD CD ;
- Blu-spec CD est l'appellation commerciale d'un Compact Disc conçu selon un processus propriétaire, lancé par Sony fin 2008. Son nom vient du fait que son processus de fabrication est celui utilisé pour la création des Blu-ray. En lieu et place d'un rayon infrarouge standard, un laser bleu est utilisé pour créer les encoches numériques sur la matrice mère, qui sera dupliquée par moulage. En raison de sa finesse, le laser bleu crée des encoches plus précises d'une largeur minimale de 125 nm (contre 500 nm pour un CD standard, et 780 nm pour un DVD ou Super Audio CD), qui diminueraient le nombre d'erreurs dans la lecture numérique. Cela ne change aucunement le format CD (PCM 44,1 kHz, 16 bits) ni la longueur des encoches numériques gravées dans le disque. Un Blu-spec CD peut donc être lu par n'importe quelle platine CD conventionnelle à rayon laser rouge (longueur d'onde 780 nm) et ne nécessite aucunement l'emploi d'un laser bleu,
- Super High Material Compact Disc (SHM-CD) a été mis au point en 2008 conjointement par les firmes JVC et Universal Japan afin de concurrencer le DSD-CD (voir ci-dessous). Lancé en avant-première au Japon cette même année, il s'est vendu à 750 000 exemplaires. Son introduction en France s'est faite courant 2009. Il consiste en un Compact Disc lisible par toute platine conventionnelle du marché, à ceci près que, selon ses concepteurs, son gain en volume approche les 30 % sur l'ensemble du spectre sonore. Ce gain provient d'une transparence des données accrue, due à la découverte d'une nouvelle formule de polycarbonate (plastique constituant les familles des Compact Discs, DVD et Super Audio CD), translucide à l'œil humain, mais en réalité beaucoup plus limpide pour le rayon laser de longueur d'onde 780 nm dont sont équipés les lecteurs de CD. Cette transparence des données diminue la distorsion. En outre, ce nouveau type de polycarbonate résiste mieux aux dégradations (rayures, incrustations de poussière, sensibilité à la lumière et à la température) que celui d'un CD ordinaire. Le SHM CD est à l'heure actuelle peu représenté en magasins en France, et s'obtient la plupart du temps en VPC via internet. Ce format connaît un véritable engouement au Japon, avec une grande quantité de rééditions ou de sorties d'albums. Techniquement, rien n'explique un lien entre une transparence accrue du support par rapport au produit standard et un gain perceptible en qualité audio. Des différences peuvent provenir d'un traitement spécifique du son avant pressage. Le SHM CD est commercialisé souvent beaucoup plus cher que le même programme vendu en disque compact. Or, le prix d'un polycarbonate éventuellement de meilleure qualité optique n'augmenterait le prix de revient que de quelques centimes d'euro par unité,
- DSD-CD est un Compact Disc conventionnel (donc lisible par n'importe quel lecteur de CD du marché) issu par conversion d'un master réalisé en DSD (DSD → PCM), lui permettant d'avoir une meilleure définition qu'avec un master habituel d'origine PCM (PCM → PCM). Il est fréquent que l'on rafraichisse ce résultat au moyen d'un processeur Sony SBM (Super Bit Mapping (en)) spécialement adapté pour ces conversions DSD : il s'agit du Super Bit Mapping Direct17. Il convient de noter que cette technologie est toujours employée dans le cas d'un Super Audio CD hybride, car la couche Compact Disc est en soi un DSD-CD, étant systématiquement réalisée à partir du master DSD utilisé pour la couche haute définition du même disque17. En 2013, il existe un cas particulier de DSD-CD : après avoir sorti l'album Paranoid de Black Sabbath en format SHM SA-CD le , Universal Japan décide d'en utiliser le master DSD pour sortir ce même album le au format SHM CD (voir ci-dessus), destiné à conforter les auditeurs dépourvus de lecteur de Super Audio CD, ne pouvant écouter le SHM SA-CD. Ce disque, étant un SHM CD réalisé à partir d'un master DSD, est donc un SHM-DSD-CD, combinant les deux technologies. Le DSD-CD peut en outre être perçu comme un intermédiaire tamisant la rivalité concurrentielle entre le DSD et le PCM ;
- CD-ROM (Compact Disc Read-Only Memory), officiellement « cédérom » en français : support de stockage informatique ;
- GD-ROM : C'est un format du Compact Disk développé par Sega pour sa console de jeux Dreamcast ;
- CD-i (Compact Disc interactif) : ses spécificités sont définies dans le Green book. Les premiers lecteurs CD-i ont été commercialisés en 1991 ;
- CD Extra (ou Enhanced CD ou « disque amélioré ») : disque compact réunissant en premier une session ne contenant que les pistes audio et une session ne contenant que des données. Les CD OpenDisc (en) sont techniquement des CD Extra. Dans les lecteurs de disques audio (par exemple autoradios et chaînes hi-fi) : seule la session audio de ce type de disque est lisible. Les disques audio Copy Control (en) créés par certains majors sont des CD Extra. Ce type de disque ne garantit pas d'être lisible dans tous lecteurs de CD (autoradios, chaînes hi-fi, etc.). Voir aussi la norme Blue Book ;
- CD en mode mixte : disque compact réunissant en premier une session ne contenant que des données et une session ne contenant que des pistes audio. Il est parfois employé comme support de jeu vidéo, la première session (de données) contenant le programme-jeu tandis que les musiques du jeu sont dans la seconde (l’audio) ;
- CD-R : Compact Disc Recordable, disque inscriptible une seule fois ;
- CD-RW : Compact Disc Rewritable, disque réinscriptible ;
- CD+G : Compact Disc + Graphics, disque compact et Images ;
- VCD : Video Compact Disc, disque compact vidéo ;
- SVCD : Super Video Compact Disc, Super compact disque vidéo ;
- Super Audio CD : C'est un des formats du Compact Disc créé par Sony et Philips en 1999 et répertorié dans le Scarlet Book. C'est un disque compact nécessitant l'emploi d'un lecteur spécial, capable de reproduction multicanale aussi bien que de reproduction stéréophonique, d'une fréquence d’échantillonnage 64 fois supérieure à celle du Compact Disc ordinaire. Il est également capable de technologie « hybride », comportant une deuxième couche CD lui permettant d'être lu par toute platine CD ordinaire en qualité CD ;
- CD Audio DTS : disque compact contenant de l'audio compressé en DTS. Les CD Audio de ce type nécessitent un lecteur capable de décoder le DTS et n'émettent que du bruit quand ils sont lus dans un lecteur de CD Audio classique ;
- CD Vidéo : disque compact contenant de l'audio numérique et de la vidéo analogique, à la manière des LaserDisc. Les CD Vidéo contiennent une ou deux pistes audio lisibles sur un lecteur de CD classique et jusqu'à 5 minutes de vidéo analogique, lisible uniquement sur un lecteur de LaserDisc ;
- AVCD : disque compact contenant de la vidéo numérique au format Vidéo CD sur les premières pistes et de l'audio numérique en format CD Audio sur les pistes suivantes.
Les appareils de lecture pour CD-audio ne sont pas conçus pour lire les CD-ROM ; a contrario, les lecteurs de CD-ROM peuvent aussi lire les CD-audio. Il existe aussi des CD « hybrides » contenant de l’information audio (lisible par un lecteur audio) et des informations d’autres types (texte, vidéo, images, etc.), lisibles par un lecteur de CD-ROM (CD en mode mixte et CD Extra cités plus haut).
Plus récemment, avec l’apparition de la méthode de compression audio MP3 (MPEG-1/2 Audio Layer 3), des lecteurs audio pouvant lire des pistes MP3 sur un CD-R(W) et les jouer comme un CD audio traditionnel ont été développés. L’intérêt du format MP3 est qu’il permet de stocker de 4,4118 à 1119 fois plus de musique que sur un CD audio avec une dégradation plus ou moins perceptible de la qualité sonore en fonction du débit auquel le disque / le morceau a été compressé. Il est possible de compresser jusqu'à 176 fois20, moyennant une forte dégradation de la qualité.
À présent, le CD audio (matériel) se vend beaucoup moins, principalement du fait de l'apparition au début du XXIe siècle d'autres supports de stockage et d'appareils d'écoute plus légers, plus compacts, avec plus de capacités (lecteurs portatifs à mémoire flash intégrée), et parallèlement de l'extension du réseau Internet, permettant une diffusion sous forme dématérialisée (dans un premier temps clandestine puis peu à peu via des plates-formes de diffusion légales, proposant des morceaux ou des albums entiers en téléchargement ou en écoute instantanée).
Notes et références
Notes
- Les pochettes de microsillons indiquaient aussi durant les dernières années ces sigles, se terminant logiquement cette fois par la lettre « A », puisque le support lui-même était forcément analogique :
- AAA (toujours vrai pour les premiers microsillons, avant les magnétophones numériques) ;
- ADA ou DDA, lors des enregistrements numériques sur microsillons.
Références
- Compact Disc, ses dérivés Compact Disc ReWritable et Compact Disc Recordable, et toutes leurs variantes, sont des marques déposées, propriété de la société Koninklijke Philips Electronics N.V. [archive]
- Nicolas Treps, Fabien Bretenaker, Le laser : 50 ans de découvertes, EDP Sciences, 2010.
- Cours de physique de terminale scientifique.
- « Face au CD en déclin, le disque vinyle fait un retour en force » [archive], Numerama, 9 janvier 2009.
- (en) Shannon, Beethoven, and the Compact Disc [archive], Kees A. Schouhamer Immink, IEEE Information Theory Newsletter, décembre 2007.
- « Philips CD100 » [archive], sur Tryphonblog, (consulté le ).
- Christian Brunet réalise pour le groupe Carrefour cette première opération.
- Voir Codage Miller.
- Voir Modulation d'impulsion codée (PCM en anglais) et adaptateur PCM (en).
- (2 canaux × 16 bits × 44 100 Hz) / 1 000 > (1 411,2 kbit/s × 3 600 s) / 8 000 > 635 Mo fait 60 min de musique non compressée.
- 1 411,2 / 192 = 7,35 qui est la compression en 192 kbit/s.
- (2 canaux × 16 bits × 44 100 Hz) / 1 000 > 1 411,2 / 7,35 compression > (192 kbit/s × 3 600 s) / 8 000 > 86,4 Mo fait 60 min de musique compressée 7,35 fois.
- 737 Mo / 86,4 = 8,53 h par CD en 192 kbit/s.
- 8,53 heures × 60 = 512 minutes par CD en 192 kbit/s.
- Longévité des CD sur LNE [archive].
- « Comment vos CD pourrissent lentement dans vos armoires » [archive], sur Site-LeVifFocus-FR, (consulté le )
- (en) Super Bit Mapping Direct Conversion [archive] (spécifications ISC du SA-CD), sur daisy-laser.com.
- 1 411 / 320 = 4,41.
- 1 411 / 128 = 11.
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
Liens externes
- Portail de la musique
- Portail de l’informatique
- Portail des technologies
- Portail de Sony
-
modifier - modifier le code - modifier Wikidata
Un lecteur de MP3 portable.
Le MPEG-1/2 Audio Layer III, plus connu sous son abréviation de MP3, est la spécification audio du standard MPEG-1/MPEG-2. Il s'agit d'un format de compression audio avec perte permettant une réduction importante de la taille du flux de données audio, tout en conservant une qualité de restitution couramment jugée acceptable, donnant le choix du débit selon le compromis taille-qualité souhaité. C'est aussi l'un des formats de musique numérique les plus répandus1,2.
L'extension de nom de fichier est .mp3 et le type MIME est audio/mpeg3, audio/MPA, audio/mpa-robust4, ou audio/mp3 (dans les navigateurs Chrome/Chromium). Ce type de fichier est appelé « fichier MP3 ». Un fichier MP3 n'est soumis à aucune mesure technique de protection.
Histoire
Les fondations conceptuelles
Les techniques de compression de données audio employées par le format MP3 trouvent leurs origines dans l’industrie de la téléphonie. Conceptuellement, le modèle établi par l’industrie téléphonique dans les années 1920 est l’ancêtre du format MP35.
Vers 1907, AT&T, la principale entreprise téléphonique américaine, a commencé à investir dans la recherche psychoacoustique. Ils ont formé un groupe de recherche affilié à Western Electric qui était le prédécesseur des Bell Labs6.
Pour AT&T, plus les perceptions auditives de l’être humain étaient appréhendées, plus de revenu pourrait être extrait de son infrastructure déjà existante. Le désir d’AT&T de maximiser les capabilités de son infrastructure n’était pas simplement une question technique d’améliorer ses services et équipements ‒ c’était directement liée à son ambition d’établir un monopole5. La recherche dans le domaine de la psychoacoustique était effectivement une manière pour AT&T de soutenir et élargir sa dominance quasi‒monopolistique sur le marché qui a duré jusqu'à 19847.
La recherche psychoacoustique conduite par AT&T visait à incorporer les lacunes auditoires de l’être humain dans le design des systèmes téléphoniques. Le but était de produire de la valeur excédentaire ‒ ce qui est interprété par Sterne5 comme du surplus économique.
En effet, cette recherche, a produit des publications du sorte The Frequency‒Sensitivity of Normal Ears8. Cet article (parmi d’autres) a montré que la qualité de son produite par le téléphone était bien supérieure à ce que les utilisateurs pouvaient vraiment distinguer. Par conséquent, en éliminant les fréquences qui ne sont pas aisément détectables par l’être humain, la quantité de données à traiter et à transporter pourrait être réduite drastiquement et les profits augmentés.
Avec les nouvelles méthodes de filtration et modulation produites, AT&T a effectivement réussi à quadrupler la capacité de ses lignes téléphoniques jusqu'à 19245. Avec cet avantage significatif sur ses concurrents, dans la période entre 1930 et 1980, AT&T a dominé les télécommunications aux États-Unis et a réussi à contrôler jusqu’à 90 % du marché7.
Le modèle utilisé par AT&T est ainsi devenu un attribut général de toute système de communication du XXe siècle. Dans le jargon utilisé par Sterne, AT&T a ouvert le domaine des Perceptual Technics, dans la littérature anglo-saxonne. Ce domaine cherche des méthodes qui exploitent les insuffisances de la perception humaine pour générer du capital immatériel.
Le MP3 se base sur de telles techniques perceptuelles qui ont été utilisées afin de produire le codage perceptuel ‒ une méthode de codage qui élimine les fréquences dans la gamme audible que les utilisateurs ne peuvent pas distinguer9.
Développement technique
Le codage MPEG-1/2 Layer II est né avec le projet Digital Audio Broadcasting (radio numérique DAB) qui fut lancé par le Deutsche Luft und Raumfahrt. Ce projet a été financé par l'Union européenne, et faisait partie du programme de recherche EUREKA, plus connu sous le nom de EU-147.
Le projet EU-147 exista de 1987 à 1994. En 1991, deux formats étaient disponibles :
- MUSICAM (Masking pattern adapted Universal Subband Coding And Multiplexing), basé sur un pur codage psycho-acoustique et un banc de filtres adaptés aux sons de type percussifs ;
- ASPEC (Adaptive Spectral Perceptual Entropy Coding), qui introduisait la technologie de codage entropique.
Le format MUSICAM conçu par CCETT (France Telecom/TDF), Philips et l'IRT fut choisi par l'ISO MPEG Audio dirigé par Hans-Georg Mussman en raison de sa structuration modulaire en plusieurs couches de codage [Layers], sa simplicité de mise en œuvre côté décodeur et sa grande tolérance aux erreurs de transmission.
Le format MP3 (Layer III ou couche III) a été créé par un groupe de travail réuni à la demande de Hans-Georg Mussman, et regroupant Leon Van de Kerkhof (Philips), Yves-Francois Dehery/Samuel Vallee TDF-CCETT)10, Karlheinz Brandenburg (Fraunhofer-Gesellschaft). Ce groupe reprenant des idées de MUSICAM et d'ASPEC, ajouta de nouveaux outils technologiques et créa le format MP3 conçu pour être de même qualité à 128 kbit/s que le MUSICAM à 192 kbit/s. C'est une qualité ressentie, profitant des lacunes de l'audition humaine, car le format est destructif.
La norme ISO MPEG Audio avec ses deux couches de codage Layer I, Layer II (MUSICAM), Layer III (.MP3) fut achevée officiellement en 1992 et constitua la troisième partie de MPEG-1, le premier travail du groupe MPEG, groupe à l'origine de la norme internationale ISO/CEI 11172-311, publiée en 1993. Le travail sur l'audio MPEG se termina en 1994 et constitua la troisième partie de MPEG-2, la norme internationale ISO/CEI 13818-3, publiée pour la première fois en 1995.
Les équipes de normalisation procédèrent à de nombreux tests subjectifs en double aveugle sur de nombreux matériaux sonores pour déterminer le niveau de compression approprié pour les diverses couches de l'algorithme. On a notamment utilisé Tom's Diner, la chanson de Suzanne Vega comme séquence de test pour l'algorithme de compression du MP3. Cette chanson a été choisie à cause de sa finesse et de sa simplicité, qui facilite la détection des imperfections du codec.
Usages
Dès le début des années 2000, des réseaux d'échange sur Internet via des logiciels de partage de fichiers tels que Napster, ont beaucoup contribué à l'adoption de ce format par les consommateurs aux dépens des formats concurrents MPEG-4 Audio/TwinVQ et OGG Vorbis. Dans le même temps, les films encodés en DivX (pour la vidéo) et MP3 (pour le son) ont fait leur apparition. C'est pourquoi des constructeurs d'appareils électroniques ont commencé à commercialiser des platines lecteurs DVD-CD-DivX, des baladeurs CD Audio et des platines CD Audio capables de lire un CD de données contenant des fichiers audio MP3. Par la suite, le CD MP3 fut moins répandu avec l'apparition de baladeurs MP3 tel que l'iPod, ce qui n'améliora pas la situation du Super Audio CD et du DVD-Audio.
En 2013, le format MP3 était adopté par la majorité des sites de vente de musique en ligne tel qu'Amazon Music, Bandcamp12 ou la Fnac. Seul l'iTunes Store vend de la musique au format MPEG-2/4 Audio/AAC. Le MP3 a aussi trouvé sa place pour les flux audio des radios en ligne et autres sites d'écoute de musique ainsi que dans les flux vidéo diffusés au format Flash (FLV encodé en VP6). La majorité des jeux PC l'utilisent. Le MP3 s'est largement imposé face à ses concurrents directs que sont les formats de compression mp3PRO, WMA, OGG Vorbis et AAC
Le MP3 dans la société
MP3 - un objet de culture
Dans la culture populaire, le MP3 a acquis le statut d’objet. Les utilisateurs les achètent, les échangent, et les collectionnent. Souvent même, les écrivains représentent les MP3 comme des objets inertes qui ‘impactent’ une industrie, un milieu social, ou un système légal13. Pourtant, ils ne sont pas des objets ‒ le MP3 fait simplement référence au format utilisé pour comprimer les données14.
Des théoriciens culturels comme Sterne nous exhortent à regarder de plus près le passage d’objets technologiques comme le MP3 dans la société afin de comprendre leur importance et le véritable rôle qu'ils jouent. De plus, ils questionnent notre usage linguistique des termes qui désignent ces technologies.
Notamment, Sterne13 argumente que le MP3 est effectivement devenu un artéfact de culture, c'est-à-dire un produit ayant subi une transformation par l'homme, et qui se distingue ainsi d'un autre provoqué par un phénomène naturel15. Il souligne que le mot MP3, tel que l'on utilise aujourd’hui, est le produit des transformations subies par plusieurs parties: l’industrie électronique, l’industrie d’enregistrement d’audio, et les consommateurs et leurs pratiques d’audition de la musique. Ainsi, dans The MP3 as a cultural artefact13 le lecteur est pressé à reconsidérer la simplification que le MP3 « affecte » la société. Plutôt, le MP3 fait ce qu'il était censé faire – éliminer les redondances, et parcourir des plus grandes distances plus souvent et avec moins d'effort.
Concernant la nature de la possession du MP3 en tant qu'objet, Knott14 affirme que pour utiliser un MP3 nous avons besoin d'autres objets intermédiaires. Si ces objets qui stockent les MP3 cessent d'exister, les MP3 sont inutilisables, ce qui n'est pas le cas avec les CD's ou les Vinyles. Les CD's et Vinyls existent indépendamment des objets qui sont utilisés pour les écouter – ils ne sont pas stockés dans les objets intermédiaires mêmes. Knott appelle les MP3 des quasi-posessions – la possession complète du MP3 est difficile. Légalement par exemple, les utilisateurs sont prohibés de partager les MP3 pour des raisons de droits d'auteur. Pour cette raison, il souligne que les utilisateurs sont plutôt des stewards que des propriétaires. Sous cette métaphore, Knott souligne que les méthodes de consommation se sont transformés – plutôt de se concentrer sur la musique elle-même, les utilisateurs se focalisent sur la création de playlists et sur l'accumulation de la musique.
Le MP3 et les communautés virtuelles
Pour comprendre le format MP3 d’un point de vue social il doit être placé dans le contexte du phénomène de l’Internet.
L’idée fondamentale d’interactivité et échange libre d’idées et de fichiers qui est intrinsèque à l’internet, a été extensivement exploitée dans le cas du MP3. En 1999, le site web Napster a été créé. Ce site était une plateforme pour l’échange libre de morceaux de musique en format MP3. Dans des tels plateformes numérisées, des individus pouvaient trouver une grande gamme de ressources de musique à accès libre. Effectivement, ceci a créé une communauté virtuelle d’individus qui se sont réunis dû à leurs intérêts de consommation similaires16.
Ceci est le processus que les sociologues, notamment Kozinets, appellent re‒tribalization ou e‒tribalization17. En effet la technologie du MP3 et son application directe dans le domaine de la musique a eu l’effet subséquent de créer des diverses communautés virtuelles telles que Napster ou MP3.com qui se focalisent sur la musique. A cet effet, il y a maintenant un nombre extensif de sites web qui sont dédiées au transfert libre de musique où les utilisateurs peuvent échanger leurs fichiers de musique16.
L’accroissement de l’influence des communautés virtuelles a aussi eu comme effet de développer le domaine de pensée dit de E‒Tribal Marketing17. Des reflexions dans ce domaine nuancent le comportement du consommateur dans l’Âge de l’Internet et suggèrent des considérations additionnelles nécessaires pour concevoir des stratégies de Marketing plus modernes18.
Le MP3 et l'industrie musicale
La chute des maisons de disque : 1995-2005
La création du format MP3 a fait basculer l’industrie musicale. Celui-ci a donné naissance à un modèle d’entreprise, business model en anglais, qui exclut les maisons de disques et qui lie les artistes plus directement aux consommateurs19. Les artistes, dont la plupart se plaignaient des schémas de paiement des maisons de disque19, se sont servis du format MP3 et de l’internet pour vendre leur musique.
Ce phénomène de désintermédiation de la vente de musique a permis aux artistes d’être les principaux bénéficiaires des ventes de leur musique20. Quant aux consommateurs, ils ont approuvé cette nouvelle façon de se procurer de la musique. La vente des CD a chuté de 40,5 milliards de dollars en 1999 à 31,8 milliards en 200621. En 2014 pour la première fois, la vente de musique compressée a dépassé la vente des CD, qui représente alors seulement 48,5 % de part du marché22.
Les consommateurs ont changé de comportement car se procurer de la musique sur Internet est rapide et nécessite peu d’effort20. Cette musique leur permet aussi d'organiser leur bibliothèque musicale et de créer facilement des listes de lecture, ce qui était beaucoup plus ardu à l'époque des CD ou des vinyls23.
Le MP3 et les magasins de musique en ligne
À la fin des années 1990, à la suite de la prolifération des systèmes illégaux de partage de fichiers en peer to peer, des efforts ont été faits pour créer un système de distribution légal de musique numérique.
Plusieurs maisons de disques ont créé leur propre système d'abonnement en ligne ; ceci permettait aux consommateurs de télécharger un nombre limité de chansons qui se "périmaient" après un nombre de jours donné, où la musique achetée devenait illisible. Ces services n'ont pas connu de succès commercial24. En effet, les consommateurs étaient habitués à acheter leur musique et à en disposer pour toujours, sauf destruction du support. Une autre raison est que l'offre musicale était faible, les maisons de disques n'ayant pas confiance dans la sécurité sur Internet. Ainsi, la plupart des consommateurs trouvaient que le prix de l'abonnement n'était pas justifié25.
En 2003, Apple (qui utilise le format MPEG4-ACC similaire au MP3) a créé l'iTunes Store. Ce dernier a permis aux consommateurs d'accéder à une offre légale à des prix abordables26. En 2004, Apple annonce que 2,5 millions de chansons sont téléchargées chaque semaine27. En 2008, l'iTunes Store contrôlait 70 % du marché de musique numérique26.
Les principaux concurrents de l'iTunes Store étaient les systèmes illégaux de partage en peer to peer ; ils ont donné naissance aux communautés virtuelles qui se distinguent chacune par leur connectivité et leur taille ; elles partagent toutes comme point commun le rejet du droit d'auteur, considéré non pertinent par rapport aux buts des membres de ses communautés et n’est pas respecté28. Cependant, même en concurrence avec un service gratuit, l'iTunes a connu le succès car il fournissait de la musique à partir d'une source sûre, rapide et sans publicité, contrairement aux programmes en peer to peer27. Il a même été suggéré que les chansons téléchargées par les systèmes de peer to peer servaient d'appel aux consommateurs qui finissaient par les acheter sur iTunes29.
L'industrie musicale actuelle
Aujourd'hui, les maisons de disques ne jouent plus le rôle de détaillant de musique. Elles ont donné cette mission à différents services d'abonnement à la musique (modèle d'abonnement) ou à des magasins de musique en ligne (modèle de possession) et perçoivent une part des recettes30.
Ainsi les maisons de disques se focalisent sur l'interaction directe avec les consommateurs (sur leurs propres sites et les sites des artistes signés) pour comprendre les besoins des consommateurs. Elles font du marketing en ligne. C'est ce pouvoir promotionnel qui incite les artistes à signer avec des maisons de disques et de ne pas être indépendant24.
Utilisation
La réduction de taille facilite le transfert et le stockage de données musicales sur de la matière numérique, tel qu'un disque dur ou une mémoire flash.
Il a également été largement mis en œuvre en diffusion numérique dans les récepteurs T-DMB Radio dont la spécification a été adoptée par l'ETSI en 2005 et qui est largement répandue en Corée du Sud. En effet, le MP3 appartient à la même famille de norme MPEG Audio que le MP2 MUSICAM utilisé en radiodiffusion numérique (TNT pour la télévision numérique de terre et T-DMB Radio). Un simple transcodage binaire du format "MP2 audio diffusé" en format "MP3 enregistré" peut ainsi être réalisé dans les terminaux T-DMB, autorisant donc la mise sur le marché de baladeurs/récepteurs audionumériques qui cumulent les fonctions de décodage audio MP2 (MUSICAM) et MP3.
Technique de codage
Le taux de compression peut être augmenté en choisissant un débit binaire (en anglais bitrate) plus faible. On considère en général qu'il faut au moins 160 ou 192 kilobits par seconde (kbit/s) pour bénéficier d'une qualité audio acceptable pour un morceau de musique. Au minimum, à 8 kbit/s, le son est fortement altéré (bruits parasites, spectre « sourd »…).
- Ce format de données utilise un système de compression partiellement destructif :
- Des regroupements de données identiques sont effectués afin de compresser sans perdre en qualité ;
- Tout le spectre des fréquences audio n'est pas retransmis (par exemple, utilisation d'un filtre passe-bas raide dès 20 kHz). Le signal est plus atténué pour les sons aigus que les graves et médiums ;
- Les sons les moins perceptibles sont supprimés en priorité de façon que les dégradations soient les plus discrètes possibles ;
- La compression au format MP3 exploite un modèle psychoacoustique d'effet dit de « masque » : si deux fréquences d'intensités différentes sont présentes en même temps, l'une peut être moins perçue que l'autre selon que ces deux fréquences sont proches ou non. La modélisation de notre audition selon ce principe est au départ empirique, mais assez efficace. Elle exploite en outre les caractéristiques psycho-acoustiques de masquage temporel du filtre en sous-bande hérité du MUSICAM dans la mesure où les sons percussifs (piano, triangle, batterie...) n'engendrent aucun artefact perceptible de type pré-écho ;
- Toutefois, si le taux de compression est trop important, on peut être amené à faire ressortir certaines harmoniques de façon non attendue. Cela donne alors l'impression de bruits parasites et désagréables au milieu du son.
- Compresser un fichier musical provenant d'un CD audio au format MP3 réduit la qualité. Il suffit de faire plusieurs essais à différents taux de compression pour constater une baisse progressive de la qualité (plus la compression est forte, plus le son est dégradé). Une compression correspondant à 64 kbit/s donne un son « enroué » et à 32 kbit/s, un son médiocre de qualité « grandes ondes » ;
- Les termes commerciaux de « qualité CD » ou « qualité numérique » ne veulent rien dire. D'abord parce que le MP3 réduit la qualité (de façon plus ou moins perceptible) par son principe même. Ensuite, parce que « numérique » n'est pas un gage de qualité (en numérique comme en analogique il existe différentes techniques de qualités très différentes) ;
- On peut améliorer la qualité à débit moyen égal en utilisant un débit binaire variable au lieu d'un débit constant. Dans ce cas, les instants peu complexes (contenant peu de fréquences), comme les silences par exemple, seront codés avec un débit d'information plus faible. Par exemple 64 kbit/s au lieu de 128, réduisant ainsi la taille totale du fichier tout en gardant une très bonne qualité lors des passages riches en harmoniques. L'amélioration apportée est variable selon le morceau codé. Le codage en VBR peut néanmoins poser des problèmes de compatibilité avec certains lecteurs.
Les différents modes de compression :
- CBR (Constant bitrate) : les bits par seconde sont constants (par exemple, en vitesse de lecture normal (×1), on a tout le temps 192 mille bits lus en 1 seconde), à tout instant pour la musique. À 128 kbit/s, lors des moments simples, la qualité est excellente car le son perçu est pareil à de la musique compressée sans perte. À 128 kbit/s, lors des instants complexes, la qualité sonore perçue est mauvaise à cause d’un débit insuffisant ;
- VBR (Variable bitrate) : le débit varie plusieurs fois par seconde en vue de maintenir une qualité d’écoute théoriquement constante au sein de la musique. En général, pour de la musique non complexe, le débit est d'au moins 32 kbit/s ;
- ABR (Average bitrate) : l’encodeur se sert d’un débit moyen et tolère des variations pas trop importantes autour dudit débit (± 10 %). C’est le compromis entre le CBR et le VBR (pas trop de qualité variable et un débit pas trop variable).
Taux de compression
Un taux de compression se calcule à partir d'un fichier non compressé, de mêmes caractéristiques [fréquence d'échantillonnage (kHz), quantification (nombre de bits) et nombre de canaux] que le fichier plus petit issu du codage. Un taux de compression de 10, signifie qu'un fichier de 40 Mo non compressé donne un fichier compressé qui fait 4 Mo à la suite du codage (10 fois moins). Un taux de compression de 10, signifie qu'un fichier d'un débit de 706 kbit/s donne un fichier compressé ayant un débit de 70,6 kbit/s.
Quelques taux de compression pour un son à 2 canaux, 44,1 kHz, 16 bits (CD, 1 411 kbit/s) : 384 kbit/s (3,67), 320 kbit/s (4,41), 256 kbit/s (5,51), 192 kbit/s (7,35), 128 kbit/s (11,0), 64 kbit/s (22,0).
Quelques taux de compression pour un son à 1 canal, 44,1 kHz, 16 bits (706 kbit/s) : 48 kbit/s (14,7), 40 kbit/s (17,7), 32 kbit/s (22,1) | 8 kbit/s (88).
Quelques taux de compression pour un son à 2 canaux, 48 kHz, 16 bits (1 536 kbit/s) : 320 kbit/s (4,80), 256 kbit/s (6,0), 224 kbit/s (6,86), 192 kbit/s (8,0).
Les débits31 de données pour le MPEG-1 Layer I, II et III :
- Layer I : 384 kbit/s ;
- Layer II : 160 à 256 kbit/s ;
- Layer III : 112 à 128 kbit/s.
La qualité sonore du fichier compressé dépend de l'algorithme psycho-acoustique utilisé par le codeur ainsi que des paramètres du codeur. Typiquement, les codeurs layer I utilisent un algorithme plus simple que Layer II et Layer III, d'où un besoin d'un débit supérieur pour l'obtention d'une bonne qualité sonore.
En considérant de bons codeurs, on obtient :
- Layer I codé à 384 kbit/s, même avec ses algorithmes psycho-acoustiques simples, est meilleur que Layer II de 192 à 256 kbit/s ;
- Layer II codé de 160 à 192 kbit/s ;
- Layer III codé de 112 à 128 kbit/s est équivalent au Layer II de 192 à 256 kbit/s.
Les débits présentés ne sont pas équivalents du point de vue de la qualité, et les qualités ne sont pas forcément optimales. De plus, la qualité du codeur est un facteur important. Ainsi, avec les premiers codeurs, il était généralement admis que 128 kbit/s avec le Layer III n'avait pas un son excellent, mais tout juste raisonnable. La génération de codeurs actuels permet d'obtenir un son tout à fait correct à 128 kbit/s avec le Layer III.
Qualité sonore perçue :
- Layer I : excellent à 384 kbit/s ;
- Layer II : excellent de 256 à 384 kbit/s, très bon de 224 à 256 kbit/s, bon de 160 à 224 kbit/s ;
- Layer III : excellent de 224 à 320 kbit/s, très bon de 192 à 224 kbit/s, bon de 128 à 192 kbit/s.
La stéréophonie a un débit exactement deux fois supérieur à la monophonie si la qualité est identique pour ces deux modes d'écoute. Le mode stéréo joint diffère de la stéréo simple car il ne code pas séparément les deux canaux gauche et droit si les informations sonores sont identiques, permettant un gain de qualité par rapport à la stéréo classique avec une même valeur de compression. Le procédé de la stéréophonie est un codage dit différentiel de même type que celui utilisé pour la radiodiffusion en FM stéréo.
Balises
En plus des données audio, le MP3 peut inclure des métadonnées descriptives, c'est-à-dire des données non-audio qui renseignent sur le contenu audio.
Parmi ces métadonnées, on peut notamment trouver le nom de l'auteur, le nom de l'interprète, le titre du morceau, l’année de sortie, le nom de l'album, le genre musical, une illustration de la pochette d'album (celle-ci pouvant parfois occuper une part importante de la taille du fichier), les paroles de karaoké, etc.
Le format MP3 initial ne permettait pas de stocker des balises, tout au plus, il permettait de préciser certains paramètres sous forme binaires comme le fait que le morceau soit protégé ou non par le copyright ou le fait qu'il s'agisse d'un original ou d'une copie.
Le format ID3 a été conçu dans le but d'inclure des métadonnées aux fichiers MP3 tout en assurant la compatibilité des fichiers avec les logiciels de lecture existants.
Licence
Jusqu'au , le format MP3 était souvent perçu par l'utilisateur final comme une technologie gratuite (parce qu'il peut en effet coder ou décoder sa musique de manière tout à fait transparente). Néanmoins, cette technologie a fait l'objet de brevets et d'une licence commerciale. Mais depuis le , le format MP3 n'est plus soumis à licence32.
L'algorithme « MPEG-1 Layer III » décrit dans les standards ISO/CEI IS 11172-3 et ISO/CEI IS 13818-3 était jusqu'en avril 2017 soumis à des redevances (droits commerciaux), en France à Philips (entreprise néerlandaise), TDF (entreprise française), France Télécom (entreprise française), IRT (entreprise allemande), Fraunhofer IIS (entreprise allemande) et Technicolor pour toute utilisation ou implantation physique (notamment sur les baladeurs MP3).
Il existe derrière le format un assez grand nombre de brevets, revendiqués par de nombreuses organisations ou sociétés, certains ayant eu une validité juridique incertaine. Tunequest en listait 2033, expirant entre 2007 et aux États-Unis, date à laquelle le format est entré dans le domaine public (c'est-à-dire totalement libre de droits). Dans la mesure où les brevets logiciels ne s'appliquent pas en Europe et dans de nombreux pays, la situation juridique était encore compliquée, et devait donc être analysée pays par pays.
Les logiciels implémentant le format MP3 peuvent eux-mêmes être écrits sous une licence libre ou non-libre, le statut du format (ouvert ou non) étant indépendant de celui du logiciel (libre ou propriétaire).
Depuis , l'institut Fraunhofer reconnaît que tous ses brevets concernant le mp3 ont expiré32, le format devenant donc ouvert et libre de droits34.
Les programmes implémentant le format ne sont par contre pas forcément libres.
Qualité du son
Des audiophiles et techniciens du son à l'image de Neil Young dénigrent ce format qui dénature sensiblement le son35 à un tel point qu'ils ne l'utilisent jamais36. À l'inverse, certaines expériences incluant des écoutes à l'aveugle en studio tendent à montrer la difficulté pour l'oreille humaine de distinguer une écoute CD d'une écoute MP3 faiblement compressée. Plus étonnant encore, des expériences comme celle de MusiClassics en 200937 ont classé le format CD devant le MP3 320 kbit/s mais derrière les AAC 192 kbit/s et WMA 320 bit/s. Le débat reste donc ouvert, et dans la majorité des utilisations à haute compression, la perte de qualité est souvent masquée par la faible qualité des équipements audio : baladeurs avec oreillettes (incluant également les téléphones portables, lecteurs audio et tablettes) ainsi que les haut-parleurs embarqués des ordinateurs portables.
Une des causes des a priori négatifs vis-à-vis du MP3 vient du fait qu'au début de son utilisation par le grand public (fin des années 1990), les utilisateurs encodaient leurs CD audio en MP3 le plus souvent avec un débit de 128 kbit/s (le maximum en MP3 dans le Windows XP de Microsoft). De nos jours (2015), il est communément admis qu'une qualité sonore acceptable s'obtient à partir de 192 kbit/s. Le débit à 192 kbit/s est souvent considéré comme étant de bonne qualité, celui à 256 kbit/s de très bonne qualité et celui à 320 kbit/s d'excellente qualité38.
L'utilisation d'un débit variable (VBR) permet de mieux prendre en compte la complexité du signal sonore et améliore sensiblement la qualité du résultat. Un débit constant n'est nécessaire que pour des cas d'utilisation très particuliers (streaming par exemple). Dans tous les cas, la qualité sonore d'un fichier MP3 varie de manière importante selon l'encodage employé (type d'algorithme, taux de compression, etc.). Les fortes compressions (fichier à 64 ou 128 kbit/s par exemple) dénaturent fortement le signal audio et sont plus adaptées à la voix (livres audio) qu'à la musique.
Le format MP3 a l'inconvénient de ne pas être adapté à l'encodage de morceaux enchaînés, par exemple les enregistrements en concert ou bien de musique classique. À la lecture, le passage d'un fichier MP3 au suivant provoque obligatoirement une coupure du son de quelques dixièmes de secondes. Cela est dû au données vides (padding) situées à la fin du fichier. La seule façon de réellement supprimer ce silence est de modifier la balise LAME MusicLength39 qui indique la durée exacte du morceau en excluant les balises ID3 en fin de fichier.
Principaux logiciels permettant de créer des MP3
Sous Windows
Sous Windows lorsqu'on dispose d'un CD audio et d'un lecteur CD sur un ordinateur, il suffit d'insérer le CD et de le lire avec le Lecteur Windows Media intégré au système d'exploitation et de cliquer sur l'onglet « Extraire » pour transformer les fichiers audio du CD. Néanmoins, jusqu'à la version 9, le lecteur Windows Media était réglé par défaut pour encoder les fichiers au format WMA, il fallait alors modifier les options de codage dans Outils/Options, onglet Extraire la musique, et passer outre le message d'avertissement sur les défauts du codage MP3. À partir de la version 10, Windows Media Player encode par défaut en MP3.
Le codeur MP3 du Lecteur Windows Media est présent depuis la version pour Windows XP, auparavant il fallait installer un logiciel encodeur externe.
Il existe des logiciels plus spécialisés offrant plus d'options et une meilleure qualité d'encodage (principalement grâce au logiciel encodeur LAME) tels que :
Sous OS X
Lorsqu'on dispose d'un CD audio et d'un lecteur CD sur un ordinateur sous OS X ou Mac OS 9, il suffit d'insérer le CD et de le lire avec le lecteur QuickTime intégré au système. Le contenu du CD est visible et les fichiers peuvent très facilement être extraits par un glisser-déposer avec la souris. Le fichier obtenu est au format AIFF et peut être lu avec QuickTime et codé avec n'importe quel codeur MP3. Le logiciel iTunes offre des possibilités de conversion d'un format à un autre, mais ne prend pas en charge les formats ouverts les plus connus.
Pour un encodage LAME on pourra par exemple utiliser XLD40 ou, en interaction avec iTunes, l'application iTunes-LAME41.
Sous UNIX (GNU–Linux, *BSD, etc.)
Principaux logiciels adaptés à la lecture des MP3
Media Player Classic, VLC, Groove Music, Windows Media Player, iTunes, RealPlayer, GoldWave, Audacity, Winamp, Foobar2000, KMPlayer, Zinf, musikCube, BSplayer, Konvertor, XnView, MediaMonkey, MusicBee, etc.
- iTunes, VLC, Audacity, Audion 3, QuickTime, RealPlayer, Amadeus II, SoundEdit, Sound Studio, Peak, etc.
- Xmms, Audacity, Amarok, JuK, Listen, Rhythmbox, Banshee, VLC, Exaile, Zinf, Mplayer, etc.
- VLC, Google Music et la plupart des lecteurs de musique integrés aux appareils.
Matériels adaptés à sa lecture
- Les ordinateurs : via des logiciels (voir plus haut).
- Les baladeurs numériques : ils permettent d'écouter partout des fichiers MP3 stockés en mémoire.
- Les lecteurs de CD MP3 : portables ou non, ils permettent d'écouter des fichiers MP3 stockés sur des CD.
- Les disques durs multimédia : la plupart disposent de cette fonctionnalité; les autres ne le supportent pas pour ne pas payer la licence.
- Des lecteurs de DVD ou DVD / DivX : portables ou non, ils peuvent souvent lire des fichiers MP3 sur des CD ou DVD.
- Des récepteurs de radio ou de télévision, analogiques récents et numérique DAB: ils peuvent parfois lire (et même de plus en plus souvent enregistrer) des fichiers MP3 sur des cartes mémoires flash et/ou périphériques de stockage USB.
- Des consoles de jeux récentes : comme la PSP, PS3, PS4 ou la Xbox 360.
- Des téléphones portables récents; seuls ceux se voulant très « simples » ne le font pas à l'heure actuelle.
- Des appareils de technologies des musiques amplifiées récentes. Comme les chaînes HiFi et tous ses dérivés via une platines CD ou DVD et/ou des cartes mémoires flash et/ou périphériques USB et/ou un réseau.
Autres solutions
La popularité du format MP3 a rapidement conquis de nombreux utilisateurs à partir de la seconde moitié des années 1990 tant par sa facilité d'utilisation que par le fait que pour la première fois, elle permettait de transmettre de l'information multimédia par Internet.
Toutefois dès 2013, le MP3 accuse son âge (par exemple, la dernière version de l'encodeur LAME date d'42), et des formats plus récents sont désormais proposés (opus), offrant un rapport qualité sonore/poids du fichier plus intéressant, grâce à un algorithme plus efficace que celui du MP3.
Notes et références
- Antoine Buffard et Fouad Bencheman, Tutorials Djing : L'ultimate pour apprendre à mixer Djing, Hachette Pratique, , 320 p. (ISBN 978-2-01-702744-7, lire en ligne [archive]), p. 127
- (en) Iben Have et Birgitte Stougaard Pedersen, Digital Audiobooks : New Media, Users, and Experiences, New York (NY) et Oxon (UK), Routledge, , 176 p. (ISBN 978-1-317-58807-8, lire en ligne [archive]), p. 66
- (en) « The audio/mpeg Media Type [archive] », Request for comments no 3003, .
- (en) « A More Loss-Tolerant RTP Payload Format for MP3 Audio [archive] », Request for comments no 5219, .
- (en) Jonathan Sterne, MP3: The meaning of a format, Lisa Gitelman, , 360 p., p. 92
- (en) « from AT&T to Nokia, a continuous focus on industry innovation and scientific exploration. » [archive], sur bell-labs.com (consulté le )
- (en) Nicholas Economides, The Limits and Complexity of Organization, New York, Russel Sage Foundation Press, , « Telecoummunications Regulation: An Introduction »
- (en) H. Fletcher et R. L. Wegel, « The Frequency-Sensitivity of Normal Ears », PNAS: Proceedings of the National Academy of Sciences of the United States of America, vol. 8,
- N. Jayant, J. Johnston et R. Safranek, « Signal compression based on models of human perception », Proceedings of the IEEE, vol. 81, no 10, , p. 1385–1422 (ISSN 0018-9219, DOI 10.1109/5.241504, lire en ligne [archive], consulté le )
- Y.F. DEHERY, et al. (1991) A MUSICAM source codec for Digital Audio Broadcasting and storage Proceedings IEEE-ICASSP 91 pages 3605-3608 May 1991
- (en) Information technology — Generic coding of moving pictures and associated audio information - Part 3: Audio [1] [archive]
- (en) Formats disponibles au téléchargements sur Bandcamp [archive], consulté le 11 mars 2014
- (en) Jonathan Sterne, « The mp3 as cultural artifact », New Media & Society, vol. 8, no 5, , p. 825–842 (DOI 10.1177/1461444806067737, lire en ligne [archive], consulté le )
- Janice Denegri-Knott, « Mp3 », Consumption Markets & Culture, vol. 18, no 5, , p. 397–401 (ISSN 1025-3866, DOI 10.1080/10253866.2015.1048962, lire en ligne [archive], consulté le )
- « artefact » [archive], dictionnaire Larousse (consulté le ).
- (en) Kostas Kasaras, « Music in the Age of Free Distribution: MP3 and Society », First Monday, vol. 7, (ISSN 1396-0466, lire en ligne [archive])
- (en) Robert V. Kozinets, « E-Tribalized Marketing?: The Strategic Implications of Virtual Communities of Consumption », European Management Journal, vol. 17, (ISSN 0263-2373)
- Bernard Cova et Véronique Cova, « Tribal marketing: The tribalisation of society and its impact on the conduct of marketing », European Journal of Marketing, vol. 36, nos 5/6, , p. 595–620 (ISSN 0309-0566, DOI 10.1108/03090560210423023, lire en ligne [archive], consulté le )
- Reebee Garofalo, « From Music Publishing to MP3: Music and Industry in the Twentieth Century », American Music, vol. 17, no 3, , p. 318–354 (DOI 10.2307/3052666, lire en ligne [archive], consulté le )
- (en) Nia Cross, « Technology vs. The Music Industry: Analysis of the legal and technological implications of MP3 technology on the Music Industry », Berkman Klein Center for Internet & Society, (lire en ligne [archive])
- (en) Ulrich Dolta, « The Music Industry and the Internet A Decade of Disruptive and Uncontrolled Sectoral Change », University of Stuttgart, Institute of Social Sciences, (ISSN 2191-4990, lire en ligne [archive])
- (en) Keith Claufield, « CD Album Sales Fall Behind Album Downloads, Is 2014 The Year Digital Takes Over? », Billboard, (lire en ligne [archive], consulté le )
- (en) Ilan Bielas, « The Rise and Fall of Record Labels », Claremont College, (lire en ligne [archive])
- (en) Gary Graham, Bernard Burnes, Gerard J. Lewis et Janet Langer, « The transformation of the music industry supply chain », International Journal of Operations & Production Management, vol. 24, no 11, , p.1087-1103 (ISSN 0144-3577)
- (en) Ashraf El Gamal, « Evolution of the Music Industry in the Post-Internet Era », Claremont McKenna College,
- Joel Waldfogel, « Music file sharing and sales displacement in the iTunes era », Information Economics and Policy, special Issue: Digital Piracy, vol. 22, no 4, , p. 306–314 (DOI 10.1016/j.infoecopol.2010.02.002, lire en ligne [archive], consulté le )
- Piet Bakker, « File-sharing—fight, ignore or compete: Paid download services vs. P2P-networks », Telematics and Informatics, copyright: rights-holders, user and innovators, vol. 22, nos 1–2, , p. 41–55 (DOI 10.1016/j.tele.2004.06.004, lire en ligne [archive], consulté le )
- Kostas Kasaras, « Music in the Age of Free Distribution: MP3 and Society », First Monday, vol. 7, no 1, (DOI 10.5210/fm.v7i1.927, lire en ligne [archive], consulté le )
- Martin Peitz et Patrick Waelbroeck, « Why the music industry may gain from free downloading — The role of sampling », International Journal of Industrial Organization, vol. 24, no 5, , p. 907–913 (DOI 10.1016/j.ijindorg.2005.10.006, lire en ligne [archive], consulté le )
- (en) Shingli Li et Qiuyeu Luo, « A STUDY OF DIGITAL MUSIC PRICING MODELS », PACIS 2016 PROCEEDINGS,
- sur le site de Fraunhofer-Gesellschaft
- (en) « mp3 » [archive], sur Fraunhofer Institute for Integrated Circuits IIS (consulté le ) : « On April 23, 2017, Technicolor's mp3 licensing program for certain mp3 related patents and software of Technicolor and Fraunhofer IIS has been terminated. »
- « A Big List of MP3 Patents (and supposed expiration dates) » [archive], par tunequest, 26 février 2007, consulté le 1er mai 2010.
- MP3 est officiellement libre de droits [archive], sur developpez.com du 2 mai 2017, consulté le 4 décembre 2018
- [PDF]La compression audio numérique [archive], sur emc.fr, consulté le 4 décembre 2018
- Page non trouvée le 4 décembre 2018 [archive], sur tomsguide.fr
- « La musique compressée est-elle plus agréable à l’oreille ? » [archive], sur numerama.com, (consulté le )
- Quels formats audio ? avec ou sans compression ? [archive], sur musiciens.biz
- (en)MusicLength [archive], sur mp3-tech.org
- (en) « X Lossless Decoder: Lossless audio decoder for Mac OS X » [archive]
- (en) « iTunes-LAME encoder » [archive]
Voir aussi
Articles connexes
Liens externes
- Portail de l’informatique
- Portail de la musique
Caractéristiques
Extensions |
.mp4 , .m4a , .m4p , .m4b , .m4r , .m4v
|
Type MIME |
audio/mp4 , video/mp4
|
PUID |
|
Signatures |
66 74 79 70 4D 34 41 20 (hexa)
00 00 00 20 66 74 79 70 4D 34 41 20 (hexa)
|
Développé par |
|
Basé sur |
ISO base media file format (en)
|
ISO |
14496
|
Relations entre les formats ISO Base Media et MP4.
MPEG-4 Part 14, ou MP4, également appelé ISO/CEI 14496-14, est une partie de la norme MPEG-4 spécifiant un format conteneur pour encapsuler des données de type multimédia (audio ou vidéo essentiellement). L'extension de nom de fichier généralement associée à ce format est « .mp4 » (d'où le nom « MP4 »).
L'extension « .m4a », bien que non spécifiée dans la norme, est également utilisée, généralement pour des fichiers ne contenant que du contenu de type audio. Les formats audio correspondant étant le AAC (Advanced Audio Coding) ou le ALAC (Apple Lossless).
Historique
La description du format MP4 a d'abord été spécifiée en s'inspirant du format de fichier QuickTime (en) (tel qu'il était spécifié en 2001), et intégrée dans la mise à jour de la « Part 1 » de MPEG-4 publiée en 20011,2,3,4 (dont le nom précis est ISO/CEI 14496-1:2001). En 2003, une mise à jour des spécifications est intégrée dans la « Part 14 » (dont le nom précis est ISO/CEI 14496-14:2003)5,6,7 En 2003, la première version du format de fichier MP4 est révisée et remplacée par MPEG-4 Part 14: le format de fichier MP4 (ISO/IEC 14496-14:2003), communément appelé format de fichier MPEG-4 version 28. Les noms « MPEG-4 file format version 1 » et « MPEG-4 file format version 2 » sont parfois utilisés pour différencier ces deux versions des spécifications.
Notes et références
- Apple Inc., « Classic Version of the QuickTime File Format Specification » [archive], (consulté le )
- mp4ra.org - MP4 Registration authority, « References, MPEG-4 Registration authority » [archive] (consulté le )
- ISO, ISO Base Media File Format white paper - Proposal, (lire en ligne [archive du ])
- ISO, MPEG-4 File Formats white paper - Proposal, (lire en ligne [archive du ])
- Library of Congress, « MPEG-4 File Format, Version 1 » [archive], (consulté le )
- Network Working Group, « MIME Type Registration for MPEG-4 » [archive], (consulté le )
- International Organization for Standardization, « MPEG-4 Part 1: Systems; ISO/IEC 14496-1:2001 » [archive], (consulté le )
- Portail de l’informatique
- Portail de la réalisation audiovisuelle
-
Un magnétophone est un appareil permettant d'enregistrer des sons sur une bande magnétique1 qui peut être enroulée dans une bobine ou une cassette.
Le nom Magnetophon était originellement une marque déposée par AEG (Telefunken) et IG Farben et désignait les seuls « enregistreurs à ruban ». Ce terme est passé dans le langage courant, devenant une sorte de nom commun.
Le principe est de polariser grâce à un électroaimant (tête magnétique), les particules métalliques magnétiques d'un support souple en ruban, défilant à vitesse constante sur la tête1.
Magnétophone classique à bande en bobine.
Historique
L'enregistrement magnétique a été imaginé dès 1877 par l'ingénieur américain Oberlin Smith (en)2. Les premières expériences pratiques remontent au Telegraphone de l'ingénieur danois Valdemar Poulsen en 1898[réf. nécessaire]. Quatre périodes marquent l'évolution de ces techniques : mécanique, électromécanique, magnétique et enfin électronique.
Mécanique
Dans une première période, les enregistreurs ne sont pas magnétiques, mais mécaniques; il est simplement procédé à une déformation d’un support matériel, l’énergie acoustique transformé en énergie mécanique servant directement à la gravure. À cette époque, le procédé n’était envisagé que comme un remplaçant de la sténographie, donc destiné par ses inventeurs à sauvegarder les textes et les discours politiques.
En 1857, Édouard-Léon Scott de Martinville avait ainsi imaginé le phonautographe, appareil enregistrant des vibrations acoustiques sur du papier recouvert de noir de fumée.
Phonographe à cylindre
En 1877 la sauvegarde du son s’opère par déformation permanente d’un support matériel. Elle en permet alors sa restitution. Charles Cros (qui décrivit le principe) et Thomas Alva Edison (qui le mit en œuvre) mettent au point respectivement le paléophone3 et le phonographe qui utilisent des rouleaux recouverts de cire.
Gramophone à disque
Dix ans plus tard, en 1887, Emile Berliner, technicien américain d'origine allemande, réussit à mettre au point le gramophone (où il remplace les rouleaux par un disque) et apporte ainsi une nette amélioration à l’idée de Charles Cros.
Électrique
L’enregistrement devient électrique. L’énergie acoustique est d’abord transformée en énergie électrique maniable et susceptible d’amplification afin d’actionner le burin graveur avec plus de sensibilité et de précision.
En 1920 pour réaliser le premier enregistrement électrique du son (electrical ou Orthophonic recording), Lionel Guest et H. O. Merriman utilisent un amplificateur avec triode permettant la gravure. En 1925 des travaux analogues furent entrepris aux Bell Laboratories par J.P. Maxfield et H. C. Harrisson.
Magnétique
Grâce à l’unification par Maxwell et Ampère, vers 1820, des lois de l’électricité et du magnétisme dans les théories électromagnétiques, et grâce à la découverte par Heinrich Hertz de ces mêmes ondes électromagnétiques en 1887, l’enregistrement a pu devenir magnétique grâce à la conservation d’une aimantation rémanente proportionnelle à l’intensité du champ électrique de l’électro-aimant, même après suppression de ce champ.
Télégraphone à fil magnétique
Dès 1888, l'américain Oberlin Smith propose un procédé permettant d'enregistrer les sons en magnétisant un fil de fer. L'enregistrement se fait en plaçant une pile électrique entre le microphone téléphonique et la tête magnétique. La lecture se fait en raccordant un écouteur téléphonique directement à la tête magnétique. À ce jour, aucune machine construite par Oberlin Smith n'est parvenue jusqu'à nous.
Ce n'est qu'en 1898 que Valdemar Poulsen construit son Télégraphone, machine capable d'enregistrer les sons sur fil de fer souple, sur disque de fer et sur bande de fer souple. Ces trois versions seront construites par la société Mix & Genest, qui se désintéressera rapidement du projet. Le télégraphone connaît un certain succès en Amérique où il est construit et commercialisé par l'American Télégraphone Company.
Bien que la machine fonctionne relativement bien au regard de sa simplicité, il n'offre pas une qualité d'enregistrement suffisante et se limite à la diction. La société allemande Max Kohl le perfectionne en 1921 en y ajoutant un amplificateur très rudimentaire utilisant une lampe triode: l'enregistrement se fait sur disque magnétique. Quelques années plus tard, une version améliorée voit le jour en Amérique: le Record-O-Phone, auquel un amplificateur à lampes peut être joint pour une meilleure audition.
Un magnétophone à fil magnétique dans les studios de la BBC en 1937.
Magnétophone à bandes magnétiques
En 1928, l'Allemand Karl Stille améliore le télégraphone et appelle son appareil le « magnétophone ». La qualité sonore est améliorée en 1928, lorsque Fritz Pfleumer remplace le fil d’acier par une bande magnétique en papier kraft. Il travaillait dans une société de fabrication de cigarettes, il met au point une bande de papier fin recouverte de poudre de fer. Sa machine utilise un amplificateur à lampes et la firme AEG rachète le brevet en 1930. AEG entame alors un vaste programme de recherches et de développement concernant les têtes magnétiques, les mécanismes de transport de la bande et les amplificateurs, afin de perfectionner son Magnétophone. Parallèlement, les travaux de mise au point de la bande magnétique sont menés aux usines de l'IG Farben à Ludwigshafen (aujourd'hui BASF).
Au début, les bandes sont en papier. Elles mesurent 5 mm de large et défilent à 1 m/s. La qualité est encore médiocre et les ruptures sont courantes. En 1932, AEG élargit la bande à 6,5 mm et décide de travailler sur un nouveau support plus résistant: les premières bandes à base d'acétate voient le jour en 1934. Elles sont recouvertes de carbonyle (Carbonyl Iron). La taille des particules ne permet pas des enregistrements de qualité, et la prémagnétisation à courant continu rend le support très peu linéaire. Les quelques enregistrements musicaux sont d'une qualité désastreuse.
IG Farben perfectionne la bande en 1936 en remplaçant le carbonyle par l'oxyde de fer Fe2O3 de couleur noire. La vitesse de défilement est réduite à 77 cm/s (que les américains arrondiront en 1945 à 30 pouces par seconde, soit 76,2 cm/s). Ce n'est qu'en 1939 que l'oxyde de fer brun Fe2O3 sera utilisé pour une meilleure qualité sonore. La haute fidélité ne sera possible qu'en 1941 avec l'utilisation de la prémagnétisation à haute fréquence (bien que découverte dans les années 1920, elle restera ignorée jusqu'à ce qu'un Magnétophone produise des enregistrements de qualité inégalée : le circuit de prémagnétisation à courant continu s'était mis à osciller...).
Adolf Hitler et ses proches feront grand usage du magnétophone pour leurs discours radiophoniques : les discours publics comme ceux du Reichstag étaient systématiquement enregistrés. D'autres étaient enregistrés au préalable et diffusés depuis les studios après que l'orateur eut quitté les lieux, déjouant ainsi tout attentat. La qualité des radios à modulation d'amplitude de l'époque (bande passante de 4 500 Hz) rendait indiscernable le son du magnétophone de celui du direct.
Premiers concerts classiques enregistrés
Dès 1939, AEG travaille sur une tête à deux entrefers permettant d'enregistrer deux pistes sur la même bande. Au départ, ce n'est que pour enregistrer le même signal en push-pull, mais cette méthode n'aboutit pas. Les premiers enregistrements stéréophoniques sont effectués en 1942. La plupart des concerts sont enregistrés dès 1941, dont plus de 250 en stéréo. Seuls trois enregistrements stéréophoniques de 1943 et 1944 nous sont parvenus à ce jour.
En 1945, les russes s'empareront d'environ 50 000 bandes en tout genre, dont seulement un peu plus d'un millier seront restituées à l'Allemagne en 1991. Parmi elles, on compte un certain nombre de concerts publics dirigés par Furtwängler, Karajan, Knapertsbuch, et plus de 600 bandes de lieder (Schubert, Schumann, Mahler) avec Michael Raucheisen au piano.
Extension au grand public
Collection de magnétophones au Musée de l'électricité de Bourgogne
L'enregistrement sur bande se généralise dès 1946 en Amérique où Bing Crosby fait monter ses shows sur bande avant gravure sur disque de diffusion. La firme Ampex dominera le marché durant plusieurs décennies. Le premier magnétophone vendu au public en 1947 est le Soundmirror BK-401 de la firme Brush, qui fabrique aussi ses propres bandes, au départ en papier, puis à base de plastique. Scotch se lance dans la bande magnétique dès 1948 avec la bande Type 100 (papier) suivie de la 101 (plastique).
Prémices du magnétoscope
Dès 1950, les Américains travaillent sur un procédé d'enregistrement de l'image télévisée sur bande. Le système VERA est fonctionnel, mais bien trop gourmand en bande. C'est Ampex qui fabriquera le premier magnétoscope à bande 2 pouces (système quadruplex). La machine sera fonctionnelle dès 1956 et enregistrera même en couleur dès 1957.
L'industrie phonographique utilise aussi le magnétophone pour remplacer les galettes de cire qui ne permettaient aucun montage. Les firmes Deutsch Grammophon et Telefunken seront les premières à utiliser les magnétophones AEG pour l'enregistrement de leurs disques 78 tours puis microsillons par la suite.
La France commence à utiliser les magnétophones à bandes pour la radio en 1948 et les magnétophones commencent à séduire le public dès le début des années 1950.
Nagra portable à manivelle
En 1951, le Nagra I, à lampes miniatures et remontage à manivelle, est le premier magnétophone à bande magnétique 1/4 de pouce de très petite dimension (30 × 18 × 10 cm) et révolutionne l'enregistrement du reportage radiophonique. Le Nagra monte au plus haut en accompagnant une expédition sur l'Everest et s'enfonce dans les profondeurs avec le bathyscaphe du professeur Piccard.
Durant les premières années, les amateurs utilisèrent leur magnétophone davantage pour s'enregistrer en famille que pour enregistrer un disque ou la radio (ce que faisaient parfois les novices par microphone devant le haut-parleur avec très peu de fidélité du son, les postes à lampes disposant de peu de prises de connexion à un magnétophone).
Fonctionnement
Description
Dispositif
Un magnétophone, à bobines comme à cassettes, disposait d'un dispositif central dans lequel on faisait passer la bande, à partir de la bobine émettrice, constitué d'un guide gauche, une tête d'effacement des éventuels enregistrements précédents, une tête d'enregistrement, une tête de lecture (ou une seule tête d'enregistrement/lecture), un ensemble d’entraînement effectué par le cabestan d'un côté, un galet en caoutchouc effectuant la pression de l'autre, et un guide droit, avant de rejoindre la bobine réceptrice.
Chacune des 2 bobines était maintenue par une petite broche centrale munie de 3 ergots en triangle, disposée sur un petit plateau circulaire de maintien horizontal, (contrairement à un disque 78 tours ou microsillon, dont l'ergot cylindrique centralisateur et la simple adhérence et poids (excepté les disques souples) sur le revêtement non lisse du plateau suffisait), permettant d'assurer la rotation de la bobine réceptrice, la vitesse de la bande étant régulée par celle du cabestan, ainsi que celle de l'émettrice et de la réceptrice pour l'embobinage ou le rembobinage rapides.
Pour bien faire passer le côté magnétique de la bande du côté des têtes, et non l'inverse, les bandes étant marron sur les 2 faces (couleur de l'oxyde de fer), puis marron foncé dans les années 1970, la seule possibilité de repérage était l'aspect dépoli côté magnétisme, et brillant de l'autre côté.
Pour maintenir une tension suffisante de la bande sur les bobines gauche et droite, émettrice et réceptrice, un moteur entraînait sans forcer la bobine réceptrice à une vitesse légèrement supérieure à celle maximale de rotation, ainsi que l'émettrice en légère rotation arrière.
Diamètre des bobines
Les bobines étaient en plastique ou en métal, et semblables à celles de projecteurs de cinéma 8 mm. Les diamètres les plus courants étaient 8 cm (dictaphones et matériel mobile portable), 13 cm (matériel mobile portable), 15 cm et 18 cm (matériel domestique) et 27,5 cm (matériel professionnel). La durée typique d'une bobine de 13 cm de diamètre était de 1 heure.
Les magnétophones amateurs étaient placés horizontalement, au départ avec des bobines de 13 cm, puis allant jusqu'à 18 cm à partir des années 1960, puis souvent verticalement à partir des années 1980, avec des bobines de 26 cm, plus faciles à manipuler ainsi.
Les premiers appareils furent à lampes, en monophonie deux fois une piste, puis stéréophoniques, et progressivement « transistorisés » sur plaquettes de circuits intégrés.
Réglage des têtes magnétiques
Le positionnement des têtes était réglé et calibré en usine pour être parfaitement rectiligne, mais il arrivait souvent sur les magnétos amateurs qu'il y ait un décalage angulaire entre l'enregistrement d'origine et la lecture, donnant un signal « oblique », et surtout un déphasage entre les 2 signaux stéréo, donnant un écrêtage et distorsion, surtout s'ils étaient monophonisés ensuite, apparaissant en premier par une perte d'aiguës (mais qui pouvait être compensé par une vis de réglage, que l'on ajustait à l'oreille sur la finesse des aiguës).
Prises de branchement
Les magnétophones à bandes puis à cassettes, possédaient dès le départ, plusieurs prises de raccordement par câbles blindés (vendus en magasin, mais aussi en kit soudables par l'opérateur) :
- une prise de branchement d'un microphone, DIN 2 broches (signal + masse), puis 3 broches (microphone double stéréo), puis jack grand format depuis les années 1980 ;
- une prise de raccordement à une chaîne hifi ou autre appareil compatible, en entrée/sortie (enregistrement ou lecture), DIN 3 broches mono puis DIN 5 broches stéréo, puis 4 RCA américaines depuis les années 1980 ;
- une prise d'écoute de contrôle sur casque, jack grand format ou petit format.
Le passage de DIN vers RCA dans les années 1980, introduit une différence de compatibilité d'impédance, l'enregistrement devenant plus faible, et une mise aux normes des appareils fut nécessaire par l'opérateur.
Réglage de l'enregistrement
Le volume d'enregistrement était réglé par un bouton, puis pour certains magnétophones un potentiomètre à curseur ou rotatif, associé à un galvanomètre de contrôle appelé « vu-mètre » :
- enregistrées au-dessus d'un certain volume, les particules d'oxyde magnétique ne pouvaient plus dévier davantage, et saturaient. Cette saturation peut d'ailleurs aussi exister sur un microsillon, la largeur du sillon étant limitée, ainsi que sur un CDR ou mini-disque ;
- enregistré à volume trop faible, il nécessitait de « pousser » le volume de lecture, ce qui amplifiait aussi le souffle de bande.
Les premiers magnétophones amateurs, indiquaient le volume enregistré sur la bande en utilisant, jusque vers 1965, comme pour les postes à lampes, un « œil magique », qui se rétractait plus ou moins, jusqu'à disparaître complètement à saturation (l'enregistrement au volume optimal étant à la limite de rétractation).
Les appareils professionnels, tout comme les modèles amateurs suivants, utilisaient pour les canaux gauche et droite, 2 galvanomètres à aiguille, utilisant une zone verte, une «zone de meilleure efficacité » jaune (meilleur rapport signal sur bruit), et une zone rouge indiquant la saturation de l'enregistrement du magnétisme des bandes.
Jusque dans les années 1970, seul le volume d'enregistrement était indiqué par les galvanomètres, puis dans les années 1980 ils affichèrent également le volume enregistré au moment de la lecture.
Quelques appareils utilisèrent, mode oblige, des indicateurs à « leds » à partir des années 1990.
Suppression des clocs et du ronflement
Parmi les autres améliorations, également celui des bruits de commutations appelés familièrement « clocs » parasites d'une fraction de seconde, provoqués par l'allumage et l'extinction des feux rouges signalant l'ouverture et la coupure des micros notamment dans les studios de radiodiffusion (et à leurs portes l'interdiction d'entrer), très nets sur les directs mais atténués par l'ajout de condensateurs, ou sur les premiers magnétos à bobines (et à cassettes) jusqu'au début des années 1960. Occasionnés également au départ et à l'arrêt de l'enregistrement, audibles en lecture, par le pressage subit de la tête magnétique et de la réaction des circuits électroniques, puis éventuellement du même arrêt subit (sauf si l'on utilisait la touche « pause », plutôt que « stop »), que les constructeurs réussirent à atténuer, puis faire disparaître complètement au fil des années sur tous les magnétophones.
L'éventuel léger petit « ronflement » du secteur en fond sonore dans les 50 Hz, en enregistrement et/ou lecture, dû aux lampes des magnétophones des années 1950 (tout comme sur les postes à lampes), disparut avec la transistorisation et les progrès des « filtres » de fréquences basses.
Durées d'enregistrement et lecture
Selon l'épaisseur de la bande
À partir de l'épaisseur « Standard » des bandes, la qualité des supports permit de réduire progressivement cette épaisseur, afin de proposer à partir des années 1960, des durées jusqu'à quatre fois plus importantes que celles d'origine pour une même vitesse d'enregistrement (ce qui fut également ensuite le cas des cassettes, allant de la C30 (deux fois 15 min) à la C180 (deux fois 90 min)).
À une vitesse de 19 cm/s (7,5"/s), dite « rapide » à l'époque par les « amateurs », sur une bobine de 18 cm, sur le total des deux sens d'enregistrement et en stéréophonie, les durées (telles qu'indiquées sur les boîtes de logement), étaient d'environ :
- durée « standard » (360 m) : 1 heure ;
- « longue » durée (540 m) : 1 heure 30 ;
- « double » durée (720 m) : 2 heures ;
- « triple » durée (1 080 m) : 3 heures ;
- « quadruple » durée (1 440 m) : 4 heures.
Selon la vitesse de défilement
Ces durées étant également inversement proportionnelles à la vitesse de défilement, et proportionnelles à la longueur de bande, donc au carré du diamètre de la bobine (moins le diamètre à peu près proportionnel du moyeu central), elles deviennent, par rapport à 19 cm/s (7,5"/s) (vitesse « rapide ») :
- multipliées par 2 à 9,5 cm/s (3,75"/s) (vitesse « moyenne ») ;
- multipliées par 4 à 4,75 cm/s (1,87"/s) (vitesse « lente ») ;
- divisées par 2 à 38 cm/s (15"/s) (vitesse « professionnelle ») ;
- multipliées par 8 à 2,37 cm/s (0,94"/s) (adopté sur les portables Uher (en) pour les conférences).
Selon le diamètre des bobines
De même ces durées pouvaient être par rapport à une bobine de 18 cm :
- multipliées par 2 pour une bobine de 26 cm ;
- divisées par 1,5 pour une bobine de 15 cm ;
- divisées par 2 pour une bobine de 13 cm.
Monophonique ou stéréophonique
Sur les magnétophones stéréo 4 pistes (deux sens de lecture), les enregistrements effectués en simple monophonie pouvaient, en étant enregistrés sur chacune des pistes, multiplier par deux la durée.
Les bandes pouvaient être retournées en fin d'enregistrement pour assurer une seconde session (certains magnétophones étaient même auto-reverse en fin de bande). Les mêmes bandes étaient utilisées pour les enregistrements pleine piste, 2 pistes et 4 pistes, mais les enregistrements n'étaient évidemment pas compatibles :
- l'une des pistes enregistrée sur un magnétophone 2 pistes était lue plus faiblement sur un 4 pistes ;
- inversement, un magnétophone 2 pistes lisant un enregistrement effectué sur un 4 pistes donnait un résultat inaudible, composé du mélange des deux pistes à l'endroit et des deux autres pistes du morceau adjacent à l'envers, à moins que seules 2 pistes sur 4 aient été enregistrées au départ.
Avantages et inconvénients des longues durées
À noter que lorsque les durées sont augmentées, celles-ci bénéficient d'avantages certains :
- gain de la durée d'enregistrement sur un même support, associé à un gain de place ;
- obligation de changer de face ou bobine moins fréquent ;
- temps de rembobinage réduit pour rechercher un enregistrement effectué à plus faible vitesse ;
- encrassage magnétique et usure de frottement moins rapide des têtes à petite vitesse,
mais possèdent en contrepartie plusieurs inconvénients :
Pour les bandes de plus longues durées :
- plus la bande est fine, plus elle est fragile, augmentant les risques de rupture, de torsion et d’emmêlement, surtout lors des embobinages ou rembobinages rapides ;
- en dessous d'une certaine épaisseur, obligation de réduire un peu à la fabrication la couche magnétique, entraînant la réduction du spectre des basses « profondes » (20 à 60 Hz) ;
- prix d'achat proportionnellement plus important, ces bandes étant plus difficiles à fabriquer ;
- un pleurage sur certains magnétos en fin de bande à vitesse « rapide », dû à un « patinage » entre cabestan et galet sur une bande trop fine polyester, ne parvenant plus à compenser l'inertie d'une bobine émettrice à petit moyeu central, presque vide et devant tourner d'autant plus rapidement.
Pour les enregistrements à plus faible vitesse (surtout à 4,75 cm/s) :
- perte de fidélité dans les aiguës les plus fines (10 à 16 kHz) (laissant mieux la place au souffle ou bruit « blanc » de la bande) ;
- pleurage dû au « glissement » de la bande entre le galet et le fin cabestan ;
- en cas d'azimutage non rectiligne de la tête d'enregistrement/lecture, multiplication par deux ou quatre de l'écrêtage, voire de la distorsion dans les aiguës, d'un magnéto à l'autre.
Cas des magnétophones professionnels
Les magnétophones professionnels, pour les enregistrements notamment reportés sur disques ou pour diffuser dans les concerts publics, étaient de qualité optimale :
- « pleine piste » pour un enregistrement monophonique ou « 2 pistes » pour un enregistrement stéréo, et utilisant même des bandes beaucoup plus larges pour effectuer les montages au départ « muti-pistes » avant de passer « Stéréo », sur la largeur entière de la bande (non retournable, celle-ci ayant donné dans ce cas la musique ou les paroles à l'envers…), bien sûr d'épaisseur « standard » ;
- enregistrement à grande vitesse : 38 cm/s (15"/s), voire 76 cm/s (30"/s) ;
- bobines « ouvertes » côté supérieur (n'ayant pas besoin d'être retournées), pour réduire au maximum l'éventuel bruit et électricité statique de frottement de la bande ;
- azimutage parfaitement ajusté en phase de 3 têtes séparées : enregistrement, lecture, effacement4.
La qualité des bandes et appareils s'améliora au fil des années, et un enregistrement « correct » à 9,5 cm/s et médiocre à 4,75 cm/s dans les années 1960, devint à 9,5 cm/s presque aussi bon qu'à 19 cm/s et correct à 4,75 cm/s dans les années 1980. Les enregistrements amateurs, surtout effectués avec des bandes ou cassettes au fer « bon marché » (et sans dolby), s'accompagnaient d'une légère perte d’aiguës, cette perte s'additionnant à chaque éventuel report, que l'on compensait en accentuant les aiguës à l'écoute, mais aussi le souffle.
Les professionnels utilisaient d'ailleurs le plus souvent les magnétophones à bandes, plutôt que les cassettes5.
Technique des bandes
Composition
Les bandes magnétiques ont eu historiquement deux supports :
- acétate : cette bande était bon marché à fabriquer, mais supportait très mal les contraintes mécaniques (arrêt brusque, par exemple), et obligeait à introduire dans les magnétophones des mécanismes délicats de régulation de tension de bande. Le risque de rupture des bandes restait important si on utilisait des bobines émettrice et réceptrice de taille différente (à cause de l'inertie différente des bobines) ;
- polyester : plus onéreux à l'achat, il avait une résistance mécanique bien meilleure et finit dans les années 1970 par détrôner complètement l'acétate, reléguée à l'établissement des seuls enregistrements « jetables ».
Maxell produisit vers 1985 quelques bandes magnétiques 26 cm au « chrome » pour une meilleure qualité d'aiguës, mais beaucoup plus chères qu'au fer, et les magnétophones à bandes possédant ce réglage, étaient, contrairement aux magnétos cassettes, très rares et non compatibles.
Comparaison avec les cassettes
À noter que les magnétophones à cassettes adoptèrent dès le départ, la vitesse standardisée de 4,75 cm/s, utilisant de plus, des bandes environ deux fois plus étroites et deux fois plus fines, donc encore moins fidèles théoriquement en qualité, pour réussir à être incorporées dans ces « mini-boitiers », mais la technique avait déjà progressé depuis, et continua par suite de progresser avec l'amélioration des aiguës par les bandes dites « Chrome » puis « Métal », et la réduction du souffle par les systèmes « Dolby » B, C puis S)
Certaines cassettes plus grandes furent d'ailleurs fabriquées durant quelques années, avec la largeur et épaisseur d'une bande de bobines et une vitesse de 9,5 cm/s pour une meilleure fidélité du son (vitesse utilisée aussi par commodité sur certains magnétocassettes standards), mais le format des cassettes « standard », plus pratique, moins encombrant et de plus grande capacité d'enregistrement, était en constante amélioration, et donc devenu bien trop engagé depuis de trop nombreuses années commercialement pour que ces cassettes soient suffisamment intéressantes, de plus, elles n'étaient en qualité et durée, que l'équivalent, plus pratique d'utilisation, mais plus encombrant, d'une bobine de 8 cm.
Les « quadruples durées » (tout comme les cassettes C180), trop fragiles ne furent fabriquées que quelques années, et même les triples durées (de même que les cassettes C120 ensuite) ne furent pas conseillées, sauf si nécessité pour les besoins de diffusion par exemple.
Entretien des têtes magnétiques
Les bandes magnétiques s'usaient toujours un peu au passage des têtes, déposant une faible couche d'oxyde sur celles-ci, nécessitant un nettoyage régulier périodique des têtes avec un chiffon ou coton tige imbibé d'alcool ou d'un produit solvant approprié inoffensif, faute de quoi l'oxyde faisait écran amenant à une perte progressive d'aiguës.
Il était parfois nécessaire de nettoyer aussi les pièces mécaniques maîtresses comme le cabestan et le galet pouvant aussi être recouverts d'oxyde perturbant la vitesse.
Pertes de fidélité
Autre petit défaut fréquent, un « grincement » aigu dû au frottement des bandes anciennes entrant en « résonance » sur les guides métalliques, celui-ci apparaissant moins sur guides en plastique des cassettes dont certaines bon marché grinçaient aussi parfois à l'embobinage.
Lorsque les têtes étaient un peu décalées en réglage « profondeur », voire que la bande se déformait un peu avec le temps, ce léger décalage risquait d'apparaître à l'écoute entre les pistes, la piste centrale arrière débordant se rajoutant sous forme de « fading » où l'on entendait légèrement les basses à l'envers se superposant aux pistes désirées qui elles devenaient un peu plus faibles à l'écoute.
Conservation des bandes
Avec le temps, les bandes anciennes ou même trop réutilisées, même si stockées dans de bonnes conditions de température et d'hygrométrie, et à l'abri de la lumière, sont devenues cassantes, l'oxyde finissant par se décrépir, devenir collant d'un enroulement au suivant (voire polluant et poison), aboutissant parfois à une irrégularité du volume du son, puis une perte définitive des aiguës.
Archives de l'INA et rééditions de disques
L'INA soucieux de conserver des archives précieuses témoignant des époques précédentes, sauvegarda pour cette raison (comme il le fit pour les films, surtout ceux dits « flamme » en celluloïd !), en les reportant sur des supports de plus en plus modernes.
Les rééditions sur CD d'anciens enregistrements depuis les années 1950 reprennent si possible les bandes d'origine (à défaut de plus en plus, les microsillons), en les « remasterisant » informatiquement, heureusement ces bandes professionnelles étaient à l'origine d'excellente qualité, puis soigneusement conservées
Bande amorce et d'arrêt de début et fin de bande
Dès les années 1960, les bandes furent précédées et suivies à chacune de leurs extrémités, d'une bande amorce en plastique dépoli de longueur environ 60 cm (souvent verte et rouge pour repérer les faces sans les intervertir), suivie d'une petite bande métallique de 4 cm, collée sur cette bande amorce précédant la bande magnétique.
Outre l'avantage d'être plus épaisse pour l'introduire dans la bobine réceptrice, elle permettait de commencer le premier morceau et terminer le dernier plus précisément.
Les magnétophones furent alors équipés d'un dispositif « stop » automatique, qui au passage de la bande métallique, arrêtait l'ensemble, évitant qu’une fois la bande entièrement terminée, la bobine réceptrice et éventuellement celle émettrice en sens arrière ne se mettent à tourner dans le vide à grande vitesse, ce qui arrivait fréquemment auparavant en cas de non surveillance de l'opérateur.
Comme pour les cassettes, lorsqu'il ne restait à vue d’œil plus suffisamment de bande sur la bobine émettrice pour enregistrer un dernier nouveau morceau, l'opérateur soit le laissait couper « net », soit le « shuntait progressivement en « fading decrescendo », soit préférait laisser un « blanc » s'il ne voulait pas de morceau coupé (choix le plus « propre »). Par la suite, l’auto-reverse permit la continuation du morceau en entier, mais avec tout de même une mini-coupure d'une fraction de seconde.
Des kits de montage, possédant 2 rouleaux de bandes amorces vert et rouge, un rouleau de bande métallique d'arrêt, un rouleau d'adhésif de raccordement, un guide en plastique et un cutter étaient vendus fréquemment pour les amateurs.
Montages des bandes
Coupages et collages
Il était fréquent d'effectuer des « montages » entièrement « manuels » (à l'instar de ceux effectués pour les pellicules de films), en « marquant » d'un repère sur la bande au crayon gras l'endroit précis du raccordement, suivi d'un découpage minutieux en « biseau », jointure des deux extrémités, la jonction (le support étant nettement plus mince et souple qu'une pellicule de film qui utilisait une colle spéciale séchée par chauffage) s'effectuant par un adhésif longitudinal de 4 cm environ.
Ce collage était aussi bien sûr utilisé en cas de rupture de la bande, fréquent sur celles en « acétate », cassant beaucoup plus facilement, surtout au cours du temps avec la chaleur.
Par contre, les montages sont devenus pratiquement impossibles sur les cassettes, trop fines et petites, les montages par « report » d'enregistrement avec très peu de perte de qualité devenant préférables dès les années 1980.
La dissociation des deux pistes (quatre avec chaque côté de bande) en mono séparées, ainsi que donc le procédé Multiplay, bien que réalisable, n'exista pas non plus sur les magnétos cassettes.
Tous ces montages sont devenus extrêmement faciles depuis quelques années, avec l'apparition du numérique et de l'informatique, par le moyen de logiciels de montage des plus complets et pratiques, dont de nombreux accessibles aux amateurs
Possibilités d'enregistrement et truquages
Repérage des plages à vitesse rapide
Il était fréquent de repérer une séquence ou morceau de musique, à grande vitesse, sur les magnétophones restant en lecture (certes très aiguë) lors de l'embobinage avant ou arrière (option qui fut proposée également en mode « Cue » sur les magnétos cassettes).
Octave supérieur à vitesse double
Il était aussi possible de « jongler » avec les vitesses, un enregistrement effectué à vitesse double prenant une fréquence double, donc située musicalement une octave au-dessus, et inversement à vitesse moitié, permettant ainsi certains « truquages » dans les sonorités d'instruments (ce qui était possible aussi en modifiant les vitesses de tourne-disques, mais celles-ci n'avaient pas ce rapport de « 2 », sauf entre 33 t 1/3 et 16 t 2/3 (une octave), et proche de 4/3 entre 45 t et 33 t 1/3 (une quarte)6).
Beaucoup d'amateurs s'amusèrent ainsi à se réécouter parler ou chanter en famille, ayant comme une voix rapide de « souris » à double vitesse, ou lente « d'ours » à demi-vitesse.
Des annonces répétitives (effectuées aujourd'hui informatiquement ou sur CD), pouvaient être aussi réalisées mécaniquement en faisant tourner une très courte bande en boucle autour de l'ensemble de lecture (des cassettes spéciales de ce type furent aussi fabriquées).
Superposition en Rerecording Multiplay
La technique « Multiplay », disponible sur certains magnétophones « modernes » tels sur le magnétophone Grundig dès 1967, permettait en outre :
- de s'enregistrer en mono avec un instrument ou une voix sur la piste 1 ;
- puis de reporter celle-ci sur la piste 2 en rajoutant un instrument ;
- puis refaire de même avec un autre instrument ou voix sur la piste 1, et ainsi de suite,
pouvant aller jusqu'à l'équivalent d'un important orchestre ou chorale effectué par seulement une ou quelques personnes (ce qui est proposé actuellement aussi sur les synthétiseurs).
Écho et réverbération
Dans les années 1980, si la tête de lecture était en « aval » de celle d'enregistrement, la lecture presque simultanée (dite « Cue »), était possible durant l'enregistrement, permettant de vérifier directement le résultat de celui-ci.
Le mode « écho/réverbération » s'en adjoignit, avec un décalage plus ou moins important selon la distance entre les deux têtes d'enregistrement et de lecture et la vitesse.
Certaines rééditions sur microsillons d'anciens disques monophoniques, même 78 tours, comme chez Pathé, utilisèrent ce procédé, au cours des années 1970, recréant ainsi un relief de « fausse stéréo », mais celui-ci trop artificiel et dégradant un peu le son « naturel », une vraie bonne « mono » fut réadoptée ensuite.
Principaux fabricants
Enregistrement domestique et pédagogique
Dans les années 1950, nombre de particuliers et enseignants découvrent les mille et une possibilités des enregistreurs magnétiques :
- spécifiques dans l'usage pédagogique d'apprentissage des langues, de la dictée, la danse et de la musique ;
- privé amateur, pour enregistrer la radio, des disques, la famille ou sonoriser le montage de leurs diapositives ou films amateurs.
Le marché est alors dominé par les marques suivantes :
- Pays-Bas : Philips (qui fabrique des magnétophones aussi en France et en Autriche) ;
- Japon : l'incontournable Sony, mais aussi TEAC, Pioneer et Akai. Apparition fugace de Dokorder dans les années 1970. Des constructeurs plus discrets comme Crown, Nivico (JVC), National essayent de s'imposer sur le marché de l'enregistreur portatif ;
- Belgique : Acec, qui avait lancé le Sonofil dans les années 1940, lance la gamme Lugavox et la série très originale Carad R62, R53, R66 et R59 ;
- Norvège : Tandberg Audio, également spécialiste des laboratoires de langues, reprend en 1970 le dispositif des têtes à champs croisés ayant contribué à la renommée d'Akai, enregistrant des bips de synchronisation par un signal ultrasonore polarisé dans une tête magnétique légèrement décalée par rapport à la tête d'enregistrement ;
- Suisse : Studer (Revox), Stellavox, Nagra ;
- Allemagne (Ouest) : Braun, SABA (en), Saja (Sander & Janzen), Maihak, Grundig, Telefunken, AEG, Uher (en) ;
- Allemagne (Est) : VEB Messgerätewerk Zwönitz ;
- Tchécoslovaquie : Tesla ;
- Pologne : Unitra.
Enregistrement mobile portable
Magnétophone portable Nagra.
Nagra
Inventé par Stephan Kudelski, polono-suisse d'une vingtaine d'années, il devient rapidement synonyme de magnétophone portable pour tous les professionnels de l'information. La marque Nagra provient de ce mot polonais, qui signifie : « il enregistrera ».
Robuste et faisant référence en matière de qualité, le Nagra sera l'outil de base des journalistes et de la majorité des ingénieurs du son du cinéma. Ce sera également la machine de prédilection des explorateurs de l'extrême et de l'instrumentation embarquée, notamment pour la recherche aéronautique.
Les Nagra sont standardisés selon les normes des machines de studio et disposent de nombreux modules et accessoires pour des besoins spécifiques, tels que des entrées spéciales ou des dispositifs de synchronisation cinéma.
Uher
Dans les séries 4000, 4200 et 4400, sans chercher la robustesse du Nagra, ces matériels à bobine de 13 cm étaient très répandus chez les amateurs. Un magnétophone Uher 4200 est montré au début du film de James Bond Opération Tonnerre. Le CR124 sera le premier magnétocassette aux normes Hi-Fi DIN 45500 de l'époque. Son successeur, le CR210, acceptera les cassettes au chrome.
Fabricants divers
Enregistrement en studio
- France : Tolana, Bourdereau, Schlumberger / Digitec
- Allemagne : Telefunken / AEG
- Suisse : Studer / Revox
- Japon : Sony, Otari, Fostex, Tascam
- États-Unis : 3M, Ampex, MCI (en), Scully, Soundcraft
- Grande-Bretagne : Ferrograph, Brenell, Leevers-Rich
Évolution
Développement parallèle des magnétophones à cassettes
En 1963, la cassette lancée par Philips, plus commode à manipuler, se substituera progressivement aux bandes dans les bobines au cours des années 1970, bien que les magnétos à bandes continuèrent parallèlement durant toute l'époque des magnétocassettes, car restant toujours supérieurs techniquement en qualité, notamment pour les professionnels.
Cette miniaturisation due aux cassettes par rapport aux bobines permettra de développer de nouveaux appareils de toutes tailles allant du walkman compact à des magnétophones à cassettes sophistiqués à trois moteurs et trois têtes. Plus volumineux, le système DC soutenu par Grundig et Telefunken, ne s'imposera pas malgré sa qualité sonore au départ supérieure.
Durant les années 1970 et 1980, la cassette Philips est devenue apte à reproduire des enregistrements de haute fidélité, grâce à l'apparition :
- de bandes aux qualités magnétiques supérieures au fer, telles qu'au chrome en 1973, puis métal en 1979 ;
- des réducteurs du bruit rose de fond de la bande, essentiellement le Dolby B en 1968, puis Dolby C en 1980, le Dolby HX Pro en 1982 puis Dolby SR en 1986.
D'autres types de cassettes connurent un succès assez éphémère, tels que la cartouche 8 tracks pour les autoradios des États-Unis, à 4 x 2 pistes sur bande sans fin, mais qui se bloquait souvent, et l'Elcaset de Sony, très fidèle, munie d'une bande de 1/4" à 9,5 cm/s, mais arrivée trop tardivement en 1976 et très chère.
Passage de l'analogique au numérique
L'arrivée du numérique dans les années 1980, d'une plus grande flexibilité, avec le compact disc puis les lecteurs à mémoire électronique interne, ont mis le magnétophone analogique en retrait, bien que les qualités d'écoute et d'enregistrement de celui-ci restent supérieures[réf. souhaitée]. En effet, la bande passante de la bande analogique peut atteindre 50 000 Hz alors que les formats numériques courants sont limités à 20 000 Hz. Cette limitation est due au fait que d'après le théorème de Shannon, il faut échantillonner à un rythme au moins deux fois plus élevé que la fréquence la plus élevée à transmettre, donc avec 20 kHz on doit échantillonner à plus de 40 kHz. La valeur standard de 44,1 kHz a été choisie.
La fin des années 1990 verra fleurir les annonces de vente à bon marché des magnétophones Studer et Revox haut de gamme, leurs possesseurs découvrant que leur PC équipé d'une carte son performante est encore plus pratique.
Les magnétophones étaient très utilisés par les professionnels du son, les plus performants permettant de traiter simultanément de nombreuses pistes, permettant de modifier l'équilibre sonore lors de la phase de mixage), et en vogue au niveau grand public dans les années 1960 à 1990 pour leur portabilité.
Les fabricants ont également abandonné les enregistreurs vidéo ou magnétoscopes et plus tard les caméscopes.
Magnétophone à bandes numérique
Le magnétophone à bobines a lui aussi évolué et il est devenu, au début des années 1990, le magnétophone Digital Audio Tape (DAT) et le magnétophone multipiste ADAT.
Enregistrements de disques en studio
Le magnétophone à bandes numérique a été très utilisé par les professionnels pour enregistrer les disques du commerce à partir des années 1980 :
- les microsillons furent de plus en plus enregistrés à partir de magnétophones à bandes numériques et gravés eux-mêmes parfois à demi-vitesse pour une meilleure fidélité, notamment pour la musique classique, en portant le label DAA ou DDA (Digital-Digital-Analogique (l'analogique étant la gravure sur microsillon)) ;
- puis pour l'enregistrement sur les disques compacts, le label indiquant sur la galette et/ou le livret du CD :
- ADD (Analogique-Digital-Digital) : utilisation d'un magnétophone analogique pendant les séances d'enregistrement, puis numérique pour le mixage et/ou le montage et la gravure,
- ou DDD (Digital-Digital-Digital, le meilleur de la haute fidélité) : utilisation d'un magnétophone numérique pendant les séances d'enregistrement, le mixage et/ou le montage et la gravure.
Données informatiques
Le même principe a été très utilisé pour l'enregistrement des données des systèmes informatiques par bits et octets, mais avec des bandes très différentes :
- celles utilisées pour la qualité audio se devaient d'avoir aussi peu d'hystérésis que possible7 ;
- celles utilisées pour les enregistrements numériques devaient avoir un fort hystérésis, afin de différencier aussi nettement que possible les états 0 des états 1, les valeurs intermédiaires ne présentant pas d'intérêt.
Remplacement par les disques durs puis mémoires informatiques
Depuis la généralisation, à partir des années 2000, de l'enregistrement numérique sur disque dur, puis sur carte mémoire, SSD (solid-state drive) ou autres, le magnétophone et l'enregistrement de données numériques sur bande magnétique sont devenus obsolètes.
Conservation du patrimoine - Musées
Radio France dispose d'un important musée, constitué à partir du temps de l'ORTF, contenant de très nombreux appareils audiovisuels historiques, dont les magnétophones à bobines et à cassettes.
Toutefois, il est actuellement fermé au public depuis 2007 pour travaux de rénovation, mais participe à des expositions et manifestations extérieures8.
- Différents magnétophones
-
-
Vieux magnétophone mono SABA, années 1950.
-
Magnétophones de poche à microcassette.
-
Microcassette et minicassette.
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
Notes et références
-
Amplificateur électronique
Un amplificateur audio à
tubes.
Un amplificateur électronique (ou amplificateur, ou ampli) est un système électronique augmentant la puissance d’un signal électrique1. L’énergie nécessaire à l’amplification est tirée de l’alimentation électrique du système. Un amplificateur parfait ne déforme pas le signal d’entrée : sa sortie est une réplique exacte de l’entrée avec une puissance majorée.
C'est donc un quadripôle actif à base d'un ou plusieurs composants actifs, le plus souvent des transistors. Un amplificateur idéal est linéaire sur toute sa plage de fonctionnement.
Les amplificateurs électroniques sont utilisés dans quasiment tous les circuits en électronique analogique : ils permettent d’élever la tension d'un signal électrique vers un niveau exploitable par le reste du système, d'augmenter le courant de sortie d’un capteur pour en permettre la transmission sans interférences, de fournir une puissance maximale suffisante pour alimenter une charge comme une antenne radioélectrique ou une enceinte électroacoustique.
Généralités
Concepts
Un amplificateur se définit par généralisation à partir de la perception de sons ou d'images. Lorsqu'on s'éloigne d'une personne qui parle, le son de sa voix est affaibli, mais il conserve son identité. On parle d'affaiblissement ou d'atténuation du signal. Cette notion peut se généraliser à toute sorte de phénomènes. L'amplificateur effectue l'opération inverse : on dit qu'il a du gain.
L'amplificateur électronique respecte les lois de l'électricité. L'électricité circule dans des circuits composés d'au moins un générateur et un récepteur. Si l’on considère que l’alimentation d’un amplificateur est indépendante du signal d’entrée et de sortie de l’amplificateur, pour ne représenter que le circuit où circule le signal, l'amplificateur est un quadripôle. Cette « boîte » est le récepteur d'un circuit, et le générateur pour un autre. Puisque c'est un amplificateur, le générateur peut fournir une puissance supérieure à celle qu'absorbe le récepteur, et le rapport entre la puissance que le quadripôle peut fournir et celle absorbée à l'entrée est supérieur à un2.
Dans un circuit électrique, le récepteur détermine la puissance qui circule. Il absorbe une puissance égale au produit de deux grandeurs, la tension et l'intensité. Une seule grandeur suffit pour définir un signal. Il y a donc, selon la grandeur qui supporte le signal à l'entrée du quadripôle amplificateur, et celle qui la supporte pour le quadripôle suivant, quatre sortes d'amplificateurs. Dans un amplificateur en tension, le signal est la tension à l'entrée et à la sortie ; dans un amplificateur en courant, c'est le courant, et la tension peut être identique à l'entrée et à la sortie. Les amplificateurs dont la grandeur d'entrée et la grandeur de sortie est différente sont plus rares3.
On peut décrire un amplificateur de tension idéal comme un amplificateur opérationnel : un amplificateur différentiel dont la tension de sortie est égale à la différence entre celle de ses deux entrées multipliée par l'infini, et dont le courant d'entrée est nul et le courant de sortie illimité. Ce modèle mathématique permet de constituer le schéma électrique correspondant des fonctions où du gain est nécessaire et de calculer les valeurs de leurs autres composants.
Principe de fonctionnement
Schéma très simplifié d’un amplificateur
Un amplificateur électronique utilise un ou plusieurs composants actifs (transistor ou tube électronique) afin d’augmenter la puissance électrique du signal présent en entrée. Les composants actifs utilisés dans les amplificateurs électroniques permettent de contrôler leur courant de sortie en fonction d’une grandeur électrique (courant ou tension), image du signal à amplifier. Le courant de sortie des composants actifs est directement tiré de l’alimentation de l’amplificateur. Suivant la façon dont ils sont implantés dans l’amplificateur, les composants actifs permettent ainsi d’augmenter la tension et/ou le courant du signal électrique d’entrée. Le principe de fonctionnement d’un amplificateur est présenté dans le schéma simplifié ci-contre. Ce schéma utilise un transistor bipolaire comme composant amplificateur, mais il peut être remplacé par un MOSFET ou un tube électronique. Le circuit de polarisation assurant le réglage de la tension au repos a été omis pour des raisons de simplification. Dans ce circuit, le courant produit par la tension d’entrée sera amplifié de β (avec β >> 1) par le transistor. Ce courant amplifié traverse alors la résistance de sortie et l’on récupère en sortie la tension − β . R . i e {\displaystyle -\beta .R.i_{e}} N 1.
Avec i e {\displaystyle i_{e}} le courant d’entrée et R {\displaystyle R} la valeur de la résistance.
Les amplificateurs peuvent être conçus pour augmenter la tension (amplificateur de tension), le courant (amplificateur suiveur) ou les deux (amplificateur de puissance) d’un signal. Les amplificateurs électroniques peuvent être alimentés par une tension simple (une alimentation positive ou négative, et le zéro) ou une tension symétrique (une alimentation positive, une négative et le zéro). L’alimentation peut aussi porter le nom de « bus » ou « rail ». On parle alors de bus positif ou négatif et de rail de tension positive ou négative.
Les amplificateurs sont souvent composés de plusieurs étages disposés en série afin d’augmenter le gain global. Chaque étage d’amplification est généralement différent des autres afin qu’il corresponde aux besoins spécifiques de l’étage considéré. On peut ainsi tirer avantage des points forts de chaque montage tout en minimisant leurs faiblesses.
Caractéristiques
représentation d'un amplificateur comme quadripôle
Le formalisme des quadripôles permet d’obtenir une relation matricielle entre les courants et les tensions d’entrée et de sortie. Il a été introduit dans les années 1920 par le mathématicien allemand Franz Breisig. Dans le cas d’un amplificateur de tension, les grandeurs électriques sont définis par quatre paramètres : l’impédance d’entrée Ze, l’impédance de sortie Zs, le gain de transconductance G et le paramètre de réaction G12. On a alors :
- ( V 1 V 2 ) = ( Z e G 12 G Z s ) ( I 1 I 2 ) {\displaystyle {V_{1} \choose V_{2}}={\begin{pmatrix}Ze&G_{12}\\G&Zs\end{pmatrix}}{I_{1} \choose I_{2}}} .
Pour un amplificateur parfait, G12 est nul (le courant de sortie n’influence pas l’entrée), Zs est également nul (la tension de sortie ne dépend pas du courant de sortie), et le gain G est constant. On a alors le gain de l’amplificateur :
- V 2 V 1 = G Z e = c t e {\displaystyle {\frac {V_{2}}{V_{1}}}={\frac {G}{Ze}}=cte} .
En pratique ces conditions ne sont pas tout à fait respectées, entraînant de ce fait des caractéristiques altérées concernant la bande passante, le gain en puissance, le bruit dû au facteur température, ou encore la distorsion du signal. On évalue les performances d’un amplificateur en étudiant son rendement, sa linéarité, sa bande passante et le rapport signal sur bruit entre l’entrée et la sortie.
La « bande passante à −3 dB » (décibel) d’un amplificateur est la gamme de fréquences où le gain en tension de l’amplificateur est supérieur au gain maximum moins trois décibelsN 2. Si on ne raisonne pas en décibel, cela correspond à la gamme de fréquences où le gain en tension est supérieur au gain maximum divisé par racine de deuxN 3, ce qui correspond à une division de la puissance fournie à la charge par deux4,N 4. La bande passante est habituellement notée B ou BP. Occasionnellement on rencontre des bandes passantes plus larges, par exemple la bande passante à −6 dB, gamme de fréquences où le gain en tension est supérieur à la moitié du gain maximum.
Effet de la saturation sur la linéarité.
La linéarité d’un amplificateur correspond à sa capacité à garder constante la pente de la courbe donnant la tension de sortie en fonction de la tension d'entrée. Une limitation de linéarité vient de l’alimentation de l’amplificateur : la tension de sortie ne peut dépasser la tension d’alimentation de l’amplificateur. Lorsque cela arrive, on parle de saturation de l’amplificateur. La linéarité d’un amplificateur est aussi limitée par sa vitesse de balayage (ou slew rate) qui représente la vitesse de variation maximale qu’il peut reproduire. Lorsque la variation du signal d’entrée d’un amplificateur est supérieure à sa vitesse de balayage, sa sortie est une droite de pente S R {\displaystyle \mathrm {SR} } , telle que :
- S R = max ( d v s d t ( t ) ) {\displaystyle \mathrm {SR} =\max \left({\frac {\mathrm {d} v_{s}}{\mathrm {d} t}}(t)\right)} .
La vitesse de balayage est exprimée en V μs−1.
Enfin, la caractéristique des éléments semiconducteurs n'est jamais totalement linéaire, et conduit à la distorsion harmonique. On réduit cette distorsion par la contre-réaction.
Historique
Le premier amplificateur électronique fut réalisé en 1906 par l’inventeur américain Lee De Forest à l’aide d'une triode5. La triode fut vite perfectionnée par l’ajout d’une (pour la tétrode) puis de deux grilles supplémentaires, palliant certains effets indésirables, notamment l’effet « dynatron » (zone où le tube présente une résistance négative). Ce tube pentode est ensuite rapidement adopté pour la plupart des amplificateurs à tubes, pour son meilleur rendement. Les amplificateurs à tubes sont aussi connus sous le nom d’amplificateurs à « lampes », en raison de la forme des tubes et de la lumière qu’ils émettent lorsqu’ils fonctionnent.
La mise au point des transistors dans les années 1950 a fait disparaître progressivement les tubes, qui ne subsistent que dans des applications vintage comme les amplificateurs audio, surtout ceux destinés aux guitares électriques6, et des applications de forte puissance à haute fréquence pour les émetteurs de radio et de télévision7. On préfère les transistors aux tubes car ils sont moins encombrants, fonctionnent à des tensions plus faibles, consomment et chauffent beaucoup moins et sont immédiatement opérationnels une fois mis sous tension, contrairement aux tubes électroniques qui nécessitent une dizaine de secondes de chauffage.
L'amplificateur opérationnel LM741 utilise 20 transistors.
Les circuits intégrés, introduits au cours des années 1960, regroupent sur un très petit volume un certain nombre de transistors. Plus petits, plus fiables, ils sont depuis les années 1980 les principaux éléments actifs de l'électronique pour les faibles puissances. Un circuit amplificateur peut employer plusieurs dizaines de transistors, et un circuit intégré peut regrouper plusieurs éléments amplificateurs. L'amplificateur opérationnel intégré, de caractéristiques proches de l'idéal, est devenu un composant d'usage général. Pour des fonctions particulières, on fabrique des circuits intégrés amplificateurs spécialisés.
Le Fairchild μA709 créé par Bob Widlar en 1965 fut le premier amplificateur opérationnel intégré disponible en grande quantité. Le μA741 de 1967 l'a rapidement remplacé, avec de meilleures performances tout en étant plus stable et plus simple à mettre en œuvre8. Il est devenu omniprésent en électronique. Plusieurs fabricants en produisent des versions améliorées, ou des circuits plus performants qui peuvent se substituer à lui dans un circuit de conception ancienne.
Les premiers amplificateurs intégrés se basaient sur le transistor bipolaire. À la fin des années 1970, on en produit à JFET, et à partir du début des années 1980, à MOSFET. Leur utilisation a progressé de la basse fréquence et faible puissance vers tous les domaines.
La distorsion dans les amplificateurs électroniques
Un amplificateur doit fournir une tension de sortie ayant la même forme que le signal d'entrée, mais d'amplitude supérieure. Si la forme du signal de sortie (à l'amplitude près) est différente de la forme du signal d'entrée, on dit qu'il y a distorsion.
La distorsion d'amplitude
Cette distorsion a lieu si la bande passante de l'amplificateur n'est pas suffisante pour amplifier l'ensemble des fréquences (spectre) composant le signal. Cependant, si le signal d'entrée est sinusoïdal, le signal de sortie le sera également.
La distorsion harmonique
Cette distorsion est provoquée par un défaut de linéarité de l'amplificateur. Si le signal d'entrée est sinusoïdal, le signal de sortie ne l'est plus. Cette sinusoïde déformée peut être considérée comme la somme d'une sinusoïde pure (fondamentale) et de sinusoïdes de fréquences multiples de cette fondamentale (harmoniques). Le taux de distorsion harmonique sera fonction du rapport entre ces harmoniques et la fondamentale.
La distorsion de phase ou de temps de propagation
Le signal de sortie d'un amplificateur est composé généralement de plusieurs fréquences, qui devraient être amplifiées strictement en même temps. La forme d'un tel signal complexe ne sera plus conservée si le temps de propagation des fréquences qui le composent n'est pas le même. Ces retards sont peu audibles pour l'oreille. Cependant, si l'amplificateur doit amplifier des signaux numériques, cette distorsion devient très gênante et peut conduire à des erreurs sur les bits transmis et décodés. Pour cette raison, cette caractéristique est très importante pour les amplificateurs de signaux numériques. On quantifie cette distorsion en précisant les différences de retard en fonction de la fréquence. Il est aussi possible de préciser la courbe du déphasage en fonction de la fréquence. Cette courbe doit être une droite pour ne pas avoir de distorsion de propagation de groupe. Pour cette raison, les amplificateurs sans cette distorsion sont parfois qualifiés « à phase linéaire ».
La distorsion d'intermodulation
Si des étages d'amplification sont non linéaires, on observera en plus de la distorsion harmonique, l'apparition de « fréquences parasites » qui sont des combinaisons linéaires des fréquences composant le signal à amplifier. Ce type de défaut est très gênant pour les amplificateurs traitant de signaux radioélectriques, car ces fréquences parasites peuvent perturber les liaisons radio (voir intermodulation). Cette distorsion peut également être gênante pour les amplificateurs audio, car l'oreille pourra percevoir ces fréquences parasites qui sont surajoutées au signal.
Le bruit dans les amplificateurs électroniques
Effet du bruit sur un signal électrique.
En électronique, le bruit désigne les signaux aléatoires et non désirés, voire parasites, se superposant aux signaux utiles. Dans un amplificateur ces signaux parasites peuvent venir de son environnement ou des composants le constituant. Il existe cinq types de bruit en électronique : le bruit thermique, le bruit grenaille, le bruit de scintillation (« bruit flicker »), le bruit en créneaux et le bruit d'avalanche9. Il est possible de réduire le bruit dans un amplificateur en s’attaquant directement à ses origines (voir ci-dessous) mais aussi en limitant le plus possible la bande passante de l’amplificateur, afin d’éliminer le bruit présent en dehors de ses fréquences de travail10.
Le bruit thermique
Le bruit thermique, également nommé bruit de résistance, ou bruit Johnson ou bruit de Johnson-Nyquist est le bruit produit par l'agitation thermique des porteurs de charges, c’est-à-dire des électrons dans une résistance électrique en équilibre thermique. Le bruit thermique est un bruit blanc dont la densité spectrale de puissance dépend uniquement de la valeur de la résistance. Le bruit thermique peut être modélisé par une source de tension en série avec la résistance qui produit le bruit.
On caractérise le bruit thermique d'un amplificateur, par sa « résistance équivalente de bruit », ou, pour un amplificateur RF, par le facteur de bruit, qui dépend de la température de la source de signal.
Le bruit thermique a été mesuré pour la première fois en 1927 par le physicien John Bertrand Johnson aux Bell Labs11. Son article Thermal Agitation of Electricity in Conductors montrait que des fluctuations statistiques se produisaient dans tous les conducteurs électriques, produisant une variation aléatoire de potentiel aux bornes de ce conducteur. Ce bruit thermique était donc identique pour toutes les résistances de la même valeur et n’était donc pas imputable à une fabrication médiocre. Johnson décrivit ses observations à son collègue Harry Nyquist qui fut capable d’en donner une explication théorique12.
Le bruit grenaille
Le bruit grenaille a été mis en évidence en 1918 par Walter Schottky. Ce bruit apparaît dans les dispositifs où le nombre d’électrons est assez faible pour donner une fluctuation statistique détectable. En électronique, ce bruit apparaît dans les dispositifs à base de semi-conducteur (transistors, etc.) et les tubes électroniques. Le bruit grenaille est un bruit blanc dont la densité spectrale de puissance dépend uniquement de la valeur moyenne du courant traversant le composant bruyant.
Note : Le bruit thermique et le bruit grenaille sont tous les deux dus à des fluctuations quantiques, et certaines formulations permettent de les regrouper dans un seul et unique concept13.
Le bruit de scintillation
Le bruit de scintillation, également nommé bruit en 1/f, bruit en excès, bruit de flicker ou bruit rose est un bruit dont la densité spectrale de puissance est en 1/f. Cela signifie que plus la fréquence augmente, plus l’amplitude de ce bruit diminue. Ce type de bruit existe dans tous les composants actifs et a des origines très variées, comme des impuretés dans les matériaux ou des créations et recombinaisons parasites dues au courant de base d’un transistor. Ce bruit est toujours relatif à un courant continu. Il peut être réduit en améliorant les procédés de fabrication des semi-conducteurs et diminuant la consommation de l’amplificateur14. Malheureusement, la réduction de la consommation d'un amplificateur passe par une augmentation de la valeur de certaines résistances ce qui va augmenter le bruit thermique14.
Le bruit de scintillation se rencontre aussi avec les résistances au carbone, où il est désigné comme bruit en excès car il s’additionne au bruit thermique. Le bruit de scintillement étant proportionnel à la composante continue du courant, si le courant est faible, le bruit thermique prédominera quel que soit le type de résistance.
Le bruit en créneaux
Le bruit en créneaux est également nommé burst noise, ou bruit popcorn, ou crépitement. Il a été découvert lors du développement de l’un des premiers amplificateurs opérationnels : le µA709. Il s’agit essentiellement de créneaux de tension (ou de courant) dont l’amplitude s’étend de moins d’un microvolt à plusieurs centaines de microvolts. L’intervalle entre les créneaux est de l’ordre de la milliseconde 15.
Le bruit en créneaux, dans un amplificateur audio, produit des « pops » qui lui ont valu le nom de bruit popcorn16. L’apparition de ces « pops » est aléatoire : ils peuvent se manifester plusieurs fois par seconde puis disparaître pendant plusieurs minutes.
Les origines de ce bruit ne sont pas actuellement connues, mais il semble qu’elles soient liées à des imperfections dans les semi-conducteurs et à l’implant d’ions lourds17,18. Les conditions les plus favorables à l’apparition de ce bruit semblent être de basses températures et la présence de résistances de forte valeur15.
Le bruit d’avalanche
Le bruit d’avalanche a lieu dans les semi-conducteurs : le champ électrique accélère certains électrons au point de déloger d’autres électrons de valence et de créer des porteurs de charge supplémentaires. Ce bruit devient important pour les champs électriques élevés, au voisinage de l’effet d’avalanche.
Les autres types de bruits
Effet de l'échantillonnage sur un signal. En gris le signal désiré, en rouge le signal obtenu.
On peut rencontrer d’autres types de bruits dans un amplificateur électronique. Ces bruits ne sont généralement pas dus à l’amplificateur lui-même mais à son environnement. On citera, par exemple, les bruits de quantification et d'échantillonnage engendrés par les convertisseurs numérique analogique et tous les bruits CEM attribués à la présence d’alimentations à découpage, d’émetteurs radio et de télévision et autres appareils sources d’interférences à proximité de l’amplificateur. La plupart de ces bruits peuvent être maîtrisés à l’aide d’un blindage électromagnétique et/ou d’un filtrage des signaux d’entrée et d’alimentation. Dans les cas les plus sensibles, il est parfois nécessaire d’avoir recours à de lourdes tables pour absorber les vibrations, des cages de Faraday, des chambres sourdes et des pièces climatisées19,20.
Rapport signal sur bruit
Le rapport signal-bruit est un terme utilisé en ingénierie, en traitement du signal ou en théorie de l’information pour désigner le rapport entre la grandeur d’un signal (information utile, significative) et celle du bruit (information inutile, non significative). Comme de nombreux signaux ont une échelle dynamique élevée, les rapports signal-bruit sont souvent exprimés en décibels. Le rapport signal sur bruit désigne la qualité d’une transmission d’information par rapport aux parasites. On définit ainsi la qualité d’un amplificateur, quel que soit son type et la catégorie de signaux qu’il traite. Plus le rapport est élevé, moins l’appareil dénature le signal d’origine.
Classification des systèmes et étages amplificateurs
Il existe une grande quantité de classifications, elles découlent souvent des différentes caractéristiques du schéma d’un amplificateur. Toutes ces caractéristiques ont une influence sur les paramètres et les performances de l’amplificateur. La conception d’un amplificateur est toujours un compromis entre plusieurs facteurs comme le coût, la consommation énergétique, les imperfections des composants et, le besoin de rendre l’amplificateur compatible avec le générateur du signal d’entrée et la charge en sortie. Afin de décrire un amplificateur, on parle généralement de sa classe, de la méthode de couplage qui a été utilisée entre ces différents étages ainsi que la gamme de fréquences pour laquelle il est prévu21.
Classification par angle de conduction : les classes d'amplificateurs
Un amplificateur est généralement constitué de plusieurs étages d'amplification, chaque étage étant conçu autour d'« éléments actifs » (des transistors en général). Un élément actif n'est pas nécessairement polarisé de façon à amplifier le signal pendant 100 % du temps. Le système de lettres, ou classe, utilisé pour caractériser les amplificateurs assigne une lettre pour chaque schéma d’amplificateur électronique. Ces schémas sont caractérisés par la relation entre la forme du signal d’entrée et celui de sortie, mais aussi par la durée pendant laquelle un composant actif est utilisé lors de l’amplification d’un signal. Cette durée est mesurée en degrés d’un signal sinusoïdal test appliqué à l’entrée de l’amplificateur, 360 degrés représentant un cycle complet22,23,24. En pratique la classe d’amplification est déterminée par la polarisation des composants (tubes, transistors bipolaires, transistors à effet de champ, etc.) de l’amplificateur, ou le calcul du point de repos.
Vue des zones où le signal est utilisé pour les différentes classes d’amplificateurs.
Les circuits amplificateurs sont classés dans les catégories A, B, AB et C pour les amplificateurs analogiques, et D, E et F pour les amplificateurs à découpage. Pour les amplificateurs analogiques, chaque classe définit la proportion du signal d’entrée qui est utilisée par chaque composant actif pour arriver au signal amplifié (voir figure ci-contre), ce qui est aussi donné par l’angle de conduction a :
- Classe A
- La totalité du signal d’entrée (100 %)23,24 est utilisée (a = 360°).
- Classe B
- La moitié du signal (50 %)23,24 est utilisée (a = 180°).
- Classe AB
- Plus de la moitié mais pas la totalité du signal (50–100 %)23,24 est utilisée (180° < a < 360°).
- Classe C
- Moins de la moitié (0–50 %)23,24 du signal est utilisée (0 < a < 180°).
Les amplificateurs de classe AB se nomment ainsi car ils fonctionnent comme ceux de classe A pour les signaux de faible amplitude, puis ils passent progressivement en classe B au fur et à mesure que l’amplitude du signal augmente.
Il existe d’autres classes pour les amplificateurs analogiques : G et H. Ces classes ne se distinguent plus des autres grâce à leur angle de conduction mais grâce à leur rendement. La classe G a été introduite en 1976 par Hitachi25. Les amplificateurs de classe G possèdent plusieurs bus de tensions différentes et passent de l’un à l’autre en fonction de la puissance demandée en sortie. Cela permet d’augmenter le rendement en diminuant la puissance « perdue » dans les transistors de sortie. Les amplificateurs de classe H sont similaires à ceux de classe G, à la différence près que la tension d’alimentation « suit », ou est modulée par le signal d’entrée.
À l’inverse des amplificateurs analogiques qui utilisent leurs composants actifs dans leur zone linéaire, les amplificateurs à découpage utilisent leurs composants actifs comme des interrupteurs en les amenant dans leur zone saturée. Quand ils sont utilisés ainsi, on peut distinguer deux modes de fonctionnement pour les composants actifs : passant (ou saturé) et bloqué. Quand un composant actif est bloqué, le courant qui le traverse est nul tandis que lorsqu’il est saturé, la chute de tension à ses bornes est faible. Dans chaque mode de fonctionnement, les pertes de puissances sont très faibles permettant ainsi aux amplificateurs à découpage d’avoir un fort rendement. Cette augmentation du rendement permet de demander moins de puissance à l’alimentation et d’utiliser des dissipateurs plus petits que pour un amplificateur analogique de puissance équivalente. C’est grâce à ces avantages en termes de rendement et de volume que les amplificateurs de classe D concurrencent les amplificateurs de classe AB dans beaucoup d’applications 26.
Les amplificateurs de classe E et F sont des amplificateurs à haut rendement qui sont optimisés pour n’amplifier qu’une faible gamme de fréquences. Ils sont généralement utilisés pour amplifier les fréquences radio. Le principe des amplificateurs de classe E a été publié pour la première fois en 1975 par Nathan O. Sokal et Alan D. Sokal27. Les amplificateurs de classe F reprennent le même principe que les amplificateurs de classe E mais avec une charge accordée à une fréquence et à quelques-uns de ses harmoniques, tandis que la charge des amplificateurs de classe E n’est accordée que pour la fréquence fondamentale.
Classification par méthode de couplage
Les amplificateurs sont parfois classés par leur méthode de couplage entre l’entrée et la sortie ou entre les différents étages de l’amplificateur. Ces différentes méthodes incluent les couplages capacitif, inductif (transformateur) et le couplage direct21.
Le couplage capacitif permet d'isoler la polarisation des étages entre eux, par contre il ne permet pas d'amplifier le continu. L’utilisation d’un couplage direct permet de se passer des condensateurs de liaisons et d'amplifier le continu à condition d’utiliser une alimentation symétrique28,29. Le couplage inductif permet de réaliser une adaptation d'impédance entre les étages ou de réaliser un circuit résonant, mais exclut l'amplification des très basses fréquences. La plupart des amplificateurs intégrés utilisent un couplage direct entre leurs étages21.
Caractérisation par gamme de fréquences
On peut aussi caractériser les amplificateurs en fonction de leur bande passante.
Un amplificateur basses fréquences (BF), au sens habituel en France, est conçu pour amplifier les signaux aux alentours des fréquences audibles (20 à 16 kHz) ; mais dans le contexte des radiofréquences, les basses fréquences (« low frequency », LF) vont de 30 à 300 kHz30.
Par opposition, un amplificateur hautes fréquences (HF) traite des signaux à des fréquences supérieures aux basses fréquences. Quand on découpe ce vaste domaine selon la terminologie du spectre radio, « medium frequency » (MF) couvre de 0,3 à 3 MHz, « high frequency » (HF), de 3 à 30 MHz, « very high frequency » (VHF), de 30 à 300 MHz, etc.
Les amplificateurs hautes fréquences se caractérisent par largeur relative de leur bande passante. Ceux dont le gain est approximativement constant sur une plage importante se désignent comme à large bande (wideband en anglais). C'est le cas d'un amplificateur vidéo, d'un répéteur simple dans un relais de télécommunications31.
Le rapport entre les limites de la bande passante des amplificateurs à bande étroite (narrowband en anglais) est proche de 1 (par exemple de 450 à 460 kHz). Ils utilisent en général une charge accordée32. Les charges accordées sont des filtres passe-bande : elles ne laissent passer qu’une seule fréquence ou une bande de fréquences et permettent d’utiliser des montages de classe E ou F qui sont intéressant car ils possèdent de forts rendements.
Classification des étages d'amplificateurs par leur électrode reliée au zéro
Une de ces classifications se réfère à « l’électrode reliée au zéro » : le schéma de l’étage amplificateur est alors décrit par l’électrode du composant actif qui est reliée au plus court au zéro. Ainsi, on parle d’amplificateur à émetteur commun, à plaque commune ou à drain commun. Ces noms renseignent aussi sur le type de technologie utilisée. Par exemple, un amplificateur à émetteur commun utilisera un transistor bipolaire, celui à plaque commune un tube tandis qu’un amplificateur à drain commun utilisera un MOSFET ou un JFET. Quelle que soit l’électrode d’un composant actif, il existe certainement une application ayant amené à la création d’un montage où elle est reliée au zéro. Voir aussi : collecteur commun, base commune.
Inverseur et non inverseur
Une autre façon de classer les amplificateurs est d’utiliser la phase entre le signal d’entrée et celui de sortie. Un amplificateur inverseur produira un signal de sortie déphasé de 180 degrés par rapport au signal d’entrée, ou une image miroir de l’entrée si on visualise l’entrée et la sortie sur un oscilloscope. Un amplificateur non inverseur produira quant à lui un signal de sortie ayant la même phase que l’entrée. Un montage émetteur suiveur (ou collecteur commun), est un type d’amplificateur dont le signal sur l’émetteur suit (même phase et même amplitude en tension) le signal d’entrée. Les montages qualifiés de « suiveur » sont des amplificateurs de courant : ils permettent d’obtenir un courant de sortie élevé tout en absorbant un courant d’entrée quasiment négligeable.
Cette description peut s’appliquer à un simple étage ou à un système complet.
Classification par fonction
Vue interne d’un amplificateur à transistors.
Les amplificateurs peuvent aussi être classés par fonctions ou caractéristiques de sortie. Ces descriptions fonctionnelles s’appliquent souvent à un système complet et non à un étage unique.
- Un servo-amplificateur possède une boucle de contre-réaction afin d’asservir un dispositif à une consigne selon le signal d'un instrument de mesure. Certains servo-amplificateurs amplifient seulement le courant continu et les basses fréquences (jusqu'à quelques centaines de Hz), ignorant ainsi toute perturbation haute fréquence. Ils sont souvent utilisés dans les actionneurs mécaniques, ou avec des moteurs à courant continu qui doivent maintenir une vitesse ou un couple constant. Un servo-amplificateur amplifiant le courant alternatif pourra faire de même avec certaines machines à courant alternatif.
- Un amplificateur linéaire ne produit pas de distorsion harmonique : un signal sinusoïdal sur son entrée donne toujours un signal sinusoïdal en sortie (voir la distorsion). Les concepteurs recherchent généralement la meilleure linéarité possible, mais il existe quelques amplificateurs délibérément non linéaires — par exemple logarithmique33.
- Les amplificateurs audio sont étudiés spécialement pour reproduire les fréquences audibles par l’intermédiaire d’enceintes électroacoustiques. Ils possèdent souvent plusieurs amplificateurs regroupés comme canaux séparés ou « bridgeables » afin de pouvoir s’adapter à différents systèmes de reproduction sonore.
La contre-réaction
Un amplificateur électronique intégré : l’amplificateur opérationnel.
La contre-réaction soustrait au signal d’entrée une image réduite du signal de sortie avant de l’amplifier. Son principal effet est de diminuer le gain du système. Cependant, les distorsions dues à l’amplificateur sont elles aussi soustraites au signal d’entrée. De cette façon, l’amplificateur amplifie une image réduite et inversée des distorsions. La contre-réaction permet aussi de compenser les dérives thermiques ou la non-linéarité des composants. Bien que les composants actifs soient considérés comme linéaires sur une partie de leur fonction de transfert, ils sont en réalité toujours non linéaires ; leur loi de comportement étant en puissance de deux. Le résultat de ces non-linéarités est une distorsion de l’amplification.
Le principe de la contre-réaction a été découvert par Harold Stephen Black le . Cette idée lui serait venue alors qu’il se rendait à son travail aux laboratoires Bell34,35. Ses précédents travaux sur la réduction des distorsions dans les amplificateurs lui avaient déjà permis de découvrir les amplificateurs « a priori » (feedforward en anglais) qui modifient le signal à amplifier de façon à compenser les distorsions dues aux composants de puissance36. Bien qu’ayant refait surface dans les années 1970 pour compenser les distorsions des amplificateurs BLU, dans les années 1920 la réalisation pratique des amplificateurs « a priori » s’avère difficile et ils ne fonctionnent pas très bien. En 1927, la demande de brevet de Black pour la contre-réaction fut accueillie comme une demande d’invention de mouvement perpétuel. Elle fut finalement acceptée neuf ans plus tard37,38, en , après que Black et d’autres membres des laboratoires Bell aient développé la théorie relative à la contre-réaction.
Un amplificateur de conception soignée, ayant tous ses étages en boucle ouverte (sans contre-réaction), peut arriver à un taux de distorsion de l’ordre du « pour cent ». À l’aide de la contre-réaction, un taux de 0,001 % est courant. Le bruit, y compris les distorsions de croisement, peut être pratiquement éliminé.
C’est l’application qui dicte le taux de distorsion que l’on peut tolérer. Pour les applications de type hi-fi ou amplificateur d'instrumentation, le taux de distorsion doit être minimal, souvent moins de 1 %.
Alors que la contre-réaction semble être le remède à tous les maux d’un amplificateur, beaucoup pensent que c’est une mauvaise chose. Comme elle utilise une boucle, il lui faut un temps fini pour réagir à un signal d’entrée et pendant cette courte période, l’amplificateur est « hors de contrôle ». Un transitoire musical dont la durée est du même ordre de grandeur que cette période sera donc grossièrement distordu. Et cela, même si l’amplificateur possède un taux de distorsion faible en régime permanent. C’est essentiellement cela qui explique l’existence des « distorsions d’intermodulations transitoires » dans les amplificateurs. Ce sujet a été largement débattu à la fin des années 1970 et pendant une grande partie des années 198039, 40,41.
Ces arguments ont été sources de controverses pendant des années, et ont amené à prendre en compte ces phénomènes lors de la conception d’un amplificateur afin de les éliminer42,43. Dans les faits, la majorité des amplificateurs modernes utilisent de fortes contre-réactions, alors que les schémas utilisés pour les amplificateurs audio haut de gamme cherchent à la minimiser.
Quels que soient les mérites de ces arguments sur la façon dont elle modifie la distorsion, la contre-réaction modifie l’impédance de sortie de l’amplificateur et par conséquent, son facteur d'amortissement. En simplifiant, le facteur d’amortissement caractérise la faculté d’un amplificateur à contrôler une enceinte. Si tout se passe bien, plus la contre-réaction est forte, plus l’impédance de sortie est faible et plus le facteur d’amortissement est grand. Cela a un effet sur les performances en basses fréquences de beaucoup d’enceintes qui ont un rendu des basses irrégulier si le facteur d’amortissement de l’amplificateur est trop faible.
Le concept de contre-réaction est utilisé avec les amplificateurs opérationnels pour définir précisément le gain et la bande passante.
Un exemple de montage amplificateur
Un exemple pratique d’amplificateur.
À des fins d’illustration, on utilisera cet exemple pratique d’amplificateur. Il peut servir de base à un amplificateur audio de puissance modérée. Son schéma, bien que sensiblement simplifié, est typique de ce que l’on retrouve dans un amplificateur moderne grâce à son push-pull de classe AB44 en sortie et à l’utilisation d’une contre-réaction. Il utilise des transistors bipolaires, mais il peut tout aussi bien être réalisé avec des transistors à effet de champ ou des tubes.
Le signal d’entrée est couplé à la base du transistor Q1 à travers le condensateur de liaison C1. Le condensateur permet au signal alternatif de passer, mais il bloque la tension continue due à la polarisation de Q1 par le pont diviseur R1-R2. Grâce à C1, aucun circuit antérieur n’est affecté par la tension de polarisation de Q1. Q1 et Q2 forment une paire différentielle (une paire différentielle donne un signal proportionnel à la différence entre ses deux entrées). Cette configuration est utilisée pour implémenter facilement la contre-réaction, qui est fournie à Q2 grâce à R7 et R8. La contre-réaction permet à l’amplificateur de comparer l’entrée à la sortie actuelle. Le signal amplifié par Q1 est envoyé directement au second étage, Q3, qui amplifie davantage le signal et fournit la tension continue de polarisation de l’étage de sortie (Q4 et Q5). R6 sert de charge à Q3. Un montage plus évolué utiliserait probablement une charge active, une source de courant constant par exemple. Jusqu’à présent, l’amplificateur travaille en classe A. La paire de sortie est câblée en push-pull de classe AB, aussi appelé paire complémentaire. Ils fournissent la majorité de l'amplification du courant et pilotent directement la charge à travers le condensateur de liaison C2 qui bloque la composante continue. Les diodes D1 et D2 fournissent une petite tension continue afin de polariser la paire de sortie, de sorte que la distorsion de chevauchement est minimisée. Celles-ci devront être couplées thermiquement avec Q4 et Q5 (souvent fixées sur leur dissipateur) afin de compenser leur dérive en température (accroissement du courant de polarisation dû à l’échauffement) et éviter ainsi l’emballement thermique.
Ce schéma est simple, mais c’est une bonne base pour la réalisation d’un véritable amplificateur car il stabilise automatiquement son point de fonctionnement grâce à sa boucle de contre-réaction, qui fonctionne du continu jusqu’au-delà de la bande audio. Un véritable amplificateur utiliserait probablement un circuit supplémentaire faisant baisser le gain au-delà de la bande de fréquences utile afin d’éviter la possibilité d’oscillations non désirées. De plus, l’utilisation de diodes fixes pour la polarisation peut poser des problèmes si les diodes ne sont pas thermiquement et électriquement assorties aux transistors de sortie. En effet, si les transistors deviennent trop passants, ils risquent de se détruire par emballement thermique. La solution traditionnelle pour stabiliser les composants de sortie est d'ajouter des résistances d’un ohm ou plus en série avec les émetteurs. Le calcul des résistances et des condensateurs du circuit se fait en fonction des composants actifs utilisés et de l’utilisation future de l’amplificateur.
Types d'amplificateurs
Les amplificateurs opérationnels
Des amplificateurs opérationnels.
Les amplificateurs opérationnels (aussi dénommé ampli-op ou ampli op, AO, AOP, ALI, AIL ou encore CIL) ont été initialement conçus pour effectuer des opérations mathématiques en utilisant la tension comme image d’une autre grandeur. C’est le concept de base des calculateurs analogiques dans lesquels les amplificateurs opérationnels sont utilisés pour modéliser les opérations mathématiques de base (addition, soustraction, intégration, dérivation…). Cependant, un amplificateur opérationnel idéal est extrêmement souple d’utilisation et peut effectuer bien d’autres applications que les opérations mathématiques de base45,46,47,48. En pratique, les amplificateurs opérationnels sont constitués de transistors, tubes électroniques ou de n’importe quels autres composants amplificateurs et ils sont implémentés dans des circuits discrets ou intégrés.
Les amplificateurs opérationnels ont été initialement développés à l’ère des tubes électroniques, ils étaient alors utilisés dans les calculateurs analogiques. Actuellement, les amplificateurs opérationnels sont disponibles sous forme de circuits intégrés, bien que des versions sous forme de composants discrets soient utilisés pour des applications spécifiques.
Les amplificateurs opérationnels sont disponibles sous des formats, brochages, et niveaux de tensions d’alimentation standardisés. Avec quelques composants externes, ils peuvent réaliser une grande variété de fonctionnalités utiles en traitement du signal. La plupart des AOP standard ne coûtent que quelques dizaines de centimes d’euros, mais un AOP discret ou intégré avec des caractéristiques non standard et de faible volume de production peut coûter plus de 100 euros pièce.
Les principaux fabricants d’amplificateurs opérationnels sont : Analog Devices, Linear Technology, Maxim, National Semiconductor, STMicroelectronics et Texas Instruments49.
Les amplificateurs d’instrumentation
Un amplificateur d’instrumentation est un dispositif électronique destiné au traitement de faibles signaux électriques. L’application typique est le traitement de signaux issus de capteurs de mesure. Son fonctionnement est basé sur le principe de l’amplification différentielle.
L’amplificateur d’instrumentation est généralement réalisé à partir d’un ou de plusieurs amplificateurs opérationnels, de telle manière qu’il améliore leurs caractéristiques intrinsèques : offset, dérive, bruit d’amplification, gain en boucle ouverte, taux de réjection du mode commun, impédance d’entrée.
Le gain idéal en mode commun de l’amplificateur d’instrumentation est minimisé. Dans le circuit ci-contre, le gain en mode commun est causé par les différences de valeur entre les résistances portant le même nom et le gain en mode commun non nul des deux AOP d’entrées. La réalisation de résistances appairées en valeur est la principale contrainte de fabrication des circuits d’instrumentation50.
Les amplificateurs d’instrumentation peuvent être réalisés avec plusieurs AOP et des résistances de précision, mais ils sont aussi disponibles sous forme de circuits intégrés dans les catalogues de plusieurs fabricants (dont Texas Instruments, Analog Devices, et Linear Technology). Un amplificateur d’instrumentation intégré contient généralement des résistances dont les valeurs ont été ajustées avec précision à l’aide d’un laser, et offre donc un excellent taux de réjection du mode commun.
Les amplificateurs programmables
Un amplificateur programmable désigne un amplificateur conçu pour que son gain soit programmable à distance, généralement via une liaison filaire (RS, GPIB ou autre), à la différence des amplificateurs classiques nécessitant un réglage manuel via une molette par exemple.
Notes et références
Notes
- Ce montage est une version simplifiée d’un amplificateur à émetteur commun. Veuillez vous référer à sa page pour plus de précisions.
- Le gain est alors calculé de la façon suivante : 20 log (Vs/Ve).
- 103/20 ≈ √2.
- Cela n'est valable que si l'entrée et la sortie sont adaptées en impédance.
Références
- Commission électrotechnique internationale, « Dispositifs électriques et magnétiques : Dispositifs électriques particulier », dans IEC 60050 Vocabulaire électrotechnique international, (lire en ligne [archive]), p. 151-13-50, IEC60050, p. 351-56-32.
- IEC 60050, p. 131-12-81.
- Bogdan Grabowski, Fonctions de l'électronique, Paris, Dunod, 1980 passage=26.
- (en) Albert Paul Malvino, David J. Bates, Electronic principles, McGraw-Hill Science, , 1116 p. (ISBN 0-07-322277-1 et 0071108467), p. 563-577.
- Henri Lilen, Une (brève) histoire de l'électronique, Paris, Vuibert, , 640 p. (ISBN 2-7117-5336-0 et 978-2711753369), chapitre 4 : « Lee De Forest invente l'Audion ou tube triode ».
- (en) Barbour E., The Cool Sound of Tubes, IEEE Spectrum, 1998, volume 35 (8), p. 24-35.
- (en) Robert S. Symons, Tubes: Still vital after all these years, IEEE Spectrum, 1998, volume 35 (4), p. 52-63.
- (en) Ron Mancini, Op amps for everyone : design reference, Amsterdam Boston, Newnes, , 377 p. (ISBN 978-0-7506-7701-1, OCLC 845656062), p. 1-3.
- (en) Texas Instruments application report slva043a :Noise Analysis in Operational Amplifier Circuits (PDF) [archive], p. 2.
- Patrick ALDEBERT, Techniques de l’ingénieur dossier E320: Amplificateurs faibles niveaux. Paragraphe : 5.5 « Minimisation du bruit », février 2002.
- (en) John Bertrand Johnson, Thermal Agitation of Electricity in Conductors [archive], Phys. Rev. 32, 97 (1928) – « the experiment ».
- (en) Harry Nyquist, Thermal Agitation of Electric Charge in Conductors [archive], Phys. Rev. 32, 110 (1928) – « the theory ».
- (en) R. Sarpeshkar, T. Delbruck, and C. A. Mead, White noise in MOS transistors and resistors [archive], IEEE Circuits Devices Magazine, p. 23–29, novembre 1993.
- (en) Ron Mancini, Op Amps for Everyone : Design Reference, Newnes, , 377 p. (ISBN 0-7506-7701-5 et 978-0750677011), p. 10.3.3 « Flicker Noise »
- (en) Intersil Application note 509 : Operational Amplifier Noise Prediction (PDF) [archive].
- (en) Ron Mancini, Op Amps for Everyone : Design Reference, Newnes, , 377 p. (ISBN 0-7506-7701-5 et 978-0750677011), p. 10.3.4 « Burst Noise »
- (en) Texas Instruments application report slva043 : Noise Analysis In Operational Amplifier Circuits (PDF) [archive].
- (en) Noise Sources in Bulk CMOS (PDF) [archive] — Kent H. Lundberg.
- Paul Horowitz et Winfield Hill (trad. de l'anglais), Traité de l’électronique analogique et numérique [« The Art of Electronics »], vol. 1 : Techniques analogiques, Nieppe, Publitronic, , 538 p. (ISBN 2-86661-070-9), p. 437:« Interférence ».
- Paul Horowitz et Winfield Hill (trad. de l'anglais), Traité de l’électronique analogique et numérique [« The Art of Electronics »], vol. 1 : Techniques analogiques, Nieppe, Publitronic, , 538 p. (ISBN 2-86661-070-9), p. 459-470 :« Interférences : blindage et mise à la terre ».
- (en) Albert Paul Malvino, David J. Bates, Electronic principles, McGraw-Hill Science, , 1116 p. (ISBN 0-07-322277-1 et 0071108467), XII-I: « Amplifier Terms ».
- « Amplificateurs » [archive], Encyclopædia Universalis, 2008. Sur le siteuniversalis.fr, consulté le 18 novembre 2008.
- Pascal Bareau, « Amplificateurs », dans Techniques de l'ingénieur – Électronique, vol. 1, Paris, éd. Techniques de l'ingénieur, (ISSN 0399-4120, présentation en ligne [archive]), chap. E310, E-310-1 à E-310-12, chap. 4 : « Classes de fonctionnement », p. 7-9..
- (en)[PDF] David Su, « CMOS RF Power Amplifiers: Non Linear, Linear, Linearized » [archive], Atheros Communications, Sunnyvale, California, in IEEE Local Chapter, 2002, p. 4-5-6/41. Sur le site ewh.ieee.org, consulté le 18 novembre 2008.
- (en) Douglas Self, Audio Power Amplifier Design Handbook, Newnes, , 468 p. (ISBN 0-7506-8072-5, lire en ligne [archive]), p. 37.
- (en) Albert Paul Malvino, David J. Bates, Electronic principles, McGraw-Hill Science, , 1116 p. (ISBN 0-07-322277-1 et 0071108467), XXII-XI: Class-D Amplifier.
- (en) N. O. Sokal and Alan D. Sokal, Class E — A New Class of High-Efficiency Tuned Single-Ended Switching Power Amplifiers, IEEE Journal of Solid-State Circuits, vol. SC-10, p. 168-176, juin 1975. HVK.
- (en) Douglas Self, Audio Power Amplifier Design Handbook, Newnes, , 468 p. (ISBN 0-7506-8072-5, lire en ligne [archive]), « History, architecture and negative feedback », p. 42-46 : « AC- and DC-coupled amplifier ».
- Paul Horowitz et Winfield Hill (trad. de l'anglais), Traité de l’électronique analogique et numérique [« The Art of Electronics »], vol. 1 : Techniques analogiques, Nieppe, Publitronic, , 538 p. (ISBN 2-86661-070-9), p. 71 : « Suiveurs avec alimentation symétrique ».
- Michel Fleutry, Dictionnaire encyclopédique d'électronique anglais-français, La maison du dictionnaire, (ISBN 2-85608-043-X), p. 463
- Fleutry 1991, p. 1035.
- Fleutry 1991, p. 554.
- Fleutry 1991, p. 444,453.
- (en) Ronald Kline : Harold Black and the negative-feedback amplifier, IEEE Control Systems Magazine, Volume : 13 (4), pages : 82-85, août 1993.
- (en) Ron Mancini, Op Amps for Everyone, second edition, page : 1-1.
- (en) Brevet U.S. 1686792 [archive].
- (en) Brevet U.S. 2102671 [archive].
- (en) Lire en ligne sur eepatents.com [PDF] [archive].
- (en) Otala, M., and E. Leinonen : The Theory of Transient Intermodulation Distortion, IEEE Transactions on Acoustics, Speech, and Signal Processing, ASSP-25 (1), février 1977.
- (en) Petri-Larmi, M. Otala, M. Leinonen, E. Lammasniemi, J. : Audibility of transient intermodulation distortion, IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP ’78), Volume : 3, pages : 255-262, avril 1978.
- (en) Cherry, E : Comments on The theory of transient intermodulation distortion, IEEE Transactions on Acoustics, Speech, and Signal Processing, Volume : 27 (6), pages : 653-654, décembre 1979.
- (en) Matti Otala : Transient Distortion in Transistorized Audio Power Amplifiers, IEEE Transactions on Audio Electroacoustics, Volume : AU-18, pages : 234-239, septembre 1970.
- (en) Cherry, E : Transient Intermodulation Distortion-Part I: Hard Nonlinearity, IEEE Transactions on Acoustics, Speech, and Signal Processing, Volume : 29 (2), pages : 137-146, avril 1981.
- Le push-pull de sortie n’est de classe AB que si la tension directe aux bornes d’une des diodes utilisée pour la polarisation est supérieure à la tension « d’allumage » d’un transistor bipolaire (0,7 V en général). Dans le cas contraire, c’est un push-pull de classe B voire C.
- (en) Analog Devices application note 106 : A Collection of Amp Applications (PDF) [archive].
- (en) National semiconductors AN-20 : An Applications Guide for Op Amps [archive], p. 5-15.
- (en) National semiconductors AN-30 : Log Converters [archive].
- (en) Texas Instruments Handbook of operational amplifier applications [archive], p. 87-81 : « Additional circuits ».
- Patrick Aldebert, Techniques de l’ingénieur dossier E320 : Amplificateurs faibles niveaux. Paragraphe : « Pour en savoir plus », février 2002.
- (en) Smither, Pugh and Woolard : CMRR Analysis of the 3-op-amp instrumentation amplifier, Electronics letters, 2 février 1989.
Bibliographie
En français
En anglais
- (en) Ron Mancini, Op Amps for Everyone : Design Reference, Newnes, , 377 p. (ISBN 0-7506-7701-5 et 978-0750677011)
- (en) Walt Jung, Op Amp Applications Handbook, Newnes, (ISBN 0-7506-7844-5 et 978-0750678445)
- (en) Douglas Self, Audio Power Amplifier Design Handbook, Newnes, , 468 p. (ISBN 0-7506-8072-5, lire en ligne [archive]).
- (en) Albert Paul Malvino et David J. Bates, Electronic principles, McGraw-Hill Science, , 7e éd., 1116 p. (ISBN 0-07-322277-1 et 0071108467).
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
- Amplificateurs :
- Montages amplificateurs :
- Composants :
- Général dans d'autre domaines
Liens externes
-
Vue de l'intérieur d'un amplificateur Hi-fi intégré
La plupart des amplificateurs fonctionnent « à gain fixe », c’est-à-dire que le rapport d'amplification entre le signal d'entrée et le signal de sortie est constant. Le niveau du signal d'entrée doit alors être ajusté par un ou plusieurs étages préamplificateurs, afin d'éviter la saturation de l'ampli. Ces étages ont un gain réglable, ils permettent d'ajuster le niveau du signal avant son amplification, donc le volume final. On peut trouver un réglage de gain séparé pour chaque canal d'amplification. Souvent, on verra une échelle abstraite de 0 à 10 (ou de -∞ à 0 qui indique l'atténuation en décibels du signal avant son amplification).
Un amplificateur audio fonctionne toujours sur le même principe :
- une alimentation est chargée de fournir des tensions symétriques en courant continu ;
- ces courants sont modulés à l'image de l'entrée audio, par les préamplificateurs éventuels, réalisés avec des transistors, des tubes électroniques ou des circuits intégrés. Une correction de la tonalité, un réglage de la balance et un réglage du volume peuvent être introduits dans cette section.
- le signal préamplifié est envoyé vers un amplificateur de puissance, qui transmet le signal final aux haut-parleurs.
Attention :
- Ne pas confondre le préamplificateur d'un ampli de type hifi, prévu pour traiter des signaux de l'ordre du volt, avec les préamplificateurs intégrés aux tables de mixages, prévus pour accepter les signaux délivrés par un micro (de l'ordre de quelques millivolts).
- le terme « ampli de puissance », souvent utilisé, est ambigu : les amplificateurs agissent bien sur la tension. Toutefois un « ampli de puissance » présente une impédance de sortie très faible si bien qu'il est en mesure de délivrer une puissance importante si nécessaire. Contrairement à un préamplificateur dont l'impédance de sortie est relativement élevée, ce qui lui interdit de délivrer une puissance appréciable.
L’alimentation
L'alimentation d'un ampli doit permettre de fournir des tensions stables alors même que le courant varie fortement et rapidement. La valeur de cette tension dépend de la puissance maximale de l'amplificateur ainsi que l'impédance de l'enceinte (par exemple : des tensions symétriques de +-64V pour un ampli pouvant délivrer 360 W sous 4Ω). Pour obtenir ces tensions, il est possible d'utiliser un transformateur qui convertit directement la tension secteur vers les tensions souhaitées (suivi d'un redressement et d'un filtrage) ou une alimentation à découpage.
Les alimentations à découpages sont devenues moins chères que les alimentations à base de transformateur, mais elles génèrent des parasites HF qui peuvent dégrader le rendu sonore de l'amplificateur si elles sont mal filtrées 1, en favorisant par exemple l'introduction d'oscillations parasites inaudibles.
Au cours des années 2000, les alimentations à découpage se sont largement imposées au sein des amplificateurs de sonorisation haut de gamme car elles autorisent des puissances élevées pour un poids très faible (moins de 10 kg pour certains modèles, alors que les appareils avec alimentations traditionnelles avoisinent les 30 kg).
Classes d'amplifications
Il existe plusieurs grands types de schémas génériques pour réaliser les étages d’amplification. On parle de « classe d’amplification », identifiées par des lettres (classe A, classe B, classe AB…)
Seules certaines classes sont utilisées couramment en audio :
- Classe A : Chaque transistor (ou tube) fonctionne 100 % du temps et traite 100 % du signal. L'absence de commutation entre les alternances positives et négatives évite la distorsion harmonique associée. Le faible rendement de cette topologie la réserve à des étages de puissances modérées.
- Classe B : Le circuit classe B utilise au minimum 2 transistors en « push-pull » symétrique : Un composant traite l'alternance positive, l'autre l'alternance négative du signal. Le rendement est meilleur qu'en classe A. La non-linéarité du fonctionnement au passage de l'alternance positive vers l'alternance négative introduit une distorsion harmonique plus importante.
- Classe AB : fonctionne comme un Classe A à faible puissance (augmentation du temps de conduction des transistors) et bascule sur le fonctionnement de Classe B à des puissances plus élevées. Cela permet une absence de distorsion lorsque le signal est faible. Lorsque le signal est important la distorsion est présente mais masquée par l’amplitude du signal, en conservant l’avantage du rendement. C’est une classe très courante en hi-fi et en sonorisation.
- Classe D : utilisé surtout lorsque les éléments actifs de puissance fonctionnent en régime bloqué ou saturé, son principe de fonctionnement est différent : les composants actifs de puissance génèrent un signal rectangulaire de fréquence élevée par rapport au signal d’entrée et dont le rapport cyclique est proportionnel au signal à amplifier (modulation de largeur d'impulsion). L'ampli classe D fonctionne comme un hacheur, en tout ou rien. La valeur de sortie possède donc soit la valeur maximum, soit 0V. La puissance moyenne représente le signal audio. Il suffit de mettre un filtre passif passe-bas pour enlever les hautes fréquences. Le problème est que la commutation, pour être inaudible, doit se faire au-dessus de 20 kHz. Certains constructeurs ont développé des adaptations propriétaires dérivées de la classe D, notamment la classe T de la société Tripath ou la classe TD de Lab. Gruppen...
- L’efficacité de la classe D est supérieure à la classe A, B, et AB. C’est un candidat idéal pour les applications nomades ou de fortes puissances, par exemple les autoradios ou la sonorisation.
Notons enfin deux appellations qui ne concernent pas directement les étages d’amplification mais leur alimentation :
- Classe G : c'est une variante de l'ampli de classe A. Il y a 2 alimentations fournissant deux tensions, une faible et une plus élevée. Si le signal est faible, la première tension est utilisée et la consommation énergétique reste modérée (mais la puissance maximale est également modérée). Lorsque le signal est fort, la seconde alimentation est utilisée et évite que l'ampli ne sature.
- Classe H : cette classe décrit l'alimentation de l'ampli qui est à découpage et est donc associée à une autre classe (souvent A, AB ou D).
Les branchements
En entrée
Si certaines marques utilisent des connexions de type propriétaire pour le transport du signal entre leurs différents éléments, on retrouve habituellement des entrées, symétriques ou asymétriques, des types suivant :
Comparaison des différents connecteurs d'entrées
Connecteur | Avantage | Inconvénient |
Jack 6.35 |
- Simplicité de la connexion
|
- Peut être retiré trop facilement
- Crée un court-circuit temporaire lors de la connexion
- Résistance mécanique médiocre, en particulier en entrée de gamme
|
XLR femelle |
- Simplicité de la connexion
- Loquet de sécurité pour éviter un débranchement intempestif
- Pas de court-circuit à la connexion
- Robuste
|
- Généralement proposé sur le matériel pro et/ou haut de gamme uniquement
- Encombrant
|
RCA cinch asymétrique |
- Très courant sur le matériel grand public
- Standardisé
|
- Nécessite des câbles de qualité (moins tolérant que les liaisons symétriques)
- Aucune sécurisation contre l'arrachement
- Résistance mécanique mauvaise
|
En sortie
Les sorties, asymétriques, sont de plusieurs types :
Comparaison des différents connecteurs de sortie
connecteur | avantages | inconvénients |
Jack 6.35 |
- simplicité de la connexion
- Connectique très standard
|
- permet le branchement par erreur d'un câble micro ou ligne
- Peut être retiré trop facilement
- Crée un court-circuit temporaire lors de la connexion
- Résistance électrique élevée provoquant des pertes en haute puissance
|
XLR mâle |
- Simplicité de la connexion
- Loquet de sécurité pour éviter un débranchement intempestif
- pas de court-circuit à la connexion
- Robuste
|
- Permet le branchement par erreur d'un câble micro
|
Bornier |
- Évite les erreurs avec les câbles micro
- Généralement, système de fixation à vis pour éviter un débranchement intempestif
- Peu coûteux et excellente continuité électrique
- Longueur des câbles facilement ajustable en dénudant les fils
- certains borniers acceptent aussi les fiches bananes
|
- Branchement complexe et long
- Câble dénudé s'usant rapidement
- Pas de sécurité au niveau du branchement (si les brins des fils se touchent)
|
Speakon femelle |
- simplicité de la connexion
- loquet de sécurité + 1/4 de tour pour éviter un débranchement intempestif
- pas de court-circuit à la connexion
- très robuste
- peut recevoir jusqu'à 8 fils (utile pour la multi-amplification)
|
- connecteur récent
- Pas de normes pour les raccordements (1+/1- et 2+/2-)
- Prix plus élevé que les autres connecteurs
|
La recherche d’une meilleure qualité du signal transporté, l’arrivée du digital et le home-cinéma ont fait apparaître un grand nombre de type de connexions différentes dans les amplificateurs audio grand public. Tel que : optique, HDMI, coaxial et RJ45
Modes bridge, parallèle, etc.
Certains amplificateurs stéréophoniques peuvent être basculés dans un mode monophonique. C'est très courant en sonorisation.
Le mode bridge inverse la phase à l'entrée de l'un des deux canaux. L’enceinte doit être connectée entre les deux points chauds. Ce mode double la tension en sortie pour une même tension en entrée (gain accru de 6 dB) et augmente la puissance disponible. Chaque canal voit une impédance de charge diminuée d'un facteur deux.
Le mode parallèle : les deux étages d'amplification sont mis en parallèle en entrée comme en sortie. Le gain reste identique mais chaque étage ne fourni plus que la moitié du courant et voit donc le double de l'impédance. Le mode parallèle désigne parfois un mode pseudo stéréophonique ou seules les entrées des deux canaux sont mises en parallèle. Deux enceintes distinctes sont branchées sur les sorties qui restent indépendantes. Cela revient à envoyer le même signal aux deux canaux mais évite le besoin d'un câble en Y.
Si la dénomination bridge est universelle, les modes parallèles sont présents sur peu d'appareils, ne désignent pas tous le même mode de fonctionnement et portent différents noms (tandem mono...)
Les applications
Hi-fi, home-cinema
Amplificateur haute fidélité intégré Sansui
Les amplis hi-fi sont destinés à l’usage domestique. La puissance maximale se situe entre quelques dizaines et quelques centaines de watts, la majorité offrant une puissance inférieure à 100 W par canal.
Le type le plus courant est dit « ampli-préampli intégré ». Il regroupe en un seul appareil deux fonctions :
- l'amplification de puissance, qui réalise l’amplification du signal proprement dite
- le préamplificateur qui comporte généralement un réglage de volume, un sélecteur de source, des corrections d’égalisation basique, un équilibrage gauche/droite (balance) et éventuellement un préamplificateur phono.
On trouve également sur le marché des appareils séparés dédiés à chaque fonction.
Les amplificateurs « home-cinéma » ont un nombre de canaux plus important (généralement de 5 à 7) et une section préamplification plus élaborée. Elle intègre le plus souvent un décodeur (Dolby et DTS) et peut gérer les sources vidéo parallèlement à la gestion des sources sonores.
Monitoring
Les amplificateurs dédiés au « monitoring » sont utilisés en studio pour les enceintes de contrôle (monitor en anglais) du mixage. Leur puissance est de l’ordre de quelques dizaines de watts. Ils se distinguent des amplificateurs hi-fi par :
- une section de préamplification réduite au réglage de volume (souvent dénommé gain, bien que le gain de l’étage d’amplification reste fixe)
- un format rack 19 pouces
- des entrées symétriques au format XLR ou jack 6.35.
Le refroidissement est généralement passif (par convection) pour éviter tout bruit.
Sonorisation
Rack d'amplificateurs numériques de sonorisation
Les amplificateurs de sonorisation proposent des puissances très élevées, de l’ordre de plusieurs centaines voire plusieurs milliers de watts. Les amplificateurs basiques ont une section de préamplification réduite au réglage de volume. Les modèles évolués peuvent intégrer un système de traitement numérique du signal qui autorise des corrections d’égalisation, le filtrage, la limitation de la tension de sortie, etc. Les amplificateurs de sonorisation proposent généralement deux ou quatre canaux. Ces derniers sont utiles par exemple pour gérer des circuits de retours pour les musiciens, proposer différents niveaux de reproduction dans des cas de diffusion « multizone », permettre la bi-amplification, etc.
Bien que les amplificateurs de sonorisation puissent être utilisés en hi-fi, le format des entrées (XLR ou Jack) mais surtout le bruit généré par la ventilation forcée est souvent problématique.
Casque
Les amplificateurs pour casques délivrent des puissances faibles, de l’ordre de 100 mW. Peu utilisés en hi-fi (la plupart des amplificateurs intégrés proposent une sortie casque), on les trouve couramment en studio d’enregistrement, de radio… L’utilisation de casques bien isolés permet d’avoir un retour qui ne perturbe pas la prise de son.
Notes et références
Voir aussi
Sur les autres projets Wikimedia :
Articles connexes
-
« Synthé » redirige ici. Pour l’article homophone, voir Sainté.
« Patch (son) » redirige ici. Pour les autres significations, voir Patch.
Différents sons de synthétiseur (1/4).
|
modifier |
Un synthétiseur (ou simplement synthé) est un instrument de musique électronique capable de créer et de moduler des sons sous forme de signal électrique. Il peut être utilisé pour imiter, avec plus ou moins de réalisme, des instruments de musique traditionnels, des bruits naturels ou encore pour créer des sonorités complètement originales.
Les sonorités varient en fonction de la technique de synthèse sonore utilisée (tables d'ondes, échantillons, synthèse additive, synthèse soustractive, modulation de fréquence, modélisation physique, modulation de phase, synthèse granulaire, etc.).
Principes
Les sons peuvent être créés soit de manière analogique à l'aide de circuits électroniques à comportement continu, soit de manière numérique à l'aide de circuits numériques spécialisés ou encore en utilisant un mélange de ces deux technologies. Une troisième voie est apparue vers 1995 quand la puissance des microprocesseurs a permis d’exécuter des logiciels de synthèse sonore en temps réel sur des ordinateurs personnels ou sur des DSP embarqués. Dans cette troisième voie, l'une des méthodes consiste à répliquer les structures de synthèse d'origine en modélisant numériquement les circuits analogiques, toutes les ressources possibles des technologies numériques (circuits DSP ou CPU des ordinateurs) sont alors utilisées pour générer ou modifier des sons musicaux. De nombreuses structures de synthèse sont proposées utilisant des principes de base variés, quelquefois combinés.
Un synthétiseur nécessite habituellement l'utilisation d'un clavier pour jouer de l'instrument, mais d'autres contrôleurs sont possibles : on peut l'utiliser avec un séquenceur, un contrôleur à ruban tactile, ou même grâce à des capteurs détectant la position de la main du joueur dans l'espace. Un clavier peut être inclus avec l'instrument quand il est sous forme physique. Certains synthétiseurs sont conçus sans clavier, et peuvent être contrôlés par l'adjonction d'un clavier compatible (par exemple grâce à l'interface standard MIDI, ou CV/Gate).
En plus du clavier, un synthétiseur propose généralement un ensemble de potentiomètres et de faders pour permettre le réglage du son (enveloppe, filtre, bend, etc.).
Méthodes de synthèse
Trois types de synthèse sonore ont prédominé dans l'histoire des synthétiseurs.
Les plus courants sont les synthèses analogiques soustractive et additive (l'additive fut utilisée dès le début du XXe siècle sur un instrument appelé le Telharmonium. Ce fut la première). Elles se basent sur des formes d'onde simples (sinusoïdale, triangulaire ou carrée le plus souvent). La synthèse additive combine différentes ondes sinusoïdales (comme un orgue par exemple). La synthèse soustractive utilise des signaux riches en harmoniques, et nécessite des filtres pour ajuster le timbre. Cependant, il est techniquement simplificateur de qualifier en bloc les synthétiseurs analogiques de synthèse soustractive au seul motif de l'usage d'un filtre en fin de traitement. Nombre de synthétiseurs modulaires ou semi-modulaires permettent également de combiner plusieurs signaux différents et pas uniquement par simple addition mais également par leur multiplication via un modulateur en anneau. C'est est notamment possible avec le VCS3 de EMS.
Elles ont connu leurs heures de gloire dans les années 1970 puis leur retour en grâce dans les années 1990 à 2000 à cause de leur usage très répandu dans les musiques actuelles, et cela continue aujourd'hui grâce à leur facilité d'accès sous forme de logiciel informatique. Toutefois il ne s'agit plus d'un traitement analogique du son mais d'un traitement numérique qui simule le comportement analogique des synthétiseurs de cette époque.
Dans les années 1980, un autre type de synthèse a remporté un large succès, il s'agit de la synthèse FM. Le principe est radicalement différent, il s'appuie sur la modulation de fréquence ou la distorsion de phase utilise un générateur pour en moduler un autre.
Tous les instruments électroniques munis d'un clavier ne sont pas forcément des synthétiseurs dans le sens littéral du terme. Certains appareils appelés échantillonneurs reproduisent simplement des échantillons sonores préenregistrés et ne nécessitent donc aucune synthèse sonore. Mais la frontière entre les deux types d'appareil n'est pas clairement établie, certaines techniques de synthèse se basant sur des échantillons.
Modules
Les premiers synthétiseurs génèrent des sons par des circuits électroniques analogiques organisés en nombreux modules interconnectés électriquement entre eux. Les synthétiseurs numériques plus récents fonctionnent différemment, utilisant des processeurs, mais ils gardent souvent une architecture modulaire inspirée par l'analogique (Virtual Analogic). Parmi les modules les plus utilisés figurent :
- les VCO, oscillateurs qui créent les sons de base avec un timbre qui dépend de la méthode de synthèse ;
- les VCF, filtres permettant de transformer le son en filtrant certaines fréquences ;
- les VCA, amplificateurs ayant pour rôle d'amplifier le signal, et donc de faire varier son volume.
Les composants précédents sont contrôlables (d'où l'appellation Voltage-Controlled), il existe donc des composants permettant de les moduler :
- les générateurs d'enveloppes (ADSR ou autres), permettant de faire moduler le son de manière synchronisée avec le début et fin de note ;
- les LFO, permettant de moduler le son de manière périodique, pour obtenir par exemple un vibrato ou un tremolo.
Les synthétiseurs modulaires permettent de combiner librement tous ces composants, ou même d'en ajouter. Dans les synthétiseurs plus compacts ces modules sont précâblés, et ne peuvent être combinés que de la manière prévue par le constructeur.
Afficheur de patchs d'un
Oberheim Matrix-6.
On appelle « patch » (ou encore « program » ou « voice »)1 l'ensemble des paramètres de chaque module ainsi que leurs configurations, qui génèrent un son spécifique2; par extension un son est aussi appelé patch. Sur les synthétiseurs anciens sans mémoire il correspondait à un ensemble de réglages, et sur les synthétiseurs modernes il correspond à un emplacement mémoire, identifié soit par un numéro soit par une lettre et un numéro, éventuellement associé à un libellé décrivant le nom du son.
Histoire
L'histoire de la synthèse sonore et celle du synthétiseur étant intimement liées, elles sont toutes deux regroupées ici.
Ancêtre
_@_Stearns_Collection_(Stearns_2035),_University_of_Michigan.jpg?uselang=fr" class="image">
Le premier synthétiseur Moog commercialisé (1964).
En 1874, après avoir déposé infructueusement le brevet du téléphone (une heure après Alexandre Graham Bell), Elisha Gray invente le télégraphe musical. Celui-ci comporte un clavier de deux octaves et exploite via des électro-aimants les vibrations de lamelles métalliques. La diffusion est assurée par le réseau téléphonique. En 1897, l'Américain Thaddeus Cahill invente le telharmonium, appelé aussi dynamophone car il fonctionne à l'aide de 408 dynamos. Il inspirera la conception de l'orgue Hammond quarante ans plus tard et utilise lui aussi le réseau téléphonique. En 1905, l'entreprise Max Kohl conçoit un synthétiseur sonore selon l'ouvrage révolutionnaire d'Hermann von Helmholtz intitulé « Théorie physiologique de la musique, fondée sur l'étude des sensations auditives » (1868)[réf. nécessaire]3, afin de démontrer et d'analyser l’effet des harmoniques dans un son complexe.
En 1907, Lee De Forest invente le tube à vide (la « lampe » électronique, la triode) qui va permettre de réaliser des circuits électroniques. En 1917, le Russe Léon Theremine invente le thérémine, instrument peu courant mais encore joué et construit aujourd'hui. Il ne comporte pas de clavier mais deux antennes qui sont influencées par les positions des mains, l'une servant à piloter la hauteur et l'autre le volume du son ; ce son est le résultat de la différence entre deux oscillateurs travaillant à très hautes fréquences. C'est lui qui fait les « chœurs » dans le morceau Good Vibrations de Brian Wilson (The Beach Boys) et que l'on entend aussi comme l'instrument principal du thème du générique de la série télévisée britannique Inspecteur Barnaby.
Le
Minimoog, synthétiseur fabriqué par la société Moog à partir de 1969.
Maurice Martenot invente en 1928 « les ondes Martenot », instrument qui utilise le même principe de différence entre deux fréquences élevées mais dispose d'un clavier et d'un moyen de faire des glissandos. Cet instrument au son fascinant a été réédité en 2001 sous le nom d'« Ondéa » et est exploité notamment en concert par Yann Tiersen. Bien avant, des artistes comme Olivier Messiaen, Edgar Varèse ou Darius Milhaud ont composé pour lui un véritable répertoire. Deux ans plus tard, le trautonium de l'Allemand Friedrich Trautwein est le premier synthétiseur à synthèse soustractive. La bande-son du film Les Oiseaux d'Alfred Hitchcock a été entièrement réalisée avec cet instrument, par Oskar Sala, notamment les cris des oiseaux. En 1935, c'est la naissance de l'orgue Hammond, conçu par Laurens Hammond qui travaillait à l'origine à la mise au point d'un moteur destiné à une horloge. Les sons de l'orgue Hammond sont créés par un grand nombre de roues phoniques (sortes de dynamos) et selon un procédé de synthèse additive. Cet instrument est totalement polyphonique. Destiné initialement aux églises, il sera popularisé par le gospel puis le blues, le jazz et le rock. Il est encore très populaire aujourd'hui[Quand ?]4. En 1947, l'électronicien français Constant Martin invente le clavioline, instrument à clavier (une octave et demi) n'ayant qu'un seul oscillateur.
Différents sons de synthétiseur (2/4).
Différents sons de synthétiseur (3/4).
Différents sons de synthétiseur (4/4).
En 1950, le chef d'orchestre Raymond Scott crée le clavivox pour produire des jingles publicitaires, puis l'électronium, un instrument très avant-gardiste puisqu'il est à la fois un synthétiseur et un séquenceur, permettant donc de programmer des mélodies. Sept ans plus tard, en 1957, Max Mathews, ingénieur aux Bell Laboratories écrit le premier programme de synthèse numérique, appelé « MUSIC-I », pour l'IBM 704. En 1964, Moog commercialise son premier synthétiseur5, et Paul Ketoff présente son « synket »6.
En 1969, George Harrison, guitariste solo des Beatles, est le premier à utiliser un Moog dans un album de rock sur Abbey Road. Pete Townshend, du groupe The Who, crée l'année suivante des boucles avec un synthétiseur ARP sur Who's Next. L'originalité de cet album est que les synthétiseurs ne cherchent pas à remplacer des instruments classiques, mais fournissent l'élément de rythme lui-même, en particulier dans Won't Get Fooled Again. Le synthétiseur devient alors à part entière un instrument de rock.
En 1972 sort le premier synthétiseur diphonique, l'ARP Odyssey conçu par Alan R. Pearlman. En 1974, les premiers synthétiseurs polyphoniques apparaissent, avec le SEM7 à deux, puis quatre et huit voix, introduits par Tom Oberheim. Dès 1983, première démonstration publique du Musical Instrument Digital Interface ou interface MIDI, raccordant un Roland Jupiter-6 (en) et un Sequential Circuits Prophet 600, par Dave Smith8. La même année, le Yamaha DX7 est commercialisé9.
Synthétiseurs notables et musiciens
Voici une liste des instruments qui ont représenté une étape importante au niveau du son ou d'un style musical et qui méritent un article dédié. Pour chaque instrument, quelques musiciens10 ou des styles étroitement liés sont indiqués.
- Access Virus (modèles A, B, C, TI, TI2, etc.) largement utilisés dans les domaines musicaux de la trance et de la techno par des artistes tels que Headhunterz, Angerfist.
- Alesis Andromeda. Utilise des composants numériques et modernes pour piloter un circuit de synthèse entièrement analogique (Klaus Schulze).
- ARP
- 2500 (Pete Townshend, The Who, Aphex Twin, Éliane Radigue, Meat Beat Manifesto, David Bowie, Skinny Puppy, Jean-Michel Jarre, Jimmy Page, Paul Davis, Vince Clarke, David Hentschel (Funeral for a friend, Startling Music)).
- 2600 (Pete Townshend (solo), The Who (Baba O'Riley, Won't Get Fooled Again), Klaus Schulze, Jean-Jacques Birgé, Depeche Mode, Erasure, Stevie Wonder, Weather Report, Edgar Winter, Space, Genesis, Lightwave, Jean-Michel Jarre, New Order, Chemical Brothers, Simian Mobile Disco, Aphex Twin).
- Odyssey (Georges Rodi, Klaus Schulze, Kraftwerk, Ultravox, Styx, Herbie Hancock, Spock's Beard, Deep Purple (Jon Lord)).
- Casio CZ-101 (Synthétiseurs Cazio CZ (en)). L'un des premiers synthétiseurs numériques bon marché (Vince Clarke, Erasure).
- Cavagnolo Exagone XM64. Un des rares synthétiseurs analogiques monophoniques produits par une firme française (1982).
- Clavia Nord Lead. Le premier synthétiseur à utiliser des circuits numériques pour émuler des circuits analogiques (The Prodigy, Space, Zoot Woman, The Weathermen (en), Jean-Michel Jarre).
- Elka Synthex. L'un des derniers grands analogiques (Tangerine Dream, Space, Jean-Michel Jarre, Stevie Wonder, Giorgio Moroder).
- EMS VCS3 (Klaus Schulze, Roxy Music, Hawkwind, Tim Blake, Pink Floyd, Space, Jean-Michel Jarre, BBC Radiophonic Workshop (en), Brian Eno).
- E-mu Emulator (The Residents, Depeche Mode, Deep Purple, Genesis, Vangelis).
- Ensoniq
- Fairlight CMI (Daniel Balavoine, Jean-Michel Jarre, Kate Bush, Space, Peter Gabriel, Mike Oldfield, Jan Hammer, Pet Shop Boys, The Art of Noise, Supertramp).
- Korg
- Kurzweil K2000. Synthétiseur disposant du système VAST (Jean-Michel Jarre, Pink Floyd, Lightwave).
- Lyricon. Premier instrument à vent électronique produit en grande série (Michael Brecker, Tom Scott, Chuck Greenberg (en), Wayne Shorter, Jack Lancaster (en) (The Rock Peter and the Wolf (en), Marscape)).
- Moog
- Minimoog (Emerson, Lake and Palmer, Keith Emerson, Gary Numan, Pink Floyd, Jean-Michel Jarre, Kraftwerk, Erasure, Rush, The Cure, Yes, Rick Wakeman, Patrick Moraz, Buggles, Geoff Downes, Igor Khorochev, Badger, Stereolab, Devo, Ray Buttigieg (en), George Duke, Tangerine Dream, Edgar Froese, Peter Baumann, Klaus Schulze, Triumvirat, Strawbs, Paul McCartney & Wings Band on the Run, Gentle Giant, Dr. Dre, Daft Punk ).
- Polymoog (Tony Banks (...And Then There Were Three...), Kraftwerk, Gary Numan, Rick Wakeman, Yes, Tim Blake).
- Modular (Emerson, Lake and Palmer, Keith Emerson, Wendy Carlos, Isao Tomita, Klaus Schulze, Tangerine Dream, Tonto's Expanding Head Band (en), The Beatles (album Abbey Road), George Harrison (Electronic Sound), Weezer, Space, Massive Attack).
- Taurus (Rush, Jean-Michel Jarre, Genesis, The Police, U2, The Cure, Yes, Steve Hackett, Strawbs).
- Oberheim OB-X, Oberheim OB-Xa (Rush, Prince, Styx, Supertramp, Van Halen, Jean-Michel Jarre, Georges Rodi).
- PPG Wave 2 (Rush, Depeche Mode, Jean-Michel Jarre, Jean-Jacques Birgé, Tangerine Dream (Edgar Froese), The Fixx, Thomas Dolby).
- Roland
- D-50 (Jean-Michel Jarre, Enya, IQ).
- JD-800. Premier synthétiseur numérique à reproposer une interface conviviale « un bouton, une fonction » comme sur ses ancêtres analogiques (Jean-Michel Jarre, Francis Rimbert, Vangelis, Genesis, The Prodigy, Pet Shop Boys).
- JP-8000. Le synthétiseur qui a posé les bases sonores de la trance, notamment ce son de dent de scie très chaud et typique (Jean-Michel Jarre, Francis Rimbert).
- Juno-60/Roland Juno-106. C'est grâce à ces synthétiseurs que l'album Living in America, du groupe suédois The Sounds, fut connu en Amérique et en Europe. Il peut être entendu sur tous leurs albums.
- Jupiter-8 (Rush, Duran Duran, Erasure, OMD, Huey Lewis and the News, Space, Indochine, Massive Attack, Jean-Michel Jarre).
- MT-32. Un standard de facto pour la musique et les bruitages des jeux vidéo.
- TB-303 (techno, acid house, Fatboy Slim, Daft Punk).
- V-Synth. Synthétiseur de recherche intégrant la technologie VariPhrase, la synthèse à oscillateurs multiples, les algorithmes COSM, la synthèse Vocal Designer, une interface de programmation (écran tactile, nombreux contrôleurs temps réel comme le Time Trip Pad ou encore le double D-Beam). Le V-Synth GT, sorti en 2007, ajoute, entre autres, la synthèse AP et une architecture double cœur permettant de doubler la puissance du V-Synth original (Front 242, Skinny Puppy, Orbital, Jean-Jacques Birgé, Vitalic).
- RSF Polykobol II. La référence française des synthétiseurs analogiques polyphoniques à mémoire des années 1980, instrument rare (Lightwave, Jean-Michel Jarre).
- Sequential Circuits
- Prophet 5 (Berlin, Phil Collins, The Cars, Erasure, Kraftwerk, Steve Winwood, Underworld, MSTRKRFT, Chromeo, Patrick Moraz).
- Prophet 10 (Tangerine Dream, The Orb, The Who, Pet Shop Boys, Vangelis, Genesis, Human League, le cinéaste et compositeur John Carpenter, Patrick Moraz).
- Synclavier (Laurie Anderson, Asia, Buggles, Geoff Downes, The Cure, Dire Straits, Kraftwerk, Pat Metheny, Pink Floyd, Sting, Tangerine Dream, Vangelis, Michael Jackson, Stevie Wonder, Yes, Frank Zappa).
- Technos Acxel développé et commercialisé par la société québécoise Technos de 1987 à 1990.
- Waldorf Music
- WaveFrame AudioFrame (en) (Peter Gabriel, Stevie Wonder).
- Yamaha
- CS-80. Premier synthétiseur polyphonique 8 notes de la marque, totalement analogique, à clavier gérant le Polyphonic aftertouch, pesant environ cent kilogrammes, sans doute le plus expressif de tous, tel un instrument acoustique (Vangelis, Space, Hans Zimmer, Eddie Jobson, Jean-Michel Jarre).
- DX7 (Jean-Michel Jarre, Rush, Steve Reich, Depeche Mode, Zoot Woman, The Cure, Brian Eno, Jean-Philippe Rykiel, Jean-Jacques Birgé, Howard Jones, Nitzer Ebb, Front 242, David Bowie, Enya, Talk Talk, Kraftwerk, Vangelis).
- GX-1 (en) (Emerson, Lake and Palmer, Emerson, Lake and Powell, Keith Emerson, Hans-Jürgen Fritz (Triumvirat), Led Zeppelin, Stevie Wonder, ABBA, Hans Zimmer, Rick van der Linden).
- Motif. Série de synthétiseurs Workstations lancés en 2001.
- SHS-10. L'un des premiers « keytars » (synthétiseur en bandoulière comme une guitare) des années 1980 (Martin Circus, Showbread (en), Rick Wakeman).
- VL-1. Premier synthétiseur à modélisation physique.
Principaux fabricants
Notes et références
- L'article d'un instrument peut indiquer plus de musiciens en ayant fait usage.
Annexes
Bibliographie
- (en) Peter Shapiro, Iara Lee, Modulations: a history of electronic music, 1999 (ISBN 189102406X).
- Pauline Bruchet, Modulations : une histoire de la musique électronique, 2004 (ISBN 2844851479).
- Laurent de Wilde, Les fous du son : d'Édison à nos jours, Folio (Gallimard), coll. « histoire », , 672 p. (ISBN 978-2072802393, lire en ligne [archive]).
Articles connexes
-
Le Moog Modular 55, synthétiseur modulaire typique
Un synthétiseur modulaire est un synthétiseur composé d'un ensemble de modules indépendants où chacun remplit une fonction élémentaire : oscillateur (VCO), filtre (VCF), amplificateur (VCA), générateurs d'enveloppe, effet, mixeur… Le choix des modules et leur interconnexion se fait de manière totalement libre dans le but de produire des sons.
Ce type de synthétiseur est donc apprécié pour le grand nombre de possibilités qu'il offre dans le design sonore, et pour la possibilité de personnaliser le choix des modules présents selon les besoins.
Histoire
Les premiers synthétiseurs modulaires commerciaux ont été développés, en parallèle, par RA Moog, et Buchla en 1963. Tant Robert Moog que Donald Buchla avaient eu connaissance d'un texte écrit par l'allemand Harald Bode en 1961 et dans lequel celui-ci décrit les possibilités de création sonore par des systèmes à transistors. Bode avait par ailleurs développé un oscillateur contrôlé en tension dès 1960. Le synthétiseur élargit le spectre et facilite la création de musique électronique qui était alors réalisée par enregistrement et montage sur bande magnétique, par utilisation d'instruments électroniques et électromécaniques primitifs comme le Thérémine et les Ondes Martenot ou encore à l'aide de générateurs électroniques impossibles à interconnecter.
On peut citer également le Synthi AKS (1969) de EMS (employé par exemple par Karlheinz Stockhausen) ou l'un des précurseurs que fut le Synket conçu par Paolo Ketoff (ingénieur italien qui travaillait pour RCA, il choisit le nom Synket pour « Synthesizer Ketoff ») dont la conception commença dès 1962 et s'acheva fin 1964 (le premier modèle fut livré début 1965 pour les concerts de John Eaton). Le Synket était accompagné de trois petits claviers de 2 octaves, chacun relié à un VCO et un VCF et dont les touches pouvaient être préréglées de façon convenable pour jouer de la musique microtonale1,2.
Après Moog, Buchla et Ketoff, d'autres fabricants émergeront plus tard. D'abord aux USA (ARP, Serge) et en Europe (EMS), puis au Japon (Roland, Korg, Yamaha). En 1976, la société japonaise Roland sort le system 700. Toujours dans le milieu des années 1970, la vente par correspondance de kits électroniques par Paia Electronics offre une seconde voie, celle du bricolage, pour faire des synthétiseurs modulaires. De nombreuses petites séries moins connues verront le jour, notamment à l'instigation de magazines (tel Elektor), de commerces dédiés à l'électronique (telle la firme Maplin en Grande-Bretagne) ou d'associations de passionnés d'électroacoustique (A.C.M.E., Belgique).
Encombrants, lourds et fragiles, ils n'étaient utilisés que dans les studios d'enregistrement, à l'exception notable de Keith Emerson qui tournait avec ses Moog 55... Vers 1970 sont apparus des instruments portables, dont le plus célèbre reste le Minimoog, certes plus simples et plus pratiques d'utilisation pour un musicien en tournée, mais aussi nettement plus restreints en termes de créativité sonore en raison de leur architecture VCO > VCF > VCA figée. Le compromis fut l'invention des synthétiseurs dit semi-modulaires comme le Korg MS-20.
À la fin des années 1980, les synthétiseurs modulaires (analogiques) ont été largement remplacés par des synthétiseurs (numériques) à clavier intégré, des racks MIDI inter-connectés et des échantillonneurs. Mais vers la fin des années 1990 se produit une résurgence de la popularité des synthétiseurs analogiques modulaires. En fait, il y a plus de fabricants aujourd'hui que lorsque les synthétiseurs modulaires occupaient le devant de la scène, dans les années 1960-70[réf. nécessaire].
Enfin, le développement de la MAO a permis l'apparition de synthétiseurs modulaires logiciels comme Reaktor, où les modules deviennent des plug-in connectables les uns aux autres.
Caractéristiques
Une approche analogique
Les modules communiquent par des signaux analogiques en tension et sont donc généralement composés par des circuits analogiques, lesquels participent de manière fondamentale à l'identité du son. L'aspect analogique fait qu'en pratique, la synthèse sonore est souvent soustractive : des formes d'onde caractéristiques (signal carré, en dents de scie, etc.) et riches en harmoniques sont appauvries par filtrage. D'autres techniques sont possibles, telles que la modulation de fréquence ou la synthèse additive, mais elles connaissent généralement des développements plus avancés dans les synthétiseurs numériques.
Il est difficile ou laborieux de produire de la musique polyphonique avec un synthétiseur modulaire, puisqu'il faut un oscillateur par voix. Les synthétiseurs modulaires peuvent être volumineux et coûteux. Un autre défaut des synthétiseurs analogiques (modulaires ou non) est leur instabilité. En effet, l'état des circuits électroniques se modifie en fonction de la température. La hauteur du son peut notamment changer selon le temps depuis lequel un synthétiseur analogique est allumé. Par ailleurs, un synthétiseur purement analogique ne permet pas une mémorisation de presets. En contrepartie, il possède un nombre infini de possibilités. Les problèmes de stabilité et de mémorisation ont été corrigés par l'usage de circuits analogiques pilotés numériquement.
Toutefois, il reste des musiciens et des fabricants qui préfèrent l'approche physique avec connexions par câbles, la flexibilité et le son traditionnel analogique des systèmes modulaires. Le son analogique se caractérise par l'absence du repliement fréquentiel associé au numérique (aliasing), absence qui se traduit par des sons plus purs. D'autre part la saturation d'un circuit analogique produit une distorsion harmonique qui apparaît progressivement au fur et à mesure que la saturation augmente, au contraire de la distorsion numérique qui apparaît brusquement et paraît plus désagréable à l'oreille.
Bien que les mondes de la synthèse analogique modulaire d'une part et du MIDI paraissent à première vue éloignés, il existe des modules permettant de convertir des messages MIDI en signaux analogiques et inversement. Lors des débuts de la norme MIDI, des kits étaient proposés pour équiper d'entrées MIDI des synthétiseurs analogiques qui en étaient dépourvus. Aujourd'hui la firme MOTU propose par exemple un logiciel qui s'emploie comme insérable (plug-in) de toute station de travail logicielle courante.
Synthétiseurs semi-modulaires
Un synthétiseur est dit modulaire quand on peut connecter arbitrairement tous ses modules. Ces modules sont habituellement connectés avec des cordons et on peut utiliser des modules de différentes sources tant qu'ils sont compatibles.
Un synthétiseur semi-modulaire est fait à partir d'un ensemble cohérent de modules d'un seul constructeur. Ces modules ne peuvent pas être changés, et souvent une configuration typique a été précâblée. Cependant, le concepteur a prévu que l'utilisateur puisse connecter différemment les modules. Pour cela plusieurs systèmes ont été mis au point :
- Matrice : Les systèmes à matrice utilisent des broches ou des interrupteurs plutôt que des cordons. Voici des exemples historiques avec des broches : EMS Synthi 100, EMS VCS-3, ETI International 4600, Maplin 5600. Le ARP 2500 utilise des interrupteurs.
- Patch Override Systems : Les différents modules d'un synthétiseur semi-modulaire sont câblés ensemble dans une configuration type, mais peuvent être recâblés par l'utilisateur avec des cordons. Voici quelques exemples : ARP 2600, Anyware Instruments Semtex, the Cwejman S1, Korg MS-10, MS-20, MS-50, PS-3100, PS-3200 and PS-3300, et Roland System-100.
- Reconfiguration électronique : Le système est reconfigurable pour changer le chemin des signaux entre les modules. Voici des exemples : Oberheim Matrix, Rhodes Chroma, Moog Voyager et Mopho keyboard.
Les modules classiques
Beaucoup de modules standards sont disponibles sur pratiquement n'importe quel synthétiseur modulaire, en voici une liste :
- VCO (pour Voltage Controlled Oscillator) : oscillateur qui émet un son dont la hauteur est commandée en tension.
- VCF (pour Voltage Controlled Filter) : filtre dont la fréquence de coupure est commandée en tension, qui atténue les fréquences inférieures (passe-haut), supérieures (passe-bas), ou les deux supérieure et inférieure (passe-bande).
- VCA (pour Voltage Controlled Amplifier) : amplificateur dont le gain est commandé en tension, et permet donc de moduler l'amplitude d'un signal.
- EG (pour Envelope Generator) : générateur d'enveloppe, c'est-à-dire une courbe de tension, qui peut être déclenchée par un clavier ou par un autre module dans le système. Souvent, configuré comme ADSR (Attack, Decay, Sustain, Release), des EG simples (AD ou AR) ou plus complexes (DADSR - Delay, Attack, Decay, Sustain, Release) sont parfois disponibles.
- LFO (pour Low Frequency Oscillator) : un oscillateur basse fréquence qui fonctionne en dessous de 20 Hz. Il est donc inaudible, mais est utilisé pour commander un autre module.
- NOISE : un générateur de bruit blanc ou rose.
- RM (pour Ring Modulator) : modulateur multipliant les signaux de deux entrées audio, ce qui crée de nouvelles fréquences correspondant à la somme et à la différence de chacune des fréquences des signaux d'origine tout en supprimant les signaux originaux. En général on a donc plus de fréquences en sortie qu'en entrée.
- Mixer : module de mixage pour mélanger plusieurs signaux en un seul.
- S&H (pour Sample and Hold) : Échantillonneur-bloqueur, qui prend un « échantillon » de la tension d'entrée quand une impulsion de déclenchement est reçue et le conserve jusqu'à l'arrivée d'une nouvelle impulsion. La source échantillonnée est souvent un générateur de bruit, son utilisation permettant ingénieusement d'obtenir des notes aléatoires en sortie du module « Sample and Hold » puisqu'avec un générateur de bruit on ne peut jamais savoir quelle sera la valeur capturée par l'échantillonneur à un instant donné, un bruit étant par définition un signal audio contenant toutes les fréquences du spectre audio simultanément et à des amplitudes aléatoires)3.
- Step-sequencer : module produisant une séquence répétitive.
- Arpégiateur : module au comportement proche du step-sequencer, mais dont la séquence est générée à partir d'une ou d'un ensemble de notes.
- Slew Limiter ou LAG : lisse les changements brusques de tension. Il peut être utilisé pour les Glissando et les portamento. Il peut aussi servir de filtre basse-bas primitif.
- Custom Control Inputs : parce que les synthétiseurs ont des entrées commandées par tension, il est possible de connecter pratiquement n'importe quel type de commande électronique analogique comme un capteur de température ou de lumière pour autant qu'il fonctionne sur une échelle de tension correspondant à celle du synthétiseur. En réalité tout signal électrique alternatif (tel que produit en sortie d'un appareil audio) ou continu ayant une tension appropriée peut être envoyé dans un synthétiseur modulaire.
Fabricants actuels
Les offres hardware vont de systèmes complets, aux kits pour les constructeurs amateurs de bricolage. Beaucoup de fabricants augmentent leur gamme de produits basés sur les dernières conceptions des modules classiques ; souvent on trouve à la fois sur internet, le système original et les conceptions retravaillées issues de l'original, car les brevets ont expiré. Aussi, beaucoup de concepteurs amateurs rendent disponible à la vente pour d'autres amateurs, les panneaux de PCB nus (Printed Circuit Board, synonyme de circuit imprimé) et les panneaux de commande.
Tokyo Festival of Modular en 2014.
- Analogic-ACS
- Analogue Solutions (Concussor)
- Analogue Systems (RS Integrator)
- Bananalogue
- Blacet Research
- Buchla & Associates (200e)
- Club of the knobs
- Curetronic
- Cwejman
- Cyndustries (Cynthia)
- Doepfer Musikelektronik (A-100)
- Elby (Panther Series)
- Future Sound Systems
- Livewire
- Macbeth Studio Systems
- Mattson Mini Modular
- Metalbox
- Metasonix
- MFB
- Modcan
- Oakley Sound Systems
- PAiA Electronics
- Pittsburgh Modular
- Plan B (Plus en activité)
- Sound Transform Systems
- Synthesis Technology (MOTM)
- Synthesizers.com
- Synthetic Music Systems
- The Harvestman
- Tiptop Audio
- Technosaurus
- Wiard Synthesizer Company
- Yusynth Modular (Yves Usson System)
Synthétiseurs modulaires logiciels
SynthEdit, un logiciel de synthèse modulaire.
Il y a aussi des synthétiseurs logiciels pour ordinateurs personnels qui sont organisés comme des modules interconnectables. Beaucoup de ces synthétiseurs analogiques sont virtuels avec des modules simulant des fonctionnalités hard. Certains d'entre eux sont également des systèmes modulaires virtuels, qui simulent de vrais synthétiseurs modulaires historiques.
Les ordinateurs sont devenus si puissants et peu coûteux, que les programmes logiciels peuvent modéliser très bien de façon réaliste les signaux, les sons et les patchs modulaires. Bien qu'il manque la présence physique de la génération analogique du son, de la manipulation de tension, des boutons, des potentiomètres, des câbles et des voyants, les synthétiseurs logiciels modulaires offrent des possibilités infinies de patch à un prix encore plus abordable et dans un format compact.
Les formats de plugin populaires comme le VST peuvent être combinés de façon modulaire.
Spécifications techniques
Facteurs de forme
La hauteur des premiers modules était souvent un nombre entier de pouces : 11" (par exemple, pour le Roland 700), 10" (Wavemakers), 9" (Aries), 8" (ARP 2500), 7" (Polyfusion, Buchla, Serge (en), 6" (Emu) et la largeur un nombre entier de quarts de pouce4.
Actuellement, le standard le plus populaire est le rack de largeur 19" (480 mm). La hauteur des modules est un multiple de l'unité U (1,75 pouce soit environ 4,445 cm) et varie selon les fabricants : 6U (Wiard), 5U (Moog, Modcan), 4U (Buchla, Serge). Deux systèmes de racks 3U, en particulier, sont remarquables : le format Fracrak (par exemple, Paia) et le format Eurorack (par exemple, Doepfer).
Quelques variations mineures existent entre les marques européennes et japonaises sur la mesure du U à cause de l'équivalence métrique. Par exemple, les modules 5U habituels font exactement 8.75" (222.25mm), mais les constructeurs non américains préfèrent 220mm ou 230mm.
Électrique
Les autres différences5 sont :
- les connecteurs (jacks 1/4", jacks 3.5mm, fiches banane),
- l'alimentation continue principale (typiquement +/- 15V, mais aussi +/- 12V ou +/-18V),
- les niveaux logiques (Moog S-trigger ou porte positive),
- les niveaux de sortie audio (souvent +/-5V avec +/-5V de marge supplémentaire),
- les tensions de contrôle en volts/octave (typiquement 1V/octave, mais parfois 1.2V/octave.) La plupart des systèmes modulaires analogiques utilisent un système de volts/octave, parfois appelé contrôle de tension linéaire ; certains (comme le Korg MS-20, ETI 4600) utilisent un système en volts/hertz avec une excellente stabilité en température, mais moins souple à contrôler.
Références
- On trouve une excellente page assez complète sur le Syntek et sur son histoire ici : http://www.suonoelettronico.com/synket_fonosynth_ketoff.htm [archive] (avec une traduction approximative en français par Google ici [archive])
- Il existe une passionnante vidéo récente d'une interview de John Eaton parlant du Syntek et dans laquelle il montre également une des partitions qu'il avait composées pour cet instrument, interview dans laquelle il décrit des caractéristiques techniques des tout premiers claviers sensitifs révolutionnaires à l'époque (et dont il présente un exemplaire) qui étaient destinés à ces synthétiseurs de scène : http://vimeo.com/38577805 [archive]. Une surprise amicale lui est fait aussi à la huitième minute avec l'arrivée inattendue de Michelle Moog. Cette vidéo de 10 minutes est un extrait d'un documentaire beaucoup plus long dont on trouve l'adresse web à la fin de la vidéo
- Voici un exemple très pédagogique de ce que donne l'utilisation du module « Sample and Hold » avec un échantillonnage pris sur le générateur de bruit blanc: [1] [archive]
- hauteur [archive]
Articles connexes
Liens externes
-
Le synthétiseur ANS est un synthétiseur opto-électronique créé par l'ingénieur russe Evgueni Mourzine (en) de 1937 à 1957. La synthèse optique est la base de cet instrument. Il s'agit de la même technologie permettant d'enregistrer optiquement les sons sur une pellicule photographique. Sur pellicule, le son enregistré est l'image visible d'une onde sonore, et inversement, on peut synthétiser un son en le dessinant directement sur la pellicule.
Fonctionnement
Dans l'ANS, des ondes sinusoïdales sont imprimées sur cinq disques de verre tournants. Chaque disque dispose de 144 pistes individuelles imprimée pour un total de 720 tons distincts, couvrant 10 octaves. Cela donne une résolution de 1 / 72e d'octave (16,67 cents). La lumière modulée à partir de ces roues est alors projetée sur une plaque de verre. Les disques sont disposés dans une bande continue verticalement, avec les fréquences basses en bas et les fréquences aigües en haut.
Exemple de morceau inscrit sur plaque de verre.
L'interface utilisateur se compose d'une plaque de verre recouverte d'un mastic noir opaque sur laquelle l'utilisateur dessine, ce qui permet à la lumière de passer au travers. En face de la plaque de verre se trouve une banque verticale de vingt cellules photoélectriques qui envoient des signaux à vingt amplificateurs et filtres passe-bande, chacun avec son propre réglage du gain de contrôle. L'ANS est entièrement polyphonique et peut générer 720 hauteurs de son simultanément.
La plaque de verre peut ensuite être analysée, de droite à gauche, en face des cellules photoélectriques, afin de transcrire le dessin en hauteurs sonores. En d'autres termes, l'ANS joue ce que l'on a dessiné, comme une partition graphique. Ce processus peut être facilité par un moteur, ou il peut être déplacé manuellement. La vitesse de balayage est réglable jusqu'à zéro. La vitesse à laquelle l'analyse est faite n'a aucun rapport avec la hauteur des sons, mais agit uniquement sur leur durée.
Mourzine a nommé son invention ANS en l'honneur du compositeur Alexandre Nikolaïevitch Scriabine (1872–1915). Compositeur et occultiste, il défendait l'idée d'une synesthésie entre les couleurs et les sons musicaux. L'ANS se trouve aujourd'hui dans les sous-sol de l'Université d'État de Moscou, au coin de la rue Bolchaïa Nikitskaïa. Il a été sauvé d'une mise au rebut par Stanislav Kreichi, qui a persuadé l'université de conserver ce synthétiseur unique.
L'ANS est exposé actuellement au musée Glinka de Moscou.
L'ANS a été utilisé par les compositeurs Stanislav Kreichi, Alfred Schnittke, Edison Denisov, Sofia Goubaïdoulina, le groupe Coil, Jorge campos, Edouard Artemiev.
Enregistrements
Un album d'œuvres de compositeurs mentionnés ci-dessus, appelé L'Offrande musicale, a été publié sur Melodiya (C60 30721 000) en 1990 — bien que les enregistrements datent des années 1960 et 1970. Les enregistrements de Stanislav Kreichi (Ansiana et La Voix et le Mouvement, ainsi que les œuvres antérieures (Électrochok présente : Musique Électroacoustique) ayant utilisé le synthétiseur sont disponibles sur le label Élektrochok. Une bande-son du film Dans l'Espace (1961), en collaboration avec Edouard Artemiev, reste inédite.
L'utilisation la plus célèbre du synthétiseur ANS, est celle du compositeur Edouard Artemiev, pour les films d'Andreï Tarkovski (Le Miroir et surtout Solaris en 1972, où la presque totalité de la musique du film est composée avec l'ANS).
En 2002, la BBC Radio 4 a diffusé un programme sur l'ANS par Isobel Clouter dans le cadre de sa série Soundhunter. En 2004, le groupe expérimental britannique Coil a publié CoilANS, un coffret expérimental de drone music effectuée sur l'ANS. L'artiste norvégien Zweizz a sorti en 2007 une cassette dont la face B est entièrement faite à l'ANS1. Le groupe britannique expérimental T.A.G.C. utilise des sons générés sur l'ANS pour deux compositions qui ont été publiées en 19962.
Notes et références
- ‹Voir Tfm›artistes divers, y compris les T. A. G. C. Deepnet [archive] de Médias (notes).
Voir aussi
Liens externes
- Portail de la musique électronique
-
Le Buchla
Music Easel, un synthétiseur analogique modulaire de 1973.
Un synthétiseur analogique est un synthétiseur qui utilise des circuits analogiques et des signaux électriques analogiques pour générer des sons par des techniques électroniques.
Ils peuvent être sous forme d'appareils indépendants ou de synthétiseurs modulaires, comme la norme répandue Eurorack.
Leur fonctionnement se base en général sur les principes de tables d'ondes, échantillons, synthèse additive, synthèse soustractive, modulation de fréquence, modélisation physique, et de modulation de phase.
Ce sont les premiers types de synthétiseurs électroniques. Les premiers instruments de musiques électroniques apparus, relativement rudimentaires sur les possibilités sonores sont le thérémine en Russie en 1919, puis les Ondes Martenot en 1928 en France.
Plus tard des systèmes plus évolués comme les Korg MS-10 ou MS-20 ou les synthétiseurs modulaires ARP 2500, Doepfer A-100, Music Easel. Ils sont toujours utilisés aujourd'hui, aux côtés des synthétiseurs numériques, utilisant des signaux numériques (0 ou 1).
Il existe également différents synthétiseurs analogiques DIY, produits avec des processeurs numériques comme le STM32 ou l'ESP32, utilisant leurs convertisseur analogique-numérique (DAC) pour la production d'un signal analogique.
Histoire
Notes et références