Imprimer
Catégorie : Education Nationale
Affichages : 1130

Savoir

 
 

Le savoir est défini habituellement comme un ensemble de connaissances ou d'aptitudes reproductibles, acquises par l'étude ou l'expérience.

Définitions

 

En français, les termes de connaissances et de savoir sont employés alors que, par exemple, l'anglais utilise knowledge dans tous les cas. Ce décalage a une origine ancienne puisque le mot provient du latin sapere, verbe qui employé intransitivement indiquait une entité qui possédait une saveur. Il n'y avait donc alors pas de référence au moindre processus cognitif. Ce n'est qu'au Moyen Âge qu'émergea le sens actuel après avoir transité par une forme figurée désignant une personne en quelque sorte « informée ». À partir de cette époque, le fait de savoir fut considéré comme une attestation ou garantie de sagesse, association qu'on retrouve de nos jours sous la forme de la confusion traditionnelle entre le savoir et l'intelligence ; des oppositions telles que « tête bien pleine » et « tête bien faite » rappelant que les choses ne sont pas si simples.

Tout comme savoir et connaître ne s'emploient pas dans les mêmes contextes, on distingue savoir et connaissance :

Savoir et connaissance s’opposent au domaine de la croyance.

Le savoir se distingue par divers traits d'un ensemble de connaissances en particulier par la dimension qualitative : l'acquisition d'un savoir véritable suppose un processus continu d'assimilation et d'organisation de connaissances par le sujet concerné, qui s'oppose à une simple accumulation et rétention hors de toute volonté d'application. Au niveau individuel le savoir intègre donc une valeur ajoutée en rapport avec l'expérience vécue et de multiples informations contextuelles. Chaque personne organise et élabore son savoir en fonction de ses intérêts et besoins ; la composante consciente et volontaire de cette élaboration s'appelle la métacognition. La plupart des « savoirs » individuels sont naturellement utiles à l'action, à sa performance, sa réussite : « Savoir, c'est pouvoir ! ». C'est aussi sur des mises en situation que reposent les meilleures évaluations du savoir alors que des tests basés sur la seule restitution d'informations ne garantissent pas sa qualité et par conséquent sa valeur. De même, le savoir se rend plus visible et pratique sous le nom de « savoir-faire ». Les savoirs les plus intellectuels reposent sur l'appropriation ou création de concepts, en parallèle avec le développement des « savoirs scientifiques » ou de la philosophie. La notion de "savoir-être", quant à elle, utilisée notamment dans le champ de la formation des adultes renvoie aux attitudes et comportements qu'un sujet met en œuvre pour s'adapter à un milieu.

Si le savoir est à l'origine une composante personnelle et individuelle, le concept s'étend naturellement à toute entité capable d'une capitalisation analogue de son expérience :

Chaque communauté repose sur un savoir partagé ; c'est une composante de son identité. Le poids et la reconnaissance de ce savoir et donc du savoir présentent des formes variables, mais le sort de la communauté est généralement lié à la conservation de ce patrimoine immatériel. Au sein des sociétés et cultures, l'éducation a pour mission d'aider à l'appropriation du savoir collectif élémentaire, on parle ainsi d'acquisition d'un socle commun, l'enseignement complétant l'acquisition de connaissances et savoir-faire disciplinaires, pendant que la formation professionnelle est chargée de la transmission des savoirs professionnels.

Le savoir se présente donc généralement comme une valeur collective ; une ressource de nature immatérielle. De ce point de vue, laissant provisoirement de côté l'insaisissable dimension psychologique, cette valeur prend l'allure d'un bien et même d'un « bien économique ». On réifie donc cette réalité en la matérialisant dans le langage. On parle donc de :

Selon les époques et les cultures, la conservation du savoir et la transmission des connaissances s'appuient sur la communication orale et l'expression écrite. Des « entrepôts du savoir » sont créés et entretenus comme mémoire collective : bibliothèque, centres de documentation, etc.

Dans une certaine mesure, le savoir se transmet de manière informelle par la communication entre pairs ou interaction entre membres de statuts comparables. L'efficacité de la transmission étant pour une part fonction de la plasticité mentale de l'apprenant, elle-même fonction de son âge en particulier, la pédagogie étudie les conditions de ces transmissions entre novices et apprenants et leurs maîtres ou professeurs plus expérimentés ou plus savants. Selon Cristol (2018)3, les moyens numériques favorisent l'accès à une masse de données, un enrichissement et une circulation accélérée d'informations. Le savoir peut désormais être distingué entre d'une part savoir-stock, il s'agit d'un savoir validé, cumulé dans la durée, dument validé qui creuse un sillon disciplinaire et d'autre part un savoir-flux, il s'agit d'un savoir qui organise des liens qui se modifie rapidement dont la validité est constamment revue grâce à une circulation et des corrections rapides.

Gestion du savoir

La gestion du savoir (GS) a pour objectif la valorisation du savoir au sein d'une entreprise ou d'une organisation pour de meilleures performances. Elle se compose de pratiques diverses soutenant la création de savoirs, l'organisation du savoir collectif et les capacités de son exploitation par les personnels. Ce secteur a commencé à émerger en fin des années 1980 quand la quantité d'informations disponibles s'est avérée excéder les capacités de leur intégration par les organismes.

La gestion doit s'appuyer sur une « culture du savoir » partagée par la communauté et rester en phase avec cette dimension. « Rétention d'informations », « culte du secret », etc., sont des réflexes qui doivent parfois être modérés avant tout autre objectif. D'un certain point de vue, la GS est à la Connaissance, ce que l'Information est au système d'information de l'entreprise. Les facteurs humains, sociaux doivent toujours être pris en considération pour une bonne compréhension de la démarche et la reconnaissance de sa légitimité : c'est l'ensemble de la structure qui doit se penser comme « organisation apprenante ». Le savoir doit être perçu comme la possibilité de prestations ou de produits de qualité supérieure.

La gestion du savoir s'attache d'abord à expliciter le « capital intellectuel » des employés en association avec la « mémoire » organisationnelle. Les investigations et initiatives nécessaires doivent valoriser simultanément la place du savoir de chacun au sein de l'activité. Cela comprend :

À ce stade, les grandes lignes d'une « cartographie du savoir » peuvent déjà être déployées ; la confrontation de cette carte avec la structure et fonctionnement de l'organisation peut permettre de relever ses faiblesses du point de vue de la valorisation du savoir (gestion des ressources humaines).

Alors, selon l'organisme concerné, une dynamique de création de savoirs doit être progressivement mise en place. Cette démarche pourra à un autre niveau accompagner ou soutenir toutes les modalités de changement de l'organisation (logique de projet, évolutions et mutations). Il s'agit donc de développer et consolider les formes de communication (échanges d'idées) et de créativité en les orientant vers la réalisation de ressources pérennes réutilisables.

La gestion du savoir peut être ainsi conçue comme la zone commune à la veille informationnelle et à l'information et communication internes. La complexité de ces processus requiert des investissements dans les technologies de l'information. L'informatique est employée aux différents stades de la valorisation du savoir, en particulier dans la gestion et la communication de la documentation et autres mises en forme des connaissances.

Une fois les savoirs inventoriés et préservés dans un processus d'accroissement continu, il faut garantir l'accès de tous à ces ressources, pour finalement vérifier et soutenir leur usage dans les pratiques effectives. Pour les grandes organisations au moins, le modèle global peut être une espèce de « marché du savoir » où l'offre et la demande devraient coïncider et satisfaire à tout moment les besoins des producteurs et des consommateurs. Cette adéquation ne doit pas être uniformisante et façonner un employé moyen, mais au contraire se préoccuper notamment de l'accessibilité d'un même savoir à des « clients » très divers.

Comme il a été dit, les facteurs psychologiques, les composantes relationnelles, ne doivent jamais être sous-estimées à tous les stades de la valorisation du savoir, au risque de voir surgir des réactions et des désordres imprévus bien contraires à l'intention première. Il ne faut pas oublier que l'élaboration ou acquisition d'un savoir véritable demande du temps, de la disponibilité et donc avant toute chose une réelle motivation ; motivation qui peut se nourrir du gain d'autonomie qu'apporte à toute personne une meilleure gestion de son savoir propre. On n'oubliera pas non plus que l'organisation peut n'avoir aucun intérêt à maintenir certains savoirs. Comme tout acteur social, elle peut « ne rien vouloir savoir » de certains de ses propres défauts, ou de son propre passé. Elle peut vouloir ignorer qu'elle n'est pas seulement une machine à profit, mais aussi partie prenante d'une société d'êtres humains qui ne sont ni des clients ni des employés, mais des concitoyens. Mais il est sans doute inhérent à toute institution humaine de ne bâtir ses propres savoirs qu'en en refusant d'autres.

Les transmissions des savoirs

Les savoirs sont distingués de multiples manières par l’anthropologie sociale et culturelle. On peut distinguer notamment les savoirs implicites et explicites, les savoirs techniques (savoir-faire) et les savoirs idéels (mythes et cosmogonies), les savoirs partagés et les savoirs réservés.4

Cependant la transmission des savoirs n'équivaut pas à la réplication de ceux-ci car elle est toujours œuvre d'interprétation, contribuant ainsi (délibérément ou non) au changement individuel, social et politique.

Les formes du savoir

Notes et références

  1. Patrick Pion, Nathan Schlanger, « Introduction dans Apprendre » [archive], sur Cairn.info, (consulté le )

Bibliographie

Articles connexes

Liens externes

Sur les autres projets Wikimedia :

Compréhension

 
 

La compréhension (également appelée noûs) est un processus psychologique lié à un objet physique ou abstrait tel que la personne, la situation ou le message selon lequel une personne est capable de réfléchir et d’utiliser des concepts pour traiter cet objet de manière appropriée. La compréhension est la relation entre celui qui connaît et l’objet de la compréhension. Elle implique des capacités et des dispositions par rapport à un objet de connaissance suffisant afin de produire un comportement intelligent1. Une compréhension constitue la limite d’une conceptualisation. Comprendre quelque chose signifie l’avoir conceptualisée dans une certaine mesure.

Réfléchir demande généralement une capacité cognitive et intellectuelle, au-delà du fait qu’elle soit accessible par tout être «bien constitué ». Une réflexion poussée, qui nécessite une culture et une information, permet d’aboutir à des résultats sensés et cohérents. Certains troubles de l’attention peuvent altérer la concentration et la réflexion profonde. Certaines personnes utilisent leur réflexion pour aboutir à des raisonnements jugés stupides, leur réflexion est considérée comme superficielle et inutile.

Exemples

  1. On ne peut comprendre le temps que si l’on est en mesure de prédire et de fournir une explication de certaines de ses caractéristiques, etc.
  2. Un psychiatre peut comprendre l’anxiété des autres s’il parvient à connaître leurs angoisses et leurs causes pour ensuite leur donner des conseils utiles sur la manière d’y faire face.
  3. Une personne peut comprendre un ordre si elle connaît son émetteur et ses attentes, et si la personne se fait comprendre par tous (voir numéro 4).
  4. On peut comprendre un raisonnement, un argument ou un langage si l’on peut reproduire de manière consciente le contenu de l’information véhiculée par le message.
  5. On peut comprendre un concept mathématique si ce dernier permet de résoudre des problèmes, y compris les problèmes nouveaux.

La compréhension comme modèle

Gregory Chaitin, un célèbre informaticien, avance que la compréhension est un type de compression de données2. Dans son essai The Limits of Reason (Les limites de la raison), il affirme que comprendre quelque chose signifie être capable de comprendre un ensemble de règles qui l’explique. Par exemple, nous sommes capables de comprendre pourquoi le jour et la nuit existent car nous disposons d’un modèle simple : la rotation de la Terre. Ce modèle désigne une quantité phénoménale de données : variation de luminosité, de température et composition atmosphérique de la Terre. Nous avons compressé de nombreuses informations en utilisant un simple modèle de prédiction. De la même façon, nous comprenons que le nombre 0,33333… équivaut à un tiers. Une quantité importante de mémoire a été nécessaire pour représenter le nombre d’une première façon. La deuxième façon, elle, permet de produire toutes les données de la première représentation mais utilise beaucoup moins d’informations. Chaitin affirme que la compréhension est cette faculté à compresser des données.

Les composants de la compréhension

La cognition et l’affect

La cognition est le processus par lequel les entrées sensorielles sont transformées. L’affect renvoie à l’expérience des sentiments ou des émotions. La cognition et l’affect constituent la compréhension.

Des perspectives religieuses

Dans le catholicisme et l’anglicanisme, la compréhension représente l’un des dons du Saint-Esprit.

Notes et références

  1. Gregory Chaitin, « The Limits Of Reason », Scientific american,‎ (lire en ligne [archive])

Voir aussi

Bibliographie

Articles connexes

Liens externes

Sur les autres projets Wikimedia :

Conscience

 
 
 
 
« Pensées tourbillonnantes », une représentation photographique sur la question de la conscience : comment la conscience peut-elle être expliquée en termes de processus cérébraux ? Où se trouve le siège de la conscience ? Voir sur ce point : Conscience (biologie).

Le terme de conscience peut faire référence à au moins quatre concepts philosophiques ou psychologiques1 :

  1. Au sens psychologique, elle se définit comme la « relation intériorisée immédiate ou médiate qu'un être est capable d’établir avec le monde où il vit et avec lui-même »[réf. nécessaire]. En ce sens, elle est fréquemment reliée, entre autres, aux notions de connaissance, d'émotion, d'existence, d'intuition, de pensée, de psychisme, de phénomène, de subjectivité, de sensation, et de réflexivité. Ce sens correspond par exemple à l'allemand Bewusstsein et à l'anglais consciousness, et en français à la locution plus précise d'« état de conscience ». La conscience est « cette capacité de nous rapporter subjectivement nos propres états mentaux »2 ;
  2. Au sens moral, elle désigne la « capacité mentale à porter des jugements de valeur moraux […] sur des actes accomplis par soi ou par autrui ». En ce sens, elle correspond par exemple à l'allemand Gewissen et à l'anglais conscience ;
  3. En tant que critère de catégorisation conceptuel, elle représente le trait distinctif caractérisant l'humanité d'un sujet et par extension la spécificité caractérisant l'ensemble éponyme de ces sujets ;
  4. Par métonymie, elle désigne la totalité formée par l'ensemble des représentations d'un sujet conscient, tout au moins de ses représentations conscientes.

Si ces propositions de définition font de la conscience une expérience prégnante pour tout être humain, elle n'en reste pas moins, comme le souligne par exemple André Comte-Sponville « l'un des mots les plus difficiles à définir »3. Cette difficulté se heurte en effet à la problématique d'une conscience tentant de s'auto-définir. En effet, la possibilité qu'aurait une faculté de se discerner elle-même ne fait pas consensus, et connaît même des détracteurs dans des courants de pensée fort éloignés. Un proverbe bouddhiste formule l'adage selon lequel « un couteau ne peut se couper lui-même »4, tandis qu'Auguste Comte assure que personne « ne peut [...] se mettre à la fenêtre pour se regarder passer dans la rue ».

Polysémie

Le terme de conscience peut être distingué en plusieurs catégories :

Représentations

Le premier sens renvoie à ce qui permet une représentation, même très simplifiée, du monde et des réactions par rapport à celui-ci. Il est alors question de « conscience du monde ». C’est celle qui est évoquée dans des expressions comme « perdre conscience », ou, à l'inverse, « prendre conscience ».

Chez les humains, les recherches récentes sur plusieurs périodes de l'histoire montrent l'importance du concept de représentation : par exemple Georges Duby (sur le bas Moyen Âge), Jean Delumeau (sur la Renaissance), et sur un plan plus épistémologique, les recherches de Michel Foucault relatives à l'épistémè. On évoquera également le philosophe allemand Arthur Schopenhauer qui a consacré une grande partie de sa philosophie à l'étude de cette faculté représentative des animaux et, en particulier, de l'homme dans son œuvre principale et magistrale, Le Monde comme volonté et comme représentation.

La conscience est un « fait » au sens où René Descartes, dans les Méditations métaphysiques, laisse entendre que « l'âme est un rapport à soi ». L'examen de la conscience suppose ainsi le doute méthodique comme la façon première d'entrer dans un rapport à soi non erroné. Dans un sens plus « individualiste », la conscience peut aussi correspondre à une représentation, même très simplifiée, de sa propre existence. Il est alors question de conscience de soi, ou de conscience réflexive (en anglais self-awareness). Elle est attribuée au moins aux grands singes hominoïdés comme le sont par exemple les humains, les chimpanzés, les gorilles et les orangs-outans. Il semble assez raisonnable de l'étendre aussi aux dauphins et aux éléphants qui disposent de capacités cognitives et affectives avancées. La conscience dans ce second sens, implique celle du premier, puisque « se connaître », signifie nécessairement « se connaître dans ses rapports au monde » (y compris d’autres êtres potentiellement doués de conscience). L'inverse en revanche est disputé.

Chaque personne éveillée est consciente, ayant l'expérience de son entourage ; endormie ou morte elle devient inconsciente[incompréhensible].

La conscience de soi est bien illustrée en médecine, surtout au niveau individuel. C'est en effet une des fonctions vitales qui permet de réagir aux situations, de bouger et de parler spontanément. Plus généralement, l’état de conscience (de la conscience pleine au coma profond) est déterminé par l’état neurologique du patient[évasif].

Formes minimales

 
Antonio Damasio, neurologue, étudie les bases neuronales de la cognition et du comportement.

Au niveau de la conscience du monde, les choses peuvent se montrer plus complexes, en impliquant un ensemble de phénomènes liés au contexte sociologique, politique, économique. Le degré minimal de conscience du monde semble celui où on[Qui ?] a tout simplement quelque chose à dire sur le monde. Un simple capteur de présence possède un début de représentation du monde (présence, absence). Encore faut-il pour l’intégrer dans un schéma de conscience que cette information soit utilisée en aval par quelque chose (déclencheur d'alarme, etc.)[incompréhensible].

La conscience de soi, comme la conscience du monde (René Dubos dirait « agir local / penser global ») n'est jamais complète[réf. souhaitée]. Une question qui s'en déduit — puisque toutes sont incomplètes — est « quel est le degré minimal de conscience de soi imaginable ? ». Descartes y répond par son célèbre « Je pense, donc je suis ». Les sciences cognitives s'intéressent à détailler le sens « opérationnel » de cette phrase[évasif] (voir Antonio Damasio, Daniel Dennett…)[réf. souhaitée].

La formule de Socrate, tirée de l'oracle de Delphes : « connais-toi toi-même », montre qu'une mauvaise connaissance de soi a un impact sur la connaissance du monde et réciproquement — puisque nous faisons partie du monde. En fait, la conscience de soi désigne la conscience de phénomènes particuliers reliés au concept de soi.

Notion de culture

La notion de conscience du monde pourrait aussi être rapprochée de celle de culture, en tant que cette dernière est un système de représentation. Le mot culture est souvent perçu en langue française dans une acception individuelle avec une connotation « intellectuelle » (ce terme n'étant pas toujours perçu positivement), encore qu'il existe des sens collectifs : culture d'entreprise, culture française, culture de masse

En allemand, les deux sens sont donnés par des mots différents : Bildung5 et Kultur6.

Aspects

Pluralité de manifestations

Outre les deux sens principaux déjà vus, le concept de conscience a de nombreux sens ou manifestations que l’on peut s’efforcer de distinguer, bien que dans certains cas, ces différences soient surtout des différences de degrés :

 
Daniel Dennett a, entre autres, écrit sur les Qualia.

Dans l’ensemble de ces distinctions, on peut noter une conception de la conscience comme savoir de soi et perception immédiate de la pensée, et une autre comme sentiment de soi impliquant un soubassement obscur et un devenir conscient qui sont, en général, exclus de la première conception. La conscience morale, quant à elle, désigne le sujet du jugement moral de nos actions. De cette conscience-là, on dit aux enfants qu'elle nous permet de distinguer le bien du mal. Voir plus bas.

Questions fondamentales

 
Pour Jean-Pierre Changeux, il existe un « espace de travail neuronal » constitué de neurones momentanément coactivés et qui forment le siège de la conscience.

Il existe de nombreuses théories qui s’efforcent de rendre compte de ce « phénomène ».

Ce sujet fait l’objet des travaux de Daniel Dennett, Antonio Damasio et Jean-Pierre Changeux, ainsi que des sciences cognitives. Le modèle du spectateur cartésien est remis en cause car, comme le fait remarquer Daniel Dennett, on ne peut expliquer la conscience par la conscience : expliquer exige que l’explication ne fasse pas appel elle-même à une compréhension de ce qu’on souhaite justement expliquer (« To explain means to explain away »). En d’autres termes, on n’aura expliqué la conscience que lorsque cela aura été fait en termes ne faisant pas intervenir le mot ni le concept de « conscience ». Sinon, on tombe dans un argument circulaire (voir l’article : sophismes). On remarquera que Daniel Dennett, remet en cause le modèle du « spectateur cartésien » avec une explication elle-même de type « circulaire ».

Il semble que ces questions soient à mettre en rapport avec le cogito de Descartes, replacé dans son contexte, et avec la notion de représentation du monde. Descartes conçut sa philosophie en réaction au modèle géocentrique, incarné par les « aristotéliciens » et la scolastique décadente de son époque, et en fonction du modèle héliocentrique qui émergeait avec les observations faites par Galilée (voir Dialogo sopra i due massimi sistemi del mondo, 1633).

Disciplines concernées

Dans le langage courant, le concept de conscience peut être opposé à l’inconscience, à l’inattention, à la distraction, au divertissement, etc. Lorsqu'il s'agit de l'étudier, c'est avant tout la philosophie qui a été et est concernée. Outre la médecine, l’étude de la conscience concerne plusieurs disciplines, comme la psychologie, la psychanalyse, la psychiatrie, la philosophie de l'esprit et la philosophie de l'action. Elle est aussi liée au langage (verbal ou non), donc à la philosophie du langage.

Philosophie

La psychanalyse

 
« Il se passe dans le psychisme bien plus de choses qu’il ne peut s’en révéler à la conscience ».
Sigmund Freud, Essai de psychanalyse

La psychanalyse distingue, à la suite de Sigmund Freud, la conscience de l'inconscient8. Dans la première topique établie par Freud, la conscience est l’une des trois instances composant l'appareil psychique, les deux autres étant le préconscient et l’inconscient. Ainsi pour Freud, la conscience n'est pas l'essence du psychisme, elle n’en est qu'une partie et ignore de nombreux phénomènes qui sont de l’ordre de l'inconscient. Ceux-ci ne peuvent être amenés à la conscience que dans le cadre de la cure psychanalytique, à travers la prise de conscience du refoulé9.

Méditation

Les pratiquants de la méditation cherchent à accéder à une prise de conscience (de la conscience), voire à des états modifiés de conscience10,11,12. C'est une méthode pour entrer en soi et s'interroger soi-même dans la perspective de mieux se connaître et de vivre une expérience subjective intérieure personnelle.

Histoire

 

Il n’existe aucun concept strictement comparable à celui de conscience dans la philosophie de la Grèce antique : l'être de Parménide (voir ontologie) pourrait s'en rapprocher.

Chez certains auteurs romains, le mot latin prend une dimension morale dérivée du droit, exprimant le fait de se prendre soi-même pour témoin.

Ce n’est qu’au XVIIe siècle que le terme apparaît dans les langues européennes13.

Le concept de conscience n’a été isolé de sa signification morale qu’à partir de John Locke, dans son Essai sur l'entendement humain (1689). Avant lui le mot conscience n’a jamais eu le sens moderne14. En particulier, Descartes ne l’emploie quasiment jamais15 en ce sens, bien qu’il définisse la pensée comme une conscience des opérations qui se produisent en nous (les Principes de la philosophie, 1644). Le Petit Robert attribue à Malebranche (1676) la définition de conscience comme « connaissance immédiate de sa propre activité psychique », alors que l'Essai de Locke date de 1689.

C’est le traducteur de Locke, Pierre Coste, qui a introduit l’usage moderne du mot conscience (donc en français, mais le sens du mot consciousness était bien sûr tout aussi nouveau), associé à l’idée d’un soi-même dont la conscience exprime l’identité.

Caractéristiques

 
Jean-Paul Sartre : « La conscience n’a pas de dedans, elle n’est rien que le dehors d’elle-même. »

La conscience présente certains traits caractéristiques qui peuvent notamment inclure : rapport à soi, subjectivité (la conscience que l'individu possède de lui-même est distincte de celle d’autrui), la structure phénoménale, la mémoire, la disponibilité (ou liberté de la conscience à l’égard des objets du monde), la temporalité, la sélectivité, l’intentionnalité (toute conscience est conscience de quelque chose, est tournée vers autre chose qu’elle-même16) et l’unité ou synthèse de l’expérience.

Conscience de soi

La conscience s’accompagne de souvenirs, de sentiments, de jugements, de sensations et de savoir que nous rapportons à une réalité intérieure que nous nommons moi. Cette conscience est appelée conscience de soi, et est structurée par la mémoire et l’entendement. Elle est en ce sens une unité synthétique sous-jacente à tous nos comportements volontaires. Les éléments qu’elle contient, souvenirs, sentiments, jugements, dépendent d’un contexte culturel, ce qui fait de la conscience de soi une réalité empirique changeante et multiple. L’unité et la permanence du moi ne sont donc pas garanties par l’unité, peut-être seulement nominale, de la conscience.

Le cogito cartésien (« je pense donc je suis ») tend à exprimer l'état de conscience de celui qui s'exprime. Autrement dit le sujet, disant « Je » exprime une conscience de lui-même (Ego), en termes de savoir (raisonnement - entendement). Le « Je pense » est interactif. Il implique et nécessite, pour être exprimé, la conscience de soi. La conclusion d'être pourrait dès lors paraître redondante. Toutefois, elle vient exprimer l'état et la relation sensitive. « Je pense donc je suis » peut donc se décliner en « Je sais que je ressens donc j'existe ». C'est aussi la faculté de douter de sa propre existence qui « atteste » de cette existence même.

Rapport en première personne

 
Auguste Comte : « On ne peut pas se mettre à la fenêtre pour se regarder passer dans la rue ».

L’introspection est une méthode d’investigation de la conscience qui vient, généralement, la première à l’esprit. C’est un fait que nous pensons tous avoir un accès privilégié à notre esprit, accès dont la conscience serait l’expression. Mais l’investigation de notre vie mentale n’est certainement pas suffisante pour élaborer une théorie étendue de la conscience : « on ne peut pas, disait Auguste Comte, se mettre à la fenêtre pour se regarder passer dans la rue ». Le sujet ne peut en effet s’observer objectivement puisqu’il est à la fois l’objet observé et le sujet qui observe, d’autant que la conscience se modifie elle-même en s’observant. Toute psychologie impliquerait donc d’examiner la conscience à la troisième personne, même s'il faut alors se demander comment il est possible d’observer ainsi la conscience de l’extérieur.

Le stade du miroir (se reconnaître dans un miroir) est souvent, considéré comme une étape essentielle de la conscience de soi, réservé à l'humain. Mais si ce stade est atteint vers l'âge d'un an et demi à deux ans chez l'homme, certains chimpanzés expérimentés, certains autres grands singes, éléphants, dauphins, perroquets et pies, sont capables de se reconnaître dans un miroir, comme l'a montré le test du miroir en éthologie17.

Courant

L’idée de conscience de soi pose le problème de l’unité d’un sujet, d’un moi ou d’une conscience. On peut très généralement distinguer deux types d’hypothèses :

Conscience du monde extérieur

 
Pour Edmund Husserl, la conscience ne peut être décrite indépendamment des objets qu'elle appréhende.

Selon Husserl, qui reprend un concept médiéval, toute conscience est conscience de quelque chose. Cela suppose que la conscience soit un effort d’attention qui se concentre autour d’un objet. Cette concentration est structurée par l’expérience ou par des catégories a priori de l’entendement, structures que l’on considère parfois comme les fondements de toute connaissance du monde extérieur. Dans l’idéalisme moderne la conscience est ainsi la source et l’origine de la science et de la philosophie.

À la question de savoir quelles relations la conscience entretient avec la réalité en général, une description phénoménologique répond que celle-ci a une structure spatiale et temporelle, structure qui est une organisation des concepts qui concernent notre expérience du monde et nous-mêmes en tant qu’acteurs de ce monde.

Conscience morale

 
Jean-Jacques Rousseau : « (Conscience) sans toi je ne sens rien en moi qui m’élève au-dessus des bêtes, que le triste privilège de m’égarer d’erreurs en erreurs à l’aide d’un entendement sans règle et d’une raison sans principe ».

C’est le sens premier du mot conscience, trouvé chez Cicéron et Quintilien, et qui, dans la langue française, reste sans concurrence jusqu’au XVIIe siècle (voir section histoire). La conscience psychologique est souvent évoquée comme une « lumière », la conscience morale comme une « voix » : si la première « éclaire », la seconde « parle ». La conscience morale désigne en effet le sentiment intérieur d’une norme du bien et du mal qui « dit » comment apprécier la valeur des conduites humaines, qu’il s’agisse des nôtres ou de celles d’autrui. C’est aussi le démon que Socrate suivait et qui l'amena à être condamné par la cité.

Rousseau

Cette « voix » de la conscience, qui se fait entendre dans l’individu est pourtant, selon Rousseau, la même en tout homme. Malgré la diversité et la variabilité des mœurs et des connaissances, elle est « universelle » : elle est en chacun des individus la « voix de la nature », car selon Émile : « quoique toutes nos idées nous viennent du dehors, les sentiments qui les apprécient sont au-dedans de nous, et c’est par eux seuls que nous connaissons la convenance ou disconvenance qui existe entre nous et les choses que nous devons respecter ou fuir » (Émile, Livre IV).

Tel un instinct, mais pourtant signe de notre liberté, elle ne trompe jamais, pour peu qu’elle soit réellement écoutée : « Conscience ! Conscience ! Instinct divin, immortelle et céleste voix ; guide assuré d’un être ignorant et borné, mais intelligent et libre ; juge infaillible du bien et du mal, qui rends l’homme semblable à Dieu, c’est toi qui fais l’excellence de sa nature et la moralité de ses actions ; sans toi je ne sens rien en moi qui m’élève au-dessus des bêtes, que le triste privilège de m’égarer d’erreurs en erreurs à l’aide d’un entendement sans règle et d’une raison sans principe » (Émile, Livre IV).

Alain

Selon Alain, la conscience est « le savoir revenant sur lui-même et prenant pour centre la personne humaine elle-même, qui se met en demeure de décider et de se juger. Ce mouvement intérieur est dans toute pensée ; car celui qui ne se dit pas finalement : « que dois-je penser ? » ne peut pas être dit penseur. La conscience est toujours implicitement morale ; et l’immoralité consiste toujours à ne point vouloir penser qu’on pense, et à ajourner le jugement intérieur. On nomme bien inconscients ceux qui ne se posent aucune question d’eux-mêmes à eux-mêmes » (Définitions, dans Les Arts et les Dieux).

Pour Alain, il n’existe donc pas de morale sans délibération, ni de délibération sans conscience. Souvent la morale condamne, mais lorsqu’elle approuve, c’est encore au terme d’un examen de conscience, d’un retour sur soi de la conscience, de sorte que « toute la morale consiste à se savoir esprit », c’est-à-dire « obligé absolument » : c’est la conscience et elle seule qui nous dit notre devoir.

Origine de la conscience morale ?

La question demeure cependant de savoir quelle origine attribuer à la conscience morale. Car si pour Rousseau « les actes de la conscience ne sont pas des jugements, mais des sentiments » (ibid.), il n’en sera plus ainsi pour Kant, qui considérera au contraire la conscience morale comme l’expression de la raison pratique − et encore moins pour Bergson, qui verra en elle le produit d’un conditionnement social, ou pour Freud, qui la situera comme l’héritière directe du surmoi (Malaise dans la civilisation, VIII)

Théories

 
Selon Stuart Hameroff, le cerveau est l'organe à travers lequel la conscience se manifeste mais il n'est pas ce qui produit la conscience18.

Les questions de savoir ce qui caractérise la conscience, quelles sont ses fonctions et quels rapports elle entretient avec elle-même ne préjugent pas nécessairement du statut ontologique qu’il est possible de lui donner. On peut, par exemple, considérer que la conscience est une partie de la réalité qui se manifeste dans des états de conscience tout en étant plus qu’une simple abstraction produite à partir de l’adjectif « conscient ». Cette thèse réaliste (au sens de la philosophie médiévale, voir réalisme et nominalisme) n’a plus beaucoup de défenseurs de nos jours. L’une des raisons en est que l’investigation purement descriptive ne rend pas nécessaire ce genre d’hypothèses réalistes.

et même des approches totalement physiques (matérialisme scientifique), comme celle de Jean-Pierre Changeux, selon lequel les percepts et les concepts constituent des entités physiques se traduisant par des connexions physiques et logiques de neurones, qu’il entend mettre en évidence ; c’est déjà le cas pour les percepts. Dans cette démarche, Stanislas Dehaene poursuit les travaux de recherche sur la Théorie de l'espace neuronal global, dans Le Code de la conscience, 2014.

Le concept de conscience n'est donc plus exclusivement utilisé par la philosophie ou la psychologie, des chercheurs d'autres disciplines comme la sociologie ou l'anthropologie s'intéressent à ce concept en lui donnant d'autres sens, à partir souvent de résultats d'enquêtes ou d'observations directes et participantes. Par exemple, des chercheurs sous la direction d'Alfredo Pena-Vega et de Nicole Lapierre ont étudié l'émergence d'une conscience européenne chez des jeunes vivant en Poitou-Charente.

Des disciplines telles que la neurologie s'intéressent elles aussi au concept de conscience. À ce titre, les altérations de conscience par exemple dans le cadre d'un accident vasculaire cérébral permettent de mieux appréhender ce concept. Ainsi, la vision aveugle dans le cadre d'un accident vasculaire occipital consécutif à l'occlusion du tronc basilaire, permet d'expérimenter une vision inconsciente des objets. Le patient parvient à éviter des objets d'une façon qu'il qualifie d'intuitive donc inconsciente.

Religions

Christianisme

L'encyclique Veritatis splendor de Jean-Paul II (1993) accorde une grande importance à la conscience dans la recherche de la vérité :

« Le droit à la liberté religieuse et au respect de la conscience dans sa marche vers la vérité est toujours plus ressenti comme le fondement des droits de la personne considérés dans leur ensemble20. »

Bouddhisme

 

La philosophie bouddhique étudie elle aussi la conscience, vijñāna et en analyse les différentes formes et fonctions. Il s'agit alors de l'un des constituants de la personne, skandhas, distinct de la perception, samjñā ; cependant, si vijñāna est traduit par conscience, et que le terme désigne bien une connaissance, le concept bouddhiste ne recouvre pas exactement la conscience telle qu'elle est thématisée dans la pensée occidentale.

Hindouisme et védisme

Au cours des siècles, la conscience n'était pas définie systématiquement de la même façon sur le sous-continent indien. La notion de « conscience pure » dans les théories dérivées des textes de l'hindouisme, est comme un « état libéré », libéré du karma, libéré du samsara. Elle peut être comprise comme un substrat de l'existence individuelle. Pour certains hindouistes, plus le chemin du yogi avance dans la méditation, plus sa conscience devient grande. Le problème de la dualité de l'univers entre l'individuel et le Tout, c'est-à-dire Dieu se pose aussi21. Dieu dans le Brahmanisme et l'Hindouisme peut être l'être suprême Brahman, transcendant (Tat) ou immanent (Sat-Chit-Ananda) dont la triplicité est l’existence-conscience-félicité. c'est encore la Trimurti de Brahma-Vishnou-Shiva. La Mandukya Upanishad donne quatre états de conscience : éveillé, dormant, rêvant et n'étant qu'un avec le Brahman22. Ce quatrième état de conscience, ou Turiya, qui veut dire quatrième en sanskrit, est au-delà des états de veille, de rêve et de sommeil dont il peut être considéré comme la source à l'origine de trois fleuves, ou encore illustré comme l'image du moyeu d'une roue à trois branches. Pour Aurobindo Ghose qui réunit spiritualité et matérialisme dans une vision évolutionniste de l'humanité, l'émergence d'une conscience de vérité qu'il appelle la conscience supramentale23 peut contribuer à l'évolution d'une nouvelle conscience sur terre. Pour Jean Gebser la conscience supramentale de Sri Aurobindo est la même que la conscience intégrale qu'il décrit dans sa vision de l'évolution de la conscience24.

Médias

Plusieurs représentations allégoriques et médiatiques de la conscience sont référencées dans la mythologie, la littérature et le cinéma.

Cinéma

 

Littérature

 

Crime et Châtiment de Dostoïevski évoque une forme d'auto justice. La punition qu'inflige la conscience de Raskolnikov à lui-même est pire que la prison ou le camp de travail.

Le vrai châtiment de Raskolnikov n’est pas le camp de travail auquel il est condamné, mais le tourment qu’il endure tout au long du roman. C'est le même thème qu'aborde Victor Hugo dans son poème La Conscience avec l'idée qu'on n'échappe pas à sa conscience.

Notes et références

Annexes

Sur les autres projets Wikimedia :

Il existe une catégorie consacrée à ce sujet : Conscience.
 

Bibliographie

 
David Chalmers parle de problème difficile de la conscience pour évoquer les questions non résolues sur le sujet.

Textes classiques

Études

Articles connexes

Liens externes

Apprentissage

 
 
 
 
L'imitation est l'un des modes d'apprentissage fréquemment observé dans le monde animal. Ici un dauphin imite des postures humaines, ce qui demande des capacités cognitives et mémorielles significatives1

L’apprentissage est un ensemble de mécanismes menant à l'acquisition de savoir-faire, de savoirs ou de connaissances. L'acteur de l'apprentissage est appelé apprenant. On peut opposer l'apprentissage à l'enseignement dont le but est de dispenser des connaissances et savoirs, l'acteur de l'enseignement étant l'enseignant.

Pour la psychologie inspirée du béhaviorisme, l’apprentissage est vu comme la mise en relation entre un événement provoqué par l'extérieur (stimulus) et une réaction adéquate du sujet, qui cause un changement de comportement qui est persistant, mesurable, et spécifique ou permet à l’individu de formuler une nouvelle construction mentale ou réviser une construction mentale préalable.

L’historien Philippe Ariès dans son ouvrage L’enfant et la vie familiale sous l’Ancien Régime (Paris, Seuil, 1975), insiste sur l’importance qu’il convient d’attribuer à l’apprentissage. Il force les enfants à vivre au milieu des adultes, qui leur communiquent ainsi le savoir-faire et le savoir-vivre. Le mélange des âges qu’il entraîne lui paraît un des traits dominants de notre société, du milieu du Moyen Âge au XVIIIe siècle2.

La psychologie du développement étudie les changements, acquisitions et pertes, de la vie embryonnaire à la mort. L'apprentissage est un concept important étudié par cette discipline.

On a découvert en 2016 que l'apprentissage pouvait exister même dans certains organismes unicellulaires3.

Définition de l'apprentissage

L'apprentissage consiste à acquérir ou à modifier une représentation d'un environnement de façon à permettre avec celui-ci des interactions ou des relations efficaces ou de plus en plus efficaces.

L’apprentissage est un « changement dans le comportement d’un organisme résultant d’une interaction avec le milieu et se traduisant par un accroissement de son répertoire. L’apprentissage se distingue des changements comportementaux survenant à la suite de la maturation de l’organisme qui constituent eux aussi des enrichissements du répertoire mais sans que l’expérience, ou l’interaction avec le milieu, ait joué un rôle significatif »4.

En béhaviorisme, on distingue généralement les conditionnements « classique » (type pavlovien) et « opérant » tel celui mis en place 20 ans après les expériences de Pavlov par le psychologue Skinner.

(voir également les différents processus d'apprentissage des adultes)

Apprentissage, acquis et inné

La plupart des organismes pluricellulaires sont capables d'apprendre et de se souvenir, par des processus émergents. Certains unicellulaires montrent aussi une certaine capacité d'apprentissage.

Apprentissage, pédagogie et neuroscience

Certains phénomènes très aléatoires, se prêtent mal à l'apprentissage : ce que l'on croit savoir est alors une illusion, mais le sujet ne s'en rend pas compte. Ce « faux savoir » peut être très structurant pour l'environnement, notamment si les générations futures ont été conditionnées pour s'en imprégner.

L'apprentissage peut être un phénomène spatio-temporel individuel ou collectif (c'est une population qui apprend, éventuellement sur plusieurs générations chez l'humain notamment ; c'est une part de la culture commune et partagée). La distinction entre l'individuel et le collectif dépend aussi de l'échelle utilisée : un neurobiologiste, considère métaphoriquement l'apprentissage individuel chez l'être humain ou tout autre être vivant comme un apprentissage collectif effectué par sa population de neurones.

Des recherches récentes utilisant la caméra à positons indiquent que les mêmes zones cérébrales s'activent lors de l'observation d'une chose et de sa pratique (voir neurones miroirs). Outre l'éclairage que donne cette découverte sur le mimétisme comportemental des vulgarisateurs comme Robert Winston en infèrent qu'observer serait déjà « un peu » pratiquer.

L'expérience consistant à mettre deux chatons à deux bouts d'un tourniquet (l'un ayant l'usage de ses pattes pour rendre l'ensemble mobile et l'autre non) montre cependant7 qu'à expérience visuelle égale la psychomotricité ne s'acquiert que là où la vue est directement liée à l'action motrice.

Les théories de l'apprentissage

Distinguer les théories de l'apprentissage

Les « cinq questions définitives pour distinguer les théories de l'apprentissage », par Mergel8 (en distinguant la section apprentissage, ¶ 1) fournit un cadre pour organiser les différentes théories :

  1. Comment l'apprentissage se produit-il ?
  2. Quels facteurs influent sur l'apprentissage?
  3. Quel est le rôle de la mémoire ?
  4. Comment le transfert du savoir se produit-il ?
  5. Quelles pratiques d'apprentissage sont mieux expliquées par cette théorie? (¶ 2)

Tableau des théories d'apprentissage

Le tableau ci-dessous analyse les différentes théories d'apprentissage9.

Domaines

Behaviorisme

Cognitivisme

Constructivisme

Humanisme

Connectivisme

Théoriciens de l'apprentissage

Thorndike, Pavlov, Watson, Guthrie, Hull, Tolman, Skinner

Koffka, Kohler, Lewin, Piaget, Ausubel, Bruner, Gagné

Piaget, Vygotsky

Maslow, Rogers

Siemens, Downes

Comment l'apprentissage se fait

Black box - comportement observables : l'objectif principal

Structurés, de calcul

Signification sociale, créés par chaque apprenant (personnelle)

Réflexion sur l'expérience personnelle

Distribué dans un réseau, social, technologiquement renforcée, reconnaître et interpréter les modèles

Facteurs d'influence

La nature de la récompense, la punition, les stimuli

Schémas Existants, les expériences précédentes

Engagement, participation, social, culturel

La motivation, les expériences, les relations

Diversité du réseau, la force des liens, le contexte de survenue

Rôle de la mémoire

La mémoire est le câblage réel d'expériences répétées, où la récompense et la punition sont les plus influents

Encodage, le stockage, la récupération

La connaissance précédente remixée au contexte actuel

Détient l'évolution du concept du soi

Modèles adaptifs, représentatifs de l'état actuel, existant dans les réseaux

Comment le Transfert se produit

Stimulus, réponse

Duplication de structures de connaissance des « connaisseurs »

Socialisation

La facilitation, la transparence

Connexion aux (ou ajout de) nœuds et agrandissement du réseau (social / conceptuel / biologique)

Pratiques d'apprentissage expliqué par cette théorie?

(Task-Based Learning) Apprentissage basé sur des tâches.

Raisonnement, des objectifs clairs, la résolution de problèmes

 

Auto-dirigé, autonome

Reconnaissant le problème de société qu'est la vision de l'école comme Institution disciplinaire, les mouvements libertaires, anarchistes, ou punks, mettent également en avant d'autres théories de l'apprentissage :

Méthodes d'apprentissage

Apprentissage par imitation

 
L'enfant apprend en observant et en imitant l'adulte (Le Linge, peinture de Édouard Manet).

Le plus courant : il suppose de la part de l'enfant la valorisation d'un modèle et la volonté de le posséder, de le prendre. C'est par l'imitation que se font tous les apprentissages « spontanés » de la petite enfance: parole, gestes, mimiques, etc., ainsi que ceux de la dimension esthétique des activités: ton, grâce, style, manière, etc. Le rôle du pédagogue est de montrer l'exemple ou de proposer des modèles, sans devoir faire appel à la rationalité expérimentale et à sa systématisation. Abandonné par la pédagogie scolaire, il reste utilisé pour l'enseignement de tous les arts, qu'il s'agisse de l'équitation, du violon, de la cuisine, du dessin ou de la danse.

Apprentissage par induction

L'induction est une forme d'apprentissage qui fonctionne très bien lorsqu'elle est bien encadrée. Elle consiste à créer une théorie, une loi, à partir d'observations, d'expériences12. Par exemple, si j'observe une seringue remplie d'air que je peux compresser et étirer, j'en induirai que l'air, et les gaz, sont compressibles. Par contre, si un enfant observe une plume et une roche qui ne tombent pas à la même vitesse dans l'air, il induira que les objets lourds tombent plus vite, ce qui est faux. Il faut donc bien encadrer les sujets lorsque l'on utilise cette méthode. Elle se révèle très efficace car elle suscite des interrogations, ce qui établit un maximum de connexions dans notre cerveau, car nous apprenons avec ce que nous savons déjà13.

Apprentissage par association

On associe un stimulus nouveau à un mécanisme déjà appris, pour créer un nouveau savoir (exemple : si une réaction à une odeur est déjà apprise, on peut faire apprendre la même réaction à un son en faisant systématiquement précéder l'odeur par le son).

Apprentissage par essais et erreurs

Il s'agit de la méthode essai-erreur. Le sujet est mis en situation, on ne lui donne aucun mode d'emploi (parfois même pas la condition de succès ou d'élimination). Pour fonctionner correctement, il faut que la solution soit assez facile à trouver, compte tenu de ce que le sujet sait déjà.

Pour apprendre des choses complexes, il faut donc s'appuyer sur l'apprentissage par association pour enchaîner des situations de difficulté croissante et permettant de nombreuses répétitions. Cela rend cet apprentissage coûteux. Mais c'est le seul qui fonctionne encore quand la solution doit être découverte, on parle alors de démarche heuristique.

À noter : une variante où, au lieu d'un seul individu faisant quantité d'essais, c'est un grand nombre d'individus qui font chacun un essai seulement. C'est l'apprentissage par sélection (ou criblage) qui est la méthode des populations vivantes pour apprendre à vivre (processus de sélection naturelle).

Apprentissage par explication

On explique au sujet, oralement ou par écrit, ce qu'il doit savoir (exemple : un manuel de secourisme). C'est le principe des cours magistraux. On parle souvent de transmissif dans ce cas.

Apprentissage par répétition

On fait faire au sujet ce qu'il doit apprendre, d'abord passivement, puis de plus en plus activement, jusqu'à ce qu'il puisse faire et refaire seul les opérations.

Apprentissage combiné

C'est le plus efficace, et il est très utilisé en matière d'enseignement de savoir-faire professionnel, car il combine les modalités précédentes : le sujet est mis en situation (en commençant par les plus simples), on lui montre quelquefois les bons gestes en lui expliquant les principes d'action ; on le laisse ensuite se perfectionner par une répétition de moins en moins supervisée.

Apprentissage par immersion

Les langues s'apprendraient mieux en situation d'immersion totale. Par exemple, lorsque les cours ne sont donnés que dans la langue à apprendre et que le professeur ne parle avec les élèves que dans leur langue d'immersion. À défaut, il est conseillé de passer une année ou deux dans un pays parlant la langue souhaitée afin de mieux saisir les différences d'expressions orales et écrites. De plus, en se débrouillant seul, on apprendrait plus facilement à comprendre la langue, les coutumes et la culture d'un pays.

Enquête sur les acquis fondamentaux

En 2004, les résultats d'une étude de l'OCDE menée dans quarante pays ont montré que les jeunes français étaient dans la moyenne en mathématiques. Cette enquête du Programme international pour le suivi des acquis (P.I.S.A.), cherchait à évaluer les compétences en mathématiques des élèves de 15 ans : la France arrivait en seizième position avec 511 points, c'est-à-dire onze points au-dessus de la moyenne des pays de l'OCDE. L'enquête portait sur environ 4 500 élèves par pays. En 2001, une enquête similaire révélait que la France se trouvait en milieu de classement pour la maîtrise de l'écrit et de la lecture : 4,2 % des jeunes français ne savaient pas lire correctement, contre 6,3 % en 2004.

Recherches, applications et usages

 
XXI c.

Autres dimensions de l'apprentissage

L'apprentissage est considéré dans les conceptions modernes d'ingénierie des connaissances, comme l'une des composantes clés de la performance collective des organisations, dans des communautés de pratique.

Quelques théories et sous-catégories d'apprentissage :

Besoin

Le besoin se définit comme étant l’ensemble de tout ce qui est nécessaire à un être et/ou qui s’impose à tous. Selon Jacques Lapointe, dans son article intitulé « L’analyse des besoins d’apprentissage », on retrouve régulièrement le besoin dans les conversations selon les sujets traités et les circonstances qui l’entourent. Le besoin est associé au corporel, au spirituel au physiologique, au monétaire, à l’artificiel. De plus, on lie ce concept facilement aux concepts d’apprentissage.

On l’utilise indifféremment pour rendre compte des notions de désir, de manque et d’insuffisance. Parlant de cette notion de manque rattaché au besoin, il y a Kaufman qui détaille un peu plus. Il l’a présente dans un modèle « d’analyse d’écart », il définit le besoin comme étant « l’écart mesurable entre ce qui est et ce qui devrait être ». Le concept de besoin est intéressant du fait de sa simplicité apparente. Comme le souligne Fenouillet « le besoin repose sur une idée principale qui est facilement compréhensible des spécialistes comme des non spécialistes de la question : le manque ».

Besoins d'apprentissage

Cette notion, se rapporte à l’idée de « au quoi apprendre ou au quoi enseigner », c’est-à-dire ce que l’on peut transmettre, qui est une notion épistémique. Apprendre remet en cause l’identité des gens, ça bouscule les acquisitions antérieures. Le fait de penser les apprenants en termes de besoin peut faciliter pour un professionnel de l’éducation le dépassement d’obstacles dans la construction de médiations éducatives et pédagogiques. Kern Dominique, dans son article intitulé « les besoins d’apprentissage spécifique au grand âge », analyse les besoins d’apprentissage des personnes de grand âge, c’est-à-dire des personnes vieillissantes. Kern propose une conceptualisation du besoin d’apprentissage, dans la formation scolaire, les besoins d’apprentissage sont définis selon les injonctions des pouvoirs publics dans les programmes scolaires et celles des entreprises dans la formation continue. Et même dans le contexte de personnes plus âgées, on retrouve aussi ces mécanismes. L’on peut parvenir à l’identification des besoins par au moins deux chemins : d’un côté par le recensement auprès des apprenants réels ou potentiels et, d’un autre, par une construction théorique plus ou moins étayée scientifiquement.

Le besoin d’apprentissage n’est pas seulement que le cas d’individu mais une notion en lien avec les injonctions sociales.

En somme, nous pouvons souligner que celui qui apprend à toujours besoin d’apprendre, afin d’apprendre à ceux qui apprennent

Notes et références

  1. (en) Barrett, Lisa Feldman, How emotions are made : The secret life of the brain, PAN Books, , 448 p. (ISBN 978-1-5098-3752-6 et 1-5098-3752-3, OCLC 995768849)

Voir aussi

Sur les autres projets Wikimedia :

Il existe une catégorie consacrée à ce sujet : Apprentissage.
 

Bibliographie

Ouvrages

Articles

Articles connexes

Liens externes

Science

 
 
 
 
Allégorie de la Science par Jules Blanchard, située sur le parvis de l'hôtel de ville de Paris.

La science (du latin scientia, « connaissance », « savoir ») est dans son sens premier « la somme des connaissances » et plus spécifiquement comme une entreprise systématique de construction et d'organisation des connaissances sous la forme d'explications et de prédictions testables. Faisant suite à la technique au niveau de son histoire, elle se développe en Occident au travers de travaux à caractère universel basés sur des faits, une argumentation et des méthodes qui varient selon qu'elles tiennent de l'observation, l'expérience, l'hypothèse, d'une logique de déduction ou d'induction, etc. Lorsqu'on divise la science en différents domaines, ou disciplines, on parle alors de sciences au pluriel, comme dans l'opposition entre sciences dures et sciences humaines et sociales ou encore celle entre sciences formelles, science de la nature et sciences sociales.

La science a pour objet de comprendre et d'expliquer le monde et ses phénomènes au départ de la connaissance, dans le but d'en tirer des prévisions et des applications fonctionnelles. Elle se veut ouverte à la critique tant au niveau des connaissances acquises, des méthodes utilisées pour les acquérir et de l'argumentation utilisée lors de la recherche scientifique ou participative. Dans le cadre de cet exercice de perpétuelle remise en question, elle fait l'objet d'une discipline philosophique spécifique intitulée l'épistémologie. Les connaissances établies par la science sont à la base de nombreux développements techniques dont les incidences sur la société et son histoire sont parfois considérables.

 
Hiérarchie des principales disciplines scientifiques d'après Auguste Comte. Par exemple, les sciences physiques étudient la matière qui est régie par des lois essentiellement mathématiques, elles-mêmes régies par des lois logiques. Les groupes de disciplines diffèrent par leur méthode, formelle ou empirique, et par leur objet d'étude dont la complexité est représentée sur le diagramme par un nombre plus ou moins grand de côtés aux figures.

Définition

Le mot science peut se définir de plusieurs manières selon son contexte d'utilisation, alors que dans un sens premier on peut y voir la « somme de connaissances qu'un individu possède ou peut acquérir par l'étude, la réflexion ou l'expérience »1 Hérité du mot latin scientia (latin scientia, « connaissance ») elle est « ce que l'on sait pour l'avoir appris, ce que l'on tient pour vrai au sens large, l'ensemble de connaissances, d'études d'une valeur universelle, caractérisées par un objet (domaine) et une méthode déterminés, et fondés sur des relations objectives vérifiables [sens restreint] »2.

Dans un passage du Banquet, Platon distingue la droite opinion (orthos logos) de la science ou de la connaissance (Épistémé)3. Synonyme de l’épistémé en Grèce antique, c'est selon les Définitions du pseudo-Platon, une « Conception de l’âme que le discours ne peut ébranler »4,5,6.

Un terme générique de la connaissance

Définition large

 
La science, par ses découvertes, a su marquer la civilisation. Ici, les images rapportées par l'astronomie nourrissent la pensée humaine quant à sa place dans l'Univers.

Le mot science est un polysème, recouvrant principalement trois sens7 :

  1. Savoir, connaissance de certaines choses qui servent à la conduite de la vie ou à celle des affaires ;
  2. Ensemble des connaissances acquises par l’étude ou la pratique ;
  3. Hiérarchisation, organisation et synthèse des connaissances au travers de principes généraux (théories, lois, etc.).

Définition stricte

D'après Michel Blay8, la science est « la connaissance claire et certaine de quelque chose, fondée soit sur des principes évidents et des démonstrations, soit sur des raisonnements expérimentaux, ou encore sur l'analyse des sociétés et des faits humains ».

Cette définition permet de distinguer les trois types de science :

Néanmoins, leurs limites sont floues ; en d'autres termes il n'existe pas de catégorisation systématique des types de science, ce qui constitue par ailleurs l'un des questionnements de l'épistémologie. Dominique Pestre explique ainsi que « ce que nous mettons sous le vocable « science » n’est en rien un objet circonscrit et stable dans le temps qu’il s’agirait de simplement décrire »9.

Principe de l'acquisition de connaissances scientifiques

L'acquisition de connaissances reconnues comme scientifiques passe par une suite d'étapes. Selon Francis Bacon, la séquence de ces étapes peut être résumée comme suit :

  1. Observation, expérimentation et vérification ;
  2. Théorisation ;
  3. Reproduction et prévision ;
  4. Résultat.

Pour Charles Sanders Peirce (1839–1914), qui a repris d'Aristote l'opération logique d'abduction, la découverte scientifique procède dans un ordre différent :

  1. Abduction : création de conjectures et d'hypothèses ;
  2. Déduction : recherche de ce que seraient les conséquences si les résultats de l'abduction étaient vérifiés ;
  3. Induction : mise à l'épreuve des faits ; expérimentation10.

Les méthodes scientifiques permettent de procéder à des expérimentations rigoureuses, reconnues comme telles par la communauté de scientifiques. Les données recueillies permettent une théorisation, la théorisation permet de faire des prévisions qui doivent ensuite être vérifiées par l'expérimentation et l'observation. Une théorie est rejetée lorsque ces prévisions ne cadrent pas à l'expérimentation. Le chercheur ayant fait ces vérifications doit, pour que la connaissance scientifique progresse, faire connaître ces travaux aux autres scientifiques qui valideront ou non son travail au cours d'une procédure d'évaluation.

Pluralisme des définitions

Le mot « science », dans son sens strict, s'oppose à l'opinion (« doxa » en grec), assertion par nature arbitraire11. Néanmoins le rapport entre l'opinion d'une part et la science d'autre part n'est pas aussi systématique ; l'historien des sciences Pierre Duhem pense en effet que la science s'ancre dans le sens commun, qu'elle doit « sauver les apparences ».

Le discours scientifique s'oppose à la superstition et à l'obscurantisme. Cependant, l'opinion peut se transformer en un objet de science, voire en une discipline scientifique à part. La sociologie des sciences analyse notamment cette articulation entre science et opinion. Dans le langage commun, la science s'oppose à la croyance, par extension les sciences sont souvent considérées comme contraires aux religions. Cette considération est toutefois souvent plus nuancée tant par des scientifiques que des religieuxnote 1,note 2.

L’idée même d’une production de connaissance est problématique : nombre de domaines reconnus comme scientifiques n’ont pas pour objet la production de connaissances, mais celle d’instruments, de machines, de dispositifs techniques. Terry Shinn a ainsi proposé la notion de « recherche technico-instrumentale »12. Ses travaux avec Bernward Joerges à propos de l’« instrumentation »13 ont ainsi permis de mettre en évidence que le critère de « scientificité » n'est pas dévolu à des sciences de la connaissance seules.

Le mot « science » définit aux XXe et XXIe siècles l'institution de la science, c'est-à-dire l'ensemble des communautés scientifiques travaillant à l'amélioration du savoir humain et de la technologie, dans sa dimension internationale, méthodologique, éthique et politique. On parle alors de « la science ».

La notion ne possède néanmoins pas de définition consensuelle. L'épistémologue André Pichot écrit ainsi qu'il est « utopique de vouloir donner une définition a priori de la science »14. L'historien des sciences Robert Nadeau explique pour sa part qu'il est « impossible de passer ici en revue l'ensemble des critères de démarcation proposés depuis cent ans par les épistémologues, [et qu'on] ne peut apparemment formuler un critère qui exclut tout ce qu'on veut exclure, et conserve tout ce qu'on veut conserver »15. La physicienne et philosophe des sciences Léna Soler, dans son manuel d'épistémologie, commence également par souligner « les limites de l'opération de définition »16. Les dictionnaires en proposent certes quelques-unes. Mais, comme le rappelle Léna Soler, ces définitions ne sont pas satisfaisantes. Les notions d'« universalité », d'« objectivité » ou de « méthode scientifique » (surtout lorsque cette dernière est conçue comme étant l'unique notion en vigueur) sont l'objet de trop nombreuses controverses pour qu'elles puissent constituer le socle d'une définition acceptable. Il faut donc tenir compte de ces difficultés pour décrire la science. Et cette description reste possible en tolérant un certain « flou » épistémologique.

Étymologie : de la « connaissance » à la « recherche »

L'étymologie de « science » vient du latin, « scientia » (« connaissance »), lui-même du verbe « scire » (« savoir ») qui désigne à l'origine la faculté mentale propre à la connaissance17. Ce sens se retrouve par exemple dans l'expression de François Rabelais : « Science sans conscience n'est que ruine de l'âme ». Il s'agissait ainsi d'une notion philosophique (la connaissance pure, au sens de « savoir »), qui devint ensuite une notion religieuse, sous l'influence du christianisme. La « docte science » concernait alors la connaissance des canons religieux, de l'exégèse et des écritures, paraphrase pour la théologie, première science instituée.

La racine « science » se retrouve dans d'autres termes tels la « conscience » (étymologiquement, « avec la connaissance »), la « prescience » (« la connaissance du futur »), l'« omniscience » (« la connaissance de tout »), par exemple.

Histoire de la science

La science est historiquement liée à la philosophie. Dominique Lecourt écrit ainsi qu'il existe « un lien constitutif [unissant] aux sciences ce mode particulier de penser qu'est la philosophie. C'est bien en effet parce que quelques penseurs en Ionie dès le VIIe siècle av. J.-C. eurent l'idée que l'on pouvait expliquer les phénomènes naturels par des causes naturelles qu'ont été produites les premières connaissances scientifiques »18. Dominique Lecourt explique ainsi que les premiers philosophes ont été amenés à faire de la science (sans que les deux soient confondues). La théorie de la connaissance en Science est portée par l'épistémologie.

L'histoire de la Science est nécessaire pour comprendre l'évolution de son contenu, de sa pratique.

La science se compose d'un ensemble de disciplines particulières dont chacune porte sur un domaine particulier du savoir scientifique. Il s'agit par exemple des mathématiquesnote 3, de la chimie, de la physique, de la biologie, de la mécanique, de l'optique, de la pharmacie, de l'astronomie, de l'archéologie, de l'économie, de la sociologie, etc. Cette catégorisation n'est ni fixe, ni unique, et les disciplines scientifiques peuvent elles-mêmes être découpées en sous-disciplines, également de manière plus ou moins conventionnelle. Chacune de ces disciplines constitue une science particulière.

L'épistémologie a introduit le concept de « science spéciale », c'est la science « porte drapeau » parce qu'elle porte les problématiques liées à un type de Sciences.

Histoire des sciences

L'histoire des sciences est intimement liée à l'histoire des sociétés et des civilisations19. D'abord confondue avec l'investigation philosophique, dans l'Antiquité, puis religieuse, du Moyen Âge jusqu'au Siècle des Lumières, la science possède une histoire complexe. L'histoire de la science et des sciences peut se dérouler selon deux axes comportant de nombreux embranchementsnote 4 :

 
Allégorie de la Sciencenote 5.

Bien que très liées, ces deux histoires ne doivent pas être confondues. Bien plutôt, il s'agit d'une interrogation sur la production et la recherche de savoir. Michel Blay fait même de la notion de « savoir » la véritable clé de voûte d'une histoire des sciences et de la science cohérente :

« Repenser la science classique exige de saisir l'émergence des territoires et des champs du savoir au moment même de leur constitution, pour en retrouver les questionnements fondamentaux20. »

De manière générale, l'histoire des sciences n'est ni linéaire, ni réductible aux schémas causaux simplistes. L'épistémologue Thomas Samuel Kuhn parle ainsi, bien plutôt, des « paradigmes de la science » comme des renversements de représentations, tout au long de l'histoire des sciences. Kuhn énumère ainsi un nombre de « révolutions scientifiques »21. André Pichot distingue ainsi entre l’histoire des connaissances scientifiques et celle de la pensée scientifique22. Une histoire de la science et des sciences distingueraient de même, et également, entre les institutions scientifiques, les conceptions de la science, ou celle des disciplines.

Premières traces : Préhistoire et Antiquité

Préhistoire

 
L'usage d'outils en pierre précède l'apparition d'Homo sapiens de plus de 2 millions d'années.

La technique précède la science dans les premiers temps de l'humanité. En s'appuyant sur une démarche empirique, l'homme développe ses outils (travail de la pierre puis de l'os, propulseur) et découvre l'usage du feu dès le Paléolithique inférieur. La plupart des préhistoriens s'accordent pour penser que le feu est utilisé depuis 250 000 ans ou 300 000 ans. Les techniques de production de feu relèvent soit de la percussion (silex contre marcassite), soit de la friction de deux morceaux de bois (par sciage, par rainurage, par giration).

Pour de nombreux préhistoriens comme Jean Clottes, l'art pariétal montre que l'homme anatomiquement moderne du Paléolithique supérieur possédait les mêmes facultés cognitives que l'homme actuelnote 6.

Ainsi, l'homme préhistorique savait, intuitivement, calculer[réf. nécessaire] ou déduire des comportements de l'observation de son environnement, base du raisonnement scientifique. Certaines « proto-sciences » comme le calcul ou la géométrie en particulier apparaissent sans doute très tôt. L'os d'Ishango, datant de plus de 20 000 ans, a été interprété par certains auteurs comme l'un des premiers bâtons de comptage. L'astronomie permet de constituer une cosmogonie. Les travaux du français André Leroi-Gourhan, spécialiste de la technique, explorent les évolutions à la fois biopsychiques et techniques de l'homme préhistorique. Selon lui, « les techniques s'enlèvent dans un mouvement ascensionnel foudroyant »[pas clair]23, dès l'acquisition de la station verticale, en somme très tôt dans l'histoire de l'homme.

Mésopotamie

Les premières traces d'activités scientifiques datent des civilisations humaines du néolithique où se développent commerce et urbanisation24. Ainsi, pour André Pichot, dans La Naissance de la science25, la science naît en Mésopotamie, vers - 3500, principalement dans les villes de Sumer et d'Élam. Les premières interrogations sur la matière, avec les expériences d'alchimie, sont liées aux découvertes des techniques métallurgiques qui caractérisent cette période. La fabrication d'émaux date ainsi de - 2000. Mais l'innovation la plus importante provient de l'invention de l'écriture cunéiforme (en forme de clous), qui, par les pictogrammes, permet la reproduction de textes, la manipulation abstraite de concepts égalementnote 7. La numération est ainsi la première méthode scientifique à voir le jour, sur une base 60 (« gesh » en mésopotamien), permettant de réaliser des calculs de plus en plus complexes, et ce même si elle reposait sur des moyens matériels rudimentaires26. L'écriture se perfectionnant (période dite « akadienne »), les sumériens découvrent les fractions ainsi que la numération dite « de position », permettant le calcul de grands nombres. Le système décimal apparaît également, via le pictogramme du zéro initial, ayant la valeur d'une virgule, pour noter les fractions27. La civilisation mésopotamienne aboutit ainsi à la constitution des premières sciences telles : la métrologie, très adaptée à la pratique28, l'algèbre (découvertes de planches à calculs permettant les opérations de multiplication et de division, ou « tables d'inverses » pour cette dernière29 ; mais aussi des puissances, racines carrées, cubiques ainsi que les équations du premier degré, à une et deux inconnues), la géométrie (calculs de surfaces, théorèmes30), l'astronomie enfin (calculs de mécanique céleste, prévisions des équinoxes, constellations, dénomination des astres). La médecine a un statut particulier ; elle est la première science « pratique », héritée d'un savoir-faire tâtonnant31.

 

Les sciences étaient alors le fait des scribes, qui, note André Pichot, se livraient à de nombreux « jeux numériques »32 qui permettaient de lister les problèmes. Cependant, les sumériens ne pratiquaient pas la démonstration. Dès le début, les sciences mésopotamiennes sont assimilées à des croyances, comme l'astrologie ou la mystique des nombres, qui deviendront des pseudo-sciences ultérieurement. L'histoire de la science étant très liée à celle des techniques, les premières inventions témoignent de l'apparition d'une pensée scientifique abstraite. La Mésopotamie crée ainsi les premiers instruments de mesure, du temps et de l'espace (comme les gnomon, clepsydre, et polos). Si cette civilisation a joué un rôle majeur, elle n'a pas cependant connu la rationalité puisque celle-ci « n'a pas encore été élevée au rang de principal critère de vérité, ni dans l'organisation de la pensée et de l'action, ni a fortiori, dans l'organisation du monde »33.

Égypte pharaonique

L'Égypte antique va développer l'héritage pré-scientifique mésopotamien. Cependant, en raison de son unité culturelle spécifique, la civilisation égyptienne conserve « une certaine continuité dans la tradition [scientifique] »34 au sein de laquelle les éléments anciens restent très présents. L'écriture des hiéroglyphes permet la représentation plus précise de concepts ; on parle alors d'une écriture idéographique. La numération est décimale mais les Égyptiens ne connaissent pas le zéro. Contrairement à la numération sumérienne, la numération égyptienne évolue vers un système d'écriture des grands nombres (entre 1800 et 1000 av. J.-C.) par « numération de juxtaposition »note 9. La géométrie fit principalement un bond en avant. Les Égyptiens bâtissaient des monuments grandioses en ne recourant qu'au système des fractions symbolisé par l'œil d'Horus, dont chaque élément représentait une fraction.

 
L'œil Oudjat, ou œil d'Horus.

Dès 2600 av. J.-C., les Égyptiens calculaient correctement la surface d'un rectangle et d'un triangle. Il ne reste que peu de documents attestant l'ampleur des mathématiques égyptiennes ; seuls les papyri de Rhind, (datant de 1800 av. J.-C.), de Kahun, de Moscou et du Rouleau de cuir35 éclairent les innovations de cette civilisation qui sont avant tout celles des problèmes algébriques (de division, de progression arithmétique, géométrique). Les Égyptiens approchent également la valeur du nombre Pi, en élevant au carré les 8/9es du diamètre, découvrant un nombre équivalant à ≈ 3,1605 (au lieu de ≈ 3,1416). Les problèmes de volume (de pyramide, de cylindre à grains) sont résolus aisément. L'astronomie progresse également : le calendrier égyptien compte 365 jours, le temps est mesuré à partir d'une « horloge stellaire » et les étoiles visibles sont dénombrées. En médecine, la chirurgie fait son apparition. Une théorie médicale se met en place, avec l'analyse des symptômes et des traitements et ce dès 2300 av. J.-C. (le Papyrus Ebers est ainsi un véritable traité médical).

Pour André Pichot, la science égyptienne, comme celle de Mésopotamie avant elle, « est encore engagée dans ce qu'on a appelé « la voie des objets », c'est-à-dire que les différentes disciplines sont déjà ébauchées, mais qu'aucune d'entre elles ne possède un esprit réellement scientifique, c'est-à-dire d'organisation rationnelle reconnue en tant que telle »36.

Chine de l'Antiquité

Les Chinois découvrent également le théorème de Pythagore (que les Babyloniens connaissaient quinze siècles avant l'ère chrétienne). En astronomie, ils identifient la comète de Halley et comprennent la périodicité des éclipses. Ils inventent par ailleurs la fonte du fer. Durant la période des Royaumes combattants, apparaît l'arbalète. En -104, est promulgué le calendrier « Taichu », premier véritable calendrier chinois. En mathématiques, les Chinois inventent, vers le IIe siècle av. J.-C., la numération à bâtons. Il s'agit d'une notation positionnelle à base 10 comportant dix-huit symboles, avec un vide pour représenter le zéro, c'est-à-dire la dizaine, centaine, etc. dans ce système de numérotation.

 
La « numération en bâtons » chinoise.

En 132, Zhang Heng invente le premier sismographe pour la mesure des tremblements de terre et est la première personne en Chine à construire un globe céleste rotatif. Il invente aussi l'odomètre. La médecine progresse sous les Han orientaux avec Zhang Zhongjing et Hua Tuo, à qui l'on doit en particulier la première anesthésie générale.

En mathématiques, Sun Zi et Qin Jiushao étudient les systèmes linéaires et les congruences (leurs apports sont généralement considérés comme majeurs). De manière générale, l'influence des sciences chinoises fut considérable, sur l'Inde et sur les pays arabes.

Science en Inde

La civilisation dite de la vallée de l'Indus (−3300 à −1500) est surtout connue en histoire des sciences en raison de l'émergence des mathématiques complexes (ou « ganita »).

La numération décimale de position et les symboles numéraux indiens, qui deviendront les chiffres arabes, vont influencer considérablement l'Occident via les arabes et les chinois. Les grands livres indiens sont ainsi traduits au IXe siècle dans les « maisons du savoir » par des élèves d'Al-Khwârizmî, mathématicien persan dont le nom latinisé est à l'origine du mot algorithme. Les Indiens ont également maîtrisé le zéro, les nombres négatifs, les fonctions trigonométriques ainsi que le calcul différentiel et intégral, les limites et séries. Les « Siddhânta » sont le nom générique donné aux ouvrages scientifiques sanskrits.

On distingue habituellement deux périodes de découvertes abstraites et d'innovations technologiques dans l'Inde de l'Antiquité : les mathématiques de l'époque védique (−1500 à −400) et les mathématiques de l'époque jaïniste (−400 à 200)note 10.

« Logos » grec : les prémices philosophiques de la science

Présocratiques

Pour l'épistémologue Geoffrey Ernest Richard Lloyd (en)37, la méthode scientifique fait son apparition dans la Grèce du VIIe siècle av. J.-C. avec les philosophes dits présocratiques. Appelés « physiologoï » par Aristote parce qu'ils tiennent un discours rationnel sur la nature, les présocratiques s'interrogent sur les phénomènes naturels, qui deviennent les premiers objets de méthode, et leur cherchent des causes naturelles.

Thalès de Milet (v. 625-547 av. J.-C.) et Pythagore (v. 570-480 av. J.-C.) contribuent principalement à la naissance des premières sciences comme les mathématiques, la géométrie (théorème de Pythagore), l'astronomie ou encore la musique. Dans le domaine de la cosmologie, ces premières recherches sont marquées par la volonté d'imputer la constitution du monde (ou « cosmos ») à un principe naturel unique (le feu pour Héraclite par exemple) ou divin (l'« Un » pour Anaximandre). Les pré-socratiques mettent en avant des principes constitutifs des phénomènes, les « archè ».

 

Les présocratiques initient également une réflexion sur la théorie de la connaissance. Constatant que la raison d'une part et les sens d'autre part conduisent à des conclusions contradictoires, Parménide opte pour la raison et estime qu'elle seule peut mener à la connaissance, alors que nos sens nous trompent. Ceux-ci, par exemple, nous enseignent que le mouvement existe, alors que la raison nous enseigne qu'il n'existe pas. Cet exemple est illustré par les célèbres paradoxes de son disciple Zénon. Si Héraclite est d'un avis opposé concernant le mouvement, il partage l'idée que les sens sont trompeurs. De telles conceptions favorisent la réflexion mathématique. Par contre, elles sont un obstacle au développement des autres sciences et singulièrement des sciences expérimentales. Sur cette question, ce courant de pensée se prolonge, quoique de manière plus nuancée, jusque Platon, pour qui les sens ne révèlent qu'une image imparfaite et déformée des Idées, qui sont la vraie réalité (allégorie de la caverne).

À ces philosophes, s'oppose le courant épicurien. Initié par Démocrite, contemporain de Socrate, il sera développé ultérieurement par Épicure et exposé plus en détail par le Romain Lucrèce dans De rerum natura. Pour eux, les sens nous donnent à connaître la réalité. La théorie de l'atomiste affirme que la matière est formée d'entités dénombrables et insécables, les atomes. Ceux-ci s'assemblent pour former la matière comme les lettres s'assemblent pour former les mots. Tout est constitué d'atomes, y compris les dieux. Ceux-ci ne s'intéressent nullement aux hommes, et il n'y a donc pas lieu de les craindre. On trouve donc dans l'épicurisme la première formulation claire de la séparation entre le savoir et la religion, même si, de manière moins explicite, l'ensemble des présocratiques se caractérise par le refus de laisser les mythes expliquer les phénomènes naturels, comme les éclipses.

Il faudra attendre Aristote pour aplanir l'opposition entre les deux courants de pensée mentionnés plus haut.

La méthode pré-socratique est également fondée dans son discours, s'appuyant sur les éléments de la rhétorique : les démonstrations procèdent par une argumentation logique et par la manipulation de concepts abstraits, bien que génériques.

Platon et la dialectique

 
Mosaïque représentant l'Académie de Platon (Ier siècle)note 11.

Avec Socrate et Platon, qui en rapporte les paroles et les dialogues, la raison : logos, et la connaissance deviennent intimement liés. Le raisonnement abstrait et construit apparaît. Pour Platon, les Formes sont le modèle de tout ce qui est sensible, ce sensible étant un ensemble de combinaisons géométriques d'éléments. Platon ouvre ainsi la voie à la « mathématisation » des phénomènes. Les sciences mettent sur la voie de la philosophie, au sens de « discours sur la sagesse » ; inversement, la philosophie procure aux sciences un fondement assuré. L'utilisation de la dialectique, qui est l'essence même de la science complète alors la philosophie, qui a, elle, la primauté de la connaissance discursive (par le discours), ou « dianoia » en grec. Pour Michel Blay : « La méthode dialectique est la seule qui, rejetant successivement les hypothèses, s'élève jusqu'au principe même pour assurer solidement ses conclusions ». Socrate en expose les principes dans le Théétète38. Pour Platon, la recherche de la vérité et de la sagesse (la philosophie) est indissociable de la dialectique scientifique, c'est en effet le sens de l'inscription figurant sur le fronton de l'Académie, à Athènes : « Que nul n'entre ici s'il n'est géomètre »note 12.

Aristote et la physique

C'est surtout avec Aristote, qui fonde la physique et la zoologie, que la science acquiert une méthode, basée sur la déduction. On lui doit la première formulation du syllogisme et de l'induction39. Les notions de « matière », de « forme », de « puissance » et d'« acte » deviennent les premiers concepts de manipulation abstraite40. Pour Aristote, la science est subordonnée à la philosophie (c'est une « philosophie seconde » dit-il) et elle a pour objet la recherche des premiers principes et des premières causes, ce que le discours scientifique appellera le causalisme et que la philosophie nomme l'« aristotélisme ». Néanmoins, dans le domaine particulier de l'astronomie, Aristote est à l'origine d'un recul de la pensée par rapport à certains pré-socratiques[réf. nécessaire] quant à la place de la terre dans l'espace. À la suite d'Eudoxe de Cnide, il imagine un système géocentrique et considère que le cosmos est fini. Il sera suivi en cela par ses successeurs en matière d'astronomie, jusqu'à Copernic, à l'exception d'Aristarque, qui proposera un système héliocentrique. Il détermine par ailleurs que le vivant est ordonné selon une chaîne hiérarchisée mais sa théorie est avant tout fixiste. Il pose l'existence des premiers principes indémontrables, ancêtres des conjectures mathématiques et logiques. Il décompose les propositions en nom et verbe, base de la science linguistique39.

Période alexandrine et Alexandrie à l'époque romaine

 
Un fragment des Éléments d'Euclide trouvé à Oxyrhynque.
 
Le fragment principal de la machine d'Anticythère, un mécanisme à engrenages capable de calculer la date et l'heure des éclipses solaires et lunaires.

La période dite « alexandrine » (de -323 à -30) et son prolongement à l'époque romaine sont marqués par des progrès significatifs en astronomie et en mathématiques ainsi que par quelques avancées en physique. La ville égyptienne d'Alexandrie en est le centre intellectuel et les savants d'alors y sont grecs.

Euclide (-325 à -265) est l'auteur des Éléments, qui sont considérés comme l'un des textes fondateurs des mathématiques modernes. Ces postulats, comme celui nommé le « postulat d'Euclide » (voir Axiome des parallèles), que l'on exprime de nos jours en affirmant que « par un point pris hors d'une droite il passe une et une seule parallèle à cette droite » sont à la base de la géométrie systématisée.

Les travaux d'Archimède (-292 à -212) sur sa poussée correspond à la première loi physique connue alors que ceux d'Ératosthène (-276 à -194) sur la circonférence de la terre ou ceux d'Aristarque de Samos (-310 à -240) sur les distances terre-lune et terre-soleil témoignent d'une grande ingéniosité. Apollonius de Perga modélise les mouvements des planètes à l'aide d'orbites excentriques.

Hipparque de Nicée (-194 à -120) perfectionne les instruments d’observation comme le dioptre, le gnomon et l'astrolabe. En algèbre et géométrie, il divise le cercle en 360°, et crée même le premier globe céleste (ou orbe). Hipparque rédige également un traité en 12 livres sur le calcul des cordes (nommé aujourd'hui la trigonométrie). En astronomie, il propose une « théorie des épicycles » qui permettra à son tour l'établissement de tables astronomiques très précises. L'ensemble se révélera largement fonctionnel, permettant par exemple de calculer pour la première fois des éclipses lunaires et solaires. La machine d'Anticythère, un calculateur à engrenages, capable de calculer la date et l'heure des éclipses, est un des rares témoignages de la sophistication des connaissances grecques tant en astronomie et mathématiques qu'en mécanique et travail des métaux.

Ptolémée d’Alexandrie (85 apr. J.-C. à 165) prolonge les travaux d'Hipparque et d'Aristote sur les orbites planétaires et aboutit à un système géocentrique du système solaire, qui fut accepté dans les mondes occidental et arabe pendant plus de mille trois cents ans, jusqu'au modèle de Nicolas Copernic. Ptolémée fut l’auteur de plusieurs traités scientifiques, dont deux ont exercé par la suite une très grande influence sur les sciences islamique et européenne. L’un est le traité d’astronomie, qui est aujourd’hui connu sous le nom de l’Almageste ; l’autre est la Géographie, qui est une discussion approfondie sur les connaissances géographiques du monde gréco-romain.

Ingénierie et technologie romaines

La technologie romaine est un des aspects les plus importants de la civilisation romaine. Cette technologie, en partie liée à la technique de la voûte, probablement empruntée aux Étrusques, a été certainement la plus avancée de l'Antiquité. Elle permit la domestication de l'environnement, notamment par les routes et aqueducs. Cependant, le lien entre prospérité économique de l'Empire romain et niveau technologique est discuté par les spécialistes : certains, comme Emilio Gabba, historien italien, spécialiste de l'histoire économique et sociale de la République romaine, considèrent que les dépenses militaires ont freiné le progrès scientifique et technique, pourtant riche41. Pour J. Kolendo, le progrès technique romain serait lié à une crise de la main-d'œuvre, due à la rupture dans la « fourniture » d'esclaves non qualifiés, sous l'empereur Auguste. Les romains aurait ainsi été capables de développer des techniques alternatives. Pour L. Cracco Ruggini, la technologie traduit la volonté de prestige des couches dominantes42.

Cependant, la philosophie, la médecine et les mathématiques sont d'origine grecque, ainsi que certaines techniques agricoles. La période pendant laquelle la technologie romaine est la plus foisonnante est le IIe siècle av. J.-C. et le Ier siècle av. J.-C., et surtout à l'époque d'Auguste. La technologie romaine a atteint son apogée au Ier siècle avec le ciment, la plomberie, les grues, machines, dômes, arches. Pour l'agriculture, les Romains développent le moulin à eau. Néanmoins, les savants romains furent peu nombreux et le discours scientifique abstrait progressa peu pendant la Rome antique : « les Romains, en faisant prévaloir les « humanités », la réflexion sur l'homme et l'expression écrite et orale, ont sans doute occulté pour l'avenir des « realita » scientifiques et techniques »43, mis à part quelques grands penseurs, comme Vitruve ou Apollodore de Damas, souvent d'origine étrangère d'ailleurs. Les Romains apportèrent surtout le système de numération romain pour les unités de mesure romaines en utilisant l'abaque romain, ce qui permet d'homogénéiser le comptage des poids et des distances.

Science au Moyen Âge

Bien que cette période s'apparente généralement à l'histoire européenne, les avancées technologiques et les évolutions de la pensée scientifique du monde oriental (civilisation arabo-musulmane) et, en premier lieu, celles de l'empire byzantin, qui hérite du savoir latin, et où puisera le monde arabo-musulman, enfin celles de la Chine sont décisives dans la constitution de la « science moderne », internationale, institutionnelle et se fondant sur une méthodologie. La période du Moyen Âge s'étend ainsi de 512 à 1492 ; elle connaît le développement sans précédent des techniques et des disciplines, en dépit d'une image obscurantiste, propagée par les manuels scolaires.

En Europe

Les byzantins maîtrisaient l'architecture urbaine et l'admission d'eau ; ils perfectionnèrent également les horloges à eau et les grandes norias pour l'irrigation ; technologies hydrauliques dont la civilisation arabe a hérité et qu'elle a transmis à son tour. L'hygiène et la médecine firent également des progrès44. Les Universités byzantines ainsi que les bibliothèques compilèrent de nombreux traités et ouvrages d'étude sur la philosophie et le savoir scientifique de l'époque45.

L'Europe occidentale, après une période de repli durant le Haut Moyen Âge, retrouve un élan culturel et technique qui culmine au XIIe siècle. Néanmoins, du VIIIe au Xe siècle la période dite, en France, de la Renaissance carolingienne permit, principalement par la scolarisation, le renouveau de la pensée scientifique. La scolastique, au XIe siècle préconise un système cohérent de pensée proche de ce que sera l'empirisme. La philosophie naturelle se donne comme objectif la description de la nature, perçue comme un système cohérent de phénomènes (ou pragmata), mus par des « lois »note 13. Le bas Moyen Âge voit la logique faire son apparition — avec l'académie de Port-Royal des Champs — et diverses méthodes scientifiques se développer ainsi qu'un effort pour élaborer des modèles mathématiques ou médicaux qui jouera « un rôle majeur dans l'évolution des différentes conceptions du statut des sciences »46. D'autre part, le monde médiéval occidental voit apparaître une « laïcisation du savoir », concomitant à l'« autonomisation des sciences ».

Dans le monde arabo-musulman

Le monde arabo-musulman est à son apogée intellectuel du VIIIe au XIVe siècle ce qui permet le développement d'une culture scientifique spécifique, d'abord à Damas sous les derniers Omeyyades, puis à Bagdad sous les premiers Abbassides. La science arabo-musulmane est fondée sur la traduction et la lecture critique des ouvrages de l'Antiquiténote 14. L'étendue du savoir arabo-musulman est étroitement liée aux guerres de conquête de l'Islam qui permettent aux Arabes d'entrer en contact avec les civilisations indienne et chinoise. Le papier, emprunté aux Chinois remplace rapidement le parchemin dans le monde musulman. Le Calife Hâroun ar-Rachîd, féru d'astronomie, crée en 829 à Bagdad le premier observatoire permanent, permettant à ses astronomes de réaliser leurs propres études du mouvement des astres. Abu Raihan al-Biruni, reprenant les écrits d'Ératosthène d'Alexandrie (IIIe siècle av. J.-C.), calcule le diamètre de la Terre et affirme que la Terre tournerait sur elle-même, bien avant Galilée. En 832 sont fondées les Maisons de la sagesse (Baït al-hikma), lieux de partage et de diffusion du savoir.

En médecine, Avicenne (980-1037) rédige une monumentale encyclopédie, le Qanûn. Ibn Nafis décrit la circulation sanguine pulmonaire, et al-Razi recommande l'usage de l'alcool en médecine. Au XIe siècle, Abu-l-Qasim az-Zahrawi (appelé Abulcassis en Occident) écrit un ouvrage de référence pour l'époque, sur la chirurgie.

En mathématiques l'héritage antique est sauvegardé et approfondi permettant la naissance de l'algèbre. L'utilisation de la numération indienne rend possible des avancées en analyse combinatoire et en trigonométrie.

Enfin, la théologie motazilite se développe sur la logique et le rationalisme, inspirés de la philosophie grecque et de la raison (logos), qu'elle cherche à rendre compatible avec les doctrines islamiques.

Sciences en Chine médiévale

La Chine de l'Antiquité a surtout contribué à l'innovation technique, avec les quatre inventions principalesnote 15 qui sont : le papier (daté du IIe siècle av. J.-C.), l'imprimerie à caractères mobiles (au IXe siècle)47, la poudre (la première trace écrite attestée semble être le Wujing Zongyao qui daterait des alentours de 1044) et la boussole, utilisée dès le XIe siècle, dans la géomancie. Le scientifique chinois Shen Kuo (1031-1095) de la Dynastie Song décrit la boussole magnétique comme instrument de navigation.

 
Maquette d'une cuillère indiquant le sud (appelée sinan) du temps des Han (206 av. J.-C. - 220 apr. J.-C.).

Pour l'historien Joseph Needham, dans Science et civilisation en Chine48, vaste étude de dix-sept volumes, la société chinoise a su mettre en place une science innovante, dès ses débuts. Needham en vient même à relativiser la conception selon laquelle la science doit tout à l'Occident. Pour lui, la Chine était même animée d'une ambition de collecter de manière désintéressée le savoir, avant même les universités occidentales49.

Les traités de mathématiques et de démonstration abondent comme Les Neuf Chapitres (qui présentent près de 246 problèmes) transmis par Liu Hui (IIIe siècle) et par Li Chunfeng (VIIe siècle) ou encore les Reflets des mesures du cercles sur la mer de Li Ye datant de 1248 étudiés par Karine Chemla et qui abordent les notions arithmétiques des fractions, d'extraction de racines carrée et cubique, le calcul de l'aire du cercle et du volume de la pyramide entre autres50. Karine Chelma a ainsi démontré que l'opinion répandue selon laquelle la démonstration mathématique serait d'origine grecque était partiellement fausse, les Chinois s'étant posé les mêmes problèmes à leur époque ; elle dira ainsi : on ne peut rester occidentalo-centré, l'histoire des sciences exige une mise en perspective internationale des savoirs51.

Inde des mathématiques médiévales

Les mathématiques indiennes sont particulièrement abstraites et ne sont pas orientées vers la pratique, au contraire de celles des Égyptiens par exemple. C'est avec Brahmagupta (598 - 668) et son ouvrage célèbre, le Brahmasphutasiddhanta, particulièrement complexe et novateur, que les différentes facettes du zéro, chiffre et nombre, sont parfaitement comprises et que la construction du système de numération décimal de position est parachevée. L'ouvrage explore également ce que les mathématiciens européens du XVIIe siècle ont nommé la « méthode chakravala », qui est un algorithme pour résoudre les équations diophantiennes. Les nombres négatifs sont également introduits, ainsi que les racines carrées. La période s'achève avec le mathématicien Bhaskara II (1114-1185) qui écrivit plusieurs traités importants. À l'instar de Nasir al-Din al-Tusi (1201-1274) il développe en effet la dérivation[réf. nécessaire]. On y trouve des équations polynomiales, des formules de trigonométrie, dont les formules d'addition. Bhaskara est ainsi l'un des pères de l'analyse puisqu'il introduit plusieurs éléments relevant du calcul différentiel : le nombre dérivé, la différentiation et l'application aux extrema, et même une première forme du théorème de Rolle[réf. nécessaire].

 

Mais c'est surtout avec Âryabhata (476-550), dont le traité d’astronomie (nommé l’Aryabatîya) écrit en vers aux alentours de 499, que les mathématiques indiennes se révèlentnote 16. Il s'agit d'un court traité d'astronomie présentant 66 théorèmes d'arithmétique, d'algèbre, ou de trigonométrie plane et sphérique. Aryabhata invente par ailleurs un système de représentation des nombres fondé sur les signes consonantiques de l'alphasyllabaire sanskrit.

Ces percées seront reprises et amplifiées par les mathématiciens et astronomes de l'école du Kerala, parmi lesquels : Madhava de Sangamagrama, Nilakantha Somayaji, Parameswara, Jyeshtadeva, ou Achyuta Panikkar, pendant la période médiévale du Ve siècle au XVe siècle. Ainsi, le Yuktibhasa ou Ganita Yuktibhasa est un traité de mathématiques et d'astronomie, écrit par l'astronome indien Jyesthadeva, membre de l'école mathématique du Kerala en 153052. Jyesthadeva a ainsi devancé de trois siècles la découverte du calcul infinitésimal par les occidentaux.

Fondements de la science moderne en Europe

Science institutionnalisée

C'est au tournant du XIIe siècle, et notamment avec la création des premières universités de Paris (1170) et Oxford (1220) que la science en Europe s'institutionnalisa, tout en conservant une affiliation intellectuelle avec la sphère religieuse. La traduction et la redécouverte des textes antiques grecs, et en premier lieu les Éléments d'Euclide ainsi que les textes d'Aristote, grâce à la civilisation arabo-musulmane, firent de cette période une renaissance des disciplines scientifiques, classées dans le quadrivium (parmi les Arts Libéraux). Les Européens découvrirent ainsi l'avancée des Arabes, notamment les traités mathématiques : Algèbre d'Al-Khwarizmi, Optique d'Ibn al-Haytham ainsi que la somme médicale d'Avicenne. En s'institutionnalisant, la science devint plus ouverte et plus fondamentale, même si elle restait assujettie aux dogmes religieux et qu'elle n'était qu'une branche encore de la philosophie et de l'astrologie. Aux côtés de Roger Bacon, la période fut marquée par quatre autres personnalités qui jetèrent, en Europe chrétienne, les fondements de la science moderne :

 
« Réfraction de la lumière » par Robert Grosseteste De natura locorum (XIIIe siècle).

L'Europe sortait ainsi d'une léthargie intellectuelle. L'Église, avait interdit jusqu'en 1234 les ouvrages d'Aristote, accusé de paganisme[réf. nécessaire]. Ce n'est qu'avec Saint Thomas d'Aquin que la doctrine aristotélicienne fut acceptée par les papes.

Saint Thomas d'Aquin, théologien, permit de redécouvrir, par le monde arabe, les textes d'Aristote et des autres philosophes grecs, qu'il étudia à Naples, à l'université dominicainenote 17. Cependant, il est surtout connu pour son principe dit de l'autonomie respective de la raison et de la foi. Saint Thomas d'Aquin fut en effet le premier théologien à distinguer, dans sa Somme théologique (1266-1273) la raison (faculté naturelle de penser, propre à l'homme) et la foi (adhésion au dogme de la Révélation)56. Celle-ci est indémontrable, alors que la science est explicable par l'étude des phénomènes et des causes. L'une et l'autre enfin ne peuvent s'éclairer mutuellement.

Guillaume d'Occam (v. 1285- v. 1349) permit une avancée sur le plan de la méthode. En énonçant son principe de parcimonie, appelé aussi rasoir d'Occam, il procure à la science un cadre épistémologique fondé sur l'économie des arguments. Empiriste avant l'heure, Occam postule que : « Entia non sunt multiplicanda praeter necessitatem », littéralement « Les entités ne doivent pas être multipliées par delà ce qui est nécessaire ». Il explique par là qu'il est inutile d'avancer sans preuves et de forger des concepts illusoires permettant de justifier n'importe quoi57.

Renaissance et la « science classique »

 
L'Homme de Vitruve de Léonard de Vinci, représentatif de la Renaissance italienne.

La Renaissance est une période qui se situe en Europe à la fin du Moyen Âge et au début des Temps modernes. Dans le courant du XVe siècle et au XVIe siècle, cette période permit à l'Europe de se lancer dans des expéditions maritimes d'envergure mondiale, connues sous le nom de grandes découvertes ; de nombreuses innovations furent popularisées, comme la boussole ou le sextant ; la cartographie se développa, ainsi que la médecine, grâce notamment au courant de l'humanisme. Selon l'historien anglais John Hale, ce fut à cette époque que le mot Europe entra dans le langage courant et fut doté d'un cadre de référence solidement appuyé sur des cartes et d'un ensemble d'images affirmant son identité visuelle et culturelle. La science comme discipline de la connaissance acquit ainsi son autonomie et ses premiers grands systèmes théoriques à tel point que Michel Blay parle du « chantier de la science classique »note 18. Cette période est abondante en descriptions, inventions, applications et en représentations du monde, qu'il importe de décomposer afin de rendre une image fidèle de cette phase historique :

Naissance de la méthode scientifique : Francis Bacon

 

Francis Bacon (1561-1626) est le père de l'empirisme. Il pose le premier les fondements de la science et de ses méthodes58. Dans son étude des faux raisonnements, sa meilleure contribution a été dans la doctrine des idoles. D'ailleurs, il écrit dans le Novum Organum (ou « nouvelle logique » par opposition à celle d’Aristote) que la connaissance nous vient sous forme d'objets de la nature, mais que l'on impose nos propres interprétations sur ces objets.

D'après Bacon, nos théories scientifiques sont construites en fonction de la façon dont nous voyons les objets ; l'être humain est donc biaisé dans sa déclaration d'hypothèses[pas clair]. Pour Bacon, « la science véritable est la science des causes ». S’opposant à la logique aristotéliciennenote 19 qui établit un lien entre les principes généraux et les faits particuliers, il abandonne la pensée déductive, qui procède à partir des principes admis par l’autorité des Anciens, au profit de l’« interprétation de la nature », où l’expérience enrichit réellement le savoirnote 20. En somme, Bacon préconise un raisonnement et une méthode fondés sur le raisonnement expérimental :

« L'empirique, semblable à la fourmi, se contente d'amasser et de consommer ensuite ses provisions. Le dogmatique, telle l'araignée ourdit des toiles dont la matière est extraite de sa propre substance. L'abeille garde le milieu ; elle tire la matière première des fleurs des champs, puis, par un art qui lui est propre, elle la travaille et la digère. (...) Notre plus grande ressource, celle dont nous devons tout espérer, c'est l'étroite alliance de ses deux facultés : l'expérimentale et la rationnelle, union qui n'a point encore été formée59. »

Pour Bacon, comme plus tard pour les scientifiques, la science améliore la condition humaine. Il expose ainsi une utopie scientifique, dans la Nouvelle Atlantide (1627), qui repose sur une société dirigée par « un collège universel » composé de savants et de praticiens.

De l'« imago mundi » à l'astronomie

 
Représentation de la mécanique céleste au sein du système de Nicolas Copernic.

Directement permise par les mathématiques de la Renaissance, l'astronomie s'émancipe de la mécanique aristotélicienne, retravaillée par Hipparque et Ptolémée. La théologie médiévale se fonde quant à elle, d'une part sur le modèle d'Aristote, d'autre part sur le dogme de la création biblique du monde. C'est surtout Nicolas Copernic, avec son ouvrage De revolutionibus (1543) qui met fin au modèle aristotélicien de l'immuabilité de la Terre. Sa doctrine a permis l'instauration de l'héliocentrisme : « avec Copernic, et avec lui seul, s'amorce un bouleversement dont sortiront l'astronomie et la physique modernes » explique Jean-Pierre Verdet, Docteur ès sciences60. Repris et développé par Georg Joachim Rheticus, l'héliocentrisme sera confirmé par des observationsnote 21, en particulier celles des phases de Vénus et de Jupiter par Galilée (1564-1642), qui met par ailleurs au point une des premières lunettes astronomiques, qu'il nomme « télescope ». Dans cette période, et avant que Galilée n'intervienne, la théorie de Copernic reste confinée à quelques spécialistes, de sorte qu'elle ne rencontre que des oppositions ponctuelles de la part des théologiens, les astronomes restant le plus souvent favorables à la thèse géocentrique. Néanmoins, en 1616, le Saint-Office publie un décret condamnant le système de Copernic et mettant son ouvrage à l'index. En dépit de cette interdiction, « Galilée adoptera donc la cosmologie de Copernic et construira une nouvelle physique avec le succès et les conséquences que l'on sait »61, c'est-à-dire qu'il permettra la diffusion des thèses héliocentriques. Kepler dégagera les lois empiriques des mouvements célestes alors que Huygens décrira la force centrifuge. Newton unifiera ces approches en découvrant la gravitation universelle.

 
Portrait de Galilée.

Le danois Tycho Brahe observera de nombreux phénomènes astronomiques comme une nova et fondera le premier observatoire astronomique, « Uraniborg »62. Il y fit l'observation d'une comète en 1577. Johannes Kepler, l'élève de Brahe qu'il rencontre en 1600, va, quant à lui, amorcer les premiers calculs à des fins astronomiques, en prévoyant précisément un lever de Terre sur la Lune[Quoi ?] et en énonçant ses « trois lois » publiées en 1609 et 16l9note 22. Avec Huygens la géométrie devient la partie centrale de la science astronomique, faisant écho aux mots de Galilée se paraphrasant par l'expression : « le livre du monde est écrit en mathématique »63.

Avec tous ces astronomes, et en l'espace d'un siècle et demi (jusqu'aux Principia de Newton en 1687), la représentation de l'univers passe d'un « monde clos à un monde infini » selon l'expression d'Alexandre Koyré64.

De l'alchimie à la chimie

Art ésotérique depuis l'Antiquité, l'alchimie est l'ancêtre de la physique au sens d'observation de la matière. Selon Serge Hutin, docteur ès Lettres spécialiste de l'alchimie, les « rêveries des occultistes » bloquèrent néanmoins le progrès scientifique, surtout au XVIe siècle et au XVIIe siècle65. Il retient néanmoins que ces mirages qui nourrirent l'allégorie alchimique ont considérablement influencé la pensée scientifique. L'expérimentation doit ainsi beaucoup aux laboratoires des alchimistes, qui découvrirent de nombreux corps que répertoriés plus tard par la chimie : l'antimoine, l'acide sulfurique ou le phosphore par exemple. Les instruments des alchimistes furent ceux des chimistes modernes, l'alambic par exemple. Selon Serge Hutin, c'est surtout sur la médecine que l'alchimie eut une influence notable, par l'apport de médications minérales et par l'élargissement de la pharmacopée66.

En dépit de ces faits historiques, le passage de l'alchimie à la chimie demeure complexe. Pour le chimiste Jean-Baptiste Dumas : « La chimie pratique a pris naissance dans les ateliers du forgeron, du potier, du verrier et dans la boutique du parfumeur »67. « L'alchimie n'a donc pas joué le rôle unique dans la formation de la chimie ; il n'en reste pas moins que ce rôle a été capital ». Pour la conscience populaire, ce sont les premiers chimistes modernes — comme Antoine Laurent de Lavoisier surtout, au XVIIIe siècle, qui pèse et mesure les éléments chimiques — qui consomment le divorce entre chimie et alchimie. De nombreux philosophes et savants sont ainsi soit à l'origine des alchimistes (Roger Bacon ou Paracelse), soit s'y intéressent, tels Francis Bacon68 et même, plus tard Isaac Newton. Or, « c'est une erreur de confondre l'alchimie avec la chimie. La chimie moderne est une science qui s'occupe uniquement des formes extérieures dans lesquelles l'élément de la matière se manifeste [alors que] (...) L'alchimie ne mélange ou ne compose rien » selon F. Hartmann, pour qui elle est davantage comparable à la botanique69. En somme, bien que les deux disciplines soient liées, par l'histoire et leurs acteurs, la différence réside dans la représentation de la matière : combinaisons chimiques pour la chimie, manifestations du monde inanimé comme phénomènes biologiques pour l'alchimie. Pour Bernard Vidal, l'alchimie a surtout « permis d'amasser une connaissance manipulatoire, pratique, de l'objet chimique (…) L'alchimiste a ainsi commencé à débroussailler le champ d'expériences qui sera nécessaire aux chimistes des siècles futurs »70.

La chimie naît ainsi comme discipline scientifique avec Andreas Libavius (1550-1616) qui publie le premier recueil de chimie, en lien avec la médecine et la pharmacie (il classifie les composés chimiques et donne les méthodes pour les préparer) alors que plus tard Nicolas Lémery (1645-1715) publiera le premier traité de chimie faisant autorité avec son Cours de chimie, contenant la manière de faire les opérations qui sont en usage dans la médecine, par une méthode facile, avec des raisonnements sur chaque opération, pour l’instruction de ceux qui veulent s’appliquer à cette science en 1675. Johann Rudolph Glauber (1604-1668) ou Robert Boyle apportent quant à eux de considérables expérimentations portant sur les éléments chimiques71.

Émergence de la physiologie moderne

Les découvertes médicales et les progrès effectués dans la connaissance de l’anatomie, en particulier après la première traduction de nombreuses œuvres antiques d’Hippocrate et de Galien aux XVe siècle et XVIe siècle permettent des avancées en matière d'hygiène et de lutte contre la mortalité. André Vésale jette ainsi les bases de l'anatomie moderne alors que le fonctionnement de la circulation sanguine est découverte par Michel Servet et les premières ligatures des artères sont réalisées par Ambroise Paré.

Diffusion du savoir

Le domaine des techniques progresse considérablement grâce à l’invention de l’imprimerie par Johannes Gutenberg au XVe siècle, invention qui bouleverse la transmission du savoir.

Le nombre de livres publiés devient ainsi exponentiel, la scolarisation de masse est possible, par ailleurs les savants peuvent débattre par l'intermédiaire des comptes-rendus de leurs expérimentations. La science devient ainsi une communauté de savants. Les académies des sciences surgissent, à Londres, Paris, Saint-Pétersbourg et Berlin.

Les journaux et périodiques prolifèrent, tels le Journal des sçavans, Acta Eruditorum, Mémoires de Trevoux, etc. mais les domaines du savoir y sont encore mêlés et ne constituent pas encore totalement des disciplines. La science, bien que s'institutionnalisant, fait encore partie du champ de l'investigation philosophique. Michel Blay dit ainsi : « il est très surprenant et finalement très anachronique de séparer, pour la période classique, l'histoire des sciences de l'histoire de la philosophie, et aussi de ce que l'on appelle l'histoire littéraire »72.

 
Galileo and Viviani, par Tito Lessi (1892).

Finalement la Renaissance permet, pour les disciplines scientifiques de la matière, la création de disciplines et d'épistémologies distinctes mais réunies par la scientificité, elle-même permise par les mathématiques, car, selon l'expression de Pascal Brioist : « la mathématisation d’une pratique conduit à lui donner le titre spécifique de science »73. Michel Blay voit ainsi dans les débats autour de concepts clés, comme ceux d'absolu ou de mouvement, de temps et d'espace, les éléments d'une science classique.

Les « Lumières » et les grands systèmes scientifiques

Au XVIIe siècle, la « révolution scientifique »74 est permise par la mathématisation de la science. Les universités occidentales avaient commencé à apparaître au XIe siècle, mais ce n'est qu'au cours du XVIIe siècle qu'apparaissent les autres institutions scientifiques, notamment l'Accademia dei Lincei, fondée en 1603 (ancêtre de l'Académie pontificale des sciences), les académies des sciences, les sociétés savantes. Les sciences naturelles et la médecine surtout se développèrent durant cette période75.

L'Encyclopédie

Un second changement important dans le mouvement des Lumières par rapport au siècle précédent trouve son origine en France, avec les Encyclopédistes. Ce mouvement intellectuel défend l’idée qu’il existe une architecture scientifique et morale du savoir. Le philosophe Denis Diderot et le mathématicien Jean Le Rond d'Alembert publient en 1751 l’Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers qui permet de faire le point sur l'état du savoir de l'époque. L'Encyclopédie devient ainsi un hymne au progrès scientifique76.

 
La Planche 1-143 de l'Encyclopédie représentant l'anatomie humaine.

Avec l'Encyclopédie naît également la conception classique que la science doit son apparition à la découverte de la méthode expérimentale. d'Alembert explique ainsi, dans le Discours préliminaire de l'Encyclopédie (1759) que :

« Ce n'est point par des hypothèses vagues et arbitraires que nous pouvons espérer de connaître la nature, c'est (…) par l'art de réduire autant qu'il sera possible, un grand nombre de phénomènes à un seul qui puisse en être regardé comme le principe (…). Cette réduction constitue le véritable esprit systématique, qu'il faut bien se garder de prendre pour l'esprit de système77 »

Rationalisme et science moderne

La période dite des Lumières initie la montée du courant rationaliste, provenant de René Descartes puis des philosophes anglais, comme Thomas Hobbes et David Hume, qui adoptent une démarche empirique78, mettant l’accent sur les sens et l’expérience dans l’acquisition des connaissances, au détriment de la raison pure. Des penseurs, également scientifiques (comme Gottfried Wilhelm Leibniz, qui développe les mathématiques et le calcul infinitésimal, ou Emmanuel Kant, le baron d'Holbach, dans Système de la nature, dans lequel il soutient l’athéisme contre toute conception religieuse ou déiste, le matérialisme et le fatalisme c'est-à-dire le déterminisme scientifique, ou encore Pierre Bayle avec ses Pensées diverses sur la comète79) font de la Raison (avec une majuscule) un culte au progrès et au développement social. Les découvertes d'Isaac Newton, sa capacité à confronter et à assembler les preuves axiomatiques et les observations physiques en un système cohérent donnent le ton de tout ce qui suit son exemplaire Philosophiae Naturalis Principia Mathematica. En énonçant en effet la théorie de la gravitation universelle, Newton inaugure l'idée d'une science comme discours tendant à expliquer le monde, considéré comme rationnel car ordonné par des lois reproductibles.

L'avènement du sujet pensant, en tant qu'individu qui peut décider par son raisonnement propre et non plus sous le seul joug des us et coutumes, avec John Locke, permet la naissance des sciences humaines, comme l'économie, la démographie, la géographie ou encore la psychologie.

Naissance des grandes disciplines scientifiques

 

La majorité des disciplines majeures de la science se consolident, dans leurs épistémologies et leurs méthodes, au XVIIIe siècle. La botanique apparaît avec Carl von Linné qui publie en 1753 Species plantarum, point du départ du système du binôme linnéen et de la nomenclature botanique80. La chimie naît par ailleurs avec Antoine Laurent de Lavoisier, qui énonce en 1778 la loi de conservation de la matière, identifie et baptise l'oxygène. Les sciences de la terre font aussi leur apparition. Comme discipline, la médecine progresse également avec la constitution des examens cliniques et les premières classification des maladies par William Cullen et François Boissier de Sauvages de Lacroix.

XIXe siècle

La biologie connaît au XIXe siècle de profonds bouleversements avec la naissance de la génétique, à la suite des travaux de Gregor Mendel, le développement de la physiologie, l'abandon du vitalisme à la suite de la synthèse de l'urée qui démontre que les composés organiques obéissent aux mêmes lois physico-chimiques que les composés inorganiques. L'opposition entre science et religion se renforce avec la parution de L'Origine des espèces81 en 1859 de Charles Darwin. Les sciences humaines naissent, la sociologie avec Auguste Comte, la psychologie avec Charcot et Wilhelm Maximilian Wundt.

Claude Bernard et la méthode expérimentale

 

Claude Bernard (1813-1878) est un médecin et physiologiste, connu pour l'étude du syndrome de Claude Bernard-Horner. Il est considéré comme le fondateur de la médecine expérimentale82,note 23. Il rédige la première méthode expérimentale, considérée comme le modèle à suivre de la pratique scientifique. Il énonce ainsi les axiomes de la méthode médicale dans Introduction à l'étude de la médecine expérimentale (1865) et en premier lieu l'idée que l'observation doit réfuter ou valider la théorie :

« La théorie est l’hypothèse vérifiée après qu’elle a été soumise au contrôle du raisonnement et de la critique. Une théorie, pour rester bonne, doit toujours se modifier avec le progrès de la science et demeurer constamment soumise à la vérification et la critique des faits nouveaux qui apparaissent. Si l’on considérait une théorie comme parfaite, et si on cessait de la vérifier par l’expérience scientifique, elle deviendrait une doctrine83 »

Révolution Industrielle

 
Un des premiers microscopes.

Les Première et Seconde Révolutions Industrielles sont marquées par de profonds bouleversements économiques et sociaux, permis par les innovations et découvertes scientifiques et techniques. La vapeur, puis l'électricité comptent parmi ces progrès notables qui ont permis l'amélioration des transports et de la production. Les instruments scientifiques sont plus nombreux et plus sûrs, tels le microscope (à l'aide duquel Louis Pasteur découvre les microbes) ou le télescope se perfectionnent. La physique acquiert ses principales lois, notamment avec James Clerk Maxwell qui, énonce les principes de la théorie cinétique des gaz ainsi que l'équation d'onde fondant l'électromagnétisme. Ces deux découvertes permirent d'importants travaux ultérieurs notamment en relativité restreinte et en mécanique quantique. Il esquisse ainsi les fondements des sciences du XXe siècle, notamment les principes de la physique des particules, à propos de la nature de la lumière.

Une science « post-industrielle »

Tout comme le XIXe siècle, le XXe siècle connaît une accélération importante des découvertes scientifiques. On note l'amélioration de la précision des instruments, qui eux-mêmes reposent sur les avancées les plus récentes de la science ; l'informatique qui se développe à partir des années 1950 et permet un meilleur traitement d'une masse d'informations toujours plus importante et aboutit à révolutionner la pratique de la recherche, est un de ces instruments.

Les échanges internationaux des connaissances scientifiques sont de plus en plus rapides et faciles (ce qui se traduit par des enjeux linguistiques) ; toutefois, les découvertes les plus connues du XXe siècle précèdent la véritable mondialisation et l'uniformisation linguistique des publications scientifiques. En 1971, la firme Intel met au point le premier micro-processeur et, en 1976, Apple commercialise le premier ordinateur de bureau. Dans La Société post-industrielle. Naissance d'une société, le sociologue Alain Touraine présente les caractéristiques d'une science au service de l'économie et de la prospérité matérielle.

Complexification des sciences

De « révolutions scientifiques »note 24 en révolutions scientifiques, la science voit ses disciplines se spécialiser. La complexification des sciences explose au XXe siècle, conjointement à la multiplication des champs d'étude. Parallèlement, les sciences viennent à se rapprocher voire à travailler ensemble. C'est ainsi que, par exemple, la biologie fait appel à la chimie et à la physique, tandis que cette dernière utilise l'astronomie pour confirmer ou infirmer ses théories (développant l'astrophysique). Les mathématiques deviennent le « langage » commun des sciences ; les applications étant multiples. Le cas de la biologie est exemplaire. Elle se divisée en effet en de nombreuses branches : biologie moléculaire, biochimie, biologie génétique, agrobiologie, etc.

 
L'informatique, innovation majeure du XXe siècle, a apporté une précieuse assistance aux travaux de recherche.

La somme des connaissances devient telle qu'il est impossible pour un scientifique de connaître parfaitement plusieurs branches de la science. C'est ainsi qu'ils se spécialisent de plus en plus et, pour contrebalancer cela, le travail en équipe devient la norme. Cette complexification rend la science de plus en plus abstraite pour ceux qui ne participent pas aux découvertes scientifiques, en dépit de programmes nationaux et internationaux (sous l'égide de l'ONU, avec l'Organisation des Nations unies pour l'éducation, la science et la culture (UNESCO)) de vulgarisation des savoirs.

Développement des sciences sociales

Le siècle est également marqué par le développement des sciences sociales. Celles-ci comportent de nombreuses disciplines comme l'anthropologie, la sociologie, l'ethnologie, l'histoire, la psychologie, la linguistique, la philosophie, l'archéologie, l'économie, entre autres.

Éthique et science : l'avenir de la science au XXIe siècle

Le XXIe siècle est caractérisé par une accélération des découvertes de pointe, comme la nanotechnologie. Par ailleurs, au sein des sciences naturelles, la génétique promet des changements sociaux ou biologiques sans précédent. L'informatique est par ailleurs à la fois une science et un instrument de recherche puisque la simulation informatique permet d'expérimenter des modèles toujours plus complexes et gourmands en termes de puissance de calcul. La science se démocratise d'une part : des projets internationaux voient le jour (lutte contre le SIDA et le cancer, programme SETI, astronomie, détecteurs de particules, etc.) ; d'autre part la vulgarisation scientifique permet de faire accéder toujours plus de personnes au raisonnement et à la curiosité scientifique.

 
Une application nanotechnologique.

L'éthique devient une notion concomitante à celle de science. Les nanotechnologies et la génétique surtout posent les problèmes de société futurs, à savoir, respectivement, les dangers des innovations pour la santé et la manipulation du patrimoine héréditaire de l'homme. Les pays avancés technologiquement créent ainsi des organes institutionnels chargé d'examiner le bien-fondé des applications scientifiques. Par exemple, des lois bioéthiques se mettent en place à travers le monde, mais pas partout de la même manière, étant très liées aux droits locaux. En France, le Comité Consultatif National d'Éthique est chargé de donner un cadre légal aux découvertes scientifiques84.

Disciplines scientifiques

La science peut être organisée en grandes disciplines scientifiques, notamment : mathématiques, chimie, biologie, géologie, physique, mécanique, informatique, psychologie, optique, pharmacie, médecine, astronomie, archéologie, économie, sociologie, anthropologie, linguistique, géographie. Les disciplines ne se distinguent pas seulement par leurs méthodes ou leurs objets, mais aussi par leurs institutions : revues, sociétés savantes, chaires d'enseignement, ou même leurs diplômes.

L'acronyme STEM désigne quatre disciplines : sciences, en technologie, ingénierie et en mathématiques. Les STEM sous-tendent le Programme de développement durable à l’horizon 2030 [archive]85.

Classification des sciences

Plusieurs axes de classification des disciplines existent et sont présentées dans cette section :

Par ailleurs, le terme de « science pure » est parfois employé pour catégoriser les sciences formelles (la mathématique et la logique, essentiellement) ou fondamentales, selon le sens, qui sont construites sur des entités purement abstraites86, tandis que les sciences dures regroupent les sciences formelles et naturelles.

Lab bench.jpg
 

Les sciences sociales, comme la sociologie, portent sur l'étude des phénomènes sociaux, les secondes, comme la physique, portent sur l'étude des phénomènes naturels. Plus récemment, quelques auteurs, comme Herbert Simon87,88, ont évoqué l'apparition d'une catégorie intermédiaire, celle des sciences de l'artificiel, qui portent sur l'étude de systèmes créés par l'homme, mais qui présentent un comportement indépendant ou relativement à l'action humaine. Il s'agit par exemple des sciences de l'ingénieur.

On peut également distinguer les sciences empiriques, qui portent sur l'étude des phénomènes accessibles par l'observation et l'expérimentation, des sciences logico-formelles, comme la logique ou les mathématiques, qui portent sur des entités purement abstraites. Une autre manière de catégoriser les sciences consiste à distinguer les sciences fondamentales, dont le but premier est de produire des connaissances, des sciences appliquées, qui visent avant tout à appliquer ces connaissances à la résolution de problèmes concrets. D'autres catégorisations existent, notamment la notion de science exacte ou de science dure. Ces dernières catégorisations, bien que très courantes, sont beaucoup plus discutables que les autres, car elles sont porteuses d'un jugement (certaines sciences seraient plus exactes que d'autres, certaines sciences seraient « molles »).

En outre, certains savants, comme Paul Oppenheim, ont proposé une classification des sciences les imbriquant les unes dans les autres, selon le principe des poupées russes.89

De manière générale, aucune catégorisation n'est complètement exacte ni entièrement justifiable, et les zones épistémologiques entre elles demeurent floues90. Pour Robert Nadeau : « on reconnaît généralement qu’on peut classer [les sciences] selon leur objet (…), selon leur méthode (…), et selon leur but91. »

Sciences fondamentales et appliquées

Cette classification première repose sur la notion d'utilité : certaines sciences produisent des connaissances en sorte d’agir sur le monde (les sciences appliquées, qu'il ne faut pas confondre avec la technique en tant qu'application de connaissances empiriques), c’est-à-dire dans la perspective d’un objectif pratique, économique ou industriel, tandis que d'autres (les sciences fondamentales) visent en priorité l’acquisition de nouvelles connaissances.

Néanmoins, cette limite est floue. Les mathématiques, la physique, la chimie, la sociologie ou la biologie peuvent ainsi aussi bien être fondamentales qu'appliquées, selon le contexte. En effet, Les découvertes issues de la science fondamentale trouvent des fins utiles (exemple : le laser et son application au son numérique sur CD-ROM). De même, certains problèmes techniques mènent parfois à de nouvelles découvertes en science fondamentale. Ainsi, les laboratoires de recherche et les chercheurs peuvent faire parallèlement de la recherche appliquée et de la recherche fondamentale. Par ailleurs, la recherche en sciences fondamentales utilise les technologies issues de la science appliquée, comme la microscopie, les possibilités de calcul des ordinateurs par la simulation numérique, par exemple.

 
Un groupe de chercheurs travaillant sur une expérience.

Certaines disciplines restent cependant plus ancrées dans un domaine que dans un autre. La cosmologie et l'astronomie sont par exemple des sciences exclusivement fondamentales tandis que la médecine, la pédagogie ou l'ingénierie sont des sciences essentiellement appliquées.

Par ailleurs, les mathématiques sont souvent considérées comme autre chose qu'une science, en partie parce que la vérité mathématique n'a rien à voir avec la vérité des autres sciences. L'objet des mathématiques est en effet interne à cette discipline. Ainsi, sur cette base, les mathématiques appliquées souvent perçus davantage comme une branche mathématique au service d'autres sciences (comme le démontrent les travaux du mathématicien Jacques-Louis Lions qui explique : « Ce que j'aime dans les mathématiques appliquées, c'est qu'elles ont pour ambition de donner du monde des systèmes une représentation qui permette de comprendre et d'agir ») seraient bien plutôt sans finalité pratique. A contrario, les mathématiques possèdent un nombre important de branches, d'abord abstraites, s'étant développées au contact avec d'autres disciplines comme les statistiques, la théorie des jeux, la logique combinatoire, la théorie de l'information, la théorie des graphes entre autres exemples, autant de branches qui ne sont pas catalogués dans les mathématiques appliquées mais qui pourtant irriguent d'autres branches scientifiques.

Sciences nomothétiques et idiographiques

Un classement des sciences peut s'appuyer sur les méthodes mise en œuvre. Une première distinction de cet ordre peut être faite entre les sciences nomothétiques et les sciences idiographiques :

 
Wilhelm Windelband.

C'est à Wilhelm Windelband, philosophe allemand du XIXe siècle, que l'on doit la première ébauche de cette distinction, la réflexion de Windelband portant sur la nature des sciences sociales. Dans son Histoire et science de la nature (1894), il soutient que l'opposition entre sciences de la nature et de l'esprit repose sur une distinction de méthode et de « formes d'objectivation »92. Jean Piaget reprendra le vocable de nomothétique pour désigner les disciplines cherchant à dégager des lois ou des relations quantitatives en utilisant des méthodes d'expérimentation stricte ou systématique. Il cite la psychologie scientifique, la sociologie, la linguistique, l'économie et la démographie. Il distingue ces disciplines des sciences historiques, juridiques et philosophiques93.

Sciences empiriques et logico-formelles

Une catégorisation a été proposée par l'épistémologie, distinguant les « sciences empiriques » et les « sciences logico-formelles ». Leur point commun reste les mathématiques et leur usage dans les disciplines liées ; cependant, selon les mots de Gilles-Gaston Granger, « la réalité n'est pas aussi simple. Car, d'une part, c'est souvent à propos de questions posées par l'observation empirique que des concepts mathématiques ont été dégagés ; d'autre part, si la mathématique n'est pas une science de la nature, elle n'en a pas moins de véritables objets »94. Selon Léna Soler, dans son Introduction à l’épistémologie, distingue d’une part les sciences formelles des sciences empiriques, d’autre part les sciences de la nature des sciences humaines et sociale95 :

Sciences de la nature et sciences sociales

Selon Gilles Gaston Granger, il existe une autre sorte d'opposition épistémologique, distinguant d'une part les sciences de la nature, qui ont des objets émanant du monde sensible, mesurables et classables ; d'autre part les sciences de l'homme aussi dites sciences humaines, pour lesquelles l'objet est abstrait. Gilles-Gaston Granger récuse par ailleurs de faire de l'étude du phénomène humain une science proprement ditenote 26 :

Le sens commun associe une discipline à un objet. Par exemple la sociologie s’occupe de la société, la psychologie de la pensée, la physique s’occupe de phénomènes mécaniques, thermiques, la chimie s’occupe des réactions de la matière. La recherche moderne montre néanmoins l’absence de frontière et la nécessité de développer des transversalités ; par exemple, pour certaines disciplines on parle de « physico-chimique » ou de « chimio-biologique », expressions qui permettent de montrer les liens forts des spécialités entre elles. Une discipline est finalement définie par l’ensemble des référentiels qu’elle utilise pour étudier un ensemble d’objets, ce qui forme sa scientificité. Néanmoins, ce critère n'est pas absolu.

Pour le sociologue Raymond Boudon, il n'existe pas une scientificité unique et transdisciplinaire. Il s’appuie ainsi sur la notion d’« airs de famille », notion déjà théorisée par le philosophe Ludwig Wittgenstein selon laquelle il n'existe que des ressemblances formelles entre les sciences, sans pour autant en tirer une règle générale permettant de dire ce qu'est « la science ». Raymond Boudon, dans L’art de se persuader des idées douteuses, fragiles ou fausses96 explique que le relativisme « s'il est une idée reçue bien installée […], repose sur des bases fragiles » et que, contrairement à ce que prêche Feyerabend, « il n'y a pas lieu de congédier la raison ».

Classification des Sciences de l'Homme et sociales (SHS) en France

Au niveau de la recherche scientifique en France, le classement des disciplines est le suivant dans la nouvelle nomenclature (2010) de la stratégie nationale pour la recherche et l'innovation (SNRI) des Sciences de l'Homme et de la Société (SHS)97 :

Raisonnement scientifique

Type formel pur

Selon Emmanuel Kant, la logique formelle est « science qui expose dans le détail et prouve de manière stricte, uniquement les règles formelles de toute pensée ». Les mathématiques et la logique formalisées composent ce type de raisonnement. Cette classe se fonde par ailleurs sur deux principes constitutifs des systèmes formels : l'axiome et les règles de déduction ainsi que sur la notion de syllogisme, exprimée par Aristote le premier98 et liée au « raisonnement déductif » (on parle aussi de raisonnement « hypothético-déductif »), qu'il expose dans ses Topiques99 et dans son traité sur la logique : Les Analytiques.

Il s'agit également du type qui est le plus adéquat à la réalité, celui qui a fait le plus ses preuves, par la technique notamment. Le maître-mot du type formel pur est la démonstration logique et non-contradictoire (entendu comme la démonstration qu'on ne pourra dériver dans le système étudié n'importe quelle proposition)100. En d'autres termes, il ne s'agit pas à proprement parler d'un raisonnement sur l'objet mais bien plutôt d'une méthode pour traiter les faits au sein des démonstrations scientifiques et portant sur les propositions et les postulats.

On distingue ainsi dans ce type deux disciplines fondamentales :

  1. la logique de la déduction naturelle ;
  2. la logique combinatoire.

Le type formel fut particulièrement développé au XXe siècle, avec le logicisme et la philosophie analytique. Bertrand Russell développe en effet une « méthode atomique » (ou atomisme logique) qui s’efforce de diviser le langage en ses parties élémentaires, ses structures minimales, la phrase simple en somme. Wittgenstein projetait en effet d’élaborer un langage formel commun à toutes les sciences permettant d'éviter le recours au langage naturel, et dont le calcul propositionnel représente l'aboutissement. Cependant, en dépit d'une stabilité épistémologique propre, a contrario des autres types, le type formel pur est également largement tributaire de l'historicité des sciences101

Type empirico-formel

Le modèle de ce type, fondé sur l'empirisme, est la physique. L'objet est ici concret et extérieur, non construit par la discipline (comme dans le cas du type formel pur). Ce type est en fait la réunion de deux composantes :

 
Expérience démontrant la viscosité du bitume.

Le type empirico-formel progresse ainsi de la théorie — donnée comme a priori — à l'empirie, puis revient sur la première via un raisonnement circulaire destiné à confirmer ou réfuter les axiomes. Le « modèle » est alors l'intermédiaire entre la théorie et la pratique. Il s'agit d'une schématisation permettant d'éprouver ponctuellement la théorie. La notion de « théorie » est depuis longtemps centrale en philosophie des sciences, mais elle est remplacée, sous l'impulsion empiriste, par celle de modèle, dès le milieu du XXe sièclenote 27. L'expérience (au sens de mise en pratique) est ici centrale, selon l'expression de Karl Popper : « Un système faisant partie de la science empirique doit pouvoir être réfuté par l'expérience »102.

Parmi les sciences empiriques, on distingue deux grandes familles de sciences : les sciences de la nature et les sciences humaines. Néanmoins, l'empirisme seul ne permet pas, en se coupant de l'imagination, d'élaborer des théories novatrices, fondées sur l'intuition du scientifique, permettant de dépasser des contradictions que la simple observation des faits ne pourrait résoudre.

Des débats portent néanmoins quant à la nature empirique de certaines sciences humaines, comme l'économie103 ou l'histoire, qui ne reposent pas sur une méthode totalement empirique, l'objet étant virtuel dans les deux disciplines.

Type herméneutique

Les sciences herméneutiques (du grec hermeneutikè, « art d'interpréter ») décodent les signes naturels et établissent des interprétations. Ce type de discours scientifique est caractéristique des sciences humaines, où l'objet est l'homme. Dans la méthode herméneutique, les effets visibles sont considérés comme un texte à décoder, à la signification cachée. La phénoménologie est ainsi l'explication philosophique la plus proche de ce type104, qui regroupe, entre autres, la sociologie, la linguistique, l'économie, l'ethnologie, la théorie des jeux, etc.

Il peut s'agir dès lors de deux catégories de discours :

  1. l'intention première est alors l'objet de la recherche herméneutique, exemple : dans la psychologie ;
  2. l'interprétation est aussi possible : la théorie prévoit les phénomènes, simule les relations et les effets mais l'objet reste invisible (cas de la psychanalyse).

Par rapport aux deux autres types formels, le statut scientifique du type herméneutique est contesté par les tenants d'une science mathématique, dite « dure ».

 

À la conception de l’unité de la science postulée par le positivisme tout un courant de pensée va, à la suite de Wilhelm Dilthey (1833-1911), affirmer l’existence d’une coupure radicale entre les sciences de la nature et les sciences de l’esprit. Les sciences de la nature ne cherchent qu'à expliquer leur objet, tandis que les sciences de l'homme, et l'histoire en particulier, demandent également à comprendre de l'intérieur et donc à prendre en considération le vécu. Ces dernières ne doivent pas adopter la méthode en usage dans les sciences de la nature car elles ont un objet qui lui est totalement différent. Les sciences sociales doivent être l'objet d'une introspection, ce que Wilhelm Dilthey appelle une « démarche herméneutique », c’est-à-dire une démarche d’interprétation des manifestations concrètes de l’esprit humain. Le type herméneutique marque le XXe siècle, avec des auteurs comme Hans-Georg Gadamer qui publia en 1960, Vérité et Méthode qui, s'opposant à l'empirisme tout-puissant, affirme que « la méthode ne suffit pas »105.

 
La scientificité ne se limite pas à l'observation.

Scientifique et méthode scientifique

La connaissance acquise ne peut être qualifiée de scientifique que si la scientificité des processus d'obtention a été démontrée.

La « méthode scientifique » (grec ancien méthodos, « poursuite, recherche, plan ») est « l'ensemble des procédés raisonnés pour atteindre un but ; celui-ci peut être de conduire un raisonnement selon des règles de rectitude logique, de résoudre un problème de mathématique, de mener une expérimentation pour tester une hypothèse scientifique »106. Elle est étroitement liée au but recherché et à l'histoire des sciences107. La méthode scientifique suit par ailleurs cinq opérations distinctes :

Scientificité

La scientificité est la qualité des pratiques et des théories qui cherchent à établir des régularités reproductibles, mesurables et réfutables dans les phénomènes par le moyen de la mesure expérimentale, et à en fournir une représentation explicite.

Plus généralement, c'est le « caractère de ce qui répond aux critères de la science »108. De manière générale à toutes les sciences, la méthode scientifique repose sur quatre critères :

  1. elle est systématique (le protocole doit s'appliquer à tous les cas, de la même façon) ;
  2. elle fait preuve d'objectivité (c'est le principe du « double-aveugle » : les données doivent être contrôlées par des collègues chercheurs - c'est le rôle de la publication) ;
  3. elle est rigoureuse, testable (par l'expérimentation et les modèles scientifiques) ;
  4. et enfin, elle doit être cohérente (les théories ne doivent pas se contredire, dans une même discipline).

Néanmoins, chacun de ces points est problématique, et les questionnements de l'épistémologie portent principalement sur les critères de scientificité. Ainsi, concernant la cohérence interne aux disciplines, l'épistémologue Thomas Samuel Kuhn bat en brèche ce critère de scientificité, en posant que les paradigmes subissent des « révolutions scientifiques » : un modèle n'est valable tant qu'il n'est pas remis en cause. Le principe d'objectivité, qui est souvent présenté comme l'apanage de la science, est, de même, source d'interrogations, surtout au sein des sciences humaines.

Pour le sociologue de la science Roberto Miguelez : « Il semble bien que l'idée de la science suppose, premièrement, celle d'une logique de l'activité scientifique ; deuxièmement, celle d'une syntaxe du discours scientifique. En d'autres termes, il semble bien que, pour pouvoir parler de la science, il faut postuler l'existence d'un ensemble de règles - et d'un seul - pour le traitement des problèmes scientifiques - ce qu'on appellera alors « la méthode scientifique » -, et d'un ensemble de règles - et d'un seul - pour la construction d'un discours scientifique »109. La sociologie des sciences étudie en effet de plus en plus les critères de scientificité, au sein de l'espace social scientifique, passant d'une vision interne, celle de l'épistémologie, à une vision davantage globale.

Expérimentation

 
Thomas Edison dans son laboratoire (1901).

L'« expérimentation » est une méthode scientifique qui consiste à tester par des expériences répétées la validité d'une hypothèse et à obtenir des données quantitatives permettant de l'affiner. Elle repose sur des protocoles expérimentaux permettant de normaliser la démarche. La physique ou la biologie reposent sur une démarche active du scientifique qui construit et contrôle un dispositif expérimental reproduisant certains aspects des phénomènes naturels étudiés. La plupart des sciences emploient ainsi la méthode expérimentale, dont le protocole est adapté à son objet et à sa scientificité. De manière générale, une expérience doit apporter des précisions quantifiées (ou statistiques) permettant de réfuter ou d'étayer le modèle. Les résultats des expériences ne sont pas toujours quantifiables, comme dans les sciences humaines. L'expérience doit ainsi pouvoir réfuter les modèles théoriques.

L'expérimentation a été mise en avant par le courant de l'empirisme. Néanmoins, le logicien et scientifique Charles Sanders Peirce (1839-1914), et plus tard mais indépendamment110, l'épistémologue Karl Popper (1902-1994), lui opposent l'abduction (ou méthode par conjecture et réfutation) comme étape première de la recherche scientifique. L'abduction (ou conjecture) est un procédé consistant à introduire une règle à titre d’hypothèse afin de considérer ce résultat comme un cas particulier tombant sous cette règle. Elle consiste en l'invention a priori d'une conjecture précédant l'expérience. En somme, cela signifie que l'induction fournit directement la théorie, alors que dans le processus abductif, la théorie est inventée avant l'expérience et cette dernière ne fait que répondre par l'affirmative ou par la négative à l'hypothèse.

Observation

 
L'observation scientifique passe par des instruments, ici des alambics pour la chimie.

L’« observation » est l’action de suivi attentif des phénomènes, sans volonté de les modifier, à l’aide de moyens d’enquête et d’étude appropriés. Les scientifiques y ont recours principalement lorsqu'ils suivent une méthode empirique. C'est par exemple le cas en astronomie ou en physique. Il s'agit d'observer le phénomène ou l'objet sans le dénaturer, ou même interférer avec sa réalité. Certaines sciences, comme la physique quantique ou la psychologie, prennent en compte l'observation comme un paradigme explicatif à part entière, influençant le comportement de l'objet observé. La philosophe Catherine Chevalley résume ainsi ce nouveau statut de l'observation : « Le propre de la théorie quantique est de rendre caduque la situation classique d’un « objet » existant indépendamment de l’observation qui en est faite ».

La science définit la notion d’observation dans le cadre de l’approche objective de la connaissance, observation permise par une mesure et suivant un protocole fixé d'avance.

Théorie et modèle

Une « théorie » (du grec theoria soit « vision du monde ») est un modèle ou un cadre de travail pour la compréhension de la nature et de l'humain. En physique, le terme de théorie désigne généralement le support mathématique, dérivé d'un petit ensemble de principes de base et d'équations, permettant de produire des prévisions expérimentales pour une catégorie donnée de systèmes physiques. Un exemple est la « théorie électromagnétique », habituellement confondue avec l'électromagnétisme classique, et dont les résultats spécifiques sont obtenus à partir des équations de Maxwell. L’adjectif « théorique » adjoint à la description d'un phénomène indique souvent qu'un résultat particulier a été prédit par une théorie mais qu'il n'a pas encore été observé. La théorie est ainsi bien souvent plus un modèle entre l'expérimentation et l'observation qui reste à confirmer.

La conception scientifique de la théorie devient ainsi une phase provisoire de la méthode expérimentale. Claude Bernard, dans son Introduction à la médecine expérimentale appuie sur le rôle clé des questions et sur l'importance de l'imagination dans la construction des hypothèses, sorte de théories en voie de développement. Le neurobiologiste Jean-Pierre Changeux explique ainsi :

« Le scientifique construit des « modèles » qu'il confronte au réel. Il les projette sur le monde ou les rejette en fonction de leur adéquation avec celui-ci sans toutefois prétendre l'épuiser. La démarche du scientifique est débat critique, « improvisation déconcertante », hésitation, toujours consciente de ses limites111 »

En effet, si l'expérimentation est prépondérante, elle ne suffit pas, conformément à la maxime de Claude Bernard : « La méthode expérimentale ne donnera pas d'idée neuve à ceux qui n'en ont pas », la théorie et le modèle permettant d'éprouver la réalité a priori.

Simulation

La « simulation » est la « reproduction artificielle du fonctionnement d'un appareil, d'une machine, d'un système, d'un phénomène, à l'aide d'une maquette ou d'un programme informatique, à des fins d'étude, de démonstration ou d'explication »112. Elle est directement liée à l'utilisation de l'informatique au XXe siècle. Il existe deux types de simulations :

 
Simulation d'une collision de particules.
  1. La modélisation physique consiste spécifiquement à utiliser un autre phénomène physique que celui observé, mais en y appliquant des lois ayant les mêmes propriétés et les mêmes équations. Un modèle mathématique est ainsi une traduction de la réalité pour pouvoir lui appliquer les outils, les techniques et les théories mathématiques. Il y a alors deux types de modélisations : les modèles prédictifs (qui anticipent des événements ou des situations, comme ceux qui prévoient le temps avec la météorologie) et les modèles descriptifs (qui représentent des données historiques).
  2. La simulation numérique utilise elle un programme spécifique ou éventuellement un progiciel plus général, qui génère davantage de souplesse et de puissance de calcul. Les simulateurs de vol d’avions par exemple permettent d'entraîner les pilotes. En recherche fondamentale les simulations que l'on nomme aussi « modélisations numériques » permettent de reproduire des phénomènes complexes, souvent invisibles ou trop ténus, comme la collision de particules.

Publication et littérature scientifique

Le terme de « publication scientifique » regroupe plusieurs types de communications que les chercheurs font de leurs travaux en direction d'un public de spécialistes, et ayant subi une forme d'examen de la rigueur de la méthode scientifique employée pour ces travaux, comme l'examen par un comité de lecture indépendant par exemple. La publication scientifique est donc la validation de travaux par la communauté scientifique. C'est aussi le lieu de débats contradictoires à propos de sujets polémiques ou de discussions de méthodes.

Il existe ainsi plusieurs modes de publications :

 
Un exemple de publication scientifique : la revue Science and Invention (1928).

Les publications qui entrent dans un des cadres ci-dessus sont généralement les seules considérées pour l'évaluation des chercheurs et les études bibliométriques, à tel point que l'adage « publish or perish » (publier ou périr) est fondé. La scientométrie est en effet une méthode statistique appliquée aux publications scientifiques. Elle est utilisée par les organismes finançant la recherche comme outil d'évaluation. En France, ces indicateurs, tel le facteur d'impact, occupent ainsi une place importante dans la LOLF (pour : Loi Organique relative aux Lois de Finances)113. Les politiques budgétaires dévolues aux laboratoires et aux unités de recherche dépendent ainsi souvent de ces indicateurs scientométriques.

Discours sur la science

Épistémologie

Le vocable d'« épistémologie » remplace celui de philosophie des sciences au début du XXe siècle114. Il s'agit d'un néologisme construit par James Frederick Ferrier, dans son ouvrage Institutes of metaphysics (1854). Le mot est composé sur la racine grecque επιστήμη / épistémê signifiant « science au sens de savoir et de connaissance » et sur le suffixe λόγος signifiant « le discours ». Ferrier l'oppose au concept antagoniste de l'« agnoiology », ou théorie de l'ignorance. Le philosophe analytique Bertrand Russell l'emploie ensuite, dans son Essai sur les fondements de la géométrie en 1901, sous la définition d'analyse rigoureuse des discours scientifiques, pour examiner les modes de raisonnement qu'ils mettent en œuvre et décrire la structure formelle de leurs théories115. En d'autres mots, les « épistémologues » se concentrent sur la démarche de la connaissance, sur les modèles et les théories scientifiques, qu'ils présentent comme autonomes par rapport à la philosophie116.

Jean Piaget117 proposait de définir l’épistémologie « en première approximation comme l’étude de la constitution des connaissances valables », dénomination qui, selon Jean-Louis Le Moigne, permet de poser les trois grandes questions de la discipline :

  1. Qu’est ce que la connaissance et quel est son mode d'investigation (c'est la question « gnoséologique ») ?
  2. Comment la connaissance est-elle constituée ou engendrée (c'est la question méthodologique) ?
  3. Comment apprécier sa valeur ou sa validité (question de sa scientificité) ?

Philosophie des sciences

Avant ces investigations, la science était conçue comme un corpus de connaissances et de méthodes, objet d’étude de la Philosophie des sciences, qui étudiait le discours scientifique relativement à des postulats ontologiques ou philosophiques, c'est-à-dire non-autonomes en soi. L'épistémologie permettra la reconnaissance de la science et des sciences comme disciplines autonomes par rapport à la philosophie. Les analyses de la science (l'expression de « métascience » est parfois employée) ont tout d’abord porté sur la science comme corpus de connaissance, et ont longtemps relevé de la philosophie. C'est le cas d'Aristote, de Francis Bacon, de René Descartes, de Gaston Bachelard, du cercle de Vienne, puis de Popper, Quine, Lakatos enfin, parmi les plus importants. L’épistémologie, au contraire, s'appuie sur l'analyse de chaque discipline particulière relevant des épistémologies dites « régionales ». Aurel David explique ainsi que « La science est parvenue à se fermer chez elle. Elle aborde ses nouvelles difficultés par ses propres moyens et ne s'aide en rien des productions les plus élevées et les plus récentes de la pensée métascientifique »118.

Pour le prix Nobel de physique Steven Weinberg, auteur de Le Rêve d'une théorie ultime (1997)119 la philosophie des sciences est inutile car elle n'a jamais aidé la connaissance scientifique à avancer.

Science au service de l'humanité : le progrès

Le terme de progrès vient du latin « progressus » qui signifie l'action d'avancer. Selon cette étymologie le progrès désigne un passage à un degré supérieur, c'est-à-dire à un état meilleur, participant à l'effort économique120. La civilisation se fonde ainsi, dans son développement, sur une série de progrès dont le progrès scientifique. La science serait avant tout un moyen de faire le bonheur de l'humanité, en étant le moteur du progrès matériel et moral. Cette identification de la science au progrès est très ancienne et remonte aux fondements philosophiques de la science121. Cette thèse est distincte de celle de la science dite pure (en elle-même), et pose le problème de l'autonomie de la science, en particulier dans son rapport au pouvoir politique122. Les questions éthiques limitent également cette définition de la science comme un progrès123. Certaines découvertes scientifiques ont des applications militaires ou même peuvent être létales en dépit d'un usage premier bénéfiquenote 28.

 
Albert Einstein et Robert Oppenheimer. L'utilisation militaire de la technologie nucléaire a posé un dilemme aux deux scientifiques.

Selon les tenants de la science comme moyen d'amélioration de la société, dont Ernest Renan ou Auguste Comte sont parmi les plus représentatifs, le progrès offre :

La thèse de la science pure pose, quant à elle, que la science est avant tout le propre de l'humain, ce qui fait de l'homme un animal différent des autres. Dans une lettre du 2 juillet 1830 adressée à Legendre, le mathématicien Charles Gustave Jacob Jacobi écrit ainsi, à propos du physicien Joseph Fourier : « M. Fourier avait l’opinion que le but principal des mathématiques était l’utilité publique et l’explication des phénomènes naturels ; mais un philosophe comme lui aurait dû savoir que le but unique de la science, c’est l’honneur de l’esprit humain, et que sous ce titre, une question de nombres vaut autant qu’une question du système du monde »124. D'autres courants de pensée comme le scientisme envisagent le progrès sous un angle plus utilitariste.

Enfin des courants plus radicaux posent que la science et la technique permettront de dépasser la condition ontologique et biologique de l'homme. Le transhumanisme ou l'extropisme sont par exemple des courants de pensée stipulant que le but de l'humanité est de dépasser les injustices biologiques (comme les maladies génétiques, grâce au génie génétique) et sociales (par le rationalisme), et que la science est le seul moyen à sa portée. À l'opposé, les courants technophobes refusent l'idée d'une science salvatrice, et pointent au contraire les inégalités sociales et écologiques, entre autres, que la science génère.

Interrogations de l'épistémologie

L'épistémologie pose un ensemble de questions philosophiques à la Science et à la « science en train de se faire ». La science progressant de manière fondamentalement discontinue, les renversements de représentations des savants, appelées également « paradigmes scientifiques » selon l'expression de Thomas Samuel Kuhn, sont également au cœur des interrogations épistémologiques. Parmi ces questions centrales de l'épistémologie on distingue :

  1. la nature de la production des connaissances scientifiques (par exemple, les types de raisonnements sont-ils fondés ?) ;
  2. la nature des connaissances en elles-mêmes (l'objectivité est-elle toujours possible, etc.). Ce problème d'épistémologie concerne plus directement la question de savoir comment identifier ou démarquer les théories scientifiques des théories métaphysiques ;
  3. l'organisation des connaissances scientifiques (notions de théories, de modèles, d'hypothèses, de lois) ;
  4. l'évolution des connaissances scientifiques (quel mécanisme meut la science et les disciplines scientifiques).

Nombre de philosophes ou d'épistémologues ont ainsi interrogé la nature de la science et en premier lieu la thèse de son unicité. L'épistémologue Paul Feyerabend, dans Contre la méthode, est l'un des premiers, dans les années soixante-dix, à se révolter contre les idées reçues à l'égard de la science et à relativiser l'idée trop simple de « méthode scientifique ». Il expose une théorie anarchiste de la connaissance plaidant pour la diversité des raisons et des opinions, et explique en effet que « la science est beaucoup plus proche du mythe qu’une philosophie scientifique n’est prête à l’admettre »125. Le philosophe Louis Althusser, qui a produit un cours sur cette question dans une perspective marxiste, soutient que « tout scientifique est affecté d’une idéologie ou d’une philosophie scientifique »126 qu’il appelle « Philosophie Spontanée des Savants » (« P.S.S »127). Dominique Pestre s'attache lui à montrer l'inutilité d'une distinction entre « rationalistes » et « relativistes », dans Introduction aux Science Studies.

Grands modèles épistémologiques

L'histoire des sciences et de la philosophie a produit de nombreuses théories quant à la nature et à la portée du phénomène scientifique. Il existe ainsi un ensemble de grands modèles épistémologiques qui prétendent expliquer la spécificité de la science. Le XXe siècle a marqué un tournant radical. Très schématiquement, aux premières réflexions purement philosophiques et souvent normatives sont venus s’ajouter des réflexions plus sociologiques et psychologiques, puis des approches sociologiques et anthropologiques dans les années 1980, puis enfin des approches fondamentalement hétérogènes à partir des années 1990 avec les Science studies. Le discours sera également interrogé par la psychologie avec le courant du constructivisme. Enfin, l'épistémologie s'intéresse à la « science en action » (expression de Bruno Latour), c'est-à-dire à sa mise en œuvre au quotidien et plus seulement à la nature des questions théoriques qu'elle produit.

Cartésianisme et rationalisme

Empirisme

Positivisme d'Auguste Comte

Critique de l'induction de Mach

Réfutabilité de Karl Popper et les « programmes de recherche scientifique » de Imre Lakatos

« Science normale » de Thomas Kuhn

Constructivisme

Science et société

Histoire

 
La représentation du monde au Moyen Âge.

Le Concile de Nicée de 325 avait instauré dans l'Église l'argument dogmatique selon lequel Dieu avait créé le ciel et la terre en six jours. Cependant, des explications scientifiques furent possibles dès ce credo, qui ne se prononçait pas sur l'engendrement du monde, œuvre du Christ. Cette lacune théologique avait permis une certaine activité scientifique au Moyen Âge, dont, en premier lieu, l'astronomie. Dès le VIIIe siècle, la science arabo-musulmane prospérait et développait la médecine, les mathématiques, l'astronomie, et d'autres sciences. À cette époque, dans l'islam, la science était particulièrement encouragée, le monde étant vu comme un code à déchiffrer pour comprendre les messages divins. Les pays de culture chrétienne en profitèrent largement à partir du XIIe siècle lors d'une période de renouveau appelée Renaissance du XIIe siècle par l'historien Charles H. Haskins.

Au sein du christianisme, le premier pas en faveur de l'héliocentrisme (qui place la Terre en orbitation autour du Soleil) est fait par le chanoine Nicolas Copernic, avec le De revolutionibus (1543). Le Concile de Trente (1545-1563) encouragea les communautés religieuses à mener des recherches scientifiques. Mais Galilée se heurte à la position de l'Église en faveur du géocentrisme, en vertu d'une interprétation littérale de la Bible, qui recoupait la représentation du monde des savants grecs de l'Antiquité (Ptolémée et Aristote). Le procès de Galilée, en 1633, marque un divorce entre la pensée scientifique et la pensée religieuse128, pourtant initiée par l'exécution de Giordano Bruno en 1600note 29. L'opposition des autorités religieuses aux implications des découvertes faites par des scientifiques, telle qu'elle s'est manifestée dans le cas de Galilée, est apparue a posteriori comme une singularité dans l'Histoirenote 30. Le procès de Galilée devint le symbole d'une science devenant indépendante de la religion, voire opposée à elle. Cette séparation est consommée au XVIIIe siècle, pendant les Lumières.

Au XIXe siècle, les scientismes posent que la science seule peut expliquer l'univers et que la religion est l'« opium du peuple » comme dira plus tard Karl Marx qui fonde la vision matérialiste de l'histoire. Les réussites scientifiques et techniques, qui améliorent la civilisation et la qualité de vie, le progrès scientifique en somme, bat en brèche les dogmes religieux, quelle que soit la confession. Les théories modernes de la physique et de la biologie (avec Charles Darwin et l'évolution), les découvertes de la psychologie, pour laquelle le sentiment religieux demeure un phénomène intérieur voire neurologique, supplantent les explications mystiques et spirituelles.

Au XXe siècle, l'affrontement des partisans de la théorie de l'évolution et des créationnistes, souvent issus des courants religieux radicaux, cristallise le dialogue difficile de la foi et de la raison. Le « procès du singe » (à propos de l'« ascendance » simiesque de l'homme) illustre ainsi un débat permanent au sein de la société civile129. Enfin, nombre de philosophes ou d'épistémologues se sont interrogés sur la nature de la relation entre les deux institutions. Le paléontologue Stephen Jay Gould dans « Que Darwin soit ! » parle de deux magistères, chacun restant maître de son territoire mais ne s'empiétant pas, alors que Bertrand Russell mentionne dans son ouvrage Science et Religion les conflits les opposant. Nombre de religieux tentent, comme Pierre Teilhard de Chardin ou Georges Lemaître (père de la théorie du Big bang), d'allier explication scientifique et ontologie religieuse.

L'encyclique de 1998, Fides et ratio, de Jean-Paul II cherche à réconcilier la religion et la science en proclamant que « la foi et la raison sont comme les deux ailes qui permettent à l'esprit humain de s'élever vers la contemplation de la vérité ».

Les explications de la science restent limitées aux phénomènes. La question des fins ultimes reste donc ouverte, et comme le remarquait Karl Popper130 :

« Toutes nos actions ont des fins, des fins ultimes, et la science n’a affaire qu’aux moyens que nous pouvons régulièrement et rationnellement mettre en œuvre pour atteindre certaines fins. »

Science et pseudo-sciences

Une « pseudo-science » (grec ancien pseudês, « faux ») est une démarche prétendument scientifique qui ne respecte pas les canons de la méthode scientifique, dont celui de réfutabilité.

 
L'astrologie est considérée comme une pseudo-science.

Ce terme, de connotation normative, est utilisé dans le but de dénoncer certaines disciplines en les démarquant des démarches au caractère scientifique reconnu. C'est au XIXe siècle (sous l'influence du positivisme d'Auguste Comte, du scientisme et du matérialisme) que fut exclu du domaine de la science tout ce qui n'est pas vérifiable par la méthode expérimentale. Un ensemble de critères explique en quoi une théorie peut être classée comme pseudo-science. Karl Popper relègue ainsi la psychanalyse au rang de pseudo-science, au même titre que, par exemple, l'astrologie, la phrénologie ou la divination131. Le critère de Popper est cependant contesté pour certaines disciplines ; pour la psychanalyse, parce que la psychanalyse ne prétend pas être une science exacte. De plus, Popper a été assez ambigu sur le statut de la théorie de l'évolution dans son système.

Les sceptiques, comme Richard Dawkins, Mario Bunge, Carl Sagan, Richard Feynman ou encore James Randi considèrent toute pseudo-science comme dangereuse. Le mouvement zététique œuvre quant à lui principalement à mettre à l'épreuve ceux qui affirment réaliser des actions scientifiquement inexplicables.

Science et protoscience

Si le terme normatif « pseudoscience » démarque les vraies sciences des fausses sciences, le terme protoscience (du grec πρῶτος, protos : premier, initial) inscrit les champs de recherche dans un continuum temporel : est protoscientifique ce qui pourrait, dans l'avenir, être intégré dans la science, ou ne pas l'être. Le terme anglophone de fringe science désigne un domaine situé en marge de la science, entre la pseudo-science et la protoscience.

Science ou technique ?

La technique (grec ancien τέχνη, « technê », soit « art, métier, savoir-faire ») « concerne les applications de la science, de la connaissance scientifique ou théorique, dans les réalisations pratiques, les productions industrielles et économiques »132. La technique couvre ainsi l'ensemble des procédés de fabrication, de maintenance, de gestion, de recyclage et, même d'élimination des déchets, qui utilisent des méthodes issues de connaissances scientifiques ou simplement des méthodes dictées par la pratique de certains métiers et l'innovation empirique. On peut alors parler d'art, dans son sens premier, ou de « science appliquée ». La science est elle autre chose, une étude plus abstraite. Ainsi l'épistémologie examine entre autres les rapports entre la science et la technique, comme l'articulation entre l'abstrait et le savoir-faire. Néanmoins, historiquement, la technique est première. « L’homme a été Homo faber, avant d’être Homo sapiens », explique le philosophe Bergson. Contrairement à la science, la technique n’a pas pour vocation d’interpréter le monde, elle est là pour le transformer, sa vocation est pratique et non théorique.

La technique est souvent considérée comme faisant partie intégrante de l’histoire des idées ou à l'histoire des sciences. Pourtant il faut bien admettre la possibilité d’une technique « a-scientifique », c'est-à-dire évoluant en dehors de tout corpus scientifique et que résume les paroles de Bertrand Gille : « le progrès technique s'est fait par une somme d'échecs que vinrent corriger quelques spectaculaires réussites ». La technique au sens de connaissance intuitive et empirique de la matière et des lois naturelles est ainsi la seule forme de connaissance pratique, et ce jusqu'au XVIIIe siècle, époque où se développeront les théories et avec elles de nouvelles formes de connaissance axiomatisées.

En définitive, on oppose généralement le technicien (qui applique une science) avec le théoricien (qui théorise la science).

Arts et science

 
L'Expulsion d'Adam et Ève du Jardin d'Eden, fresque de Masaccio, Florence, Italie, avant et après sa restaurationnote 31.

Hervé Fischer parle, dans La société sur le divan, publié en 2007, d'un nouveau courant artistique prenant la science et ses découvertes comme inspiration et utilisant les technologies telles que les biotechnologies, les manipulations génétiques, l'intelligence artificielle, la robotique, qui inspirent de plus en plus d'artistes. Par ailleurs, le thème de la science a été souvent à l'origine de tableaux ou de sculptures. Le mouvement du futurisme par exemple considère que le champ social et culturel doit se rationaliser. Enfin, les découvertes scientifiques aident les experts en Art133. La connaissance de la désintégration du carbone 14 par exemple permet de dater les œuvres. Le laser permet de restaurer, sans abîmer les surfaces, les monuments. Le principe de la synthèse additive des couleurs restaure les autochromes. Les techniques d'analyse physico-chimiques permettent d'expliquer la composition des tableaux, voire de découvrir des palimpsestes. La radiographie permet de sonder l'intérieur d'objets ou de pièces sans polluer le milieu. La spectrographie est utilisée enfin pour dater et restaurer les vitrauxnote 32.

Vulgarisation scientifique

La vulgarisation est le fait de rendre accessibles les découvertes ainsi que le monde scientifique à tous et dans un langage adapté.

 
Une démonstration de l'expérience de la cage de Faraday au Palais de la découverte de Paris.

La compréhension de la science par le grand public est l’objet d’études à part entière ; les auteurs parlent de « Public Understanding of Science » (expression consacrée en Grande-Bretagne, « science literacy » aux États-Unis) et de « culture scientifique » en France. Il s'agit du principal vecteur de la démocratisation et de la généralisation du savoir selon les sénateurs français Marie-Christine Blandin et Ivan Renard134.

Dans nombre de démocraties, la vulgarisation de la science est au cœur de projets mêlant différents acteurs économiques, institutionnels et politiques. En France, l'Éducation nationale a ainsi pour mission de sensibiliser l'élève à la curiosité scientifique, au travers de conférences, de visites régulières ou d'ateliers d'expérimentation. La Cité des sciences et de l'industrie met à disposition de tous des expositions sur les découvertes scientifiques alors que les quelque trente135 centres de culture scientifique, technique et industrielle ont « pour mission de favoriser les échanges entre la communauté scientifique et le public. Cette mission s'inscrit dans une démarche de partage des savoirs, de citoyenneté active, permettant à chacun d'aborder les nouveaux enjeux liés à l'accroissement des connaissances »136.

Le Futuroscope ou Vulcania ou le Palais de la découverte sont d'autres exemples de mise à disposition de tous des savoirs scientifiques. Les États-Unis possèdent également des institutions telles que l'Exploratorium137 de San Francisco, qui se veulent plus près d'une expérience accessible par les sens et où les enfants peuvent expérimenter. Le Québec a développé quant à lui le Centre des sciences de Montréal.

La vulgarisation se concrétise donc au travers d'institutions, de musées, mais aussi d'animations publiques comme les Nuits des étoiles par exemple, de revues, et de personnalités (Hubert Reeves pour l'astronomie), qu'énumère Bernard Schiele dans Les territoires de la culture scientifique138.

Science et idéologie

Scientisme ou « religion » de la science

La valeur universelle de la science fait débat depuis le début du XXe siècle, tous les systèmes de connaissances n'étant pas forcément assujettis à la science139. La croyance en une universalité de la science constitue le scientisme.

Le scientisme est une idéologie apparue au XVIIIe siècle, selon laquelle la connaissance scientifique permettrait d'échapper à l'ignorance dans tous les domaines et donc, selon la formule d'Ernest Renan dans L'Avenir de la science d'« organiser scientifiquement l'humanité ».

Il s'agit donc d'une foi dans l'application des principes de la science dans tous les domaines. Nombre de détracteurs140 y voient une véritable religion de la science, particulièrement en Occident. Sous des acceptions moins techniques, le scientisme peut être associé à l'idée que seules les connaissances scientifiquement établies sont vraies. Il peut aussi renvoyer à un certain excès de confiance en la science qui se transformerait en dogme. Le courant zététique, qui s'inspire du scepticisme philosophique, essaye d'appréhender efficacement la réalité par le biais d'enquêtes et d'expériences s'appuyant sur la méthode scientifique et a pour objectif de contribuer à la formation chez chaque individu d'une capacité d'appropriation critique du savoir humain, est en ce sens une forme de scientisme.

Pour certains épistémologues, le scientisme prend de toutes autres formes. Robert Nadeau, en s’appuyant sur une étude réalisée en 1984141, considère que la culture scolaire est constituée de « clichés épistémologiques » qui formeraient une sorte de « mythologie des temps nouveaux » qui ne serait pas sans rapport avec une sorte de scientisme142. Ces clichés tiennent soit à l'histoire de la science, résumée et réduite à des découvertes qui jalonnent le développement de la société, soit à des idées comme celles qui met en avant que les lois, et plus généralement les connaissances scientifiques, sont des vérités absolues et dernières, et que les preuves scientifiques sont non moins absolues et définitives alors que, selon les mots de Thomas Samuel Kuhn, elles ne cessent de subir révolutions et renversements.

Enfin, c'est surtout la sociologie de la connaissance, dans les années 1940 à 1970, qui a mis fin à l'hégémonie du scientisme. Les travaux de Ludwig Wittgenstein, Alexandre Koyré et Thomas Samuel Kuhn surtout ont démontré l'incohérence du positivisme. Les expériences ne constituent pas, en effet, des preuves absolues des théories et les paradigmes sont amenés à disparaître. Pour Paul Feyerabend, ce sont des forces politiques, institutionnelles et même militaires qui ont assuré à la science sa dominance, et qui la maintiennent encore dans cette position143.

Science au service de la guerre

 
Le laser est à l'origine une découverte militaire.

Pendant la Première Guerre mondiale, les sciences ont été utilisées par l'État afin de développer de nouvelles armes chimiques et de développer des études balistiques. C'est la naissance de l'économie de guerre, qui s'appuie sur des méthodes scientifiques. L'« OST », ou Organisation Scientifique du Travail de Frederick Winslow Taylor est ainsi un effort d'améliorer la productivité industrielle grâce à l'ordonnancement des tâches, permis notamment par le chronométrage. Néanmoins, c'est pendant la Seconde Guerre mondiale que la science est le plus utilisée à des fins militaires. Les armes secrètes de l'Allemagne nazie comme les V2 sont au centre des découvertes de cette époque.

Toutes les disciplines scientifiques sont ainsi dignes d'intérêt pour les gouvernements. Le kidnapping de scientifiques allemands à la fin de la guerre, soit par les Soviétiques, soit par les Américains, fait naître la notion de « guerre des cerveaux », qui culminera avec la course à l'armement de la Guerre froide. Cette période est en effet celle qui a le plus compté sur les découvertes scientifiques, notamment la bombe atomique, puis la bombe à hydrogène. De nombreuses disciplines naissent d'abord dans le domaine militaire, telle la cryptographie informatique ou la bactériologie, pour la guerre biologique. Amy Dahan et Dominique Pestre144 expliquent ainsi, à propos de cette période de recherches effrénées, qu'il s'agit d'un régime épistémologique particulier. Commentant leur livre, Loïc Petitgirard explique : « Ce nouveau régime de science se caractérise par la multiplication des nouvelles pratiques et des relations toujours plus étroites entre science, État et société »145. La conception de ce qu'on nomme alors le complexe militaro-industriel apparaît, en lien très intime avec le politique146.

Dès 1945, avec la constatation de la montée des tensions due à l'opposition des blocs capitalistes et communistes, la guerre devient en elle-même l'objet d'une science : la polémologie. Le sociologue français Gaston Bouthoul (1896-1980), dans « le Phénomène guerre », en fonde les principes.

Enfin, si la science est par définition neutre, elle reste l'affaire d'hommes, sujets aux idéologies dominantes. Ainsi, selon les sociologues relativistes Barry Barnes et David Bloor de l'Université d'Édimbourg, les théories sont d'abord acceptées au sein du pouvoir politiquenote 33. Une théorie s'imposerait alors non parce qu'elle est vraie mais parce qu'elle est défendue par les plus forts. En d'autres termes, la science serait, sinon une expression élitiste, une opinion majoritaire reconnue comme une vérité scientifique et le fait d'un groupe, ce que démontrent les travaux d'Harry Collins. La sociologie des sciences s'est ainsi beaucoup intéressée, dès les années 1970, à l'influence du contexte macro-social sur l'espace scientifique. Robert King Merton a montré, dans « Éléments de théorie et de méthode sociologique » (1965) les liens étroits entre le développement de la Royal Society de Londres, fondée en 1660, et l'éthique puritaine de ses acteurs. Pour lui, la vision du monde des protestants de l'époque a permis l'accroissement du champ scientifique.

Science et religion

Historiquement, la science et la religion ont longtemps été apparentées. Dans « Les Formes élémentaires de la vie religieuse » (1912), Émile Durkheim montre que les cadres de pensée scientifique comme la logique ou les notions de temps et d'espace trouvent leur origine dans les pensées religieuses et mythologiques. L’Église Catholique s'intéresse de près à la science et à son évolution comme en témoigne le fait qu'elle ait organisé pour la quatrième fois une conférence internationale au Vatican intitulée « Unite to Cure »147 en avril 2018. Cette conférence a pour but d'unir différentes opinions dans différentes disciplines scientifiques afin de réfléchir sur le futur de la science et de l'Homme148.

Le non-recouvrement

La philosophie des sciences modernes a abouti à la nécessité pour la science et la religion de marquer leurs territoires. Le principe aujourd'hui largement accepté est celui du non-recouvrement des magistères. Selon ce principe, la pensée religieuse et la pensée scientifiques doivent poursuivre des buts différents pour cohabiter. La science explique le fonctionnement de l'univers (le « comment ») tandis que la religion propose des croyances qui donnent un sens à l'univers (le « pourquoi »). En grande partie, cette division est un corollaire du critère de réfutabilité de Karl Popper : la science propose des énoncés qui peuvent être mis à l'épreuve des faits et doivent l'être pour être acceptés ou refusés. La religion propose des énoncés qui doivent être crus sans pouvoir être vérifiés.

Les conflits entre la science et la religion se produisent dès lors que l'une des deux prétend répondre à la question dévolue à l'autre.

Cette violation peut se produire dans les deux sens. La religion empiète sur la science quand des personnes prétendent déduire des textes religieux des informations sur le fonctionnement du monde. Le conflit de ce type le plus évident est celui du créationnisme face à la théorie de l'évolution. Scientifiquement, la création de l'ensemble des êtres vivants en six jours n'est pas tenable. Mais différents courants religieux radicaux défendent l'exactitude du récit de la Genèse (depuis, l'Église catholique, par exemple, a résolu la contradiction apparente en déclarant que ce récit est métaphorique, ce qui assure de ne pas empiéter sur le domaine scientifique).

L'autre cas de violation est celui où on extrapole à partir de données scientifiques une vision du monde tout à fait irréfutable (au sens de Popper), empiétant sur le domaine du religieux. Dans le cadre du non-recouvrement, les propositions scientifiques doivent rester compatibles avec toutes les positions religieuses qui cherchent à donner du sens à l'univers (sauf celles qui violent elles-mêmes la démarcation). Albert Einstein et Paul Dirac utilisent le concept de Dieu en commentant la physique quantique, mais les résultats qu'ils établissent ne dépendent pas de son existence.

Le pape François, dans l'encyclique Laudato si' « sur la sauvegarde de la maison commune » (2015), estime cependant que « la science et la religion, qui proposent des approches différentes de la réalité, peuvent entrer dans un dialogue intense et fécond pour toutes deux »149.

Communauté scientifique internationale

Du savant au chercheur

Si la science est avant tout une affaire de méthode, elle dépend aussi beaucoup du statut de ceux qui la font. L'ancêtre du chercheur reste, dans l'Antiquité, le scribe. Le terme de « savant » n'apparaît qu'au XVIIe siècle ; se distinguant du clerc et de l'humaniste. Au XIXe siècle cette figure s'estompe et laisse place à celle du « scientifique universitaire » et du « chercheur spécialisé » aux côtés desquels évoluent le « chercheur industriel » et le « chercheur fonctionnaire ». Aujourd'hui c'est la figure du « chercheur entrepreneur » qui domine selon les auteurs Yves Gingras, Peter Keating et Camille Limoges, dans leur « Du scribe au savant. Les porteurs du savoir, de l'Antiquité à la Révolution industrielle150 ». C'est la création d'institutions comme le Jardin royal des plantes médicinales ou l'Académie royale des sciences de Paris qui marquent l'avènement du statut de chercheur spécialisé au XIXe siècle. Elles fournissent en effet des revenus et un cadre de recherche exceptionnels. C'est en Allemagne, avec Wilhelm von Humboldt, en 1809, que la recherche est affiliée aux Universités. Dès lors commence l'industrialisation de la production de chercheurs, qui accéléra la spécialisation du savoir. Depuis la Seconde Guerre mondiale, ce sont les instituts de recherche et les organismes gouvernementaux qui dominent, à travers la figure du chercheur fonctionnaire.

Les sociologues et anthropologues Bruno Latour151, Steve Woolgar, Karin Knorr-Cetina ou encore Michael Lynch ont étudié l'espace scientifique, les laboratoires et les chercheurs. Latour s'est en particulier intéressé à la production du discours scientifique, qui semble suivre un processus de stabilisations progressives, ce qui permet aux énoncés d'acquérir de la crédibilité au fur et à mesure alors que Jean-François Sabouret et Paul Caro, dans « Chercher. Jours après jours, les aventuriers du savoir » présentent des portraits de chercheurs venant de tous les domaines et travaillant au quotidien152,153.

Des communautés scientifiques

La communauté scientifique désigne, dans un sens assez large, l'ensemble des chercheurs et autres personnalités dont les travaux ont pour objet les sciences et la recherche scientifique, selon des méthodes scientifiques. Parfois cette expression se réduit à un domaine scientifique particulier : la communauté des astrophysiciens pour l'astrophysique, par exemple. La sociologie des sciences s'intéresse à cette communauté, à la façon dont elle fonctionne et s'inscrit dans la société.

 
Le physicien Hans Bethe recevant le prix Nobel en 1967, pour sa contribution à la théorie des réactions nucléaires.

On peut parler de « société savante » lorsqu'il s'agit d'une association d’érudits et de savants. Elle leur permet de se rencontrer, de partager, confronter et exposer le résultat de leurs recherches, de se confronter avec leurs pairs d'autres sociétés du même type ou du monde universitaire, spécialistes du même domaine, et le cas échéant, de diffuser leurs travaux via une revue, des conférences, séminaires, colloques, expositions et autres réunions scientifiques. Un congrès ou conférence scientifique est un événement qui vise à rassembler des chercheurs et ingénieurs d'un domaine pour faire état de leurs avancées. Cela permet également à des collègues géographiquement éloignés de nouer et d'entretenir des contacts. Les congrès se répètent généralement avec une périodicité fixée, le plus souvent annuelle.

La collaboration est de mise au sein de la communauté scientifique, en dépit de guerres internes et transnationales. Ainsi, l'outil d'évaluation par les pairs (aussi appelée « arbitrage » dans certains domaines universitaires) consiste à soumettre l’ouvrage ou les idées d’un auteur à l’analyse de confrères experts en la matière, permettant par là aux chercheurs d’accéder au niveau requis par leur discipline en partageant leur travail avec une personne bénéficiant d’une maîtrise dans le domaine.

Recherche

 
Le Fermilab, à Batavia près de Chicago.

La recherche scientifique désigne en premier lieu l’ensemble des actions entreprises en vue de produire et de développer les connaissances scientifiques. Par extension métonymique, la recherche scientifique désigne également le cadre social, économique, institutionnel et juridique de ces actions. Dans la majorité des pays finançant la recherche, elle est une institution à part entière, voire une instance ministérielle (comme en France, où elle fait partie du Ministère de l'Éducation Nationale et de la Recherche) car elle constitue un avantage géopolitique et social important pour un pays. Le prix Nobel (il en existe un pour chaque discipline scientifique promue) récompense ainsi la personnalité scientifique qui a le plus contribué, par ses recherches et celles de son équipe, au développement des connaissances.

Les Science studies sont un courant récent regroupant des études interdisciplinaires des sciences, au croisement de la sociologie, de l’anthropologie, de la philosophie ou de l’économie. Cette discipline s'occupe principalement de la science comme institution, orientant le débat vers une « épistémologie sociale ».

Sociologie du champ scientifique

La sociologie des sciences vise à comprendre les logiques d'ordre sociologique à l'œuvre dans la production des connaissances scientifiques154. Néanmoins, il s'agit d'une discipline encore récente et évoluant au sein de multiples positions épistémologiques ; Olivier Martin dit qu'« elle est loin de disposer d'un paradigme unique : c'est d'ailleurs une des raisons de sa vivacité »155. Dans les années 1960 et 1970, une grande part de ces études s’inscrivait dans le courant structuraliste. Mais, depuis le début des années 1980, les sciences sociales cherchent à dépasser l’étude de l’institution « science » pour aborder l’analyse du contenu scientifique. La sociologie du « champ scientifique », concept créé par Pierre Bourdieu, porte ainsi une attention particulière aux institutions scientifiques, au travail concret des chercheurs, à la structuration des communautés scientifiques, aux normes et règles guidant l'activité scientifique surtout. Il ne faut cependant pas la confondre avec l'étude des relations entre science et société, quand bien même ces relations peuvent être un objet d'étude des sociologues des sciences. Elle est en effet plus proche de l'épistémologie.

Le « père » de la sociologie des sciences est Robert K. Merton qui, le premier, vers 1940, considère la science comme une « structure sociale normée » formant un ensemble qu'il appelle l'« èthos de la science » (les principes moraux dirigeant le savant) et dont les règles sont censées guider les pratiques des individus et assurer à la communauté son autonomie (Merton la dit égalitaire, libérale et démocratique). Dans un article de 1942, intitulé The Normative Structure of Science, il cite quatre normes régissant la sociologie de la science : l'universalisme, le communalisme, le désintéressement, le scepticisme organisé. Ce que cherche Merton, c'est analyser les conditions de production de discours scientifiques, alors que d'autres sociologues, après lui, vont viser à expliquer sociologiquement le contenu de la science. Pierre Duhem s'attacha lui à analyser le champ scientifique du point de vue constructiviste. À la suite des travaux de Thomas Samuel Kuhn, les sociologues dénoncèrent la distinction portant sur la méthode mise en œuvre et firent porter leurs investigations sur le processus de production des connaissances lui-même.

Si la philosophie des sciences se fonde en grande partie sur le discours et la démonstration scientifique d'une part, sur son historicité d'autre part, pour Ian Hacking, elle doit étudier aussi le style du laboratoire. Dans « Concevoir et expérimenter », il estime que la philosophie des sciences, loin de se cantonner aux théories qui représentent le monde, doit aussi analyser les pratiques scientifiques qui le transforment. Le sociologue américain Joseph Ben David a ainsi étudié la sociologie de la connaissance (« sociology of scientific knowledge ») dans ses « Éléments d'une sociologie historique des sciences » (1997).

Applications, inventions, innovations et économie de la science

 
Le domaine de l'informatique est particulièrement concerné par les innovations. Ici, une puce électronique.

L’« application » d’une science à une autre est l'usage qu’on fait des principes ou des procédés d’une science pour étendre et perfectionner une autre science. L'« invention » est d'abord une méthode, une technique, un moyen nouveau par lequel il est possible de résoudre un problème pratique donné. Le concept est très proche de celui d'une innovation. Par exemple, Alastair Pilkington a inventé le procédé de fabrication du verre plat sur bain d'étain dont on dit qu'il s'agit d'une innovation technologique majeure.

Une « innovation » se distingue d'une invention ou d'une découverte dans la mesure où elle s'inscrit dans une perspective applicative. L'une et l'autre posent des enjeux majeurs à l'économie. Dans les pays développés, les guerres économiques reposent sur la capacité à prévoir, gérer, susciter et conserver les applications et les innovations, par le brevet notamment. Pour les économistes classiques, l'innovation est réputée être l'un des moyens d'acquérir un avantage compétitif en répondant aux besoins du marché et à la stratégie d'entreprise. Innover, c'est par exemple être plus efficient, et/ou créer de nouveaux produits ou service, ou de nouveaux moyens d'y accéder156.

Ce sont tout d'abord les sociologues de la science Norman Storer et Warren Hagstrom, aux États-Unis, puis Gérard Lemaine et Benjamin Matalon en France, qui proposent une grille de lecture pour le champ économique des disciplines scientifiques. Ils envisagent en effet la science comme un système d'échange semblable à un marché sauf que la nature des biens échangés est du domaine du savoir et de la connaissance. Il y existe même une sorte de loi de la concurrence car si le scientifique ne publie pas, il ne peut prétendre voir ses fonds de recherche être reconduits l'année suivante. Cet esprit de compétition, selon Olivier Martin « stimule les chercheurs et constitue le moteur de la science »157. Mais c'est surtout le sociologue Pierre Bourdieu qui a su analyser l'économie du champ scientifique. Dans son article intitulé « Le Champ scientifique », dans les Actes de la recherche en sciences sociales158, il indique que la science obéit aux lois du marché économique sauf que le capital est dit « symbolique » (ce sont les titres, les diplômes, les postes ou les subventions par exemple). Par ailleurs, ce capital symbolique dépend de l'intérêt général et institutionnel : ainsi toutes les recherches se valent mais les plus en vue sont favorisées. Enfin, le milieu scientifique est dominé par des relations de pouvoir, politique et communautaire.

Sources

Notes et références

Notes

  1. Barnes et Bloor sont à l'origine du « programme fort » qui, en sociologie de la connaissance cherche à expliquer les origines de la connaissance scientifique par des facteurs exclusivement sociaux et culturels.

Références

  1. Pierre Bourdieu, « Le Champ scientifique », Actes de la recherche en sciences sociales, no 2/3, 1976, p. 88-104, en ligne [archive].

Ouvrages utilisés

Voir aussi

Sur les autres projets Wikimedia :

Il existe une catégorie consacrée à ce sujet : Science.
 

Bibliographie

Articles connexes

Généralités

Actualité en France

Liens externes

Raison

 
 
 
 
Le Songe de la Raison produit des monstres, par Francisco de Goya.

La raison est généralement considérée comme une faculté propre de l'esprit humain1 dont la mise en œuvre lui permet de créer des critères de vérité et d'erreur et d'atteindre ses objectifs. Elle repose sur la capacité qu'aurait l'être humain de faire des choix en se basant sur son intelligence, ses perceptions et sa mémoire tout en faisant abstraction de ses préjugés, ses émotions ou ses pulsions. Cette faculté a donc plusieurs emplois : connaissance, éthique et technique.

Par la suite, on peut distinguer,au point de vue des normes rationnelles :

Étymologies

Le mot raison vient du latin « ratio », qui désigne, en premier lieu, une « mesure », un « calcul », la « faculté de compter ou de raisonner », une « explication », puis une « catégorie, espèce d'animaux ». Par la suite, il désigne aussi les « relations commerciales », avant enfin d'acquérir le sens que nous lui connaissons (cf. dictionnaire Gaffiot).

Le terme « ratio » en mathématique continue d'être utilisé où il signifie « rapport entre deux nombres ». Il s'agit donc bien du sens primordial de « mesure », de « comparaison».

L'homme doté de raison, de rationalité, de l'époque classique est donc celui qui possède l'art de la mesure ou plus encore l'art de faire une comparaison mesurée avec précision. Cette comparaison s'opère au moyen de l'intellect, mais davantage encore, au moyen d'instruments de mesure. Le système métrique (du grec « mesurer ») est la production la plus significative de la rationalité.

« Ratio » n'est pas la traduction du concept grec de « logos », qui fut traduit en latin par « verbum » (le « Verbe »). Le « logos » signifie la « parole », la « discussion », la « raison », et il se rapporte plutôt à la « partie affective » de l'intellect, celle qui précède la volonté pour y aboutir (la raison du cœur qui produit l'intention) ; le mot latin « ratio » a plutôt trait à la partie stratégique de l'intellect, celle qui part d'une volonté pour tenter de l'accomplir.

Autres mots dérivés de « ratio » : « prorata », « ration », « ratifier ».

En français, le mot « raison » finit par regrouper plus ou moins les deux nuances « logos/ratio » (« le cœur a ses raisons que la raison ignore »Pascal).

Logique classique

Les quatre paragraphes suivants décrivent la logique classique, et non la raison en tant que telle, qui est beaucoup plus large et couvre plusieurs façons de réfléchir et de former le langage. La logique classique est critiquée de long en large depuis le début du 20e siècle par les mathématiciens et logiciens: elle admet toujours des incohérences (voir la logique intuitionniste de Brouwer, motivée par un constructivisme du raisonnement).

Il existe plusieurs sortes de logiques, et celle décrite plus bas ne correspond qu'à celle d'Aristote (le carré d'Aristote, carré logique, etc.). Conformément à l'étymologie de la raison, ses principes sont divers, mais impliquent une mesure, une observation, une volonté. La raison est créatrice, et se forme à partir du réel, pour aboutir à un langage que l'on dit rationnel ou véridique.

Principe d'identité

Le discours philosophique a besoin de cohérence. Une expression de ce besoin est le principe d'identité qui énonce que ce qui est, est soi même. C'est, selon Aristote au Livre Γ2 de la Métaphysique, l'exigence fondamentale du discours rationnel. Si on ne l'admet pas alors le sens des concepts peut changer à tout instant, ce qui revient à dire qu'on ne peut rien dire qui ne soit contradictoire.

Une chose est ce qu'elle est (A=A).

Principe de non-contradiction

Aristote formule ainsi ce principe : « une même chose ne peut pas, en même temps et sous le même rapport, être et ne pas être dans un même sujet. »

A est différent de non A.

Principe du tiers exclu

On ne peut attribuer que deux « états » à une affirmation, un état et son contraire (ou l'absence d'état). Il n'existe pas de troisième état « intermédiaire ».

Exemple : Soit il neige, soit il ne neige pas. Et s'il neige un peu, alors il neige.

Ce principe apparaît moins évident que les trois autres.

Principe de causalité

Ce principe permet de rendre intelligible le devenir, car si toute chose a une cause, alors une raison « permanente » d'un phénomène peut être trouvée. En supposant ainsi qu'une même cause produise toujours le même effet, la raison dispose d'un critère de connaissance. Tout effet a une cause et dans les mêmes conditions, la même cause produit les mêmes effets.

Ce principe ne vaut que là où le temps peut être «défini» sans ambiguïté, ce qui est toujours le cas à l'échelle macroscopique, mais pose des difficultés à l'échelle quantique.

Hume remet néanmoins en cause l'aspect rationnel de la causalité. En effet pour cela il prend l'exemple d'un billard : la pensée commune est que c'est parce que la première bille a heurté la deuxième que celle-ci s'est mise en mouvement. Mais Hume y voit une succession d'événements, une succession non pas logique mais chronologique. Il pense qu'il faut revenir à l'observation, et alors on constate qu'on n'observe jamais la causalité. Pour pouvoir opérer cette substitution de la causalité à la succession, il faut s'assurer que l'opération causale soit légitime, fondée. Cette idée de causalité est surtout une accoutumance spontanée qui nous permet d'anticiper une observation future. Mais la croyance causale n'a pas de légitimité probatoire, on ne peut tirer une certitude de l'avenir à partir du passé. Il parle ainsi de « probabilisme », et non de « rationalisme ».

Catégories du raisonnement

Plusieurs philosophes (Kant, Renouvier, etc) ont cherché à établir les cadres conceptuels de la raison et à comprendre selon quelles catégories nous formulons des jugements : unité, pluralité, affirmation, négation, substance, cause, possibilité, nécessité, etc. La possibilité d'une catégorisation achevée et complète supposerait que la pensée humaine soit immuable ou plutôt intemporelle dans ses principes. Elle supposerait donc une raison identique à elle-même et sans véritable dynamisme au niveau de ses principes qui seraient inchangeables. On peut, au contraire, estimer qu'il est possible de faire la genèse de la raison, genèse qui nous ferait voir comment se sont constituées ces catégories. Cette opposition, raison constituée - raison constituante en devenir, est, très schématiquement, celle qui justifie l'opposition du rationalisme et de l'empirisme.

Rationalisme et religiosité

Le rationalisme identifie la raison à l'ensemble des principes énoncés antérieurement. Cette raison est donc un « système », et il est le même chez tous les hommes3. Par contre, pour les personnes croyantes (théistes et déistes), cette raison serait assimilée à la « lumière naturelle » par laquelle les croyants pourraient saisir les idées innées que Dieu aurait mises en l'Homme : la notion de vérité serait ainsi en l'être humain, préformée, a priori et elle constituerait le fond de toute pensée. Selon ce point de vue, l'esprit humain serait mis en rapport de manière particulière avec ce qui est nommé « le divin » ; en effet, dans certaines doctrines, la raison humaine peut se fonder en Dieu (Malebranche, Spinoza, etc). Ainsi, l'homme ne penserait-il pas, mais il serait « pensé en Dieu » par l'intermédiaire de la raison. C'est cette thèse métaphysique du rationalisme que Thomas d'Aquin notamment, avait combattue, lorsqu'il s'opposait sur ce point à Siger de Brabant.

Rationalisme et empirisme

À l'opposé, l'empirisme n'admet pas que la raison soit constituée de principes innés ou a priori. La raison est le produit de l'activité d'un esprit conçu originellement comme une tabula rasa sur laquelle s'impriment les données de l'expérience. La connaissance viendrait donc entièrement de l'expérience et il n'y aurait que des principes a posteriori et plus précisément, acquis. Ainsi Locke combat-il l'« innéisme » contre Descartes dans son Essai sur l'entendement humain. L'étude des principes de la raison se fera alors, à partir de la sensation, de l'habitude, de la croyance, de la succession régulière d'impressions et de l'association d'idées, etc.

Ces deux perspectives sur la nature de la raison semblent a priori inconciliables. Toutefois, certaines personnes croyantes peuvent considérer que toutes les idées ne sont pas innées, et reconnaître une fonction constituante à l'expérience ; l'empirisme peut, de son côté, considérer l'existence de concepts innés. Le rationalisme, en fondant l'esprit humain sur la seule raison identique à elle-même, laisse volontairement hors de son champ d'étude les processus irrationnels qui se manifestent dans et par la pensée. D'autre part, l'empirisme, dans son approche de la compréhension de la réalité, écarte en principe toute activité non-rationnelle de l'esprit, et n'admet donc pas qu'un concept puisse être inné, laissant ainsi la pensée à la contingence de l'expérience. Or, on constate aisément que la raison a une certaine puissance d'ordonnancement.

Puissance normative de la raison

Selon Aristote4, le rôle du philosophe est d'ordonner. En effet, le philosophe est celui qui consacre sa vie à la pensée ; il pèse et il évalue toute chose. Par suite, il fait la lumière sur ce qui était obscur et y met bon ordre. Le philosophe, c'est donc, parmi les hommes, la raison même. Au-delà des catégories déjà constituées de la raison, véritable système de vérités qui peut être socialement institué, le philosophe se sert de la raison comme d'une puissance constituante : il sape l'ancien ou l'assimile, bâtit sur de nouveaux fondements et crée de nouvelles normes, une nouvelle raison. Dès lors, l'activité de la raison dynamique se confond avec l'activité même du philosophe : il invente, crée, organise, synthétise, résout, etc. Bref, philosophie et raison sont des principes d'ordre.

Normes rationnelles et morales

Dans la mesure où la raison énonce des normes, elle nous donne aussi des règles d'action qui régulent notre comportement. Elle nous permet ainsi de voir clairement le but que nous voulons atteindre et de mettre en œuvre des moyens adéquats. Mais elle nous donne aussi les moyens de vivre en accord avec nous-mêmes, avec les principes que nous nous sommes fixés pour conduire notre vie. En ce sens, elle nous permet de discerner les valeurs morales et leur hiérarchie : elle nous montre d'une part ce que nous acceptons, admirons, recherchons, et d'autre part ce que nous ne pouvons tolérer, ce que nous refusons et rejetons. C'est là sa fonction morale, assez souvent jugée discriminante.

Limites de la raison

L'irrationnel

La raison donne des normes. Mais est-elle l'autorité suprême en ce domaine ? Ce qu'elle nous fait connaître est-il infranchissable ? En tant que système de principes, il semble certain que la raison ne se laisse pas légitimement dépasser par des prétentions à une connaissance supra-rationnelle.

Descartes pensait pouvoir recourir à la raison seule pour atteindre, avec certitude, la vérité : voir son projet de mathesis universalis.

La connaissance y est perçue à travers le prisme d'une méthode qui se voulait exclusivement rationnelle5. En posant l'affirmation du cogito comme une ipséité conceptuelle, Descartes émet un axiome, c'est-à-dire, une proposition se justifiant par elle-même, mais permettant de servir de base à toute une axiomatique ultérieure.

Cependant, à elle-seule, la raison ne nous fait rien connaître, car l'expérience, même réduite au minimum, est nécessaire. Ainsi, la matière même de l'expérience est en elle-même déjà, une première limite à la raison.

De plus, nous ne pouvons pas non plus affirmer avec certitude que ce que nous pensons selon les règles de la raison soit a priori conforme à la réalité en soi. La réalité et ses lois peuvent donc échapper, dans une certaine mesure, à leur description totale par l'approche rationnelle, car cette dernière est, bien évidemment, en butte aux limites imposées à l'observation des phénomènes ou des processus… par l'état des outils conceptuels et/ou instrumentaux propre à chaque époque. Ainsi, la raison est toujours confrontée à une résistance certaine, et à une sorte de complexité intrinsèque de la réalité : la normativité de la raison ne permettra donc jamais de rendre compte de la totalité du monde, car chaque avancée de l'esprit génère, à son tour, la découverte de nouvelles problématiques.

Pascal ne comprenait le monde que dans les rapports entre la globalité et les détails. Dans cet esprit, René Dubos tout comme Jacques Ellul ont proposé la formule : « Penser global, agir local ».

Raison et foi

La science nous donne les moyens de parvenir, jusqu'à un certain point, à la connaissance du monde naturel. Descartes prétendait que l'on pouvait atteindre grâce à l'évidence des idées claires et distinctes, avec une certitude relative, la vérité par la seule « lumière naturelle » et « sans les lumières de la foi ».

Science et foi ont entretenu, à toutes les époques, des relations complexes, dans lesquelles on a pu voir les limites de telle ou telle approche.

Ces limites ne sont pas toujours considérées comme intransgressables par les diverses théologies. En effet, dans ce domaine de la réflexion humaine, la foi nous permettrait de dépasser le donné « naturel ».

Au XIXe siècle, certains (comme Kierkegaard, philosophe danois) pensent que c'est la foi, plus que la raison, qui est essentielle. L'expérience de la foi de Kierkegaard, vécue dans le paradoxe et la souffrance, lui fait ressentir l'incertitude inhérente à la raison, alors que l'on pourrait croire que la raison apporte la certitude.

En 1942, le théologien Henri de Lubac cite Kierkegaard comme exemple de foi dans le Drame de l'humanisme athée.

Il n'est pourtant pas nécessaire de faire cette expérience de la « souffrance de ne pas comprendre » pour faire l'expérience de la foi : nous avons reconnu plus haut, des limites à la raison. Parvenu à ces limites, l'être humain n'a plus de principe d'explication et surtout d'orientation, et il est alors confronté à l'« altérité radicale » du monde. En recherchant l'origine de cette altérité, certains l'expliqueront par l'hypothèse d'un Dieu créateur, d'autres ne formuleront aucune hypothèse, d'autres encore nieront l'existence de tout principe divin.

Dans tous les cas, la croyance que l'on décide d'adopter n'est manifestement pas entièrement rationnelle.

Raison et transcendance

La question du rapport entre la foi et la raison est, l'occasion de riches débats entre tenants de la rationalité pure et tenants de la transcendance. Le point de vue des tenants de la transcendance est, par exemple, développé dans l'encyclique pontificale Fides et Ratio. Cette encyclique constate l'écart entre les deux termes, elle donne un éclairage particulier sur les différents courants philosophiques de ces deux derniers siècles, et elle souligne l'intérêt des apports de la linguistique et de la sémantique dans le monde contemporain.

Sans opposer absolument foi et raison, elle souligne la nécessité d'un fondement commun :

« Il n'est pas possible de s'arrêter à la seule expérience ; même quand celle-ci exprime et manifeste l'intériorité de l'homme et sa spiritualité, il faut que la réflexion spéculative atteigne la substance spirituelle et le fondement sur lesquels elle repose. »

D'autres textes présentent le point de vue des tenants de la raison pure, on pourra par exemple se référer aux textes publiés par l'Union rationaliste.

Bibliographie

Notes et références

  1. Le Discours de la méthode fut le premier ouvrage de philosophie publié en français, d'où sa notoriété. Voir aussi le contexte d'élaboration de la philosophie cartésienne dans Cartésianisme.

Annexes

Sur les autres projets Wikimedia :

Articles connexes

Références :

Liens externes

Logique

 
 
 
 
Gregor Reisch, « La logique présente ses thèmes centraux », Margarita Philosophica (de), 1503/08 (?). Les deux chiens veritas et falsitas courent derrière le lièvre problema, la logique se presse armée de son épée syllogismus. En bas à gauche se trouve Parménide dans une grotte, grâce auquel la logique aurait été introduite dans la philosophie.

La logique — du grec λογική / logikê, qui est un terme dérivé de λόγος / lógos signifiant à la fois « raison », « langage » et « raisonnement » — est, dans une première approche, l'étude des règles formelles que doit respecter toute argumentation correcte. Le terme aurait été utilisé pour la première fois par Xénocrate1.

La logique antique se décompose d'abord en dialectique et rhétorique.

Elle est depuis l'Antiquité l'une des grandes disciplines de la philosophie, avec l'éthique (philosophie morale) et la physique (science de la nature).

Au Moyen Âge, elle ne figure pas explicitement parmi les sept arts libéraux :

Les travaux de George Boole, Jevons ont permis depuis le XIXe siècle le développement fulgurant d'une approche mathématique de la logique. Sa convergence opérée avec l'informatique depuis la fin du XXe siècle lui a donné un regain de vitalité.

Elle trouve depuis le XXe siècle de nombreuses applications en ingénierie, en linguistique, en psychologie cognitive, en philosophie analytique ou en communication.

Définition

La logique est l’étude de l’inférence.

Histoire

Antiquité

La logique est à l'origine la recherche de règles générales et formelles permettant de distinguer un raisonnement concluant de celui qui ne l'est pas. Elle trouve ses premiers tâtonnements dans les mathématiques et surtout dans la géométrie mais c'est principalement sous l'impulsion des Mégariques et ensuite d'Aristote qu'elle prend son envol.

La logique a très tôt été utilisée contre elle-même, c'est-à-dire contre les conditions mêmes du discours : le sophiste Gorgias l'utilise dans son Traité du non-être2 afin de prouver qu'il n'y a pas d'ontologie possible : « ce n'est pas l'être qui est l'objet de nos pensées » : la vérité matérielle de la logique est ainsi ruinée. Le langage acquiert ainsi sa propre loi, celle de la logique, indépendante de la réalité. Mais les sophistes ont été écartés de l'histoire de la philosophie (sophiste a pris un sens péjoratif), si bien que la logique, dans la compréhension qu'on en a eu par exemple au Moyen Âge, est restée soumise à la pensée de l'être.

Ère contemporaine

Au XVIIe siècle, le philosophe Gottfried Wilhelm Leibniz réalise des recherches fondamentales en logique qui révolutionnent profondément la logique aristotélicienne. Il se réclame constamment de la tradition des syllogismes d'Aristote3 et tente de l'intégrer à son propre système4. Il est le premier à imaginer et à développer une logique formelle.

Emmanuel Kant, quant à lui, définit la logique comme « une science qui expose dans le détail et démontre avec rigueur les règles formelles de toute pensée »5. Les six œuvres d’Aristote regroupées sous le titre d’Organon, où figurent notamment les Catégories et l'étude du syllogisme, furent longtemps considérées comme la référence sur ce sujet.

En 1847 est publié le livre de George Boole, intitulé Mathematical Analysis of Logic6, puis An Investigation Into the Laws of Thought, on Which are Founded the Mathematical Theories of Logic and Probabilities7. Boole y développe une nouvelle forme de logique, à la fois symbolique et mathématique. Son but est de traduire des idées et des concepts en expressions et équations, de leur appliquer certains calculs et de traduire le résultat en termes logiques, marquant ainsi le début de la logique moderne, fondée sur une approche algébrique et sémantique, que l'on a appelée plus tard algèbre de Boole en son honneur.

Différentes approches

De manière très générale, il existe quatre approches de la logique :

Historique

Cette première approche met l'accent sur l’évolution et le développement de la logique, en insistant tout particulièrement sur la syllogistique aristotélicienne et les tentatives, depuis Leibniz, de faire de la logique un véritable calcul algorithmique. Cette approche historique est tout particulièrement intéressante pour la philosophie car aussi bien Aristote, les Stoïciens ou Leibniz ont travaillé comme philosophes et comme logiciens, tout au long de l'histoire de la logique.

Mathématique

La logique mathématique contemporaine est liée aux mathématiques, à l’informatique et à l'ingénierie. L’approche mathématique a une position qui est un peu particulière d'un point de vue épistémologique, puisqu'elle est à la fois un outil de définition des mathématiques, et une branche de ces mêmes mathématiques, donc un objet.

Philosophique

La philosophie, et surtout la philosophie analytique qui étudie essentiellement le langage propositionnel, reposent sur un outillage d’analyse et argumentatif provenant, d'une part des développements logiques réalisés au cours de l'histoire de la philosophie et, d'autre part, des développements récents de la logique mathématique. Par ailleurs, la philosophie et surtout la philosophie de la logique se donnent pour tâche d’éclairer les concepts fondamentaux et les méthodes de la logique.

Informatique

L'approche informatique étudie l'automatisation des calculs et des démonstrations, les fondements théoriques de la conception des systèmes, la programmation et l'intelligence artificielle8. L'approche informatique est aujourd'hui cruciale car, en essayant de mécaniser les raisonnements, voire de les automatiser, la logique et les mathématiques vivent une véritable révolution depuis la fin du XXe siècle. Et notamment à la suite de l'exploitation de la correspondance preuve-programme. Les conséquences épistémologiques de ces développements sont encore largement insoupçonnées9.

Grands domaines de la logique

Logique syllogistique

L'Organon est le principal ouvrage de logique d'Aristote, comprenant notamment les Premiers Analytiques ; il constitue le premier travail explicite de logique formelle, avec notamment l'introduction de la syllogistique10.

Les travaux d'Aristote sont considérés en Europe et au Moyen-Orient à l'époque classique, médiévale comme l'image même d'un système entièrement élaboré[réf. nécessaire]. Cependant, Aristote n'a pas été le seul, ni le premier : les stoïciens ont proposé un système de logique propositionnelle qui a été étudiée par les logiciens médiévaux. En outre, le problème de généralité multiple a été reconnu à l'époque médiévale.

Logique propositionnelle

Le calcul des propositions est un système formel dans lequel les formules représentent des propositions qui peuvent être formées en combinant les propositions atomiques11 et en utilisant les connecteurs logiques, et dans lequel un système de règles de démonstration formelle établit certains « théorèmes ».

Calcul des prédicats

Le Begriffschrift de Gottlob Frege a introduit la notion de quantificateurs dans une notation logique.
 
Le Begriffschrift de Gottlob Frege a introduit la notion de quantificateurs dans une notation logique, qui représente ici la formule ∀ x . F ( x ) ,qui est vrai.

Un calcul des prédicats est un système formel, qui peut être soit la logique du premier ordre, soit la logique du second ordre, soit la logique d'ordre supérieur, soit la logique infinitaire. Il exprime par la quantification un large échantillon de propositions du langage naturel. Par exemple, le paradoxe du barbier de Bertrand Russell, «il y a un homme qui rase tous les hommes, qui ne se rasent pas » peut être formalisé par la formule : ( ∃ x ) ( homme ( x ) ∧ ( ∀ y ) ( homme ( y ) → ( rase ( x , y ) ↔ ¬ rase ( y , y ) ) ) ) en utilisant le prédicat homme ( x ) pour indiquer que x est un homme, la relation binaire rase ( x , y ) pour indiquer que y est rasé par x et d'autres symboles pour exprimer la quantification, la conjonction, l'implication, la négation, et l'équivalence.

Logique modale

Dans le langage naturel, une modalité est une flexion ou un ajout pour modifier la sémantique d'une proposition.

Par exemple, la proposition « Nous allons aux jeux » peut être modifiée pour donner « Nous devrions aller aux jeux », ou « Nous pouvons aller aux jeux » ou « Nous irons aux jeux » ou « Il faut que nous allions aux jeux ».

Plus abstraitement, la modalité affecte le cadre dans lequel une affirmation est satisfaite.

En logique formelle, une logique modale est une logique étendue par l'adjonction d'opérateurs, qui sont appliqués aux propositions pour en modifier le sens.

Logique philosophique

La logique philosophique traite des descriptions formelles du langage naturel. Ces philosophes considèrent que l'essentiel du raisonnement quotidien peut être transcrit en logique, si une ou des méthode(s) parvient (parviennent) à traduire le langage ordinaire dans cette logique. La logique philosophique est essentiellement une extension de la logique traditionnelle antérieure à la logique mathématique et s'intéresse à la connexion entre le langage naturel et la logique.

Par conséquent, les logiciens philosophiques ont grandement contribué au développement des logiques non standard (par exemple, les logiques libres, les logiques temporelles) ainsi qu'aux diverses extensions de la logique (par exemple les logiques modales) et à la sémantique de ces logiques (par exemple, le supervaluationisme (en) de Kripke dans la sémantique de la logique).

Notions élémentaires de logique formelle

Un langage logique est défini par une syntaxe, c'est-à-dire un système de symboles et de règles pour les combiner sous forme de formules. De plus, une sémantique est associée au langage. Elle permet de l'interpréter, c'est-à-dire d'attacher à ces formules ainsi qu'aux symboles une signification. Un système de déduction permet de raisonner en construisant des démonstrations.

La logique comprend classiquement :

auxquelles s'ajoute :

Syntaxes

La syntaxe de la logique des propositions est fondée sur des variables de propositions appelées également atomes que nous notons avec des lettres minuscules (p, q, r, s, etc.) Ces symboles représentent des propositions sur lesquelles on ne porte pas de jugement vis-à-vis de leur vérité : elles peuvent être soit vraies, soit fausses, mais on peut aussi ne rien vouloir dire sur leur statut. Ces variables sont combinées au moyen de connecteurs logiques qui sont, par exemple :

  1. Le connecteur binaire disjonctif (ou), de symbole : ∨ ;
  2. Le connecteur binaire conjonctif (et), de symbole : ∧ ;
  3. Le connecteur binaire de l'implication, de symbole : → ;
  4. Le connecteur unaire ou monadique de la négation (non), de symbole : ¬.

Ces variables forment alors des formules complexes.

La syntaxe de la logique du deuxième ordre, contrairement à celle du premier ordre, considère :

Dans la suite nous noterons V l'ensemble des variables (x, y, z…), F l'ensemble des symboles de fonctions (f, g…) et P l'ensemble des symboles de prédicats (P, Q…). On dispose également d'une application dite d'arité m[pas clair]. La signification des formules fait l'objet de la sémantique et diffère selon le langage envisagé.

En logique traditionnelle (appelée aussi logique classique ou logique du « tiers exclus »), une formule est soit vraie, soit fausse. Plus formellement, l'ensemble des valeurs de vérité est un ensemble B de deux booléens : le vrai et le faux. La signification des connecteurs est définie à l'aide de fonctions de booléens vers des booléens. Ces fonctions peuvent être représentées sous la forme de table de vérité.

La signification d'une formule dépend donc de la valeur de vérité de ses variables. On parle d'interprétation ou d'affectation. Toutefois, il est difficile, au sens de la complexité algorithmique, d'utiliser la sémantique pour décider si une formule est satisfaisante (ou non) voire valide (ou non). Il faudrait pour cela pouvoir énumérer toutes les interprétations qui sont exponentielles en nombre.

Une alternative à la sémantique consiste à examiner les preuves bien formées et à considérer leurs conclusions. Cela se fait dans un système de déduction. Un système de déduction est un couple (A, R), où A est un ensemble de formules appelées axiomes et R un ensemble de règles d'inférence, c'est-à-dire de relations entre des ensembles de formules (les prémisses) et des formules (la conclusion).

On appelle dérivation à partir d'un ensemble donné d'hypothèses une suite non vide de formules qui sont : soit des axiomes, soit des formules déduites des formules précédentes de la suite. Une démonstration d'une formule ϕ à partir d'un ensemble de formules Γ est une dérivation à partir de Γ dont la dernière formule est ϕ.

Quantification

On introduit essentiellement deux quantificateurs dans la logique moderne :

Grâce à la négation, les quantificateurs existentiels et universels jouent des rôles duaux et donc, en logique classique, on peut fonder le calcul des prédicats sur un seul quantificateur.

Égalité

Un prédicat binaire, que l'on appelle égalité, énonce le fait que deux termes sont égaux quand ils représentent le même objet. Il est géré par des axiomes ou schémas d'axiomes spécifiques. Cependant parmi les prédicats binaires c'est un prédicat très particulier, dont l'interprétation usuelle n'est pas seulement contrainte par ses propriétés énoncées par les axiomes : en particulier il n'y a usuellement qu'un prédicat d'égalité possible par modèle, celui qui correspond à l'interprétation attendue (l'identité). Son adjonction à la théorie préserve certaines bonnes propriétés comme le théorème de complétude du calcul des prédicats classique. On considère donc très souvent que l'égalité fait partie de la logique de base et l'on étudie alors le calcul des prédicats égalitaire.

Dans une théorie qui contient l'égalité, un quantificateur, qui peut être défini à partir des quantificateurs précédents et de l'égalité, est souvent introduit :

D'autres quantificateurs peuvent être introduits en calcul des prédicats égalitaires (il existe au plus un objet vérifiant telle propriété, il existe deux objets…), mais des quantificateurs utiles en mathématiques, comme « il existe une infinité… » ou « il existe un nombre fini… » ne peuvent s'y représenter et nécessitent d'autres axiomes (comme ceux de la théorie des ensembles).

Logique non binaire

Il a fallu attendre le début du XXe siècle pour que le principe de bivalence soit clairement remis en question de plusieurs façons différentes :

Bibliographie

Notes et références

  1. « Atomique » [archive] doit être pris dans son sens ancien d'insécable ou primitif.

Voir aussi

Sur les autres projets Wikimedia :

Il existe une catégorie consacrée à ce sujet : Logique.
 

Articles connexes

Sur la philosophie :

Sur la logique mathématique :

Voir aussi :

Liens externes

Équilibre général

 
 
 

L'équilibre général est un concept d'économie qui désigne la possibilité pour les marchés d'atteindre l'équilibre simultanément par le libre jeu de l'offre et de la demande. L'équilibre général se distingue de l'équilibre simple (ou partiel) en ce qu'il s'agit d'un équilibre atteint sur l'intégralité des marchés.

Issu de la microéconomie, la théorie de l'équilibre générale a été développée par Léon Walras dans son ouvrage de , Éléments d'économie politique pure. Elle a atteint sa forme moderne avec les travaux de Kenneth Arrow et Gérard Debreu dans les années 1950.

Concept

Principes

L'équilibre général est un concept issu de l'école néoclassique, quoiqu'il ait ensuite été discuté, et parfois repris, par différentes écoles de pensée. L'école néoclassique considère que le système économique est formé d'une multitude d'agents économiques (les ménages, les entreprises), qui échangent des biens afin de satisfaire leurs objectifs de maximisation de leur utilité. L'équilibre est atteint sur un marché lorsque l'offre et la demande sont en adéquation1.

L'équilibre général s'intéresse au cas où les échanges permettent d'atteindre, sur tous les marchés, l'équilibre2. Cela signifie que chacun est satisfait, de telle manière que personne ne souhaite modifier ses ordres d'achat et de vente, c'est-à-dire faire de nouveaux échanges. Tous les biens sont alors pris en compte, sur tous les marchés1. Dans un tel cas, la société atteint la meilleure allocation possible des ressources dont elle dispose3.

Le mécanisme d'atteinte de l'équilibre général est le même que celui d'atteinte d'un équilibre partiel, mais généralisé à tous les marchés simultanément. Sur les trois composantes du marché (capital, travail et biens)4, chaque offreur (demandeur) a intérêt à vendre (acheter) des unités supplémentaires tant que son prix de vente (d'achat) est supérieur (inférieur) à son coût (utilité). Arrêter de vendre (d'acheter) à un prix supérieur (inférieur) au coût (à l'utilité) correspond à renoncer à des occasions de gains (d'utilités) supplémentaires5. À l'inverse, vendre (acheter) à un prix inférieur (supérieur) au coût (à l'utilité) d'une unité supplémentaire correspond à subir une perte nette5. L'offreur et le demandeur ont intérêt à échanger davantage jusqu'à ce que le prix de chaque unité supplémentaire échangée égalise, à la fois, le coût de production du vendeur et l'utilité de l'acheteur5. L'équilibre général a lieu lorsque le processus atteint sa fin d'équilibre sur tous les marchés. À ce stade, l'optimum de Pareto est atteint6.

Généralement, quand on parle de théorie de l'équilibre général, on entend par là le modèle de base de la théorie néoclassique, celui de la concurrence parfaite7, dont la version la plus achevée a été donnée par Kenneth Arrow et Gérard Debreu, dans un article publié en 19548, où ils montrent, dans le cadre d'hypothèses très précises, l'existence d'au moins un système (vecteur) de prix qui égalise les offres et les demandes (globales) des agents économiques — qui se comportent en « preneurs de prix ».

Critiques et actualité économique

L'équilibre général est un concept incontournable de la science économique contemporaine. Le modèle de l'équilibre général, notamment dans la version d'Arrow et Debreu, constitue l'ossature des cours de microéconomie dans l'enseignement universitaire de l'économie (voir Enseignement de l'économie en France). L'équilibre général est alors souvent présenté comme une présentation idéalisée d'une économie de marché9.

Toutefois, l'équilibre général a fait l'objet de nombreuses critiques épistémologiques9. Aujourd'hui, c'est le modèle de l'équilibre partiel, mis en évidence par Alfred Marshall, qui est le plus utilisé dans l'analyse microéconomique des marchés10.

Historique

Théorisation de Léon Walras

L'économiste français Léon Walras est le premier à proposer une théorie de l'équilibre générale, avec son ouvrage de 1874, Éléments d'économie politique pure ou théorie de la richesse sociale. Walras cherche à réduire le système économique à un modèle afin d'expliquer la manière dont les prix se forment dans un marché. Pour ce faire, Walras propose une série de modèles de plus en plus complexes : le premier décrit une économie à deux biens, puis à plusieurs types de biens, puis il prend en compte la production, la croissance et la monnaie11.

Le problème de Walras s'exprime formellement par un système d'équations.Walras formalise un système économique qui peut théoriquement atteindre l'équilibre général12. Il représente les fonctions d'offres et de demandes. Les inconnues qu'il cherche sont les prix et les quantités pour atteindre cet équilibre. Chaque marché est représenté par deux équations (une d'offre, une de demande). Afin de résoudre le problème, il faut solutionner un système à deux équations et à deux inconnues. Walras déduit que, le nombre d'équations étant égal au nombre d'inconnues, une solution mathématique est nécessairement possible13. Un tel système d'équation ne pouvant avoir, selon lui, qu'une seule solution, cela signifie qu'il existe une situation d'équilibre stable14. Toutefois, il a été découvert depuis lors que le postulat de Walras, selon lequel deux équations correspondant à deux inconnues ne peuvent avoir qu'une solution, n'est pas nécessairement vrai15.

Reprise de Kenneth Arrow et Gérard Debreu

La théorie de l'équilibre général continue de faire l'objet de programmes de recherche après Walras. Kenneth Arrow et Gérard Debreu travaillent sur la théorie walrasienne, et proposent en une nouvelle démonstration de l'équilibre général, rigoureusement établi par un système d'équations poussé16. Ils montrent que, dans une économie décentralisée où règne une concurrence pure et parfaite entre des agents rationnels, un système de prix concurrentiel est le meilleur moyen de coordonner les décisions, et que pour tout marché, il doit exister un jeu de prix tel que l'offre agrégée soit égale à la demande agrégée17.

Arrow et Debreu montrent qu'un équilibre général est possible à plusieurs conditions, qui sont la continuité des fonctions de demande nette, l'homogénéité de degré zéro par rapport aux prix, et la validité de la loi de Walras17. La démonstration repose sur des arguments de convexité sur des ensembles fermés d'un espace vectoriel et l'utilisation du théorème du point fixe de Kakutani. La première preuve de l'existence de l'équilibre général est toutefois le résultat du travail de Lionel McKenzie18. Le modèle auxquels aboutissent les économistes est appelé modèle d'Arrow-Debreu.

Postulats et mécanismes

Rareté des ressources et rationalité des agents

La théorie de l'équilibre générale, qu'il s'agisse de celle des walrassiens ou des néo-walrassiens, conserve un cadre théorique qui évolue peu. Le système économique décrit par les ensembles d'équations est celui d'un monde où les ressources sont rares, ce qui oblige les agents économiques à effectuer des calculs pour maximiser leur utilité (bien-être, richesse). Aussi, la rationalité des agents est postulée comme étant totale : chaque agent économique est un maximisateur stratège et mathématicien12.

Dans un tel modèle, les prix reflètent entièrement les comportements de tous les agents. Les agents sont price takers, c'est-à-dire qu'ils subissent les prix et ne les choisissent pas. Les variations de leurs préférences, toutefois, conduisent à une modification du prix auquel ils sont prêts à acheter des biens. Ainsi, en général, selon la loi de l'offre et de la demande, quand les consommateurs diminuent leur demande ou quand les producteurs augmentent leur production, les prix baissent ; et inversement12.

Les variations de prix modifient les préférences des agents économiques, et stimulent ou découragent consommation et production. En général, la hausse (respectivement la baisse) du prix fait baisser (respectivement, augmenter) la consommation et augmente (respectivement, baisse) la production12.

Formation du prix d’équilibre par tâtonnement

La théorie de l'équilibre générale ne soutient pas qu'il existe un équilibre immédiat et spontané sur tous les marchés, ni même sur un seul. En effet, comme le soutient Walras, il n'y a aucune raison que les quantités demandées et offertes soient égales à l'origine. Les prix évoluent et convergent vers l'équilibre au fur et à mesure, par le biais d'un tâtonnement qui voit un ajustement du prix se produire12.

Prenons l’exemple d’un bien produit en quantité insuffisante : la demande est supérieure à l’offre. Ceux qui tiennent vraiment à se le procurer feront savoir qu’ils acceptent de payer un prix plus élevé que le prix initial pour l’avoir. De nouveaux producteurs trouveront alors le marché rentable, alors que dans le même temps, certains consommateurs renonceront à consommer un bien devenu trop cher : l’offre augmente et la demande diminue. Walras explique qu’un agent fictif, le « commissaire-priseur », reçoit les informations sur les quantités que souhaitent échanger les agents et leur renvoie des prix qui les renseignent sur la rareté de tel ou tel bien. Par un processus de tâtonnement (essais, erreurs, tentatives enchaînées), ce mécanisme permet de trouver le prix qui assure l’égalité entre l'offre et la demande. Ce prix est le prix d'équilibre, qui correspond à une quantité d'équilibre (d'offre et de demande).

En général, il est fréquent qu'en raison des délais de réactions des agents économiques et de leurs manques d'information, on observe non pas un prix d'équilibre, mais un prix plus ou moins cyclique autour du prix d'équilibre théorique. Le comportement des prix peut même être parfaitement chaotique, avec des phases d'expansion ou de glissement (lorsque les anticipations des agents sont divergentes, et qu'ils cherchent à s'aligner sur les autres ) et des chocs brutaux (souvent à la baisse, mais parfois à la hausse, lorsque tous les agents réalignent leurs anticipations). C'est notamment le cas pour des biens spéculatifs ou dont l'utilité est très subjective (objet d'art, biens financiers, etc.). Et ce, même si les phénomènes spéculatifs observés empiriquement peuvent être analysés, par exemple comme des bulles rationnelles (selon la logique du concours de beauté décrite par John Maynard Keynes).

Corrélations multiples

Dans une économie capitaliste, les prix et les quantités produites des biens sont liés et corrélés : le changement du prix d'un bien, le pain par exemple, influence les revenus des boulangers. Si les boulangers ont des goûts spécifiques, c'est-à-dire qu'ils dépensent leur argent d'une manière particulière, ils achètent plus de réveils-matin que la moyenne, on retrouve cet impact dans les revenus des horlogers. Le prix du pain sera certainement affecté. Établir le prix d'équilibre d'un seul bien exige en théorie une analyse qui tienne compte des millions d'autres biens disponibles.

Modélisation mathématique

Dans l'article de Arrow et Debreu démontrant l'existence d'un équilibre général16, les auteurs définissent un ensemble d'équations dans l'espace des commodités. Dans le cadre de ce modèle économique ils définissent l'ensemble des unités de production et l'ensemble des consommateurs.

Espace des commodités

L'espace des commodités est modélisé par R l , avec l le nombre de commodités.

Il existe au moins une commodité représentant le travail. Ils appellent L , pour « Labour », l'ensemble des commodités représentant un service travail. Chez un consommateur les composantes d'un vecteur de commodités correspondant à un service travail sont négatives.

À chaque commodité est associée un prix. L'ensemble des prix P = { p ∈ R l , p ≥ 0 , ∑ h = 1 l p h = 1 } , est normalisé car toutes les équations sont homogènes de degrés 1 en p dans le modèle. Soit ζ ∈ R l et p ∈ P , p . ζ est le prix de toutes les commodités représentées par le vecteur ζ . Formellement l'espace des prix est l'espace dual de celui des commodités. Dans le cadre de ce modèle ils sont tous les deux identifiés à R l .

Unités de production

À chaque unité de production j ils associent un ensemble Y j de vecteurs de R l . Cet ensemble modélise les plans de productions de l'unité j , les composantes positives étant des commodités produites et les composantes négatives les commodités consommées nécessaire à cette production. De même à chaque consommateur i ils associent un ensemble X i de vecteurs de R l représentant ses désirs de consommations. Ils imposent des contraintes sur ces ensembles afin de satisfaire aux contraintes économiques.

Y j , 1 ≤ j ≤ n

Consommateurs

X i , u i : X i → R , 1 ≤ i ≤ m

Lien entre consommateurs et commodités

De plus il est nécessaire qu'il existe certaines commodités pour lancer les unités de production.

Lien entre consommateurs et unités de production

Et les profits des unités de production sont intégralement redistribués parmi les consommateurs.

Définition d'un équilibre concurrentiel

Soit p ∗ ∈ P .

Selon ces auteurs, la motivation économique de chaque unité de production est de maximiser ses profits

De même la motivation économique de chacun des consommateurs i est de maximiser leur utilité u i parmi leur désirs de consommations X i en tenant compte de leur capacité budgétaire, i.e. leur revenu résultant de la vente de leur commodités ζ i , qui incluent le travail, et de leur dividendes proportionnelle à α i , j .

Le marché est à l'équilibre quand l'offre est égale à la demande. Soit x = ∑ x i , y = ∑ y i , ζ = ∑ ζ i , z = x − y − ζ , z représente l’excès de la demande par rapport à l'offre, incluant l'offre initiale et la production. L'équilibre se traduit mathématiquement par

Un ensemble de vecteur { x 1 ∗ , . . . , x m ∗ , y 1 ∗ , . . . , y n ∗ , p ∗ } satisfaisant les conditions ci-dessus est dit à l'équilibre concurrentiel.

Théorème

Tous les modèles vérifiant les hypothèses précédentes admettent une solution (équilibre concurrentiel).

Postérité

Succès académique

Le travail d'Arrow et Debreu a connu un grand retentissement dans la communauté des économistes. La première raison est qu'il apportait une solution rigoureuse à l'un des plus vieux problèmes de la science économique, à savoir la possibilité pour la main invisible d'Adam Smith d'atteindre véritablement un équilibre général qui satisfasse la société. L'équilibre général a eu d'autant plus de succès qu'il a permis de ressusciter le programme de recherche néoclassique, avec des moyens formels beaucoup plus puissants19.

La théorie de l'équilibre général va alors susciter un ensemble immense de travaux, et l'on peut parler « d'âge d'or » de cette théorie pour toute la période allant du milieu des années 1950 au début des années 197019. Parmi les développement les plus importantes qui se basent sur les travaux de l'équilibre général, on trouve les extensions du concept à des environnements incertains, à des contextes dynamiques et multisectoriels, l'établissement d'une correspondance entre équilibre général et le cœur d'un jeu coopératif (Herbert Scarf, 1966), et, enfin, l'introduction des anticipations (concept d'epsilon-équilibre de Radner).

Utilisation par d'autres écoles de pensée économique

Cet article couvre l'approche néoclassique de la théorie de l'équilibre général. Toutefois, le concept d'équilibre général a eu un succès important en-dehors du strict cadre de l'école néoclassique. On peut ainsi citer l'analyse entrée-sortie de Wassily Léontief et le modèle de croissance en optimisation linéaire développé par John von Neumann.

Amendements proposés à la théorie

En construisant des modèles à partir des travaux de Arrow et Debreu, les recherches ont buté sur quelques difficultés. Les résultats de Sonnenschein, Mantel et Debreu stipulent que toute restriction sur la forme de fonction de demande est arbitraire. Certains pensent que cela implique que le modèle de Arrow et Debreu est dénué de fondement empirique. Quoi qu'il en soit, les équilibres définis par Arrow-Debreu ne sauraient être uniques, stables et déterminés.

On a affirmé[réf. nécessaire] qu'un modèle de tâtonnement correspond à un modèle d'économie centralisée planifiée par opposition à une économie de marché décentralisée. Il a été proposé des modèles d'équilibre général avec un autre type de processus, moins convaincants. En particulier, les économistes ont imaginé des modèles où les agents peuvent négocier des prix en dehors de l'équilibre, ces négociations pouvant affecter les équilibres vers lesquels l'économie tend. Signalons les processus de Hahn, de Edgeworth et de Fischer.[réf. nécessaire]

Le modèle intertemporel de Arrow-Debreu dans lequel tous les marchés anticipés existent à l'instant initial, pour des biens à livrer à l'avenir, peut être transformé en un modèle séquentiel d'équilibres temporaires. Chaque séquence correspondrait à un équilibre sur un marché ponctuel, et ce à tout moment. Roy Radner a trouvé[réf. nécessaire] que pour qu'un équilibre puisse exister dans ce type de modèle, les agents (les consommateurs et les producteurs) doivent avoir des capacités de calculs illimitées.

Bien que le modèle de Arrow-Debreu soit établi avec un numéraire arbitraire, le modèle tient compte de la monnaie. Frank Hahn par exemple, a cherché à développer des modèles d'équilibre général dans lesquels la monnaie est un facteur déterminant20.

Débats et critiques

Équilibre partiel

Face à la théorie de l'équilibre général, et en réponse aux travaux de Walras, un autre programme de recherche a été lancé par Alfred Marshall, cherchant cette fois-ci à disqualifier l'équilibre général pour proposer à la place la théorie de l'équilibre partiel21. Dans ses Principes d'économie politique publiés en , l'économiste présente l'analyse d'un équilibre partiel en étudiant les variations de l'offre et de la demande pour un seul bien, en supposant les biens des autres marchés comme constants (ceteris paribus). La théorie de l'équilibre partiel ne se place pas dans la même perspective que la théorie générale de Walras ou Vilfredo Pareto, car la théorie générale était un système dynamique d'interdépendance des marchés, où l'on n'étudie pas le fonctionnement d'un marché particulier, et où tous doivent être pris en compte concomitamment22.

En refusant l'abstraction de l'équilibre général, Marshall apporte une touche d'empirie à la théorie de l'équilibre23. Il considère plus adéquat d'étudier un équilibre partiel qu'un hypothétique équilibre général du fait du caractère improbable de ce dernier21. Sa théorie de l'équilibre partiel réhabilite la notion de temps, là où le temps est absent chez Walras. Pour Mrshall, il est nécessaire de prendre en compte les temps de l'économie, qui permettent aux ajustements d'avoir lieu ; or, tenir la non-simultanéité comme la norme et non comme l'exception réduit considérablement la possibilité d'un équilibre général. Il écrit, critiquant la théorie de l'équilibre général : « toutes ces influences mutuelles prennent du temps pour achever leur action, et, en règle générale, il n'est pas deux influences qui aillent d'un pas égal. C'est pourquoi, dans ce monde, toute doctrine simple et uniforme en ce qui concerne les relations entre le coût de production, la demande et la valeur, est nécessairement fausse »24.

À la fin des années 1920 Piero Sraffa démontre que la théorie de Marshall ne peut pas expliquer la convexité de la courbe d'offre pour l'ensemble des commodités25. En effet si une industrie consomme beaucoup d'un facteur de production, une augmentation de son activité fera sensiblement monter le prix de cette fourniture et donc de ses coûts.

Centralisation du système d'information

La principale critique qui est faite à la théorie de l'équilibre général, telle qu'elle est formulée dans le modèle de Arrow et Debreu, porte sur l'hypothèse que les agents agissent en « preneurs de prix »7, les prix n'étant pas fixés par eux tout en étant uniques et connus de tous. Cela suppose une forte centralisation du système d'information, les échanges ne pouvant avoir lieu qu'une fois les prix d'équilibre connus. L'effet centralisateur de cette hypothèse est encore plus flagrant lorsqu'on précise que les prix dont les agents sont « preneurs » concernent aussi bien les biens futurs (éventuellement conditionnels) que les biens présents (hypothèse d'un système complet de marchés). On peut aussi douter de la rationalité des agents — pourtant mise en avant dans le modèle — qui « prennent les prix » en pensant qu'ils pourront vendre et acheter tout ce qu'ils veulent aux prix donnés, quels qu'ils soient.

Pour marquer le caractère centralisé du modèle d'équilibre général, il est courant qu'on invoque un « commissaire priseur » dont la tâche consiste à proposer les prix, à recueillir les offres et les demandes des agents, à les faire varier « en tâtonnant » jusqu'à atteindre l'équilibre — l'offre globale de chaque bien est égale à sa demande globale. En fait, Walras n'utilise pas cette expression. Il parle de prix « criés » et évoque un « calculateur » qui « détermine les prix d'équilibre »26. Arrow et Debreu évoquent un « agent du marché » qui effectue les tâches qu'on attribue généralement au commissaire priseur. Paul Samuelson a été le premier, dans ses Fondements de l'analyse économique à mettre le processus de recherche des prix d'équilibre (le tâtonnement walrasien) sous la forme d'un système d'équations différentielles, avec des fonctions d'offre et de demande qui ne varient pas en cours de processus (ce qui suppose que des échanges n'y ont pas lieu)..

Abstraction et irréalisme

Le modèle de l'équilibre walrassien selon lequel les auteurs néoclassique admettent que dans chaque marché (celui du capital, du travail ou des biens), les offreurs et les demandeurs n'ont intérêt à procéder à l'échange que lorsque l'équilibre général se réalise souffre de plusieurs problèmes27, parmi lesquels son niveau d'abstraction. Ce niveau d'abstraction le rendrait déconnecté de la réalité. Ainsi, certaines critiques de l'équilibre général reprochent aux modèles d'équilibre général de se ramener à des problèmes mathématiques triviaux sans lien avec l'économie réelle. Ainsi, pour Nicholas Georgescu-Roegen :

« On trouve maintenant certaines participations qui passent pour les plus brillantes contributions à l'économie, alors que ce ne sont que des exercices mathématiques, non seulement dépourvus de substance économique, mais aussi sans valeur mathématique28. »

Imperfection du marché

Une des critiques adressées au modèle walrassien de l'équilibre général est le postulat de la perfection des marchés. Les marchés du monde réel sont foncièrement imparfaits, et s'il est vrai que les agents économiques sont rarement price makers, il est possible pour eux de se coaliser et de créer des cartels qui pèsent sur les prix pour les manipuler27.

Critique de l'école autrichienne

Les économistes de l'école autrichienne, dont Friedrich Hayek, en particulier, considèrent que l'équilibre général est une construction imaginaire qui peut être utile pour l'étude de problèmes particuliers, mais qui ne décrit aucune situation réalisable. Pour eux, l'économie est en perpétuel déséquilibre et le seul sujet d'étude scientifique est celui des processus d'évolution. Ils considèrent donc toute la théorie de l'équilibre général comme sans objet, une façon de chercher « sous le lampadaire » (parce qu'on sait faire des calculs), même si on sait bien que c'est ailleurs qu'on a perdu ses clés3.

Confrontation empirique

Le modèle walrassien de l'équilibre général a été testé sur des données empiriques afin d'observer le décalage ou l'adéquation entre les prédictions du modèle et la réalité. Une étude publiée en 1999 par Cole et Ohanian examine les prédictions du modèle walrassien face à l'évolution du marché américain pendant la Grande dépression. Ils observent que le modèle réussit à prédire la récession causée par les chocs réels et monétaires qui ont eu lieu entre 1929 et 1933. Toutefois, le modèle n'arrive pas à prévoir fidèlement le retour à la croissance et le rétablissement de l'économie. Notamment, le modèle n'explique pas que la production réelle soit restée 25% à 30% inférieure à la fin des années 1930 que ce que le modèle prévoyait29.

Théorème de Sonnenschein

Un siècle après Walras, Sonnenschein démontre, avec Mantel et Debreu, qu'il est impossible de déduire la forme des fonctions d'offre et de demande des agents économiques uniquement grâce à leurs comportements maximisateurs. Par conséquent, dans le cas général, l'équilibre n'est ni unique, ni stable. Ce théorème s'applique d'ailleurs à tous les modèles où les agents se comportent en « preneurs de prix »30.

Comme le résume un économiste : « le théorème de Sonnenschein-Mantel-Debreu montre que l'équilibre général n'est en définitive qu'une construction vide et inutilisable. »31

En considérant des hypothèses plus faibles, et discutables en ce qui concerne leur pertinence, il est possible de se ramener à un équilibre à solution unique[réf. nécessaire].

Approche alternative de l'éconophysique

En 1983, Emmanuel Farjoun et Moshe Machover remarquèrent que les sciences physiques étaient capables de faire des prévisions utiles sur le comportement macroscopique d'ensembles (du mouvement brownien aux lois de la thermodynamique) qui, vus localement, apparaissent aléatoires et chaotiques32. Selon eux, les économistes -- marxistes, néo-classiques et keynésiens -- s'étaient englués dans une vision de causalité et de stabilisation datant de Adam Smith, les poussant toujours à la recherche d'un équilibre hypothétique33.

Constatant que le postulat d'existence de cet équilibre était central dans les théories proposées jusqu'alors en économie politique et que les modèles associés échouaient à prévoir de multiples crises économiques, ces auteurs proposent de changer radicalement les hypothèses de base et jettent les bases d'une approche probabiliste de l'économie politique. En particulier, s'ils se positionnent dans la tradition des économistes classiques et marxistes en insistant sur le rôle du travail dans la création de richesses (voir valeur travail), ils rejettent l'hypothèse -- simplificatrice, mais peu vraisemblable -- d'un taux de profit uniforme.

Plus généralement, ils reprennent la problématique de formation des prix et du profit en conceptualisant diverses quantités sous la forme de variables aléatoires. Ainsi, selon eux, la compétition d'un marché libre ne peut engendrer au mieux qu'un équilibre statistique. De même, ils contestent la dimension déterministe de la formation d'un prix. Il suffit d'aller sur un marché acheter des légumes pour voir que le prix du kilogramme de tomate n'est pas une variable déterministesource ? : il n'est pas constant ni sur un jour ni sur un même marché. Aussi les prix devraient être considérés comme des variables aléatoires34.

Law of Chaossource ? ne définit pas un modèle économique probabiliste rigoureux mais suggère des pistes pour une telle modélisation35.

Notes et références

  1. "We are acutely aware that what we have at this stage is not a worked-out and well-rounded theory, but a skeleton of a research programme, which only long years of theoretical and empirical investigation can flesh out" Law of Chaos page 11

Bibliographie

Voir aussi

Articles connexes

Liens externes

Formation

 
 
 

Sur les autres projets Wikimedia :

Le terme formation peut avoir les significations suivantes :

Éducation

Sciences

Regroupement

Culture

Voir aussi

Articles connexes

Réveille-matin

 
 
 
 
Réveil Bayard de type Sonnfor, collection du musée de l'horlogerie de Saint-Nicolas d'Aliermont.
 
Un réveille-matin mécanique.

Un réveille-matin (également écrit réveil-matin et souvent abrégé en réveil1) est un système qui émet un son à une heure prédéterminée. On l'utilise généralement pour se réveiller le matin, d'où son nom. Il peut s'agir d'un appareil destiné à cet usage, généralement une horloge, ou d'autres appareils ayant une fonction réveille-matin tels que : la montre, le téléphone mobile, l'ordinateur, la télévision, la radioetc.

Histoire

Platon (428–348 av. J.-C.) met au point un système de réveil sur une horloge à eau : un sifflement prévient que la cuve est vide. Il l'aurait utilisé pour arrêter de s'assoupir lors de ses longs travaux et lectures nocturnes2

Philon de Byzance (vers 280-220 av.J.-C.) développe un mécanisme permettant de mesurer le temps écoulé : de l'eau contenue dans un récipient initial s'écoule lentement dans un autre récipient. Celui-ci est recouvert d'un plateau sur lequel sont disposées des boules et dans son fond se trouve un flotteur. Peu à peu, le flotteur remonte et produit le basculement du plateau, faisant tomber les boules sur un réceptacle en métal3.

Autour du Xe siècle, en Chine, est mise au point une horloge à feu. Sur un support, souvent en forme de corps de dragon, se consume une mèche ou un bâton d'encens qui déclenche la chute bruyante de boules de métal à un moment précis et plus ou moins prédictible.

Avec l’avènement de l'horlogerie mécanique, à la fin du XIIIe siècle en Europe, les cloches, omniprésentes, font office de sonnerie de réveil. Dante Alighieri décrit en 1319 le son d'un réveil de monastère4 mais ce système de réveil existait déjà depuis plusieurs années.

Au XVe siècle, les premières horloges portatives et montres pouvaient éventuellement faire fonction de réveils lorsqu'elles possédaient une couronne trouée dans le cadran dans lequel on mettait une épingle pour déclencher la sonnerie à l'heure voulue5.

Le premier véritable réveil a été créé par l'américain Levi Hutchins en 1787. Ce jeune apprenti horloger avait, selon la légende, du mal à se lever le matin. Il a mis au point un ingénieux dispositif de réveil sans pour autant le commercialiser ou le développer. Antoine Redier, horloger et inventeur français, est le premier, en 1847, à déposer un brevet pour un réveil mécanique réglable6.

À la fin du XIXe siècle le réveil devient un objet indispensable de la vie quotidienne de millions d'ouvriers et d'employés. Aux États-Unis, la marque Ansonia (en) fabrique des réveils ronds surmontés d'une cloche. En France, les entreprises Japy en Franche-Comté et Bayard en Haute-Normandie se lancent dans la fabrication de modèles concurrents. Au début des années 1930, Japy connaît un grand succès avec son modèle « le Silencieux » (du caoutchouc amortit le son), tandis que Bayard commercialise les très populaires « Sonnfor », « Tapageur » et les réveils animés Mickey Mouse puis Blanche-Neige7.

Le mot « réveille-matin » est invariable : les réveille-matin au pluriel. En effet, « réveille » est un verbe (donc invariable), et « matin » est un nom.

Typologie

Il existe plusieurs types de réveil :

 
Un réveille-matin électrique.

Les réveille-matin modernes continuent généralement de produire le signal sonore tant que l'utilisateur n'agit pas sur l'appareil, ce qui assure le dormeur d'avoir bien entendu et de se réveiller.

Il est parfois possible de régler le déclenchement de certains réveille-matin à deux heures distinctes.

Il est courant depuis les années 1970 que des récepteurs radio soient intégrés aux réveils, déclinant au choix une alarme ou un programme radiophonique : on parle alors de radio-réveil (ou radioréveil). Plus tard, il en a été de même avec des lecteurs de cassettes audio, de disque compact ou de MP3, permettant de se réveiller avec la musique de son choix.

Fichier audio
Réveil mécanique
0:14
Des difficultés à utiliser ces médias ?
Des difficultés à utiliser ces médias ?

De nos jours, certains réveille-matin permettent de sélectionner des types de sons variés, parmi lesquels les chants d'oiseaux ou le ressac des vagues font figure de classiques.

Certains de ces appareils permettent de s'endormir avec de la musique ou en écoutant la radio, offrant un mode de temporisation qui éteint l'appareil automatiquement après un délai réglé par l'utilisateur. Ils sont également dotés d'une fonction de répétition de l'alarme qui permet d'éteindre l'alarme temporairement, alarme qui se déclenchera automatiquement de nouveau après un délai pour permettre de rester au lit quelques minutes supplémentaires sans risquer de se rendormir.

Les fabricants ont mis sur le marché des réveille-matin dont une lampe à l'intensité progressive peut se substituer à la sonnerie, calqué sur l'effet que produit naturellement sur l'homme le lever du soleil. Ce genre de réveille-matin s'appelle le simulateur d'aube.

On peut encore se servir d'autres appareils en guise de réveille-matin tels que : montre, téléphone mobile, ordinateur, télévisionetc.

Notes et références

  1. C. Langlais et M. Lombardi, Réveils animés Bayard, le XXe siècle à travers la vie quotidienne, musée de l'horlogerie, juillet 2011

Voir aussi

Articles connexes

Liens externes

Sur les autres projets Wikimedia :

Éveil

 
 
 

Sur les autres projets Wikimedia :

L'éveil action d’éveiller ou de s’éveiller est utilisée en plusieurs sens et se retrouve dans les articles suivants :

Il peut également signifier :

Associations sportives

Journaux

Divers

Voir aussi

Références

  1. Archives numérisées de L'Éveil des Hauts-de-Seine [1] [archive]