Informatique
L'informatique est un domaine d'activité scientifique, technique, et industriel concernant le traitement automatique de l'information numérique par l'exécution de programmes informatiques hébergés par des dispositifs électriques-électroniques : des systèmes embarqués, des ordinateurs, des robots, des automates, etc.
Ces champs d'application peuvent être séparés en deux branches :
- théorique : concerne la définition de concepts et modèles ;
- pratique : s'intéresse aux techniques concrètes de mise en œuvre.
Certains domaines de l'informatique peuvent être très abstraits, comme la complexité algorithmique, et d'autres peuvent être plus proches d'un public profane. Ainsi, la théorie des langages demeure un domaine davantage accessible aux professionnels formés (description des ordinateurs et méthodes de programmation), tandis que les métiers liés aux interfaces homme-machine (IHM) sont accessibles à un plus large public.
Définitions
« Computer science is no more about computers than astronomy is about telescopes »
— Hal Abelsonnote 1.
« La science informatique n'est pas plus la science des ordinateurs que l'astronomie n'est celle des télescopes. »
Le terme « informatique » résulte de l'association du terme « information » au suffixe « -ique » signifiant « qui est propre à » :
Dans le vocabulaire universitaire américain, l'informatique (« computer science ») désigne surtout l'informatique théorique : un ensemble de sciences formelles qui ont pour objet d'étude la notion d'information et des procédés de traitement automatique de celle-ci, l'algorithmique.
Les applications de l'informatique depuis les années 1950 forment la base du secteur d'activité des technologies de l'information et de la communication. Ce secteur industriel et commercial est lié à la fois aux procédés (logiciels, à l'architectures de systèmes) et au matériel (électronique, télécommunication). Le secteur fournit également de nombreux services liés à l'utilisation de ses produits : développement, maintenance, enseignement, assistance, surveillance et entretien.
Étymologie
En 1957, l'ingénieur allemand Karl Steinbuch crée le terme « Informatik » pour son essai intitulé Informatik: Automatische Informationsverarbeitung, pouvant être rendu en français par « Informatique : traitement automatique de l'information »1.
En mars 1962, Philippe Dreyfus, ancien directeur du Centre national de calcul électronique de Bull, utilise pour la première fois en France le terme « Informatique »2 pour son entreprise « Société d'informatique appliquée » (SIA)3. Selon certains, ce néologisme est un mot-valise qui agglomère « information » et « automatique », pour désigner le traitement automatique des données4,5.
En 1966, l'Académie française consacre l'usage officiel du mot pour désigner la « science du traitement de l'information ». La presse, l'industrie et le milieu universitaire l'adoptent dès cette époque.
En juillet 1968, le ministre fédéral de la Recherche scientifique d'Allemagne de l'Ouest, Gerhard Stoltenberg, prononce le mot « Informatik » lors d'un discours officiel sur la nécessité d'enseigner cette nouvelle discipline dans les universités de son pays ; on emploie ce même terme pour nommer certains cours dans les universités allemandes6. Le mot informatica fait alors son apparition en Italie et en Espagne, de même qu’informatics au Royaume-Uni.
Les fondateurs de la Compagnie Générale d'Informatique (CGI) reprennent le mot « informatique » en 19697.
Évolution sémantique
Dans l'usage contemporain, le substantif « informatique » devient un mot polysémique qui désigne autant le domaine industriel en rapport avec l'ordinateur (au sens de calculateur fonctionnant avec des algorithmes), que la science du traitement des informations par des algorithmes.
Les expressions « science informatique », « informatique fondamentale » ou « informatique théorique » désignent sans ambiguïté la science, tandis que « technologies de l'information » ou « technologies de l'information et de la communication » désignent le secteur industriel et ses produits. Des institutions assimilent parfois la compétence des utilisateurs dans la manipulation des appareils à l'alphabétisation ou à la conduite automobile, comme veut le faire entendre l'expression European Computer Driving License (traduction littérale : « permis de conduire un ordinateur »)8,9.
Équivalents en anglais
Plusieurs termes en anglais désignent l'informatique :
Dans le monde du travail, on parle volontiers d’I.T., le département informatique étant the I.T. department15 (les autres termes ne sont quasiment jamais utilisés).
Histoire
Depuis des millénaires, l'Homme a créé et utilisé des outils l'aidant à calculer (abaque, boulier, etc.), exigeant, comme les opérations manuelles, des algorithmes de calcul, dont des tables datant de l'époque d'Hammourabi (environ 1750 av. J.-C.) figurent parmi les exemples les plus anciens.
Si les machines à calculer évoluent constamment depuis l'Antiquité, elles n'exécutent pas elles-mêmes l'algorithme : c'est l'homme qui doit apprendre et exécuter la suite des opérations, comme pour réaliser les différentes étapes d'une division euclidienne. En 1642, Blaise Pascal imagine une machine à calculer16,17, la Pascaline, qui fut commercialisée. Sept exemplaires subsistent dans des musées comme celui des Arts et Métiers18 à Paris, et deux sont dans des collections privées (IBM en possède une)19. Joseph Marie Jacquard avec ses métiers à tisser à cartes perforées illustre en premier le concept de programmation, comme enchaînement automatique d'opérations élémentaires. George Boole et Ada Lovelace esquissent une théorie de la programmation des opérations mathématiques.
Le secteur très féminisé à ses débuts avec des pionnières comme Ada Lovelace, Grace Hopper, Frances Allen, Adele Goldberg est devenu progressivement plus masculin avec la professionnalisation des différents métiers dans l'informatique (premiers diplômes en informatique20). La place des femmes en informatique décroît dès le milieu des années 1980 en France21.
Mécanographie
Dans les années 1880, Herman Hollerith, futur fondateur d'IBM, fonde la mécanographie en inventant une machine électromécanique destinée à faciliter le recensement en stockant les informations sur une carte perforée22. Le gouvernement des États-Unis utilise pour la première fois à grande échelle les trieuses et les tabulatrices lors du recensement de 1890, à la suite de l'afflux des immigrants dans ce pays dans la seconde moitié du XIXe siècle.
L'ingénieur norvégien Fredrik Rosing Bull a créé la première entreprise européenne qui a développé et commercialisé des équipements mécanographiques. Installé en Suisse dans les années 1930 il est ensuite venu en France pour s'attaquer au marché français. Pendant la Seconde Guerre mondiale, René Carmille utilisait des machines mécanographiques Bull.
Les Allemands étaient équipés de machines mécanographiques avant la Seconde Guerre mondiale. Ces équipements étaient installés dans des ateliers composés de trieuses, interclasseuses, perforatrices, tabulatrices et calculatrices connectées à des perforateurs de cartes. Des machines électromécaniques utilisant aussi des lampes radio comme les triodes effectuaient les traitements. Ces lampes dégageaient de la chaleur qui attirait les insectes, et les bugs (terme anglais pour insectes, francisé en « bogue ») étaient une cause de panne courante.
Les femmes occupent une place prépondérante au début de l'informatique dans les activités de calcul et de programmation. Les programmeuses de l'ordinateur ENIAC en 1944 sont six mathématiciennes : Marlyn Meltzer, Betty Holberton, Kathleen Antonelli, Ruth Teitelbaum, Jean Bartik, Frances Spence23. Adele Goldstine est leur formatrice et elles sont surnommées les « ENIAC girls »24.
L'informatique moderne n'a pu émerger qu'à la suite de l'invention du transistor en 1947 et son industrialisation dans les années 1960.
Naissance de l'informatique moderne
L'informatique moderne commence avant la Seconde Guerre mondiale, lorsque le mathématicien Alan Turing pose les bases d'une théorisation de ce qu'est un ordinateur, avec son concept de machine universelle de Turing. Turing pose dans son article les fondements théoriques de ce qui sépare la machine à calculer de l'ordinateur : la capacité de ce dernier à réaliser un calcul en utilisant un algorithme conditionnel.
Après la Seconde Guerre mondiale, l'invention du transistor, puis du circuit intégré permettront de remplacer les relais électromécaniques et les tubes à vide, qui équipent les machines à calculs pour les rendre à la fois plus petites, plus complexes, plus économiques et plus fiables. Le capital-risque finance des dizaines de sociétés électroniques.
Avec l'architecture de von Neumann, mise en application de la machine universelle de Turing, les ordinateurs dépassent la simple faculté de calculer et peuvent commencer à accepter des programmes plus évolués, de nature algorithmique.
En 1961, Marion Créhange soutient une des premières thèses en informatique en France25.
Dans les années 1970, l'informatique se développe avec les télécommunications, avec Arpanet, le réseau Cyclades et la Distributed System Architecture (DSA) de réseau en couches, qui donnera naissance en 1978 au modèle OSI, appelé aussi « OSI-DSA », puis aux protocoles TCP-IP dans les années 1990, grâce à la baisse des prix des microprocesseurs. Les concepts de datagramme26 et d'informatique distribuée, d'abord jugés risqués, s'imposeront grâce à l'Internet.
Développement des applications informatiques
La série de livres The Art of Computer Programming de Donald Knuth, publiée à partir des années 1960, fait ressortir les aspects mathématiques de la programmation informatique27. Edsger Dijkstra, Niklaus Wirth et Christopher Strachey travaillent et publient vers un même axe. Ces travaux préfigurent d'importants développements en matière de langage de programmation.
L'amélioration de l'expressivité des langages de programmation a permis la mise en œuvre d'algorithmes toujours plus sophistiqués, appliqués à des données de plus en plus variées. La miniaturisation des composants et la réduction des coûts de production, associées à une augmentation de la demande en traitements des informations de toutes sortes (scientifiques, financières, commerciales, etc.), ont eu pour conséquence une diffusion de l'informatique dans tous les secteurs économiques, ainsi que dans la vie quotidienne des individus.
Dans les années 1970, Xerox fait réaliser des études en psychologie cognitive et en ergonomie en vue de simplifier l'utilisation des outils informatiques. L'interface graphique propose un accès à la machine plus proche des objets ordinaires que l'interface en ligne de commande existant jusque-là. Les constructeurs souhaitant concurrencer le géant IBM promeuvent une informatique plus décentralisée.
La démocratisation de l'utilisation d'Internet – réseau basé sur ARPANET – depuis 1995, a amené les outils informatiques à être de plus en plus utilisés dans une logique de réseau28 comme moyen de télécommunication, à la place des outils tels que la poste ou le téléphone. Elle s'est poursuivie avec l'apparition des logiciels libres29, puis des réseaux sociaux et des outils de travail collaboratif dont Wikipédia n'est qu'un des nombreux exemples.
Face à la demande pour numériser photos et musiques, les capacités de stockage, de traitement et de partage des données explosent et les sociétés qui ont parié sur la croissance la plus forte l'emportent le plus souvent, en profitant d'une énorme bulle spéculative sur les sociétés d'informatique.
En France, l'informatique n'a commencé à se développer que dans les années 1960, avec le Plan Calcul. Depuis lors, les gouvernements successifs ont mené des politiques diverses en faveur de la recherche scientifique, l'enseignement, la tutelle des télécommunications, la nationalisation d'entreprises clés.
Science informatique
La science informatique est une science formelle, dont l'objet d'étude est le calcul30 au sens large, c'est-à-dire, non pas exclusivement arithmétique, mais en rapport avec tout type d'information que l'on peut représenter par une suite de nombres. Ainsi, textes, séquences d'ADN, images, sons ou formules logiques peuvent faire l'objet de calculs. Selon le contexte, on parle d'un calcul, d'un algorithme, d'un programme, d'une procédure.
Calculabilité
Un algorithme est une manière systématique de procéder pour arriver à calculer un résultat31.
Un des exemples classiques est l'algorithme d'Euclide du calcul du « Plus grand commun diviseur » (PGCD) qui remonte au moins à 300 av. J.-C., mais il s'agit déjà d'un calcul complexe. Avant cela, le simple fait d'utiliser un abaque demande d'avoir réfléchi à un moyen systématique (et correct) d'utiliser cet outil pour réaliser des opérations arithmétiques.
Des algorithmes existent donc depuis l'Antiquité, mais ce n'est que depuis les années 1930, avec les débuts de la théorie de la calculabilité, que les scientifiques se sont posés les questions « qu'est-ce qu'un modèle de calcul ? », « est-ce que tout est calculable ? » et ont tenté d'y répondre formellement32.
Il existe de nombreux modèles de calcul, dont les deux principaux sont la « machine de Turing » et le « lambda-calcul ». Ces deux systèmes formels définissent des objets qui peuvent représenter ce qu'on appelle des procédures de calcul, des algorithmes ou des programmes. Ils définissent ensuite un moyen systématique d'appliquer ces procédures, c'est-à-dire de calculer.
Le résultat le plus important de la calculabilité est probablement le fait que les principaux modèles de calcul ont exactement la même puissance33, c'est-à-dire qu'il n'existe pas de procédure que l'on pourrait exprimer dans un modèle mais pas dans un autre. La thèse de Church postule que ces modèles de calcul équivalents décrivent complètement et mathématiquement tout ce qui est physiquement calculable.
Un deuxième résultat fondamental est l'existence de fonctions incalculables, une fonction étant ce que calcule une procédure ou un algorithme (ceux-ci désignant plutôt comment faire le calcul). On peut montrer qu'il existe des fonctions, bien définies, pour lesquelles il n'existe pas de procédure pour les calculer. L'exemple le plus connu étant probablement le problème de l'arrêt, qui montre qu'il n'existe pas de machine de Turing calculant si une autre machine de Turing donnée s'arrêtera (et donc donnera un résultat) ou non.
Tous les modèles de calcul étant équivalents, ce résultat s'applique aussi aux autres modèles, ce qui inclut les programmes et logiciels que l'on peut trouver dans les ordinateurs courants. Il existe un lien très fort entre les fonctions que l'on ne peut pas calculer et les problèmes que l'on ne peut pas décider (voir Décidabilité).
Algorithmique
L'algorithmique est l'étude comparative des différents algorithmes. Tous les algorithmes ne se valent pas : le nombre d'opérations nécessaires pour arriver à un même résultat diffère d'un algorithme à l'autre. Ce nombre d'opérations, appelé la complexité algorithmique est le sujet de la théorie de la complexité des algorithmes, qui constitue une préoccupation essentielle en algorithmique.
La complexité algorithmique sert en particulier à déterminer comment le nombre d'opérations nécessaires évolue en fonction du nombre d'éléments à traiter (la taille des données) :
- soit l'évolution peut être indépendante de la taille des données, on parle alors de complexité constante ;
- soit le nombre d'opérations peut augmenter selon un rapport logarithmique, linéaire, polynomial ou exponentiel (dans l'ordre décroissant d'efficacité et pour ne citer que les plus répandues) ;
- une augmentation exponentielle de la complexité aboutit très rapidement à des durées de calcul déraisonnables pour une utilisation en pratique ;
- tandis que pour une complexité polynomiale (ou meilleure), le résultat sera obtenu après une durée de calcul réduite, même avec de grandes quantités de données.
Nous arrivons maintenant à un problème ouvert fondamental en informatique : « P est-il égal à NP ? »34. En simplifiant beaucoup : P est « l'ensemble des problèmes pour lesquels on connaît un algorithme efficace » et NP « l'ensemble des problèmes pour lesquels on connaît un algorithme efficace pour vérifier une solution à ce problème ». Et en simplifiant encore plus : existe-t-il des problèmes difficiles ? Des problèmes pour lesquels il n'existe pas d'algorithme efficace ?
Cette question est non seulement d'un grand intérêt théorique mais aussi pratique. En effet, un grand nombre de problématiques courantes et utiles sont des problèmes que l'on ne sait pas résoudre de manière efficace. C'est d'ailleurs un des problèmes du prix du millénaire et le Clay Mathematics Institute s'est engagé à verser un million de dollars aux personnes qui en trouveraient la solution.
C'est un problème ouvert, donc formellement, il n'y a pas de réponse reconnue. Mais, en pratique, la plupart des spécialistes[réf. nécessaire] s'accordent pour penser que P≠NP, c'est-à-dire qu'il existe effectivement des problèmes difficiles qui n'admettent pas d'algorithme efficace.
Cryptologie
Ce type de problème de complexité algorithmique est directement utilisé en cryptologie. En effet, les méthodes de cryptologie modernes reposent sur l'existence d'une fonction facile à calculer qui possède une fonction réciproque difficile à calculer. C'est ce qui permet de chiffrer un message qui sera difficile à décrypter (sans la clé).
La plupart des chiffrements (méthode de cryptographie) reposent sur le fait que la procédure de décomposition en produit de facteurs premiers n'a pas d'algorithme efficace connu. Si quelqu'un trouvait un tel algorithme, il serait capable de décrypter la plupart des cryptogrammes facilement. On sait d'ailleurs qu'un calculateur quantique en serait capable, mais les calculateurs quantiques actuels n'ont pas encore cette capacité.
Autre
Depuis les années 1960, et à la frontière avec la logique mathématique : la correspondance de Curry-Howard a jeté un pont entre le monde des démonstrations formelles et celui des programmes, dans la discipline des méthodes formelles.
Citons aussi l'étude de la mécanisation des procédés de calcul et de pensée qui a permis de mieux comprendre la réflexion humaine, et apporté des éclairages en psychologie cognitive et en linguistique, par exemple, à travers la discipline du traitement automatique du langage naturel35,36.
Technologies de l'information et de la communication
Le terme technologies de l'information et de la communication désigne un secteur d'activité et un ensemble de biens qui sont des applications pratiques des connaissances scientifiques en informatique ainsi qu'en électronique numérique, en télécommunication, en sciences de l'information et de la communication et en cryptologie.
- Le matériel informatique est un ensemble d'équipements (pièces détachées) servant au traitement des informations.
- Un logiciel contient des suites d'instructions qui décrivent en détail les algorithmes des opérations de traitement d'information ainsi que les informations relatives à ce traitement (valeurs clés, textes, images, etc.).
Les appareils en électronique numérique utilisent tous un système logique. Les entrées et sorties des composants électroniques n'ont que deux états ; l'un correspondant à vrai, l'autre à faux. On démontre qu'en assimilant vrai au nombre 1 et faux au nombre 0, on peut établir les règles logiques qui fondent un système de numération binaire. Les appareils représentent toute l'information sous cette forme.
Les appareils informatiques se décomposent en quatre ensembles qui servent respectivement à entrer des données, les stocker, les traiter, puis les faire ressortir de l'appareil, selon les principes de la machine de Turing et l'architecture de von Neumann. Les données circulent entre les pièces des différentes unités par des lignes de communication, les bus. Le processeur est la pièce centrale qui anime l'appareil en suivant les instructions des programmes qui sont enregistrés à l'intérieur.
Appareils informatiques
Il existe aujourd'hui une gamme étendue d'appareils capables de traiter automatiquement des informations. De ces appareils, l'ordinateur est le plus connu, le plus ouvert, le plus complexe et un des plus anciens. L'ordinateur est une machine modulable et universelle qui peut être adaptée à de nombreuses tâches par ajout de matériel ou de logiciel.
Un système embarqué est un appareil équipé de matériel et de logiciel informatique, et affecté à une tâche bien précise.
Exemples d'appareils :
- la console de jeu est un appareil destiné au jeu vidéo, une activité que l'on peut aussi exercer avec un ordinateur ;
- le NAS (acronyme de l'anglais network attached storage, littéralement « mémoire attachée à un réseau ») est un appareil destiné à garder des informations en mémoire et à les mettre à disposition via un réseau informatique ;
- le distributeur de billets : un automate qui distribue sur demande des billets de banque ou des tickets de transport public ; les distributeurs sont souvent des ordinateurs effectuant un nombre limité de tâches ;
- le récepteur satellite tout comme le décodeur de Télévision Numérique Terrestre : les émissions de télévision se font en numérique et sont captées et décodées par des appareils informatiques ;
- les appareils d'avionique sont des appareils électroniques et informatiques placés dans les avions et les véhicules spatiaux ; ils servent à la navigation, la prévention des collisions et la télécommunication ;
- le GPS : un appareil qui affiche une carte géographique, et se positionne sur la carte grâce à un réseau de satellites ; les cartes géographiques sont des informations créées par ordinateur ;
- le téléphone mobile : initialement c'est un simple appareil analogique utilisable par un nombre restreint d'utilisateurs, le téléphone portable numérisé est utilisable en masse et sert aussi à jouer, à visionner des images ou des vidéos ;
- Les smartphones sont de véritables ordinateurs de poche, intégrant de nombreux capteurs (positionnement GPS, accéléromètres multi-axes, Capteur photographique, thermomètre, hygromètre), regroupant ainsi plusieurs appareils différents dans un même boîtier ;
- les systèmes d'arme sont des dispositifs informatiques qui permettent l'organisation et le suivi des opérations militaires : positionnement géographique, calcul des tirs, guidage des appareils et des véhicules ;
- les robots sont des appareils électromécaniques qui effectuent, de manière autonome, des tâches pour assister ou remplacer des humains ; l'autonomie est assurée par un appareil informatique placé à l'intérieur et/ou à l'extérieur du robot.
Matériel informatique
L'ensemble des composants électroniques, nécessaires au fonctionnement des appareils numériques, est appelé « en anglais hardware ». Dans un boîtier se trouvent les pièces centrales, par exemple, le processeur et des pièces périphériques servant à l'acquisition, au stockage, à la restitution et la transmission d'informations. L'appareil est un assemblage de pièces qui peuvent être de différentes marques. Le respect des normes industrielles par les différents fabricants assure le fonctionnement de l'ensemble.
Carte mère
La carte mère est un circuit imprimé avec de nombreux composants et ports de connexion constituant le support principal des éléments essentiels d'un ordinateur (Supports des microprocesseur, mémoires, connecteurs divers et autres ports d'entrée-sortie)37.
Boîtier et périphériques
L'intérieur du boîtier d'un appareil informatique contient un ou plusieurs circuits imprimés sur lesquels sont soudés des composants électroniques et des connecteurs. La carte mère est le circuit imprimé central, sur lequel sont connectés tous les autres équipements.
Un bus est un ensemble de lignes de communication qui servent aux échanges d'information entre les composants de l'appareil informatique. Les informations sont transmises sous forme de signaux électriques. Le plus petit élément d'information manipulable en informatique correspond à un bit. Les bus transfèrent des bytes d’informations composés de plusieurs bits en parallèle.
Les périphériques sont par définition, les équipements situés à l'extérieur du boîtier.
Équipements d'entrée
Les périphériques d'entrée servent à commander l'appareil informatique ou à y envoyer des informations.
L'envoi des informations se fait par le procédé de numérisation. Il s'agit de transformer des informations brutes (une page d'un livre, les listes des éléments périodiques, etc.) en suite de nombres binaires pouvant être manipulées par un appareil informatique. La transformation est faite par un circuit électronique. La construction du circuit diffère en fonction de la nature de l'information à numériser.
L'ensemble des dispositifs de commande et les périphériques de sortie directement associés forment une façade de commande appelée interface homme-machine.
Stockage d'information
Une mémoire est un dispositif électronique (circuit intégré) ou électromécanique destiné à conserver des informations dans un appareil informatique.
- Une mémoire de masse : dispositif de stockage de grande capacité, souvent électromagnétique (bandes magnétiques, disques durs), destiné à conserver longtemps une grande quantité d'informations. Sur ces supports les données sont enregistrées dans des fichiers.
- Un disque dur : mémoire de masse à accès direct, de grande capacité, composée d'un ou de plusieurs disques rigides superposés et magnétiques. L'IBM Ramac 305, le premier disque dur, a été dévoilé en 1956. Le disque dur est une des mémoires de masse les plus utilisées en informatique. Pour gérer de grandes volumétries, ces disques sont associés par des mécanismes logiciels permettant d'étendre leur capacité (jusqu'à plusieurs Po) et d'y intégrer une protection avancée (RAID et Réplication au niveau bloc. Réplication, Versioning et Snapshot au niveau fichier).
- Une mémoire morte (« Read Only Memory » en anglais, ou ROM) : mémoire composée de circuits intégrés où les informations ne peuvent pas être modifiées. Ce type de mémoire est toujours installé par le constructeur et utilisé pour conserver définitivement des logiciels embarqués.
- Une mémoire vive : mémoire composée de circuits intégrés où les informations peuvent être modifiées. Les informations non enregistrées sont souvent perdues à la mise hors tension.
Processeur
Le processeur est le ou les composants électroniques qui exécute des instructions (calcul, choix, gestion des taches). Un appareil informatique contient au moins un microprocesseur, voire deux, quatre, ou plus. Les ordinateurs géants contiennent des milliers de processeurs.
Le sigle CPU (pour l'anglais Central Processing Unit) désigne le ou les processeurs centraux de l'appareil. L'exécution des instructions par le ou les CPU influence tout le déroulement des traitements.
Un microprocesseur multi-cœur réunit plusieurs circuits intégrés de processeur dans un seul boîtier. Un composant électronique construit de cette manière effectue le même travail que plusieurs processeurs.
Équipements de sortie
Les équipements de sortie servent à présenter les informations provenant d'un appareil informatique sous une forme reconnaissable par un humain.
- Un convertisseur numérique-analogique (en anglais Digital to Analog Converter ou DAC) est un composant électronique qui transforme une information numérique (une suite de nombres généralement en binaire) en un signal électrique analogique. Il effectue le travail inverse de la numérisation (exemple : un lecteur de CD audio).
- Un écran est une surface sur laquelle s'affiche une image (exemple : des fenêtres de dialogue et des documents). Les images à afficher sont générées par un circuit électronique convertisseur numérique-analogique en sortie des cartes vidéos pour l'affichage sur les écrans analogiques. De plus en plus souvent, l'étape du DAC est supprimée grâce à la connexion HDMI avec les écrans interprétant directement les images numériques.
- Un moniteur est un écran utilisant les mêmes techniques que celles utilisées par les téléviseurs, qui affiche des graphiques et des textes provenant de l'appareil informatique.
- Une imprimante est un équipement servant à produire des informations non volatiles, sous forme d'impression sur papier. Il peut s'agir de textes, de tableaux, de graphiques, de schémas, de photos, etc.
- Un haut-parleur ou un « jack » : on peut brancher un casque, un système d'enceintes amplifiées, ou tout système audio, afin de reproduire les sons dans le spectre audible par les humains, fabriqués ou passant par la carte son. Cette dernière utilisant aussi un DAC mais aussi ADC, permettant de numériser les signaux analogiques provenant de microphones ou de tout appareil électronique de reproduction sonore que l'on connecte au connecteur mic ou line.
Équipements de réseau
Les équipements de réseau servent à la communication d'informations entre des appareils informatiques, en particulier, à l'envoi d'informations, à la réception, à la retransmission, et au filtrage. Les communications peuvent se faire par câble, par onde radio, par satellite, ou par fibre optique.
Un protocole de communication est une norme industrielle relative à la communication d'informations. La norme établit autant le point de vue électronique (tensions, fréquences) que le point de vue informationnel (choix des informations, format), ainsi que le déroulement des opérations de communication (qui initie la communication, comment réagit le correspondant, combien de temps dure la communication, etc.). Selon le modèle OSI – qui comporte sept niveaux –, une norme industrielle (en particulier un protocole de communication) d'un niveau donné, peut être combinée avec n'importe quelle norme industrielle d'une couche située en dessus ou en dessous.
Une carte réseau est un circuit imprimé qui sert à recevoir et envoyer des informations conformément à un ou plusieurs protocoles.
Un modem est un équipement qui sert à envoyer des informations sous forme d'un signal électrique modulé, ce qui permet de les faire passer sur une ligne de communication analogique telle une ligne téléphonique.
Logiciel informatique
Un logiciel est un ensemble d'informations relatives à un traitement automatisé, qui correspond à la « procédure » d'une Machine de Turing. La mécanique de cette machine correspondant au processeur. Le logiciel peut être composé d'instructions et de données. Les instructions mettent en application les algorithmes en rapport avec le traitement d'information voulu. Les données incluses dans un logiciel sont les informations relatives à ce traitement ou exigées par lui (valeurs clés, textes, images, etc.).
Le logiciel peut prendre une forme exécutable (c'est-à-dire, directement compréhensible par le micro-processeur) ou source, c'est-à-dire que la représentation est composée d'une suite d'instructions directement compréhensible par un individu. Ainsi donc, on peut considérer le logiciel comme une abstraction qui peut prendre une multitude de formes : il peut être imprimé sur du papier, conservé sous forme de fichiers informatiques ou encore stocké dans une mémoire (une disquette, une clé USB).
Un appareil informatique peut contenir de très nombreux logiciels, organisés en trois catégories :
- logiciel applicatif : contient les instructions et les informations relatives à une activité automatisée. Un ordinateur peut stocker une panoplie de logiciels applicatifs, correspondant aux très nombreuses activités pour lesquelles il est utilisé ;
- logiciel système : contient les instructions et les informations relatives à des opérations de routine effectuées par les différents logiciels applicatifs ;
- système d'exploitation : logiciel système qui contient l'ensemble des instructions et des informations relatives à l’utilisation commune du matériel informatique par les logiciels applicatifs ;
- micrologiciel (firmware en anglais) : logiciel de bas niveau permettant la configuration, le démarrage d'un système et de rendre celui-ci « standard » quels que soient son constructeur et sa technologie. Un micrologiciel contient les instructions et les informations relatives au déroulement de cette opération sur l'équipement en question. Un appareil informatique peut contenir de nombreux micrologiciels. Chaque micrologiciel contient les instructions et les informations relatives à tous les traitements qui peuvent être effectués par les équipements d'une série ou d'une marque déterminée.
Un logiciel embarqué, un logiciel libre, un logiciel propriétaire font référence à une manière de distribuer le logiciel. Voir « distribution de logiciels ».
Domaines d'activités informatisées
Lire en ligne : IEEE Computer Society - Keywords38.
- Manipulation d'informations administratives : commerciales, financières, légales, industrielles et comptables depuis 1962.
- Ingénierie : conception assistée par ordinateur et fabrication assistée par ordinateur dans les domaines de l'aéronautique, l'astronautique, la mécanique, la chimie, l'électronique et l'informatique.
- Sciences de la vie : biologie, santé.
- Sciences sociales : psychologie, sociologie, économie.
- Design et artisanat : architecture, littérature, musique.
- Malware ou logiciel malveillant : espionnage, vol d'informations, usurpation d'identité.
Logiciel applicatif
Un logiciel applicatif ou application informatique contient les instructions et les informations relatives à une activité automatisée par un appareil informatique (informatisée). Il peut s'agir d'une activité de production (exemple : activité professionnelle), de recherche, ou de loisir.
- Par exemple, une application de gestion est un logiciel applicatif servant au stockage, au tri et au classement d'une grande quantité d'informations. Les traitements consistent en la collecte et la vérification des informations fraîchement entrées, la recherche d'informations et la rédaction automatique de documents (rapports).
- Un autre exemple, un jeu vidéo est un logiciel applicatif servant à jouer. Les traitements consistent en la manipulation d'images et de sons, la création d'images par synthèse, ainsi que l'arbitrage des règles du jeu.
Logiciel système
Un logiciel système contient les instructions et les informations relatives à des opérations de routine susceptibles d'être exécutées par plusieurs logiciels applicatifs. Un logiciel système sert à fédérer, unifier et aussi simplifier les traitements d'un logiciel applicatif. Les logiciels systèmes contiennent souvent des bibliothèques logicielles.
Lorsqu'un logiciel applicatif doit effectuer une opération de routine, celui-ci fait appel au logiciel système par un mécanisme appelé appel système. La façade formée par l'ensemble des appels systèmes auquel un logiciel système peut répondre est appelée Interface de programmation ou API (acronyme de l'anglais Application programming Interface).
Un logiciel applicatif effectue typiquement un grand nombre d'appels système, et par conséquent, il peut fonctionner uniquement avec un système d'exploitation dont l'interface de programmation correspond. Le logiciel est alors dit compatible avec ce système d'exploitation, et inversement.
Système d'exploitation
Le système d'exploitation est un logiciel système qui contient l'ensemble des instructions et des informations relatives à l’utilisation commune du matériel informatique par les logiciels applicatifs.
Les traitements effectués par le système d'exploitation incluent : répartition du temps d'utilisation du processeur par les différents logiciels (multitâche), répartition des informations en mémoire vive et en mémoire de masse. En mémoire de masse, les informations sont groupées sous formes d'unités logiques appelées fichiers.
Les traitements effectués par le système d'exploitation incluent également les mécanismes de protection contre l'utilisation simultanée par plusieurs logiciels applicatifs d'équipements de matériel informatique qui par nature ne peuvent pas être utilisés de manière partagée (voir Exclusion mutuelle).
POSIX est une norme industrielle d'une interface de programmation qui est appliquée dans de nombreux systèmes d'exploitation, notamment la famille UNIX.
Environnement graphique
L’environnement graphique est le logiciel système qui organise automatiquement l'utilisation de la surface de l'écran par les différents logiciels applicatifs et redirige les informations provenant des dispositifs de pointage (souris). L'environnement graphique est souvent partie intégrante du système d'exploitation.
Système de gestion de base de données
Une base de données est un stock structuré d'informations enregistré dans un dispositif informatique.
Un système de gestion de base de données (sigle : SGBD) est un logiciel système dont les traitements consistent à l'organisation du stockage d'informations dans une ou plusieurs bases de données. Les informations sont disposées de manière à pouvoir être facilement modifiées, triées, classées, ou supprimées. Les automatismes du SGBD incluent également des protections contre l'introduction d'informations incorrectes, contradictoires ou dépassées39.
Micrologiciel
- Dans un équipement informatique utilisation d'un équipement matériel déterminé, opération de routine. Un micrologiciel contient les instructions et les informations relatives au traitement de cette opération sur l'équipement en question. Chaque micrologiciel contient les informations relatives à tous les traitements de routine qui peuvent être effectués par les équipements d'une série ou d'une marque déterminée.
- Dans un appareil électronique : les micrologiciels sont utilisés pour réaliser des automatismes difficiles à concevoir uniquement avec des circuits électroniques. Par exemple, dans des appareils électroménagers (lave-linge, lave-vaisselle) ou les moteurs (calcul de la durée d'injection).
Le micrologiciel est souvent distribué sur une puce de mémoire morte faisant partie intégrante du matériel en question. Il peut être mis à jour soit en changeant la ROM ou pour les systèmes les plus récents en réécrivant la mémoire flash.
Utilisations et domaines d'activités
Le traitement de l'information s'applique à tous les domaines d'activité et ceux-ci peuvent se trouver associés au mot « informatique », comme dans « informatique médicale », où les outils informatiques sont utilisés dans l'aide au diagnostic (ce champ d'activité se rapportera plutôt à l'informatique scientifique décrite ci-dessous), ou dans « informatique bancaire », désignant des systèmes d'information bancaire qui relèvent plutôt de l'informatique de gestion, de la conception et de l'implémentation de produits financiers qui relèvent plutôt de l'informatique scientifique et des mathématiques, ou encore de l'automatisation des salles de marché qui en partie relève de l'informatique temps réel.
On peut dire de l'informatique, capable de traiter mathématiquement des commandes de langage formel, qu'elle réalise le projet de la modernité juridique. (la gouvernance) De la sorte, l'informatique a une fonction politique, conformément à la pensée cybernétique40. L'informatique déploie des machines à gouverner, qui complètent et se synchronisent avec les lois et procédures.
Les grands domaines d'utilisation de l'informatique sont :
- Informatique de gestion
- informatique en rapport avec la gestion de données, à savoir le traitement en masse de grandes quantités d'information. L'informatique de gestion a de nombreuses applications pratiques dans les entreprises : manipulation des informations relatives aux employés, commandes, ventes, statistiques commerciales, journaux de comptabilité générale y compris, en son temps, le calcul du décalage pour les déclarations de TVA à récupérer et gestion de la production et des approvisionnements, gestion de stocks et des inventaires, etc. Ce domaine est de loin celui qui représente la plus forte activité.
- Informatique scientifique41
- consiste à aider les ingénieurs de conception dans les domaines de l'ingénierie industrielle à concevoir et dimensionner des équipements à l'aide de programmes de calcul : réacteurs nucléaires, avions et automobiles (langages souvent employés : historiquement le Fortran, de plus en plus concurrencé par C et C++). L'informatique scientifique est surtout utilisée dans les bureaux d'étude et les entreprises d'ingénierie industrielle car elle permet de simuler, par la recherche opérationnelle ou par itération, des scénarios de façon rapide et fiable. Par exemple, l'écurie italienne de Formule 1 Scuderia Ferrari s'est équipée en 2006 avec un des plus puissants calculateurs du monde afin de permettre les essais numériques de sa monoplace et accélérer la mise au point de ses prototypes ;
- Informatique embarquée
- consiste à définir les logiciels destinés à être embarqués dans des dispositifs matériels autonomes interagissant avec leur environnement physique. L'informatique embarquée assure alors parfois le pilotage de systèmes électromécaniques plus ou moins complexes. Elle est ainsi à rapprocher de la production de systèmes informatiques temps réel tant le temps devient une préoccupation clef lorsque l'informatique est acteur du monde réel. Elle trouve aussi ses domaines d'applications dans de nombreux objets de notre vie quotidienne en enrichissant les performances et les fonctionnalités des services proposés. Historiquement d'abord liés à l'aéronautique, le spatial, l'armement, le nucléaire, on en trouve aujourd'hui de nombreuses illustrations dans notre vie quotidienne : automobile, machine à laver, téléphone portable, carte à puce, domotique, etc.
- Ingénierie des connaissances
- forme d'ingénierie informatique, qui consiste à gérer les processus d'innovation, dans tous les domaines, selon des modèles assez différents de ceux jusqu'alors employés en informatique de gestion. Cette forme d'ingénierie permettra peut-être d'accroître la cohérence des trois domaines, qui sont la gestion, le temps réel, et le scientifique dans l'organisation des entreprises. Elle s'intéresse plus au contenu et à la qualité des bases de données et de connaissances qu'à l'automatisation des traitements. Elle se développe déjà beaucoup aux États-Unis.
- Les applications du renseignement économique et stratégique
- font appel aux techniques de l'information, notamment dans l'analyse du contexte, pour la recherche d'informations (moteurs de recherche). D'autre part, dans une optique de développement durable, il est nécessaire de structurer les relations avec les parties prenantes, ce qui fait appel à d'autres techniques telles les protocoles d'échange et les moteurs de règles.
Exemples de domaines d'utilisation
Les différents domaines d'utilisation de l'informatique sont les suivants :
- Automatique : appareils de régulation tels le pilote automatique.
- Bio-informatique : outils d'aide dans la recherche en biologie.
- Bureautique : outils d'aide au travail de bureau : rédaction de documents commerciaux et correspondance.
- Calcul parallèle : pour des applications qui demandent de nombreux calculs : prévisions météo ou image de synthèse.
- Cryptographie : déchiffrage d'informations chiffrées par un code secret.
- Domotique : commande d'appareils domestiques et systèmes d'alarme.
- Exploration de données : extraction automatique de connaissances.
- Gestion de contenu : collecte des documents électroniques d'une entreprise : mail, fax, contrats.
- Hypermédias : manipulation de documents de présentation contenant des vidéos, des images et du son.
- Imagerie informatique : création ou manipulation d'images : images de synthèse, traitement d'images, jeux vidéo, simulateurs de vol.
- Informatique décisionnelle : analyses et statistiques en vue d'aide à la décision pour les responsables d'entreprise.
- Informatique de gestion : manipulation en masse de grandes quantités d'informations : listes de clients, des fournisseurs, de produits.
- Informatique industrielle : utilisation dans des chaînes de fabrication industrielles.
- Informatique médicale : manipulations d'images médicales (scanner, échographies), dossiers médicaux.
- Informatique musicale : composition musicale.
- Instrumentation : collecte d'informations provenant de capteurs, lors d'expériences scientifiques.
- Linguistique informatique : correction d'orthographe, traduction automatique.
- Logiciels malveillants : logiciels mal intentionnés qui s'installent et agissent à l'insu de l'utilisateur : vol d'informations, falsification, usurpation d'identité.
- Nanotechnologie : aide à la recherche en nanotechnologie.
- Publication assistée par ordinateur : outils de création de la presse et du livre.
- Robotique : pilotage des machines autonomes que sont les robots.
- Télécommunications : transmission d'informations.
Terminologie de l'informatique
L'informatique est un secteur d'activité scientifique et industriel important aux États-Unis, en Europe et au Japon. Les produits et services de cette activité s'échangent dans le monde entier. Les produits immatériels tels que les connaissances, les normes, les logiciels ou les langages de programmation circulent très rapidement par l'intermédiaire des réseaux informatiques et de la presse spécialisée, et sont suivis par les groupes de veille technologique des entreprises et des institutions. Les matériels informatiques peuvent être conçus sur un continent et construits sur un autre.
L'anglais international est la langue véhiculaire du secteur d'activité. Il est enseigné dans les écoles42. C'est la langue des publications scientifiques ainsi que de nombreux ouvrages techniques. La grande majorité des langages de programmation utilisent le vocabulaire anglais comme base. Les termes peuvent provenir des instituts de recherche, des entreprises, ou des organismes de normalisation du secteur. De nombreux néologismes sont des abréviations ou des mots-valise basés sur des mots en anglais. Le grand nombre d'anglicismes reflète la domination actuelle des États-Unis sur ce marché43.
L'usage d'abréviations joue le même rôle que celui des formules chimiques : l'ébauche d'une nomenclature internationale qui facilite l'accès des lecteurs non anglophones à la littérature informatique. Il existe en outre, un phénomène d'emprunt lexical réciproque entre les langages de programmation – dont le lexique est basé sur l'anglais – et le jargon informatique44.
Marché de l'informatique
On trouve dans le monde environ un milliard de micro-ordinateurs45, trois cent mille stations de travail, quelques dizaines de milliers de mainframes, et deux mille superordinateurs en état de marche.
On ne connaît pas avec certitude la part de marché occupée par l'industrie des systèmes embarqués, mais on estime que l'informatique représente le tiers du coût d'un avion ou d'une voiture46.
La distribution des produits informatiques est faite sous la forme de multiples canaux de distribution, parmi lesquels on compte la vente directe, le commerce en ligne, les chaînes de revendeurs, les groupements de revendeurs, la vente par correspondance.
Les grossistes informatiques ont un rôle clef dans la distribution informatique et sont un point de passage quasi obligé pour les sociétés qui ont choisi la vente indirecte (par un réseau de revendeurs). Les grossistes, qu'ils soient généralistes ou spécialisés, adressent la multitude de petits points de vente ou les sociétés de service pour lesquelles l'activité de négoce représente un volume d'activité faible.
Aujourd'hui, la plupart des constructeurs sont spécialisés soit dans le matériel, soit dans le logiciel, soit dans les services.
Apple et Oracle (Sun) sont parmi les seuls constructeurs spécialisés à la fois dans le matériel et le logiciel. IBM et HP sont parmi les seuls constructeurs spécialisés à la fois dans le matériel et les services.
Dans le sultanat d'Oman entre 2002 et 2005, 16 % des ventes concernaient du logiciel, 30 % concernait des ordinateurs, 28 % concernait des services, et 25 % concernait des équipements de transmission47.
En Autriche, en 2007, 21 % des ventes concernent le logiciel, 34 % concernent le matériel, et 45 % concernent des services48.
Histoire
Historiquement, le matériel informatique était distribué par les grands constructeurs qui traitaient en direct avec leurs clients ; la plupart de ceux-ci étant de grandes entreprises ou des organismes publics. Les logiciels étaient créés par les clients. Les constructeurs fournissaient uniquement un système d'exploitation, et assistaient leurs clients par l'organisation de cours de programmation à la formation des analystes programmeurs. Au fur et à mesure de la baisse des prix des systèmes, le marché s'est élargi, obligeant plusieurs constructeurs à se structurer pour mieux diffuser leur produit et à s'appuyer sur des partenaires.
Ces partenaires étaient au départ mono-marque et travaillaient souvent sous la forme d'agent semi-exclusif, puis ils se sont transformés au fil du temps en revendeurs indépendants multi-marques.
Dans les années 1980, en même temps que les premiers mini-ordinateurs, sont apparus les premiers éditeurs spécialisés dans le logiciel.
Depuis 1987, le marché du micro-ordinateur est le principal secteur du marché informatique, et les micro-ordinateurs, initialement utilisés à des fins domestiques, sont désormais largement utilisés dans les entreprises et les institutions, où ils tendent à remplacer les stations de travail et les mainframes.
Du fait de la croissance très rapide du marché, vecteur de forte concurrence, de nombreuses sociétés ont disparu dans les années 1980. Des quatorze grands fabricants de l'époque, en 1997 il n'en reste plus que deux (Intel et AMD)49.
Marché du matériel
L'ordinateur est un appareil modulable, construit par assemblage de composants de différentes marques.
Le développement et la construction des composants est le fait de quelques marques très spécialisées. La majorité des constructeurs d'ordinateurs sont des assembleurs : un assembleur est une société qui vend des ordinateurs construits par assemblage de composants provenant d'autres marques, y compris de concurrents.
Loi de Moore
En 1965, Gordon Earle Moore, cofondateur d'Intel, un grand fabricant de microprocesseurs, émettait la Loi de Moore. Cette loi, basée sur l'observation, prédit que la complexité des microprocesseurs devrait doubler tous les deux ans. Quarante ans plus tard, cette observation se confirme toujours. Selon le magazine Ligne de crédit, l'alignement à la Loi de Moore n'est pas le fait du hasard, mais une volonté de l'industrie informatique50.
Offre en matériel
Le matériel informatique est aujourd'hui produit par diverses multinationales, majoritairement du Japon et de Taïwan. Exemples :
En Autriche par exemple, les principales marques d'ordinateur sont, en 2007 : Hewlett-Packard (Palo Alto, États-Unis), Dell, (Round Rock, États-Unis), Fujitsu (Japon), Siemens (Berlin, Allemagne), Sony (Tokyo, Japon) et Acer (Taïwan)48.
Les principales marques de consoles de jeux sont en 2007 : Sony (Tokyo, Japon), Nintendo (Kyoto, Japon), et Microsoft (Redmond, États-Unis)51.
Marché du logiciel
La fabrication d'un logiciel (développement) demande très peu de moyens techniques, et par contre beaucoup de temps et de savoir-faire.
Il existe aujourd'hui un très grand nombre d'auteurs de logiciels, il peut s'agir de multinationales comme Microsoft, de petites entreprises locales, voire de particuliers ou de bénévoles.
Les grosses entreprises, utilisant du matériel informatique pour leurs propres besoins, ont souvent des équipes spécialisées, qui créent des logiciels sur mesure pour les besoins de l'entreprise. Ces logiciels ne seront jamais mis sur le marché. Un progiciel est un logiciel prêt-à-porter et générique prévu pour répondre à un besoin ordinaire. Par opposition à un logiciel spécifique, qui est développé sur mesure en vue de répondre au besoin d'un client en particulier. La création de logiciels spécifique est le principal sujet de contrats de services des entreprises informatiques.
Dans des secteurs industriels comme l'aviation, des équipes créent des logiciels pour les systèmes embarqués de ce secteur. Ces logiciels ne sont jamais mis sur le marché séparément.
Un logiciel étant un ensemble d'informations, il peut être transmis par les moyens de télécommunications. Le téléchargement est l'opération qui consiste à utiliser un réseau de télécommunication pour récupérer un logiciel en provenance d'un autre appareil. Le commerce en ligne est l'activité qui consiste à vendre des logiciels (ou d'autres biens) en les distribuant par des réseaux de télécommunication comme Internet.
Types de logiciels
On peut distinguer quatre grands types de logiciels : libres, propriétaires, shareware, freeware, en fonction du type de contrat de licence qui régit leur distribution, utilisation et copie.
- Un logiciel libre (ou open source) est un logiciel que l'on peut utiliser, étudier, modifier et redistribuer librement. Un tel logiciel peut être soumis au droit d'auteur (sous une certaine licence) ou non (dans le domaine public). Les logiciels libres sont souvent distribués gratuitement.
- Un logiciel propriétaire peut être utilisé, mais ne peut pas être ni étudié, ni modifié, ni redistribué librement. Ces logiciels sont le plus souvent distribués par l'intermédiaire de réseaux de vente et, pour certains d'entre eux, associés de manière plus ou moins licite, à la vente d'un micro-ordinateur.
- Un gratuiciel (en anglais freeware) est un logiciel qui peut être distribué gratuitement. L'auteur se réserve le droit exclusif de le modifier.
- Un partagiciel (ou shareware) est un logiciel propriétaire qui est gratuit pendant une période d'essai et payant ensuite. De nombreuses variantes de shareware existent, selon le paiement demandé (qui est parfois un don à une organisation caritative, l'envoi d'une carte postale à l'auteur, etc.) et le fonctionnement du logiciel à la fin de la période d'essai (le logiciel peut tomber en panne, ou alors il reste utilisable mais importune l'utilisateur en l'avertissant de façon répétée qu'il doit acheter le produit, etc.).
- Un micrologiciel (ou firmware) est un logiciel incorporé dans un matériel informatique, et indissociable de celui-ci.
Terminologie de la distribution de logiciels
Offre générale en logiciels
Il existe aujourd'hui une offre très large de logiciels, de tous les types : libres, propriétaires, shareware et freeware.
L'industrie du logiciel est un des principaux secteurs économiques en Europe et aux États-Unis. De nombreux constructeurs de logiciels sont aux États-Unis. La création de logiciels applicatifs représente 52 % de l'activité52.
Si le Japon est un des pays les mieux équipés en matériel informatique, on y trouve les plus grands fabricants de matériel, il n'en va pas de même pour le logiciel, et de nombreux logiciels posent des problèmes pour l'écriture de textes en utilisant l'alphabet japonais53.
Il existe en 2008 environ quatre-vingts systèmes d'exploitation différents. Le marché est largement occupé par la famille Windows : cette famille de systèmes d'exploitation, propriété de Microsoft (Redmond, États-Unis) occupe environ 90 % du marché des systèmes d'exploitation pour ordinateurs personnels. La société Microsoft a fait l'objet de divers procès pour monopolisation du marché54.
En 2019, le marché des smartphones, tablettes et objet connectés a fortement évolué et utilise très majoritairement le système Android développé par Google.
Offre en logiciels libres
GNU est un projet de système d'exploitation lancé en 1985, entièrement basé sur des produits open source. Linux est un système d'exploitation open source, écrit par une équipe de plus de 3 200 bénévoles. La valeur de revente de Linux est estimée à plus de 1,4 milliard de dollars54.
L'offre en logiciels libres consiste notamment en des ensembles qui contiennent à la fois des produits GNU et Linux. Ils sont distribués avec des magazines, ou mis à disposition pour le téléchargement.
Aujourd'hui la majorité des téléphones portable sont basés sur des systèmes d'exploitation libres : OS X a été développé à partir de Free BSD, Android est quant à lui basé sur un système Linux classique. Ce qui fait des systèmes Open Source Linux et Free BSD les systèmes les plus répandus sur le marché du téléphone portable.
Copie et Contrefaçon
La Contrefaçon numérique consiste à utiliser ou à mettre à disposition tout ou partie d'un logiciel alors que sa licence ne l'autorise pas, les éditeurs logiciel parlent volontiers de pirates pour désigner les auteurs voir, les utilisateurs de ces contrefaçons.
La licence d'utilisation s'apparente à un contrat (dont la valeur juridique varie selon les pays) accepté implicitement par tout acheteur d'un logiciel (ou explicitement lors de l'installation ou du premier lancement de celui-ci).
Par une licence propriétaire, l'éditeur octroie le droit, généralement exclusif et non transmissible, à l'acheteur d'utiliser le logiciel. Si une copie de ce logiciel est mise à disposition d'autrui, l'utilisation par autrui est alors une violation des clauses du contrat de licence et la mise à disposition est considérée comme un acte de contrefaçon.
La vente de licences d'utilisation est la première source de revenus de nombreux éditeurs logiciels et la copie voir la diffusion illégale représente pour eux un important manque à gagner. La contrefaçon touche le marché du logiciel comme les marchés d'autres biens immatériels tels que la musique ou la vidéo.
Les éditeurs vendent souvent leur logiciel accompagné de services tels que garantie et mises à jour, des services qui ne sont, la plupart du temps, disponibles que sur les logiciels légalement utilisés.
Le nombre de copies de logiciels vendues par des contrefacteurs est plus ou moins élevé selon les pays. Selon la Business Software Alliance, en Algérie 85 % des logiciels vendus en 2008 seraient issus du piratage55. Toujours selon la Business Software Alliance, au Luxembourg, ce taux aurait été de 21 % en 2007, ce qui serait le taux le plus bas du monde56.
Marché des services
Le passage d'un marché industriel57 de produits à un marché des services est relativement récent et en forte progression58. Le commerce de services consiste principalement en la vente et l'exécution de mandats concernant des modifications sur des systèmes d'information d'entreprises ou de collectivités.
Les systèmes d'information des entreprises sont parfois composés de centaines d'ordinateurs, sur lesquels sont exécutés des centaines de logiciels de manière simultanée. Il existe de nombreux liens entre les différents logiciels et les différents ordinateurs, et le simple fait d'arrêter un seul des éléments risque de déranger des milliers d'usagers, voire de provoquer le chômage technique de l'entreprise.
Selon le cabinet Gartner Dataquest, les services informatiques ont généré 672,3 milliards de dollars dans le monde en 2006. Soit un marché en augmentation de 6,4 % par rapport à 200559.
Un consultant est une personne chargée d'une mission de services.
Offre en services
- Une SSII (abréviation de Société de Service en Ingénierie Informatique) est une société qui met à disposition des spécialistes pour des missions de service sur des systèmes informatiques.
De nombreuses SSII se trouvent aux États-Unis et en Inde. Parmi les leaders du marché on trouve IBM – la plus ancienne société d'informatique encore en activité –, ainsi que EDS, Accenture et Hewlett-Packard, toutes originaires des États-Unis.
Les principaux sujets des mandats sont la création de logiciels sur mesure, la mise en place de progiciels et la modification des fichiers de configuration en fonction des besoins, des opérations de réglage, d'expertise et de surveillance du système informatique. En France la majorité des constructeurs de logiciels sont des SSII.
- SAP désigne par abus de langage un progiciel de gestion intégré pour les entreprises, construit par la société SAP AG (Walldorf, Allemagne). L'adaptation aux besoins des entreprises de ce logiciel riche et multi-fonctionnel est une activité courante des SSII.
Métiers et activités
L'informaticien est d'une manière générale une personne qui travaille dans le secteur de l'informatique. Il existe dans ce secteur diverses activités qui sont orientées vers la création de logiciels ou la maintenance d'un système informatique – matériel et logiciels.
Le secteur dépend également des activités des fabricants de semi-conducteurs et de pièces détachées, des assembleurs, ainsi que des fournisseurs de télécommunications et des services d'assistance.
Maintenance d'un système informatique
La maintenance d'un système informatique consiste à la préparation d'ordinateurs tels que serveurs, ordinateurs personnels, ainsi que la pose d'imprimantes, de routeurs ou d'autres appareils. L'activité consiste également au dépannage des machines, à l'adaptation de leur configuration, l'installation de logiciels tels que systèmes d'exploitation, systèmes de gestion de base de données ou logiciels applicatifs, ainsi que divers travaux de prévention des pannes, des pertes ou des fuites d'informations telles que l'attribution de droits d'accès ou la création régulière de copies de sauvegarde (backup en anglais).
Le directeur informatique décide des évolutions du système informatique dans les grandes lignes, conformément à la politique d'évolution de la société qui l'emploie. Il sert d'intermédiaire entre les fournisseurs et les clients (employés de l'entreprise), ainsi que la direction générale. Il propose des budgets, des évolutions, puis mandate des fournisseurs pour des travaux.
L'ingénieur système travaille à la mise en place et l'entretien du système informatique : la pose de matériel informatique, l'installation de logiciels tels que systèmes d'exploitation, systèmes de gestion de base de données ou logiciels applicatifs, et le réglage des paramètres de configuration des logiciels.
L'administrateur de bases de données est chargé de la disponibilité des informations contenues dans des bases de données et la bonne utilisation des systèmes de gestion de base de données – les logiciels qui mettent à disposition les informations et qui occupent une place stratégique dans de nombreuses entreprises. Il s'occupe des travaux de construction, d'organisation et de transformation des bases de données, ainsi que du réglage des paramètres de configuration du système de gestion de base de données et de l'attribution de droit d'accès sur le contenu des bases de données.
Le responsable d'exploitation veille à la disponibilité constante du système informatique. Il effectue des tâches de sauvegarde régulière en vue de prévenir la perte irrémédiable d'informations, organise les travaux de transformation du système informatique en vue de limiter la durée des mises hors service et attribue des droits d'accès en vue de limiter les possibilités de manipulation du système informatique au strict nécessaire pour chaque usager – ceci en vue de prévenir des pertes ou des fuites d'information.
Création de logiciels
Le développement de logiciels consiste à la création de nouveaux logiciels ainsi que la transformation et la correction de logiciels existants. En font partie la définition d'un cahier des charges pour le futur logiciel, l'écriture du logiciel dans un ou l'autre langage de programmation, le contrôle du logiciel créé, la planification et l'estimation du budget des travaux.
Dans une équipe d'ingénieurs, le chef de projet est chargé d'estimer la durée des travaux, d'établir un planning, de distribuer les tâches entre les différents membres de l'équipe, puis de veiller à l'avancée des travaux, au respect du planning et du cahier des charges. Le chef de projet participe également à la mise en place du logiciel chez le client et récolte les avis des usagers.
L'analyste-programmeur est chargé d'examiner le cahier des charges du futur logiciel, de déterminer la liste de toutes les tâches de programmation nécessaire pour mettre en œuvre le logiciel. Il est chargé de déterminer les automatismes les mieux appropriés en fonction du cahier des charges et des possibilités existantes sur le système informatique. L'analyste-programmeur est ensuite chargé d'effectuer les modifications nécessaires dans le logiciel, de rédiger ou de modifier le code source du logiciel et de vérifier son bon fonctionnement.
L'architecte des systèmes d'informations est chargé de déterminer, d'organiser et de cartographier les grandes lignes de systèmes informatiques ou de logiciels. Il réalise des plans d'ensemble, détermine les composants (logiciel et matériel) principaux de l'ensemble, ainsi que les flux d'informations entre ces composants. Lors de la création de nouveaux logiciels il est chargé de découper le futur logiciel en composants, puis d'organiser et de cartographier le logiciel et les produits connexes.
Sous-traitance, infogérance, intégration
Les entreprises et les institutions qui ont un système informatique de grande ampleur ont souvent une équipe d'informaticiens qui travaillent à la maintenance du système ainsi qu'à la création de logiciels pour le compte de l'entreprise. Cette équipe, dirigée par le directeur informatique peut faire appel à des éditeurs de logiciel ou des sociétés de services en ingénierie informatique (abréviation SSII) pour certains travaux. Par exemple, lorsque l'équipe interne est trop peu nombreuse ou ne possède pas les connaissances nécessaires. Les entreprises peuvent également faire appel à des consultants – des employés d'une société tierce – pour prêter main-forte ou conseiller leur équipe sur un sujet précis.
L'infogérance consiste à déléguer toute la maintenance du système d'information à une société de services. Ces services sont parfois réalisés offshore : des équipes délocalisées (parfois situées dans un pays lointain) pilotent les ordinateurs à travers les réseaux informatiques (télémaintenance).
L'intégration verticale consiste pour une société informatique à non seulement créer un logiciel, mais également travailler sur des opérations antérieures et postérieures au développement du logiciel en question, tels que le management du système d'information, l'aide à la décision de la direction des systèmes d'information, les opérations de migration ou les services d'assistance.
En cloud computing, un site informatique - matériel, logiciel et raccordements réseau - appartenant à un fournisseur, est mis à disposition des consommateurs en libre-service payé à l'usage. Selon le service offert, la responsabilité du système d'exploitation, des logiciels moteurs et des logiciels applicatifs incombe soit au fournisseur soit au consommateur.
Informatique et développement durable
On applique souvent l'adjectif « virtuel » ou « immatériel » aux produits de l'informatique, ce qui pourrait laisser croire que l'informatique est peu consommatrice de ressources naturelles. Jean-Marc Jancovici montre que la dématérialisation, souvent présentée comme une solution pour le développement durable de l'économie, ne s'est pas accompagnée d'une diminution des flux physiques par rapport aux flux d'information60. En pratique, dans les années 2010, les directions des systèmes d'information sont généralement tenues à l'écart des programmes de développement durable des entreprises.
On se rend compte aujourd'hui, avec les premières études des experts en informatique verte (TIC durables), que l'informatique serait directement à l'origine de 5 % des émissions de gaz à effet de serre de la France61. L'informatique générerait également une forte consommation d'électricité. Mais les impacts environnementaux sont surtout concentrés lors de la fabrication des équipements et leur fin de vie. Les principaux impacts sont l'épuisement des ressources naturelles non renouvelables et les pollutions (eau, air, sol) qui dégradent les écosystèmes62.
L'application des principes de développement durable à l'informatique donne naissance aux TIC durables. Elle englobe les trois piliers du développement durable (environnement, social, économique) et se caractérise par une double démarche (souvent menée en parallèle) :
À terme, le développement durable devrait faire évoluer les modèles employés en informatique. Il est, en effet, nécessaire d'expliciter la sémantique des données, documents ou modèles, ce qui relève de la branche de l'informatique appelée représentation des connaissances. Plusieurs projets en écoinformatique se déroulent dans le cadre d'initiatives telles que le web sémantique63.
Notes et références
Notes
Références
- [PDF] (en) Karl Steinbuch [archive], Bernard Widrow, Reiner Hartenstein, Robert Hecht-Nielsen.
- Maurice Roy, Le patron de l'Informatique, in L'Express no 798 du 3-9 octobre 1966, p. 51
- Informations lexicographiques [archive] et étymologiques [archive] de « Informatique » dans le Trésor de la langue française informatisé, sur le site du Centre national de ressources textuelles et lexicales, consulté le 29 octobre 2014.
- Michel Volle - étymologie du mot informatique [archive], sur le site volle.com.
- Histoire de l'informatique [archive], sur le site snv.jussieu.fr, consulté le 13 novembre 2012.
- (de) Heinz G. Schwärtzel, « 40 Jahre GI : Die Informatik Revolution » [archive] [PDF], sur gi.de (consulté le ), p. 9.
- Compagnie Générale d'Informatique, Livret d'accueil des jeunes embauchés, 1981.
- (en) « European Computer Driving License Foundation » [archive].
- Bernard Lang, « L'Informatique, Science, Technique et Outil » [archive], sur INRIA, (consulté le )
- TERMIUM plus, la banque de données terminologiques et linguistiques du gouvernement du Canada, donne la précision suivante : « In France and West Germany, as well as other places throughout western Europe, informatics designates applied computer science ».
- (en) « Computer Science is the study of all aspects of computer systems, from the theoretical foundations to the very practical aspects of managing large software projects. » Massey University [archive].
- TERMIUM plus donne de computing la définition suivante : « The process of using a computer to perform mathematical or logical operations on data in order to obtain desired results. […] The term "computing" extends far beyond its original meaning of performing mathematical calculations, although the original computers and computing devices were designed specifically, for that relatively narrow purpose ».
- (en) Définition [archive] sur TERMIUM plus, la banque de données terminologiques et linguistiques du gouvernement du Canada : « The acquisition, processing, storage and dissemination of vocal, pictorial, textual and numerical information by a microelectronic-band combination of computing, telecommunication and video », source : (en + de) Hans-Dieter Junge, Dictionary of information technology : English/German, Weinheim, Federal Republic of Germany New York, NY, USA, VCH, coll. « Parat », , 949 p. (ISBN 978-3-527-26430-8, 978-3-527-26420-9 et 978-0-895-73528-7), viii, 566 p., 3e éd..
- « information technology » [archive], Grand Dictionnaire terminologique, Office québécois de la langue française (consulté le )
- IT - Abreviation de IT technology [archive], sur materiel-informatique.be, consulté le 14 mai 2019
- Marguin 1994, p. 48.
- Taton 1963.
- Description de la machine des Arts et métiers [archive].
- Mourlevat 1988, p. 43–44.
- Université de Lille, Marie-Paule Quetu et Yann Secq, « Les premiers diplômes en informatique » [archive],
- « Pourquoi les femmes ont déserté l’informatique dans les 80’s » [archive], sur Les Echos Start, (consulté le )
- « L’invention de la mécanographie » [archive], sur interstices.info (consulté le )
- Evans 2018, p. 39.
- Light 1999, p. 459.
- « Trois mille ans d’informatique » [archive], sur CNRS Le journal (consulté le )
- "Bull et les communications", par Claude Rolland, sur FEB Patrimoine [archive].
- (en) Donald Knuth, The Art of Computer Programming, tome 1 (fundamental algorithms), tome 2 (seminumerical algorithms), tome 3 (sorting and searching), tome 4 (combinatorial algorithms).
- Foray 1990.
- N. Jullien, 2001, Impact du logiciel libre sur l’industrie informatique, Thèse de Doctorat en Sciences Économiques.
- Jean-Louis Giavitto, « Le calcul, une notion difficile à attraper » [archive], sur interstices.info,
- Philippe Flajolet et Étienne Parizot, « Qu'est-ce qu'un algorithme ? » [archive], sur interstices.info,
- (en) Stephen C. Kleene, « Origins of recursive function theory », Annals of the History of Computing, IEEE, vol. 3, , p. 52-67 (DOI 10.1109/sfcs.1979.33, lire en ligne [archive], consulté le )
- Jean-Gabriel Ganascia, « Alan Turing : du calculable à l'indécidable » [archive], sur interstices.info,
- Jean-Paul Delahaye, « P=NP, un problème à un million de dollars ? » [archive], sur interstices.info,
- « Science & Informatique : Le donnant-donnant de l'informatique et des sciences » [archive], sur journaldunet.com (consulté le )
- « Sciences cognitives et informatique - opposition et convergence » [archive], sur psychoweb.fr.
- Définition - Carte mère [archive], sur cours-informatique-gratuit.fr, consulté le 24 février 2017.
- (en) « Associated Computer Machinery Taxonomy » [archive], sur computer.org.
- (en) « Database functionality » [archive], sur fb.com.
- Pierre-Yves Mistoulon et Ronan,. Le Roux, Cybernétique et société l'usage humain des êtres humains, Éditions du Seuil, dl 2014, cop. 2014 (ISBN 978-2-7578-4278-2 et 2-7578-4278-1, OCLC 879318247, lire en ligne [archive])
- (en) « Acsysteme » [archive], sur acsysteme.com (consulté le )
- « Initiation à l'anglais informatique » [archive] [PDF], sur restode.cfwb.be.
- Pierre Guerlain, Miroirs transatlantiques : la France et les États-Unis entre passions et indifférences, Paris, Éditions L'Harmattan, coll. « Harmathèque », (ISBN 978-2-7384-4044-0, OCLC 848151788, présentation en ligne [archive])
- Pierre Arnaud (dir.) et Philippe Thoiron (dir.), Aspects du vocabulaire, Lyon, Presses universitaires de Lyon, coll. « Travaux du CRTT », , 147 p. (ISBN 978-2-7297-0465-0, OCLC 751111863, présentation en ligne [archive])
- « PC Adoption Worlwide »(Archive.org • Wikiwix • Archive.is • http://www.forrester.com/Research/Document/Excerpt/0,7211,42496,00.html" rel="nofollow" class="external text">Google • Que faire ?), sur forrester.com.
- [PDF] « L'industrie du logiciel » [archive].
- [PDF] « Le marché informatique en Oman » [archive].
- « Le marché informatique autrichien » [archive], sur ccinet.cci.fr.
- « Futur et évolution de la micro-informatique » [archive], sur cerig.efpg.inpg.fr 1997!.
- « Loi de moore j-10 ans » [archive], sur lignedecredit.com.
- « Consoles et parts de marché »(Archive.org • Wikiwix • Archive.is • http://www.news-hs.com/Consoles_et_parts_de_march%C3%A9-258.html" rel="nofollow" class="external text">Google • Que faire ?), sur news-hs.com.
- Hervé Rannou et Maurice Ronai, Étude sur l'industrie du logiciel, Conseil stratégique des technologies de l’information, (lire en ligne [archive] [PDF])
- « L'informatique au Japon » [archive], sur fredshack.com
- « L'écosystème Linux a une valeur de 25 milliards de dollars » [archive], sur Génération-NT (consulté le )
- « L’Algérie premier pays du monde arabe dans le piratage informatique » [archive], sur Le Matin d'Algérie (consulté le )
- « Le piratage de logiciels baisserait en France, pas dans le monde » [archive], sur 01net (consulté le )
- Gérard Dréan, L'Industrie informatique : structure, économie, perspectives, Paris Milan Barcelone, Masson, coll. « Stratégies et systèmes d'information », , 389 p. (ISBN 978-2-225-85018-9, OCLC 34336407)
- Eurostaff, 2000, L’informatique : le passage d’une logique de produit à une logique de services, Eurostaf éditions.
- « Le marché mondial des services informatiques croît de 6,4 % » [archive], sur bfmbusiness.bfmtv.com (consulté le )
- [paragraphe Que peut-on espérer de la « dématérialisation de l'économie ?»] « La croissance économique « fait-elle » de l’effet de serre ? » [archive], sur Jean-Marc Jancovici (consulté le )
- « Rapport TIC et développement durable » [archive], sur La Documentation française (consulté le )
- Groupe EcoInfo, Les impacts écologiques des technologies de l’information et de la communication, EDP Sciences, , 220 p.
Annexes
Sur les autres projets Wikimedia :
Bibliographie
- [Abelson et Jay Sussman 2001] (en) Harold Abelson et Gerald Jay Sussman, Structure and Interpretation of Computer Programs, MIT Press, , 657 p. (ISBN 978-0-262-51087-5).
- [Campbell-Kelly 2003] Martin Campbell-Kelly, Une histoire de l'industrie du logiciel : des réservations aériennes à Sonic le Hérisson, Vuibert, , 368 p. (ISBN 978-2-7117-4818-1).
- [Ceruzzi 2003] (en) Paul E. Ceruzzi, A History of Modern Computing, MIT Press, , 445 p. (ISBN 978-0-262-53203-7, lire en ligne [archive]).
- [Fayon 1999] David Fayon, L'informatique, Vuibert, (ISBN 978-2-7117-6903-2).
- [Foray 1990] D. Foray, « Exploitation des externalités de réseau versus évolution des normes : les formes d’organisation face au dilemme de l’efficacité, dans le domaine des technologies de réseau », Revue d’économie Industrielle, vol. 51, no 1, , p. 113-140 (DOI 10.3406/rei.1990.1307).
- [Kidder 1981] (en) Tracy Kidder, The Soul of a New Machine (en), Atlantic-Little, (ISBN 978-0-316-49197-6).
- [Knuth 1997] (en) Donald Knuth, The Art of Computer Programming : Fundamental algorithms, Addison Wesley, , 634 p. (ISBN 978-0-201-48541-7).
- [Marguin 1994] Jean Marguin, Histoire des instruments et machines à calculer, trois siècles de mécanique pensante 1642-1942, Hermann, , 206 p. (ISBN 978-2-7056-6166-3).
- [Mounier-Kuhn] Pierre Mounier-Kuhn, L'Informatique en France, de la seconde guerre mondiale au Plan Calcul : L'émergence d'une science, Paris, PUPS, , 718 p. (ISBN 978-2-84050-654-6, lire en ligne [archive]).
- [Mourlevat 1988] Guy Mourlevat, Les Machines arithmétiques de Blaise Pascal, Clermont-Ferrand, La Française d'Édition et d'Imprimerie, .
- [von Neumann 2000] (en) John von Neumann, The Computer and the Brain, Yale Nota Bene, , 82 p. (ISBN 978-0-300-08473-3, lire en ligne [archive]).
- [Taton 1963] René Taton, Le calcul mécanique, Presses universitaires de France, coll. « Que sais-je ? », .
- [Volle 2006] Michel Volle, De l'Informatique : savoir vivre avec l'automate, Economica, , 614 p. (ISBN 978-2-7178-5219-6).
Articles connexes
Liens externes
Ordinateur
Un ordinateur est un système de traitement de l'information programmable tel que défini par Alan Turing et qui fonctionne par la lecture séquentielle d'un ensemble d'instructions, organisées en programmes, qui lui font exécuter des opérations logiques et arithmétiques. Sa structure physique actuelle fait que toutes les opérations reposent sur la logique binaire et sur des nombres formés à partir de chiffres binaires. Dès sa mise sous tension, un ordinateur exécute, l'une après l'autre, des instructions qui lui font lire, manipuler, puis réécrire un ensemble de données déterminées par une mémoire morte d'amorçage. Des tests et des sauts conditionnels permettent de passer à l'instruction suivante et donc d'agir différemment en fonction des données ou des nécessités du moment ou de l'environnement.
Les données à manipuler sont acquises soit par la lecture de mémoires, soit en provenance de périphériques internes ou externes (déplacement d'une souris, touche appuyée sur un clavier, déplacement d'un stylet sur une tablette, température et autres mesures physiques…). Une fois utilisés, ou manipulés, les résultats sont écrits soit dans des mémoires, soit dans des composants qui peuvent transformer une valeur binaire en une action physique (écriture sur une imprimante ou sur un moniteur, accélération ou freinage d'un véhicule, changement de température d'un four…). L'ordinateur peut aussi répondre à des interruptions qui lui permettent d’exécuter des programmes de réponses spécifiques à chacune, puis de reprendre l’exécution séquentielle du programme interrompu.
L'histoire des ordinateurs remonte au XIXe siècle avec des concepts tels que la machine à différences de Charles Babbage, sans suite directe. Alan Turing formalise mathématiquement la notion d'ordinateur en 1931. Les premières implémentations commencent à émerger au milieu du XXe siècle, notamment grâce aux travaux de von Neumann en 1945, et se développe rapidement avec l'avènement des transistors et des circuits intégrés, ce qui a permis la fabrication de machines plus petites, plus rapides et moins chères. Les années 1970 ont vu l'émergence des ordinateurs personnels, tandis que les années 1990 ont été marquées par l'essor d'Internet et de la communication en réseau.
Différents modèles d'ordinateurs
(cliquez pour agrandir).
Étymologie
Le mot « ordinateur » fut introduit par IBM France en 19551,2 après que François Girard, alors responsable du service publicité de l'entreprise, eut l'idée de consulter son ancien professeur de lettres à Paris, Jacques Perret. Avec Christian de Waldner, alors président d'IBM France, ils demandèrent au professeur Perret de suggérer un « nom français pour sa nouvelle machine électronique destinée au traitement de l'information (IBM 650), en évitant d'utiliser la traduction littérale du mot anglais computer (« calculateur » ou « calculatrice »), qui était à cette époque plutôt réservé aux machines scientifiques »3.
En 1911, une description de la machine analytique de Babbage utilisait le mot ordonnateur pour en décrire son organe moteur : « Pour aller prendre et reporter les nombres… et pour les soumettre à l’opération demandée, il faut qu'il y ait dans la machine un organe spécial et variable : c'est l'ordonnateur. Cet ordonnateur est constitué simplement par des feuilles de carton ajourées, analogues à celle des métiers Jacquard… »4.
Le professeur proposa un mot composé centré autour d'ordonnateur : celui qui met en ordre5 et qui avait aussi la notion d'ordre ecclésiastique dans l'église catholique (ordinant)6. Il suggéra plus précisément « ordinatrice électronique », le féminin ayant pu permettre, selon lui, de mieux distinguer l'usage religieux de l'usage comptable du mot7.
« IBM France retint le mot ordinateur et chercha au début à protéger ce nom comme une marque. Mais le mot fut facilement et rapidement adopté par les utilisateurs et IBM France décida au bout de quelques mois de le laisser dans le domaine public. »3
Histoire
Première apparition de l'ordinateur
Selon Bernard Cohen, auteur de l'ouvrage intitulé Howard Aiken: Portrait of a computer pioneer, « les historiens des technologies et les informaticiens intéressés en histoire, ont adopté un certain nombre de caractéristiques qui définissent un ordinateur. C'est ainsi que la question de savoir si le Mark I était ou n'était pas un ordinateur ne dépend pas d'une opinion majoritaire mais plutôt de la définition utilisée. Souvent, quelques-unes des caractéristiques fondamentales nécessaires pour être considérées comme un ordinateur sont :
- Qu'il soit électronique ;
- Numérique (au lieu d'analogique) ;
- Qu'il soit programmable ;
- Qu'il puisse exécuter les quatre opérations élémentaires (addition, soustraction, multiplication, division) et — souvent — qu'il puisse extraire une racine carrée ou adresser une table qui en contient ;
- Qu'il puisse exécuter des programmes enregistrés en mémoire.
Une machine n'est généralement pas classifiée comme un ordinateur à moins qu'elle n'ait des caractéristiques supplémentaires comme la possibilité d’exécuter des opérations spécifiques automatiquement et ceci d'une façon contrôlée et dans une séquence prédéterminée. Pour d'autres historiens et informaticiens, il faut aussi que la machine ait été vraiment construite et qu'elle ait été complètement opérationnelle10. »
Concept initial et réalisation
Sans une définition stricte il est impossible d'identifier la machine qui devint le premier ordinateur, mais il faut remarquer certaines des étapes fondamentales qui vont du développement du concept de la machine à calculer programmable par Charles Babbage en 1837 au premier développement de l'ère de l'informatique cent ans plus tard.
En 1834, Charles Babbage commence à développer une machine à calculer programmable, sa machine analytique. Il pense la programmer grâce à un cylindre à picots comme dans les automates de Vaucanson, mais, deux ans plus tard, il remplace ce cylindre par la lecture de cartes Jacquard, et ainsi crée une machine à calculer infiniment programmable11.
En 1843, Ada Lovelace écrit le premier programme informatique pour calculer les nombres de Bernoulli, pour la machine analytique qui ne sera jamais construite.
Henry Babbage construit une version extrêmement simplifiée de l'unité centrale de la « machine analytique » de son père et l'utilise en 1906, pour calculer et imprimer automatiquement les quarante premiers multiples du nombre Pi avec une précision de vingt-neuf décimales12, démontrant sans ambiguïté que le principe de la machine analytique était viable et réalisable. En 1886, sa plus grande contribution fut de donner un ensemble mécanique de démonstration d'une des machines de son père à l'université Harvard13. C'est cinquante ans plus tard, après avoir entendu la présentation de Howard Aiken sur son super calculateur, qu'un technicien de Harvard, Carmello Lanza, lui fit savoir qu'une machine similaire avait déjà été développée et qu'il lui montra l'ensemble mécanique de démonstration donné par Henry Babbage qui se trouvait dans un des greniers de l'université ; c'est ainsi qu'il découvrit les travaux de Babbage et qu'il les incorpora dans la machine qu'il présenta à IBM en 193714. C'était la troisième fois qu'il essayait de trouver un sponsor pour le développement de sa machine car son projet avait déjà été rejeté deux fois avant l'intégration des travaux de Babbage dans l'architecture de sa machine (une fois par la Monroe Calculating Company15 et une fois par l'université Harvard14).
Leonardo Torres Quevedo remplaça toutes les fonctions mécaniques de Babbage par des fonctions électromécaniques (addition, soustraction, multiplication et division mais aussi la lecture de cartes et les mémoires). En 1914 et en 1920, Il construisit deux machines analytiques, non programmable, extrêmement simplifiées16 mais qui montraient que des relais électromécaniques pouvaient être utilisés dans une machine à calculer qu'elle soit programmable ou non. Sa machine de 1914 avait une petite mémoire électromécanique et son arithmomètre de 1920, qu'il développa pour célébrer le centième anniversaire de l'invention de l'arithmomètre, était commandé par une machine à écrire qui était aussi utilisée pour imprimer ses résultats.
Percy Ludgate améliora et simplifia les fonctions mécaniques de Babbage mais ne construisit pas de machine. Et enfin, Louis Couffignal essaya au début des années 193017, de construire une machine analytique « purement mécanique, comme celle de Babbage, mais sensiblement plus simple », mais sans succès. C'est cent ans après la conceptualisation de l'ordinateur par Charles Babbage que le premier projet basé sur l'architecture de sa machine analytique aboutira. En effet, c'est en 1937 qu'Howard Aiken présenta à IBM un projet de machine à calculer programmable qui sera le premier projet qui finira par une machine qui puisse être, et qui sera utilisée, et dont les caractéristiques en font presque un ordinateur moderne. Et donc, bien que le premier ordinateur ne sera jamais déterminé à l’unanimité, le début de l'ère de l'informatique moderne peut être considéré comme la présentation d'Aiken à IBM, en 1937, qui aboutira par l'ASCC.
Calculatrices
Les machines à calculer jouèrent un rôle primordial dans le développement des ordinateurs pour deux raisons tout à fait indépendantes. D'une part, pour leurs origines : c'est pendant le développement d'une machine à calculer automatique à imprimante qu'en 1834 Charles Babbage commença à imaginer sa machine analytique, l’ancêtre des ordinateurs. C’était une machine à calculer programmée par la lecture de cartes perforées (inspirées du Métier Jacquard), avec un lecteur de cartes pour les données et un pour les programmes, avec des mémoires, un calculateur central et des imprimantes et qui inspirera le développement des premiers ordinateurs à partir de 1937 ; ce qui nous amènera aux mainframes des années 1960.
D'autre part, leur propagation se fit grâce à la commercialisation en 1971 du premier microprocesseur, l'Intel 4004, qui fut inventé pendant le développement d'une machine à calculer électronique pour la compagnie japonaise Busicom, qui est à l'origine de l'explosion de la micro-informatique à partir de 197518 et qui réside au cœur de tous les ordinateurs actuels quelles que soient leurs tailles ou fonctions (bien que seulement 2 % des microprocesseurs produits chaque année soient utilisés comme unités centrales d'ordinateur, les 98 % restant sont utilisés dans la construction de voitures, de robots ménagers, de montres, de caméras de surveillance19…).
Électromécanique et mécanographie
Outre les avancées observées dans l'industrie du textile et celles de l'électronique, les avancées de la mécanographie à la fin du XIXe siècle, pour achever les recensements aux États-Unis, la mécanisation de la cryptographie au début du XXe siècle, pour chiffrer puis déchiffrer automatiquement des messages, le développement des réseaux téléphoniques (à base de relais électromécaniques), sont aussi à prendre en compte pour comprendre l'avènement de ce nouveau genre de machine qui ne calculent pas (comme font/faisaient les calculatrices), mais lisent et interprètent des programmes qui -eux- calculent. Pour le monde des idées, avant l'invention de ces nouvelles machines, l'élément fondateur de la science informatique est en 1936, la publication de l'article On Computable Numbers with an Application to the Entscheidungsproblem20 par Alan Turing qui allait déplacer le centre de préoccupation de certains scientifiques (mathématiciens et logiciens) de l'époque, du sujet de la calculabilité (ou décidabilité) ouvert par Hilbert, malmené par Gödel, éclairci par Church, vers le sujet de la mécanisation du calcul (ou calculabilité effective). Dans ce texte de 36 pages, Turing expose une machine théorique capable d'effectuer tout calcul ; il démontre que cette machine est aussi puissante, au niveau du calcul, que tout être humain. Autrement dit, un problème mathématique possède une solution, si et seulement si, il existe une machine de Turing capable de résoudre ce problème. Par la suite, il expose une machine de Turing universelle apte à reproduire toute machine de Turing, il s'agit des concepts d'ordinateur, de programmation et de programme. Il termine en démontrant qu'il existe au moins un problème mathématique formellement insoluble, le problème de l'arrêt.
Peu avant la Seconde Guerre mondiale, apparurent les premières calculatrices électromécaniques, construites selon les idées d'Alan Turing. Les machines furent vite supplantées par les premiers calculateurs électroniques, nettement plus performants.
Années 1930
La fin des années 1930 virent, pour la première fois dans l'histoire de l'informatique, le début de la construction de deux machines à calculer programmables. Elles utilisaient des relais et étaient programmées par la lecture de rouleaux perforés et donc, pour certains, étaient déjà des ordinateurs. Elles ne furent mises en service qu'au début des années 1940, faisant ainsi de 1940 la première décennie dans laquelle on trouve des ordinateurs et des machines à calculer programmables totalement fonctionnels. C'est d'abord en 1937 que Howard Aiken, qui avait réalisé que la machine analytique de Babbage était le type de machine à calculer qu'il voulait développer21, proposa à IBM de la créer et de la construire ; après une étude de faisabilité, Thomas J. Watson accepta de la construire en 1939 ; elle fut testée en 1943 dans les locaux d'IBM et fut donnée et déménagée à l'université Harvard en 1944, changeant son nom de ASCC à Harvard Mark I ou Mark I.
Mais c'est aussi Konrad Zuse qui commença le développement de son Zuse 3, en secret, en 1939, et qui le finira en 1941. Parce que le Zuse 3 resta inconnu du grand public jusqu’après la fin de la Seconde Guerre mondiale (sauf des services secrets américains qui le détruisirent dans un bombardement en 1943), ses solutions très inventives ne furent pas utilisées dans les efforts communs mondiaux de développement de l’ordinateur.
Évolution
Premier ordinateur (1937-1946)
Six machines furent construites durant ces 9 ans. Elles furent toutes décrites, au moins une fois, dans la multitude de livres de l'histoire de l'informatique, comme étant le premier ordinateur ; aucune autre machine, construite ultérieurement, ne fut décrite comme telle. Ces six précurseurs peuvent être divisées en trois groupes bien spécifiques :
- d'une part, deux machines à calculer. Ces deux machines n'étaient pas programmables, l'une était électromécanique, l'autre électronique :
- d'autre part, deux machines électromécaniques programmables, programmées par la lecture de rubans perforés, mais qui ne possédaient pas d'instruction de branchement conditionnel, et donc ne pouvaient aller d'une partie d'un programme à une autre :
« Sans un branchement conditionnel, et donc l’implémentation mécanique du mot SI, le plus grand des calculateurs ne serait qu'une super machine à calculer. Il pourrait être comparé à une ligne d'assemblage, tout étant organisé du début à la fin, avec aucune possibilité de changement une fois que la machine est mise en marche22. »
— Andrew Hodges, Alan Turing: the enigma, 1983.
- et enfin, deux machines électroniques spécialisées. Initialement ces machines ne pouvaient faire que cela, et étaient programmées par le changement de fils et d'interrupteurs :
« L'ENIAC et le Colosse étaient comme deux kits à assembler, desquelles beaucoup de machines similaires, mais différentes, pouvaient être construites. Aucun n’essaya d’implémenter l'universalité de la « machine de Babbage » dans laquelle la machine n'est jamais modifiée, et où seulement les instructions sont réécrites sur des cartes perforées24. »
— Andrew Hodges, Alan Turing: the enigma, 1983.
De ces six machines, seulement quatre furent connues de leurs contemporains, les deux autres, le Colossus et le Z3, utilisées dans l'effort de guerre, ne furent découvertes qu'après la fin de la Seconde Guerre mondiale, et donc ne participèrent pas au développement communautaire mondial des ordinateurs. Seulement deux de ces machines furent utilisées dans les années 1950, l'ASCC/Mark I et l'ENIAC, et chacune fut éventuellement modifiée pour en faire une machine Turing-complet. En est publié un article fondateur de John von Neumann25 donnant les bases de l'architecture utilisée dans la quasi-totalité des ordinateurs depuis lors. Dans cet article, von Neumann veut concevoir un programme enregistré et programmé dans la machine. La première machine correspondant à cette architecture, dite depuis architecture de von Neumann est une machine expérimentale la Small-Scale Experimental Machine (SSEM ou baby) construite à Manchester en juillet 1948. En août 1949 la première machine fonctionnelle, fondée sur les bases de von Neumann fut l'EDVAC.
Tubes à vide et commutateurs (1946-1955)
Cette chronologie26 demande qu'un ordinateur soit électronique et donc elle commence, en 1946, avec l'ENIAC qui, au départ, était programmé avec des interrupteurs et par le positionnement de fils sur un commutateur, comme sur un ancien standard téléphonique. Les ordinateurs de cette période sont énormes avec des dizaines de milliers de tubes à vide. L'ENIAC faisait 30 m de long, 2,40 m de haut et pesait 30 tonnes. Ces machines n’étaient pas du tout fiables, par exemple, en 1952, dix-neuf mille tubes furent remplacés sur l'ENIAC, soit plus de tubes qu'il n'en contient27.
« L'ENIAC prouva, sans ambiguïté, que les principes de base de l'électronique était bien fondés. Il était vraiment inévitable que d'autres machines à calculer de ce type seraient perfectionnées grâce aux connaissances et à l’expérience acquises sur cette première28. »
De nouveau, le titre de premier ordinateur commercialisé dépend de la définition utilisée ; trois ordinateurs sont souvent cités. En premier, le BINAC29, conçu par la Eckert–Mauchly Computer Corporation et livré à la Northrop Corporation en 1949 qui, après sa livraison, ne fut jamais fonctionnel30,31. En deuxième, le Ferranti Mark I, dont le prototype avait été développé par l'université de Manchester, fut amélioré et construit en un exemplaire par la société Ferranti et revendu à l'université de Manchester en 32. Et en dernier, UNIVAC I29, conçu par la « Eckert–Mauchly Computer Corporation », dont le premier fut vendu à l'United States Census Bureau le . Une vingtaine de machines furent produites et vendues entre 1951 et 195433.
Générations suivantes (1955-2000)
« L'utilisation de transistors au milieu des années 1950 changea le jeu complètement. Les ordinateurs devinrent assez fiables pour être vendus à des clients payants sachant qu'ils fonctionneraient assez longtemps pour faire du bon travail34. » Les circuits intégrés réduisirent la taille et le prix des ordinateurs considérablement. Les moyennes entreprises pouvaient maintenant acheter ce genre de machines.
Les circuits intégrés permettent de concevoir une informatique plus décentralisée les constructeurs souhaitant concurrencer le géant IBM. Le microprocesseur fut inventé en 1969 par Ted Hoff d'Intel pendant le développement d'une calculatrice pour la firme japonaise Busicom. Intel commercialisera le 4004 fin 1971. Ted Hoff avait copié l'architecture du PDP-8, le premier mini-ordinateur, et c'est grâce à la technologie de circuits intégrés LSI (large scale integration), qui permettait de mettre quelques milliers de transistors sur une puce35 qu'il put miniaturiser les fonctions d'un ordinateur en un seul circuit intégré. La fonction première du microprocesseur était de contrôler son environnement. Il lisait des interrupteurs, les touches d'un clavier et il agissait en exécutant les opérations requises (addition, multiplication, etc.) et en affichant les résultats. Le premier ordinateur personnel fut décrit dans le livre d'Edmund Berkeley, Giant brain, or machines that think, en 1949, et sa construction fut décrite dans une série d'articles du magazine Radio-Electronics à partir du numéro d'. En 1972, une société française développe le Micral, premier micro-ordinateur à être basé sur le microprocesseur 8008. Mais l’ordinateur qui créa l'industrie de l'ordinateur personnel est l'Altair 880036,37 qui fut décrit pour la première fois dans le magazine Radio-Electronics de . Bill Gates, Paul Allen, Steve Wozniak et Steve Jobs (ordre chronologique) firent tous leurs débuts dans la micro-informatique sur ce produit moins de six mois après son introduction.
Généralités
Les ordinateurs furent d'abord utilisés pour le calcul (en nombres entiers d'abord, puis flottants). On ne peut cependant les assimiler à de simples calculateurs, du fait de la possibilité quasi infinie de lancer d'autres programmes en fonction du résultat de calculs, ou de capteurs internes ou externes (température, inclinaison, orientation, etc.), ou de toute action de l'opérateur ou de son environnement.
- Dans l'architecture de von Neumann, les données sont banalisées et peuvent être interprétées indifféremment comme des nombres, des instructions, des valeurs logiques ou tout symbole défini arbitrairement (exemple : lettres de l’alphabet).
- Le calcul représente une des applications possibles. Dans ce cas, les données sont traitées comme des nombres.
- L’ordinateur est utilisé aussi pour ses possibilités d'organisation de l’information, entre autres sur des périphériques de stockage magnétique. On a calculé à la fin des années 1980 que sans les ordinateurs il faudrait toute la population française juste pour faire dans ce pays le seul travail des banques :
- cette capacité d’organiser les informations a généralisé l’usage du traitement de texte dans le grand public ;
- la gestion des bases de données relationnelles permet également de retrouver et de consolider des informations réparties vues par l'utilisateur comme plusieurs tables indépendantes.
Cette création d'un néologisme fut à l'origine de traductions multiples des expressions supercomputer, superordinateur ou supercalculateur.
L'expérience a appris à distinguer dans un ordinateur deux aspects, dont le second avait été au départ sous-estimé :
- l'architecture physique, matérielle (alias hardware ou hard) ;
- l'architecture logicielle (alias software ou soft).
Un ordinateur très avancé techniquement pour son époque comme le Gamma 60 de la compagnie Bull n'eut pas le succès attendu, pour la simple raison qu'il existait peu de moyens de mettre en œuvre commodément ses possibilités techniques[réf. nécessaire].
Le logiciel — et son complément les services (formation, maintenance…) — forme depuis le milieu des années 1980 l’essentiel des coûts d'équipement informatique, le matériel n’y ayant qu'une part minoritaire.
Les ordinateurs peuvent être sensibles aux bombes IEM.[réf. nécessaire]
Fonctionnement
Parmi toutes les machines inventées par l'Homme, l'ordinateur est celle qui se rapproche le plus du concept anthropologique suivant : Organe d'entrée, organe de traitement de l'information et organe de sortie. Chez l'humain, les organes d'entrée sont les organes sensoriels, l'organe de traitement est le cerveau dont les logiciels sont l'apprentissage avec des mises à jour constantes en cours de vie, puis les organes de sortie sont les muscles. Pour les ordinateurs modernes, les organes d'entrée sont le clavier et la souris et les organes de sortie, l'écran, l'imprimante, le graveur de DVD, etc. Les techniques utilisées pour fabriquer ces machines ont énormément changé depuis les années 1940 et sont devenues une technologie (c’est-à-dire un ensemble industriel organisé autour de techniques) à part entière depuis les années 1970. Beaucoup utilisent encore les concepts définis par John von Neumann, bien que cette architecture soit en régression : les programmes ne se modifient plus guère eux-mêmes (ce qui serait considéré comme une mauvaise pratique de programmation), et le matériel prend en compte cette nouvelle donne en séparant aujourd'hui nettement le stockage des instructions et des données, y compris dans les caches.
L’architecture de von Neumann décomposait l’ordinateur en quatre parties distinctes :
- L’unité arithmétique et logique (UAL) ou unité de traitement : son rôle est d’effectuer les opérations de base, un peu comme le ferait une calculatrice ;
- L’unité de contrôle. C’est l’équivalent des doigts qui actionneraient la calculatrice ;
- La mémoire qui contient à la fois les données et le programme qui dira à l’unité de contrôle quels calculs faire sur ces données. La mémoire se divise entre mémoire vive (programmes et données en cours de fonctionnement) et mémoire permanente (programmes et données de base de la machine) ;
- Les entrées-sorties : dispositifs qui permettent de communiquer avec le monde extérieur.
UAL et UC
L’unité arithmétique et logique ou UAL est l’élément qui réalise les opérations élémentaires (additions, soustractions…), les opérateurs logiques (ET, OU, NI, etc.) et les opérations de comparaison (par exemple la comparaison d’égalité entre deux zones de mémoire). C’est l’UAL qui effectue les calculs de l’ordinateur. L’unité de contrôle prend ses instructions dans la mémoire. Celles-ci lui indiquent ce qu’elle doit ordonner à l’UAL et, comment elle devra éventuellement agir selon les résultats que celle-ci lui fournira. Une fois l’opération terminée, l’unité de contrôle passe soit à l’instruction suivante, soit à une autre instruction à laquelle le programme lui ordonne de se brancher.
L'unité de contrôle facilite la communication entre l'unité arithmétique et logique, la mémoire ainsi que les périphériques. Elle gère la plupart des exécutions des instructions dans l'ordinateur.
Mémoire
Au sein du système, la mémoire peut être décrite comme une suite de cellules numérotées contenant chacune une petite quantité d’informations. Cette information peut servir à indiquer à l’ordinateur ce qu’il doit faire (instructions) ou contenir des données à traiter. Dans la plupart des architectures, c'est la même mémoire qui est utilisée pour les deux fonctions. Dans les calculateurs massivement parallèles, on admet même que des instructions de programmes soient substituées à d’autres en cours d’opération lorsque cela se traduit par une plus grande efficacité. Cette pratique était jadis courante, mais les impératifs de lisibilité du génie logiciel l'ont fait régresser, hormis dans ce cas particulier, depuis plusieurs décennies. Cette mémoire peut être réécrite autant de fois que nécessaire. La taille de chacun des blocs de mémoire ainsi que la technologie utilisée ont varié selon les coûts et les besoins : 8 bits pour les télécommunications, 12 bits pour l’instrumentation (DEC) et 60 bits pour de gros calculateurs scientifiques (Control Data). Un consensus a fini par être trouvé autour de l’octet comme unité adressable et d’instructions sur format de 4 ou 8 octets.
Dans tous les cas de figure, l'octet reste adressable, ce qui simplifie l'écriture des programmes. Les techniques utilisées pour la réalisation des mémoires ont compris des relais électromécaniques, des tubes au mercure au sein desquels étaient générées des ondes acoustiques, des transistors individuels, des tores de ferrite et enfin des circuits intégrés incluant des millions de transistors.
Entrées-Sorties
Les dispositifs d’entrée/sortie permettent à l’ordinateur de communiquer avec l’extérieur. Ces dispositifs sont très importants, du clavier à l’écran. La carte réseau permet par exemple de relier les ordinateurs en réseau informatique, dont le plus grand est Internet. Le point commun entre tous les périphériques d’entrée est qu’ils convertissent l’information qu’ils récupèrent de l’extérieur en données compréhensibles par l’ordinateur. À l’inverse, les périphériques de sortie décodent l’information fournie par l’ordinateur afin de la rendre compréhensible par l’utilisateur.
Bus
Ces différentes parties sont reliées par trois bus, le bus d'adresse, le bus de données et le bus de contrôle. Un bus est un groupement d'un certain nombre de fils électriques réalisant une liaison pour transporter des informations binaires codées sur plusieurs bits. Le bus d'adresse transporte les adresses générées par l'UCT (Unité Centrale de Traitement) pour sélectionner une case mémoire ou un registre interne de l'un des blocs. Le nombre de bits véhiculés par ce bus dépend de la quantité de mémoire qui doit être adressée. Le bus de données transporte les données échangées entre les différents éléments du système. Le bus de contrôle transporte les différents signaux de synchronisation nécessaires au fonctionnement du système : signal de lecture (RD), signal d'écriture (WR), signal de sélection (CS : Chip Select).
Architecture
La miniaturisation permet d’intégrer l’UAL et l’unité de contrôle au sein d’un même circuit intégré connu sous le nom de microprocesseur. Typiquement, la mémoire est située sur des circuits intégrés proches du processeur, une partie de cette mémoire, la mémoire cache, pouvant être située sur le même circuit intégré que l’UAL.
L’ensemble est, sur la plupart des architectures, complété d’une horloge qui cadence le processeur. Bien sûr, on souhaite qu'elle soit le plus rapide possible, mais on ne peut pas augmenter sans limites sa vitesse pour deux raisons :
- plus l’horloge est rapide et plus le processeur dégage de la chaleur (selon le carré de la fréquence). Une trop grande température peut détériorer le processeur ;
- il existe une cadence où le processeur devient instable ; il génère des erreurs qui mènent le plus souvent à un plantage.
La tendance a été à partir de 2004 de regrouper plusieurs UAL dans le même processeur, voire plusieurs processeurs dans la même puce. En effet, la miniaturisation progressive (voir Loi de Moore) le permet sans grand changement de coût. Une autre tendance, depuis 2006 chez ARM, est aux microprocesseurs sans horloge : la moitié de la dissipation thermique est en effet due aux signaux d'horloge quand le microprocesseur fonctionne ; de plus, un microprocesseur sans horloge a une consommation presque nulle quand il ne fonctionne pas : le seul signal d'horloge nécessaire est alors celui destiné au rafraîchissement des mémoires. Cet atout est important pour les modèles portables.
Le principal écart fonctionnel aujourd’hui par rapport au modèle de von Neumann est la présence sur certaines architectures de deux antémémoires différentes : une pour les instructions et une pour les données (alors que le modèle de von Neumann spécifiait une mémoire commune pour les deux). La raison de cet écart est que la modification par un programme de ses propres instructions est aujourd’hui considérée (sauf sur les machines hautement parallèles) comme une pratique à proscrire. Dès lors, si le contenu du cache de données doit être récrit en mémoire principale quand il est modifié, on sait que celui du cache d’instructions n’aura jamais à l’être, d’où simplification des circuits et gain de performance.
Instructions
Les instructions que l’ordinateur peut comprendre ne sont pas celles du langage humain. Le matériel sait juste exécuter un nombre limité d’instructions bien définies. Des instructions typiques comprises par un ordinateur sont par exemple :
- Copier le contenu de la cellule 123 et le placer dans la cellule 456 ;
- Ajouter le contenu de la cellule 321 à celui de la cellule 654 ;
- Placer le résultat dans la cellule 777 ;
- Si le contenu de la cellule 999 vaut 0, exécuter l’instruction à la cellule 345.
La plupart des instructions se composent de deux zones : l’une indiquant quoi faire, nommée code opération, et l’autre indiquant où le faire, nommée opérande.
Au sein de l’ordinateur, les instructions correspondent à des codes — le code pour une copie étant par exemple 001. L’ensemble d’instructions qu’un ordinateur supporte se nomme son langage machine, langage qui est une succession de chiffres binaires, car les instructions et données qui sont comprises par le processeur (CPU) sont constituées uniquement de 0 (zéro) et de 1 (un) :
- 0 = le courant électrique ne passe pas ;
- 1 = le courant électrique passe.
En général, ce type de langage n'est pas utilisé car on lui préfère ce que l’on appelle un langage de haut niveau qui est ensuite transformé en langage binaire par un programme spécial (interpréteur ou compilateur selon les besoins). Les programmes ainsi obtenus sont des programmes compilés compréhensibles par l'ordinateur dans son langage natif. Certains langages de programmation, comme l’assembleur sont dits langages de bas niveau car les instructions qu’ils utilisent sont très proches de celles de l’ordinateur. Les programmes écrits dans ces langages sont ainsi très dépendants de la plate-forme pour laquelle ils ont été développés. Le langage C, beaucoup plus facile à relire que l’assembleur, permet de produire plus facilement des programmes. Pour cette raison, on l’a vu de plus en plus utilisé à mesure que les coûts du matériel diminuaient et que les salaires horaires des programmeurs augmentaient[réf. nécessaire].
Logiciels
Les logiciels informatiques sont des listes (généralement longues) d’instructions exécutables par un ordinateur. De nombreux programmes contiennent des millions d’instructions, effectuées pour certaines de manière répétitive. De nos jours, un ordinateur personnel exécute plusieurs milliards d’instructions par seconde. Depuis le milieu des années 1960, des ordinateurs exécutent plusieurs programmes simultanément. Cette possibilité est appelée multitâche. C’est le cas de tous les ordinateurs modernes. En réalité, chaque cœur de processeur n’exécute qu’un programme à la fois, passant d’un programme à l’autre chaque fois que nécessaire. Si la rapidité du processeur est suffisamment grande par rapport au nombre de tâches à exécuter, l’utilisateur aura l’impression d’une exécution simultanée des programmes. Les priorités associées aux différents programmes sont, en général, gérées par le système d'exploitation.
Le système d’exploitation est le programme central qui contient les programmes de base nécessaires au bon fonctionnement des applications de l’ordinateur. Le système d’exploitation alloue les ressources physiques de l’ordinateur (temps processeur, mémoire…) aux différents programmes en cours d’exécution. Il fournit aussi des outils aux logiciels (comme les pilotes) afin de leur faciliter l’utilisation des différents périphériques sans avoir à en connaître les détails physiques.
Types d'ordinateurs
Par type de phénomène physique
Mécanique
L'ordinateur mécanique se base sur des composants mécanique pour effectuer les calculs (engrenages, etc.)
Électromécanique
Les ordinateurs électromécanique utilisent à la fois du courant électrique et des mécanismes mécaniques pour le calcul (relais électromécaniques)
Électronique
Les ordinateurs électroniques utilisent des électrons pour réaliser les différentes fonctions de l'architecture d'un ordinateur.
C'est le phénomène physique sous-jacent de nos ordinateurs actuels.
Quantique
Les ordinateurs quantiques utilisent les propriétés quantiques de la matière.
Optique
Les ordinateurs optiques utilisent des photons pour le traitement des informations.
Chimique (ou biologique)
Par type de traitement temporel
Par domaine d'application
- Ordinateur d'entreprise : Mainframe (exemples : IBM 360 et 370, DEC PDP-10, etc.), Mini-ordinateur, (exemples : IBM AS/400-ISeries, RS/6000, HP9000, etc.), Superordinateur (exemples : Riken, Cray, etc.)
- Ordinateur personnel (exemples : PC, Macintosh, etc.)
- Système embarqué
- Ordinateur de bord
Par taille
Par architecture
Notes et références
- IBM France, 1955 : le terme « Ordinateur » est inventé par Jacques Perret, à la demande d'IBM France [archive], Centenaire d'IBM, 16 avril 2014.
- 16 avril 1955 : "Que diriez-vous d'ordinateur ?" [archive], Le Monde, 2005.
- Pierre Guiraud, Problèmes et méthodes de la statistique linguistique, Springer - 1959, (ISBN 9789027700254).
- L. Jacob, p. 189 (1911).
- Napoléon Landais, Dictionnaire général et grammatical des dictionnaires français, Didier - 1849.
- « Étymologie du mot ORDINATEUR : ordinateur (ancien français) », sur presse-francophone.org (consulté le ).
- « Histoire de la création du mot Ordinateur : la lettre in extenso de J. Perret et son contexte expliqué par Gilles Zemor » [archive], (consulté le ).
- The Most Famous Image in the Early History of Computing From cave paintings to the internet [archive] HistoryofScience.com.
- Anthony Hyman, ed., Science and Reform: Selected Works of Charles Babbage (Cambridge, England: Cambridge University Press, 1989), page 298. Une copie de ce tableau est dans la collection du Science Museum de Londres. (Delve (2007), page 99).
- Bernard Cohen, p. 297 (2000) ; traduit de l’américain : « Historians of technology and computer scientists interested in history have adopted a number of qualifications that define a computer. As a result, the question of whether Mark I was or was not a computer depends not on a general consensus but rather on the particular definition that is adopted. Often, some primary defining characteristics of a computer are that it must (1) be electronic, (2) be digital (rather than analog), (3) be programmed, (4) be able to perform the four elementary operations (addition, subtraction, multiplication, and division) and -often- extract roots or obtain information from built-in tables, and (5) incorporate the principle of the stored program. A machine does not generally qualify as a computer unless it has some further properties, for example the ability to perform certain specified operations automatically in a controlled and predetermined sequence. For some historians and computer scientists, a machine must also have been actually constructed and then become fully operational. ».
- (en) "The introduction of punched cards into the new engine was important not only as a more convenient form of control than the drums, or because programs could now be of unlimited extent, and could be stored and repeated without the danger of introducing errors in setting the machine by hand; it was important also because it served to crystalize Babbage's feeling that he had invented something really new, something much more than a sophisticated calculating machine." Bruce Collier, 1970.
- Robert Ligonnière, p. 109 (1987).
- (en) fragment of Babbage's first différence engine [archive] (page consultée le 18-10-2013).
- Bernard Cohen, p. 66 (2000).
- Bernard Cohen, p. 44 (2000).
- "…mais ces machines semblent être restées des appareils de démonstration." Louis Couffignal, p. 53 (1933).
- "…sa machine est aujourd'hui en voie de construction.", cité dans la préface par Maurice d'Ocagne, page VII (1933).
- l'Altair 8800 qui eut Bill Gates et Paul Allen comme premiers programmeurs.
- (en) Jim Turley, The essential guide to semiconductors, Prentice Hall, New Jersey, 2003, p. 123.
- (en) Alan Turing, On Computable Numbers, with an Application to the Entscheidungsproblem : Proceedings of the London Mathematical Society, London Mathematical Society, (DOI 10.1112/PLMS/S2-42.1.230, lire en ligne [archive]) et « [idem] : A Correction », Proc. London Math. Soc., 2e série, vol. 43, , p. 544-546 (DOI 10.1112/plms/s2-43.6.544, lire en ligne [archive]).
- Bernard Cohen, p. 66-67 (2000) : "Carmello Lanza…couldn't see why in the world I (Howard Aiken) wanted to do anything like this in the Physics laboratory, because we already had such a machine and nobody used it… Lanza led him up into the attic… There, sure enough… were the wheels that Aiken later put on display in the lobby of the Computer Laboratory. With them was a letter from Henry Prevost Babbage describing these wheels as part of his father's proposed calculating engine. This was the first time Aiken ever heard of Babbage he said, and it was this experience that led him to look up Babbage in the library and to come across his autobiography."
- Andrew Hodges p. 298 (1983) : (en) Without conditional branching, the ability to mechanize the word IF, the grandest calculator would be no more than a glorified adding machine. It might be thought of as assembly line, everything being laid down from start to finish, and there being no possibility of interference in the process once started.
- Les premiers ordinateurs [archive], sur online.fr, consulté le 14 octobre 2018.
- Andrew Hodges p. 302 (1983) : (en) Both ENIAC and Colossus were like kits out of which many slightly different machines could be made. Neither sought to embody the true universality of Babbage's conception, in which the machinery would be entirely unchanged, and only the instruction cards rewritten.
- (en) [PDF] First Draft of a Report on the EDVAC [archive], sur le site archive.org.
- Andrew S Tanenbaum page 5-13 (1987). Le livre utilise 1945 mais l'ENIAC fut inauguré en février 1946.
- Encyclopedia of Computer Science p. 541 (1976).
- Encyclopedia of Computer Science p. 541 (1976). Traduit de "the ENIAC established the fact that the basic principles of electronic engineering are sound. It was indeed inevitable that future computing machines of this type would be improved through the knowledge and experience gained on this first one."
- plaque commémorant la première commercialisation d'un ordinateur [archive] pour le BINAC et pour l'UNIVAC I (dans ce cas première commercialisation en vente libre).
- (en) interview avec Isaac Auerbach à propos du BINAC et de l'UNIVAC.
- (en) The BINAC: A case study in the history of technology, IEEE.
- Une deuxième machine, dont la commande par l'établissement de recherche atomique d'Harwell fut annulée au milieu de sa construction, ne fut jamais finie par Ferranti.
- Voir le tableau récapitulatif dans l'article : (en) UNIVAC installations, 1951–1954.
- (en) Andrew S Tanenbaum page 6 (1987) "The introduction of the transistor in the mid-1950s changed the picture radically. Computers became reliable enough that they could be sold to paying customers with the expectation that they would continue to function long enough to get some useful work done."
- Andrew S Tanenbaum page 11 (1987).
- (en) How the Altair 8800 started the PC revolution (Part 1) [archive] consulté le 12-05-2013.
Voir aussi
Sur les autres projets Wikimedia :
Bibliographie
- L. Jacob, Encyclopédie Scientifique, Le Calcul Mécanique, Paris, Octave Doin et fils,
- Robert Ligonnière, Préhistoire et Histoire des ordinateurs, Paris, Robert Laffont, , 356 p. (ISBN 978-2-221-05261-7)
- Louis Couffignal, Les machines à calculer : leurs principes, leur évolution, Paris, Gauthier-Villars,
- (en) Bernard Cohen, Howard Aiken : Portrait of a computer pioneer, Cambridge, Massachusetts, The MIT press, , 329 p. (ISBN 978-0-262-53179-5, lire en ligne [archive])
- (en) Bruce Collier, The little engine that could've : The calculating machines of Charles Babbage, Garland Publishing Inc, , 319 p. (ISBN 0-8240-0043-9, lire en ligne [archive])
- (en) Andrew Hodges, Alan Turing : the enigma, Londres, Burnett books, (ISBN 0-8240-0043-9, lire en ligne [archive])
- (en) Brian Randell, The origins of Digital computers, Selected Papers, New York, Springer-Verlag, , 464 p. (ISBN 3-540-06169-X)
- (en) Andrew S. Tanenbaum, Operating Systems, Design and implementation, Amsterdam, The Netherlands, Prentice-Hall International Editions, (ISBN 0-13-637331-3)
- (en) Ralston & Chester-Editors, Encyclopedia of Computer Science, New York, Petrocelli/Charter, (ISBN 0-88405-321-0)
- (en) Nancy Stern, « The BINAC:A case study in the history of technology », Annals of the History of Computing, IEEE, vol. 1, no 1, , p. 9–20 (ISSN 1058-6180)
- (en) Nancy Stern, « An Interview with ISAAC L. AUERBACH », Charles Babbage Institute, (lire en ligne [archive] [PDF])
- Que diriez-vous d’« ordinateur » ?, lettre de 1955 de J. Perret proposant ce mot, et son analyse 2015 par L. Depecker, en ligne sur BibNum [archive].
Articles connexes
Liens externes