Imprimer
Catégorie : Bourses
Affichages : 3013

NVIDIA Corporation est un fournisseur mondial de processeurs graphiques, de cartes graphiques et de puces graphiques pour PC et consoles de jeux (XboxPlayStation 3Nintendo Switch). Son siège est à Santa Clara en Californie aux États-Unis. NVIDIA conçoit principalement des circuits graphiques allant du modèle pour netbook(Ion) aux puissants modèles destinés aux joueurs (GeForce), et même au monde professionnel (Quadro et autres). NVIDIA a récemment rejoint l’industrie du jeu vidéo mobile avec la sortie des consoles portables NVIDIA Shield.

Ses principaux concurrents sont AMD (anciennement ATI)B 1Intel Corporation et Qualcomm.

Présentation de la société[modifier | modifier le code]

NVIDIA a été fondée à Santa Clara en Avril 1993 par7 :

Ils baptisent la société NVIDIA, et la dotent d'un logo vert et blanc représentant un œil stylisé. NVIDIA conserve son statut de startup jusque vers les années 1997-1998, lorsqu'elle prend de l'importance pour devenir peu à peu un acteur majeur sur le marché des processeurs graphiques, notamment avec le lancement des puces graphiques Riva pour PC.

Principales acquisitions : 3dfx (le 16 décembre 2000), Icera (en juin 2011, pour 367 million de dollars USB 2) et Ageia, connue pour le développement de la carte et du logiciel PhysX (le 5 février 2008).

C'est une société de type «fabless », c'est-à-dire qu'elle conçoit ses puces dans ses centres de recherches, mais qu'elle sous-traite leur production à d'autres sociétés de semi-conducteursNote 1.

Historique[modifier | modifier le code]

En 1994, premier partenariat stratégique conclu avec SGS-THOMSON.

En 1995, NVIDIA lance sa première puce la NV1, qui connaîtra un succès très mitigé. À cause de son côté « tout en un », d'abord (puce 2D/3D « potable », avec émulation sonore et contrôleur de pad Sega) et ensuite parce qu'elle est dédiée à Windows 95. De plus, la technologie même de la puce posait problème. Par exemple, le bus PCI bridait la carte et la technologie spécifique utilisée, le Quadratic Texture Map (QTM), un genre de technologie d'optimisation pour le 3D, nécessitait une programmation spécifique, qui ne sera jamais véritablement adoptée du fait du manque de notoriété de NVIDIA à l'époqueC 1. La NV2 n'aura jamais vu le jour car elle était également basée sur le QTM, et NVIDIA préférera l'abandonner pour se consacrer à la génération suivante de puces.

À l'automne 1997, NVIDIA lance la RIVA 128, une puce graphique (nom de code : NV3). De nombreux OEM, attirés par l'esprit tout en un qui avait rebuté avec la NV1, décident alors d'utiliser cette carte. Malgré tout, NVIDIA reste derrière 3dfx et ATi.

En avril 1998, la sortie de la RIVA 128 ZX, qui dispose du double de la mémoire de la RIVA 128 et d'un port AGPC 2propulse NVIDIA sur le devant de la scène. De plus, NVIDIA signe un partenariat avec l'entreprise Taïwanaise TSMC.

En septembre 1998, NVIDIA sort la Riva TNT qui, malgré les promesses, reste moins puissante que la Voodoo 2Note 2 de 3dfx.

En janvier 1999, NVIDIA fait son entrée sur le Nasdaq. En mai, elle atteint les 10 millions de puces vendues.

Au printemps 1999 arrive la puce TNT 2, suivie à l'automne par la GeForce 256, la première carte vidéo grand public à pouvoir prendre en charge l'intégralité des calculs graphiques.

En 2000, NVIDIA achète son concurrent, 3dfx, alors chef de file de l'industrie

Au printemps 2000, c'est au tour de la GeForce 2 GTS d'apparaître. À l'automne 2000, une déclinaison d'entrée de gamme et une très haut de gamme de la GeForce 2 sortent, les GeForce 2 MX et les GeForce 2 Ultra. À partir de cette date, tous les processeurs graphiques seront commercialisés sous la marque GeForce.

En 2001, ATi sort sa Radeon 8500. NVIDIA réplique faiblement, en apportant quelques optimisations à sa N20 (GeForce 4), une maigre évolution. Néanmoins, NVIDIA parvient à conserver sa domination grâce aux problèmes d'ATi avec les pilotes et une renommée bien plus forte à l'époque.

En février 2002, NVIDIA a vendu 100 millions de processeurs graphiques. NVIDIA vend aussi directement des cartes graphiques équipées de ses processeurs.

La fin de 2002 et 2003 sera une période difficile pour le constructeur. Son NV30 n'arrive qu'en retard de plusieurs mois tandis qu'ATI inonde le marché avec ses cartes Radeon 9500 et 9700. Pour tenter de combler son retard, NVIDIA sort des évolutions annoncées comme les puces NV28, destinés aux Ti et des NV18, destinés aux Mx. Ces évolutions consistent simplement en un AGP 8×. Le NV30, qui sortit avec énormément de retard, au début de 2003, ne répondit absolument pas aux attentes des consommateurs. NVIDIA tentera de corriger le tir en oubliant rapidement les GeForce FX 5800 pour se concentrer sur le NV35, une évolution plus en phase avec les tendances de l'époque. Cela donnera les GeForce FX 5900 et 5700. On peut affirmer que la génération NV3x aura été un échec technique et, dans une moindre mesure, commercial pour la firme au caméléon.

Dans les années qui suivent, NVIDIA élargit son offre en proposant également des chipsets pour les cartes-mères PC à base de microprocesseurs AMD.

En 2004, le SLI est lancé. Il consiste à faire travailler en parallèle deux cartes graphiques pour doubler le débit d'affichage.

En 2005, NVIDIA a réalisé un chiffre d'affaires de 2,079 milliards de $US dans la vente de circuits intégrés et se classe parmi les cinq premiers fabricants de puces dites fabless, devant son concurrent ATi.

Au cours de l'E3 en mai 2005, NVIDIA annonce qu'il équiperait les PlayStation 3 de Sony en processeurs graphiques. Nommé RSX (Reality Synthetizer) et annoncé aussi performant que deux GeForce 6800 en SLI, ce qui correspond à peu près à la GeForce 7800 GTX. Les caractéristiques techniques et les performances sont étonnamment proches de ce qui fut annoncé à l'époque pour le GPU de la PS3, ce qui laisse fortement penser que tout était prêt du côté du GPU de cette console nouvelle génération (contrairement à d'autres composants comme le "Cell", le Processeur conçu conjointement par IBM, Sony et Toshiba).

Le 14 décembre 2005, NVIDIA annonce le rachat et la fusion de ULi Electronics Inc. pour environ 52 millions de US$, afin de renforcer sa division chipsets.

En 2007, NVIDIA introduit l'environnement de développement CUDA.

Le 7 novembre 2008, l'entreprise voit son chiffre d'affaires diminuer de presque 20 % lors de la publication des résultats financiers pour le troisième trimestre de l'année fiscale 2009[pas clair]. En 2008, la société a réalisé un chiffre d'affaires de 3,4 milliards de $US et se classe parmi les cinq premiers fabricants de puces dits fabless, ATi.

En 2008, NVIDIA présente au Mobile World Congress à Barcelone un processeur à destination des terminaux mobiles « multimédia ». Baptisée APX 2500, cette puce, cadencée à 750 MHz et gravée en 65 nm est composée d'un cœur ARM11 (256 Kio de cache de second niveau) ainsi que d'une partie graphique de génération GeForce 6. Elle est capable de décoder des flux HD (720p) qu'elle peut transférer à un téléviseur via HDMI, alors qu'elle est capable de traiter des images de 12 mégapixels.

Depuis mars 2012, NVIDIA commercialise sa nouvelle architecture Kepler, dont l'objectif est de diviser par deux la consommation tout en conservant les mêmes performances par rapport à l'architecture Fermi, avec la GTX 660ti, 670, 680 (carte mono-GPU) et la GTX 690(carte bi-GPU).

Le 6 janvier 2013, à l'occasion du Consumer Electronics Show annuel, la firme dévoile la première console de jeux vidéode son histoire : Project Shield, une console portable embarquant le processeur Tegra 4, et une sortie TV HDMIB 3. Près d'un mois après Nvidia sort la série des Titan avec la GeForce GTX Titan. Elle est basée sur l’architecture Kleper.

En 2014, NVIDIA commercialise une nouvelle architecture Maxwell, utilisée dans les cartes GTX 750 et 750 Ti puis en 2015 NVIDIA lance la série GTX 900. La même année ce sont deux Titan qui sortent la GeForce GTX Titan Black et Z. Basée sur la même architecture que la précédente, les seules différences notables sont les fréquences légèrement plus élevées.

Le 17 Mars 2015, Nvidia sort la GeForce GTX Titan X Basée sur l’architecture Maxwell 2.0.

En 2016, NVIDIA lance sa nouvelle architecture nommée Pascal, elle est d'abord présentée en marge du Computex 2016, puis commercialisée dans la GTX 1080, Elle sera aussi déclinée en plusieurs versions dont les GTX 1070, GTX 1060, et quelques mois plus trad les 1050 et 1050TI (TI signifiant une carte graphique plus performante que la version de base) la même année Nvidia décide de supprimer la mention GTX de ces Titan jugent qu'elles ne sont pas destinées aux jeux vidéos. C'est alors une GeForce Titan X qui sortiras basée sur la même architecture que les GTX sorties la même année (Pascale)

En 2017 ,Nvidia commercialise des versions TI des GTX 1080 et 1070 et une Titan XP. En décembre de la même année c'est aux tours de la GeForce Titan V de faire son apparition sur le marcher. C'est la première carte graphique à sortir avec la nouvelle architecture Volta destinée aux Intelligences Artificiels. La GeForce GT 1030 sort la même année cette carte graphique est surtout destiner au configuration PC à petit budget.

NVIDIA et AMD (anciennement ATI Technologies Inc.) prétendent tous deux fournir la solution la plus performante sur le marché des processeurs graphiques[réf. nécessaire]. Aussi les concurrents s'affrontent sur le segment de multi-monitoring (Surround et 3D-Surround, 3 écrans chez NVIDIA et EyeFinity chez AMD). NVidia reste la seule entreprise à proposer une solution viable de Cloud-gaming, avec ses GeForce GRID[réf. nécessaire]. Au niveau des applications professionnelles (calcul hautes performances…), NVIDIA a proposé ses cartes Tesla pour serveursNVIDIA et AMD se livrent une concurrence féroce pour le contrôle du marché des cartes graphiques dédiées[réf. souhaitée].

En 2015, NVIDIA possédera 82 % des parts du marché des cartes graphiques pour ordinateur de bureau, ce qui place AMD en dessous de la barre des 20 % pour la première fois8.

En 2017, NVIDIA signe un partenariat avec l'équipementier Bosch pour travailler ensemble sur l'intelligence artificielle et la voiture autonome9.

Produits[modifier | modifier le code]

NVIDIA produit principalement des puces graphiques, utilisées majoritairement dans les PC, mais de plus en plus, ses processeurs supercalculateurs sont utilisés dans des machines de calcul professionnelles :

NVIDIA a également conçu des processeurs graphiques pour consoles de jeux comme la Xbox (Processeur graphique de type GeForce 3) ou la PlayStation 3(RSX « Reality Synthesiser » basé sur l'architecture des GeForce 7).

Bien que spécialisé dans les puces graphiques, NVIDIA a produit une seule et unique puce de type x86, son nom le M6117CB 4.

Dans le domaine de la mobilité, NVIDIA offre des processeurs ARM ; le dernier-né de cette famille est le Tegra K1. Elle a également produit les chipsets nForce, mais à la suite d'un procès avec Intel, NVIDIA ne développe plus et ne commercialise plus de chipset pour PCB 5,B 6.

En 2016, la société annonce un supercalculateur maison (SaturnV) qui s'impose d'emblée dans le Top 500 et s'arroge également la première position en matière d'efficacité énergétique10. Il est propulsé par 60 512 processeurs Xeon E5-2698v4 pilotant des NVIDIA 125 DGX-1s, surnommées AI supercomputer in a box et destinées à l'apprentissage profond (deep learning). Il utilise aussi des processeurs graphiques Tesla P100.

Technologies[modifier | modifier le code]

NVIDIA a développé ou a fait l'acquisition de plusieurs technologies pour ses produits

SLI
Technologie qui consiste à cumuler jusqu'à quatre GeForceNote 3 via l'usage d'un pont qui connecte les cartes pour augmenter les performances graphiques. Annoncée à la fin 2004, elle fut présentée comme un moyen d'améliorer à faible coût les performances d'une machine mais en général, même si deux GeForces sont utilisées, le gain de puissance est rarement proportionnel, et il l'est de moins en moins au fur et à mesure que l'on ajoute des GeForce. En 2016 et à l'occasion de la présentation de la nouvelle carte GTX 1080, NVIDIA annonce un nouveau pont SLI, le SLI HB Bridge. Théoriquement censé doubler la bande passante disponible, il limite cependant son usage à deux cartes, plutôt que les quatre supportées auparavant. Cette technologie est similaire à la CrossFire d'AMD, bien qu'AMD délaisse l'emploi du pont à partir de 2013 avec sa série R9 290X.:NVLink
Le NVLink est une sorte de SLI amélioré, permettant de combiner la puissance de plusieurs cartes tout en permettant des transferts à des débits plus important que le classique SLI.
Optimus
Processus qui consiste à désactiver la carte graphique pour économiser de l'énergie lorsque la fonction 3D n'est pas requise ; l'affichage est alors géré par l'IGP. Cette technologie est souvent utilisée dans les GeForces mobiles, et n'a pas été tout de suite supportée en standard par Linux11. AMD propose une solution similaire sur ses cartes.
3D Vision
Technologie qui permet de profiter de la 3D stéréoscopique sur PC, actuellement en version 2B 7. Le principe consiste à utiliser des écrans spéciauxNote 4 qui affichent tantôt une image pour l'œil gauche, tantôt une image pour l'œil droit. Des lunettes spéciales permettent de répartir les images entre les deux yeux pour recréer une illusion de 3D. Cette technologie s'oppose à la HD3D présentée par AMD. La version professionnelle, 3D Vision Pro, utilise la transmission radio plutôt que la transmission par infrarougeB 8.
GPU Boost
Système qui augmente la vitesse du processeur tant que sa fréquence, sa température et sa consommation restent dans certaines limites. Ce système utilisé dans l'architecture Kepler a connu trois versions. La version 1.0 débute avec la GeForce GTX 680, en 2012. La version 2.0 débute avec la GeForce Titan, en 2013, sans apporter de nouveauté importante. Avec le GPU Boost 3.0, présenté en même temps que la GTX 1080 et l'architecture Pascal, l'augmentation de fréquence n'est plus linéaire, comme pour les deux versions précédentes, mais définie automatiquement en fonction de la tensionB 9,B 10,B 11.
PhysX
Moteur physique permettant de créer un rendu temps réel des collisions et des processus physiques complexes comme les créations de particules après impact ; limité aux jeux compatibles.
Battery Boost12
Technologie permettant d'augmenter l'autonomie d'un PC portable en jeu en ajustant les fréquences de la mémoire et des cœurs CUDA du GPU, ainsi que celles du processeur.
GeForce Experience
Logiciel facultatif installé généralement en même temps que les drivers des cartes graphiques et qui permet d'optimiser ses jeux selon un ratio performance/qualité paramètrable, de configurer ShadowPlay ou de streamer sur son PC depuis une NVIDIA Shield ou une Shield Android TV.
ShadowPlay
Fonctionnalité qui permet d'enregistrer des séquences de jeu, voire les minutes précédant l'activation du logiciel (avec qualité et durée paramétrable), le microphone ou le son intrajeu. ShadowPlay a été remplacée par NVIDIA Share lors de la mise à jour 3.0 du logiciel GeForce Experience en septembre 2016.

Les fabricants de cartes graphiques[modifier | modifier le code]

NVIDIA ne fabrique pas elle-même ses cartes graphiques : elle fournit les fabricants en GPU, en mettant à leur disposition un modèle de référence avec un dissipateur de référenceNote 5 et en leur donnant le choix de conserver ce design ou d'appliquer le leur.

Liste des fabricants de cartes graphiques NVIDIA :

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Par exemple, dans le passé, NVIDIA a utilisé les capacités de production de sociétés comme IBM, Microelectronics ou l'européen STMicroelectronics. Actuellement, NVIDIA sous-traite sa production aux grands fondeurs actuels comme les taïwanais TSMC (Taiwan Semiconductor Manufacturing Company, Limited) ou UMC (United Microelectronics Corporation).
  2. Il s'agit d'une période confuse dans le domaine de la 3D, avec des problèmes aussi chez ATI Technologies|ATi, qui ne parvient pas à sortir ses cartes dans les délais et aux performances annoncées.
  3. Ou désormais deux GeForces GTX 590 ou deux GTX 690
  4. Qui disposent d'un rafraichissement élevé (supérieur ou égal à 120 Hz).
  5. Le modèle (desin) de référence inclut le fonctionnement du PCB (étage d'alimentation par exemple).

Références diverses[modifier | modifier le code]

  1. « Les cartes graphiques ATI vont disparaître » [archive], sur http://www.01net.com/ [archive]
  2. « NVIDIA finalise l'acquisition d’Icera, un leader dans les modems sans fil et la technologie RF » [archive], sur nvidia.fr/
  3. Nvidia dévoile Project Shield, une console portable Android [archive], sur gamekult.com
  4. « M6117C - 386SX Embedded Microcontroller » [archive], sur http://www.nvidia.com [archive]
  5. http://www.presence-pc.com/actualite/NVIDIA-chipset-36694/ [archive]
  6. NVIDIA et Intel : fin des conflits pour 1.5 milliard de dollars [archive], sur pcinpact.com/, consulté le 20 août 2016.
  7. Article sur la 3D Vision [archive]
  8. Site officiel de Nvidia sur les Quadro où ils détaillent la 3D Vision Pro [archive]
  9. Article sur la GeForce GTX 680, où l'on parle du GPU Boos 1.0 [archive]
  10. Article sur la GeForce Titan, où l'on parle du GPU Boos 2.0 [archive]
  11. Article sur le GPU Boost 2.0 [archive]
  1. http://d18rn0p25nwr6d.cloudfront.net/CIK-0001045810/2d7da828-3bb2-4f6c-ac2b-a373db066a10.pdf [archive]
  2. http://d18rn0p25nwr6d.cloudfront.net/CIK-0001045810/2d7da828-3bb2-4f6c-ac2b-a373db066a10.pdf [archive]
  3. http://d18rn0p25nwr6d.cloudfront.net/CIK-0001045810/2d7da828-3bb2-4f6c-ac2b-a373db066a10.pdf [archive]
  4. http://d18rn0p25nwr6d.cloudfront.net/CIK-0001045810/2d7da828-3bb2-4f6c-ac2b-a373db066a10.pdf [archive]
  5. https://fr.finance.yahoo.com/q?s=NVDA [archive]
  6. http://s22.q4cdn.com/364334381/files/doc_financials/quarterly_reports/2018/NVIDIA-Q4Y18-Form-10K.pdf [archive]
  7. « This Man Is Leading an AI Revolution in Silicon Valley—And He’s Just Getting Started » [archive]
  8. Anton Shilov, « Discrete Desktop GPU Market Trends Q2 2016: AMD Grabs Market Share, But NVIDIA Remains on Top », anandtech,‎ 16 septembre 2016 (lire en ligne [archive])
  9. « Voiture autonome : Bosch et Nvidia s'allient sur l'Intelligence Artificielle », ZDNet France,‎ 20 mars 2017 (lire en ligne [archive])
  10. https://futurism.com/nvidia-just-made-the-most-energy-efficient-supercomputer-of-all-time/ [archive]
  11. Linux Bumblebee [archive]
  12. Article GeForce GTX 880M : la puce mobile basée sur la technologie Battery Boost [archive]

Références sur les processeurs graphiques[modifier | modifier le code]

  1. ↑ a et b Article sur les NV1 [archive]
  2. ↑ a et b Article sur la RIVA 128ZX [archive]

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Sur les autres projets Wikimedia :

  • Nvidia, sur Wikimedia Commons

Liens externes[modifier | modifier le code]

[afficher]
v · m
Technologies NVIDIA
[afficher]
v · m
Principales entreprises de semi-conducteurs par chiffre d'affaires (2016)1
[afficher]
v · m
Entreprises du NASDAQ-100 (décembre 2017)
[afficher]
v · m
Silicon Valley