NEWS : Carte graphique
L’architecture Turing des Nvidia GeForce RTX 20 en détail
Nvidia continue de distiller au compte-gouttes les détails de sa nouvelle gamme de cartes graphiques GeForce RTX 20. Après l’annonce des grandes…
Votre panier est vide !
La carte graphique Nvidia GeForce RTX 2080 vient reprendre le flambeau de la GeForce GTX 1080, lancée en mai 2016. Vingt-sept mois séparent donc ces deux générations. Une éternité dans le domaine des cartes graphiques où le rythme des changements tournait jusqu’ici plutôt aux alentours des 12 mois. Annoncée comme éminemment plus rapide que son aînée, elle vise les joueurs équipés d’un écran WQHD voire 4K et met également en avant – comme le reste de la gamme RTX 20 – la promesse de jeux au réalisme plus saisissant via une accélération du rendu hybride, nouvel apanage de l’industrie du jeu vidéo.
Comme toutes les GeForce RTX 20, la GeForce RTX 2080 utilise un GPU d’architecture Turing. Nous avons abordé le sujet en long et en large au travers d’un article dédié au sujet. Nous n’allons donc pas revenir en détail sur les nouveautés apportées par cette architecture, mais en résumer les points clés. Turing apporte donc une nouvelle méthode de répartition des unités de calcul, des unités dédiées à l’IA (Tensor Cores), des unités dédiées à l’accélération du rendu raytracing (RT Cores) ainsi qu’une optimisation des différents niveaux de cache.
À LIRE ÉGALEMENT :
NEWS : Carte graphique
Nvidia continue de distiller au compte-gouttes les détails de sa nouvelle gamme de cartes graphiques GeForce RTX 20. Après l’annonce des grandes…
Pour sa GeForce RTX 2080, Nvidia a recours à une puce moins volumineuse que celle qui équipe la GeForce RTX 2080 Ti. Le GPU TU104 se « limite » ainsi à 13,6 milliards de transistors, à comparer aux 18,6 milliards du modèle supérieur et aux 7,2 milliards du GP104 de la GeForce GTX 1080. La puce renferme 46 blocs SM. Chaque SM embarque 64 unités de calcul, 4 unités dédiées aux textures, 6 unités dédiées au deep learning (Tensor) et 1 bloc de calcul dédié au raytracing (RT). Au final, cela donne donc lieu à une puce regroupant pas moins de 2 944 unités de calcul, 184 unités dédiées aux textures, 368 Tensor Cores et 46 RT Cores. Le tout est accompagné de 64 unités de rendu. Pour rappel, la GeForce GTX 1080 ne comportait par exemple « que » 2 560 unités de calcul comme le montre le tableau ci-dessous.
GeForce RTX 2080 Ti | GeForce RTX 2080 | GeForce RTX 2070 | Titan Xp | GeForce GTX 1080 Ti | GeForce GTX 1080 | GeForce GTX 1070 | |
Architecture | Turing | Pascal | |||||
GPU | TU102 | TU104 | TU106 | GP102 | GP104 | ||
Gravure | 12 nm | 16 nm | |||||
Unités de calcul | 4 352 | 2 944 | 2 304 | 3 840 | 3 584 | 2 560 | 1 920 |
Unités Tensor | 544 | 368 | 288 | – | |||
Unités RT | 68 | 46 | 36 | – | |||
Unités texture | 272 | 184 | 144 | 240 | 224 | 160 | 120 |
Unités de rendu | 88 | 64 | 96 | 88 | 64 | ||
Fréq. base | 1 350 MHz | 1 515 MHz | 1 410 MHz | 1 405 MHz | 1 480 MHz | 1 607 MHz | 1 506 MHz |
Fréq. Boost | 1 545 – 1 635 MHz | 1 710 – 1 800 MHz | 1 620 – 1 710 MHz | 1 582 MHz | 1 733 MHz | 1 582 MHz | |
Mémoire | 11 Go GDDR6 | 8 Go GDDR6 | 12 Go GDDR5X | 11 Go GDDR5X | 8 Go GDDR5X | 8 Go GDDR5 | |
Fréq. mémoire | 1 750 MHz | 1 426 MHz | 1 375 MHz | 1 250 MHz | 2 000 MHz | ||
Bus | 352 bits | 256 bits | 384 bits | 352 bits | 256 bits | ||
Bande passante | 616 Go/s | 448 Go/s | 548 Go/s | 484 Go/s | 320 Go/s | 256 Go/s | |
TDP | 250 – 260 W | 215 – 225 W | 175 – 185 W | 250 W | 180 W | 150 W | |
Tarif lancement | 1 259 € | 849 € | 639 € | 1 349 € | 824 € | 789 € | 499 € |
Le passage du 16 nm au 12 nm ne correspond pas à un véritablement changement de procédé de gravure. Le 12 nm FFN utilisé est ainsi plutôt à voir comme une optimisation spécifique à Nvidia du 16 nm utilisé sur la génération précédente. En conséquence, nous n’observons pas de gain énorme sur la fréquence GPU. La fréquence minimale est ainsi en régression, passant de 1 607 à 1 515 MHz tandis que la fréquence moyenne GPU Boost est annoncée à 1 800 MHz contre 1 733 MHz sur la GeForce GTX 1080. À noter qu’il s’agit de la fréquence GPU Boost du modèle Founders Edition ici testé. Ces cartes ne sont désormais plus à voir comme des modèles de référence, mais comme des modèles overclockés d’usine. Ainsi, certains partenaires de Nvidia seront en mesure de proposer des variantes non overclockées, dont la fréquence GPU Boost moyenne sera fixée à 1 710 MHz, soit une fréquence légèrement inférieure à celle de la GTX 1080.
Nvidia a néanmoins revu son système d’ajustement de la fréquence et passe GPU Boost dans sa quatrième itération. Avec GPU Boost 4.0, il est toujours question, comme sur GPU Boost 3.0, d’ajuster la fréquence de fonctionnement en fonction de la charge appliquée, d’un seuil de consommation électrique et de la température de la puce. Le changement se situe au niveau de la gestion de la température, qui dispose d’un seuil de température intermédiaire avant lequel la fréquence passe à sa valeur nominale. Selon Nvidia, cela permettrait de conserver une fréquence plus élevée que précédemment lorsque le système de refroidissement de la carte graphique est performant.
Nvidia a également décidé de laisser la possibilité aux utilisateurs de changer la valeur des seuils de température. Pas d’utilitaire maison pour cela, mais par un utilitaire tiers tel Precision X1 d’Evga ou Afterburner de MSI, par exemple. Ces logiciels pourront également intégrer le kit Nvidia Scanner de manière à proposer un overclocking manuel simplifié.
Similaire au système d’overclocking automatique introduit sur les GeForce GTX 10, le Scanner de Nvidia permet toujours aux utilitaires d’agir au niveau de la tension de manière à définir quelle fréquence maximale est la plus stable. Le nouveau système serait néanmoins plus précis avec une charge GPU plus réaliste. L’utilisateur, de son côté, doit au préalable définir la limite de consommation et de température — autant mettre les curseurs à leur maximum — et jouer sur les seuils de température dont nous parlions un peu plus haut. Bref, c’est automatique en grande partie, mais toujours pas entièrement.
Nvidia en profite également pour inaugurer la GDDR6. Sur ses modèles haut de gamme de la série 10, la société recourait à de la GDDR5X et conservait de la GDDR5 classique sur les modèles de milieu et d’entrée de gamme. Les GeForce RTX 2080 Ti, RTX 2080 et RTX 2070 sont pour leur part à armes égales à ce niveau et jouissent donc toutes de ce nouveau type de mémoire qui permet à la fois d’augmenter le débit et se montre énergiquement plus intéressant avec un gain de 20 % sur l’efficacité énergétique.
Sur la GeForce RTX 2080, Nvidia ne fait pas évoluer la quantité et propose ainsi toujours 8 Go de mémoire ainsi qu’un bus à 256 bits. Le passage à une fréquence de 1 750 MHz permet toutefois de proposer une bande passante de 448 Go/s, bien supérieure aux 320 Go/s observés sur la GTX 1080.