TechTarget
Accès rapide :
Definition

GPU (unité de traitement graphique)

Une unité de traitement graphique ou GPU (en anglais : Graphics Processing Unit) est une puce informatique qui effectue des calculs mathématiques rapides, principalement pour le rendu d’images.

Au tout début de l’informatique, c’est l’unité centrale (CPU, Central Processing Unit) qui procédait à ces calculs. Mais lorsque des applications riches en graphismes, telles qu’AutoCAD, ont été développées, leurs besoins ont mis le CPU à rude épreuve et entraîné une dégradation des performances. Les GPU ont été créés dans le but de libérer de la puissance de traitement en déchargeant les CPU de ces tâches.

Aujourd’hui, les puces graphiques sont adaptées pour partager le rôle des CPU et exercer des réseaux neuronaux profonds dans le cadre d’applications d’intelligence artificielle. Un GPU peut être intégrée à un CPU sur le même circuit, sur une carte graphique ou dans la carte mère d’un ordinateur ou d’un serveur. NVIDIA, AMD, Intel et ARM comptent parmi les acteurs majeurs du marché des GPU.  

GPU et CPU

Un GPU est capable de générer le rendu d’images plus rapidement qu’un CPU grâce à son architecture de traitement parallèle, qui lui permet d’effectuer de nombreux calculs simultanément. Un seul CPU ne dispose pas de cette fonctionnalité, bien qu’il soit possible de procéder à des calculs en parallèle avec des processeurs multicœurs, en combinant plusieurs CPU sur la même puce.

Compte tenu également de sa fréquence d’horloge plus élevée, un CPU peut effectuer un calcul plus rapidement qu’un GPU. De ce fait, il est souvent mieux armé pour traiter des tâches informatiques élémentaires.

En général, un GPU est conçu pour le parallélisme des données et pour appliquer la même opération à plusieurs éléments de données (SIMD, Same Operation to Multiple Data). Un CPU est conçu pour le parallélisme des tâches et l’exécution de différentes opérations.

Fonctionnement d’un GPU

Les architectures des CPU et GPU se distinguent également par le nombre de cœurs. Pour résumer, le cœur est le processeur à l’intérieur du processeur. La plupart des CPU comportent de quatre à huit cœurs, certaines pouvant en posséder jusqu’à 32. Chaque cœur peut traiter ses propres tâches ou threads. Certains processeurs étant capables de multithreading (qui consiste à diviser virtuellement un cœur afin de lui permettre de traiter deux fils d’exécution), le nombre de threads peut être bien plus élevé que le nombre de cœurs. Cette fonctionnalité peut s’avérer utile pour l’édition de vidéos et le transcodage. Les CPU peuvent exécuter deux threads (instructions indépendantes) par cœur (unité de traitement indépendante). Les GPU peuvent comporter quatre à 10 threads par cœur.

Exemple de carte graphique (GPU)
Exemple de carte graphique (Graphics Processing Unit)

Historique des GPU

Il existe des puces spécialisées dans le traitement graphique depuis les premiers jeux vidéo dans les années 1970. Au début, les fonctionnalités graphiques étaient assurées par une carte vidéo, une carte de circuits imprimés dédiée distincte avec une puce en silicium et un indispensable système de refroidissement, afin de fournir à un ordinateur des traitements 2D, 3D, voire parfois des calculs génériques sur processeur graphique (GPGPU, General Purpose Graphics Processing Unit).

Les cartes actuelles avec calculs intégrés pour des fonctionnalités de configuration des triangles, de transformation et d’éclairage dans les applications 3D sont généralement appelées GPU. Autrefois rares, les GPU haut de gamme sont désormais répandus et parfois intégrés dans les CPU eux-mêmes. Ces unités peuvent également être désignées par les termes de carte graphique, carte d’écran, carte vidéo ou adaptateur vidéo et autres appellations similaires.

Les ordinateurs d’entreprise hautes performances ont commencé à être équipés d’unités de traitement graphique à la fin des années 1990, et NVIDIA a introduit le premier GPU pour ordinateurs personnels, GeForce 256, en 1999.

Progressivement, grâce à leur puissance de traitement, les GPU sont devenus de plus en plus populaires pour d’autres tâches consommatrices de ressources sans aucun rapport avec le graphisme. Les premières applications comprenaient le calcul scientifique et la modélisation ; au milieu des années 2010, le traitement GPU s’étendait également aux logiciels d’apprentissage automatique et d’intelligence artificielle.

En 2012, NVIDIA a sorti un GPU virtualisé, qui décharge la puissance de traitement graphique du CPU du serveur dans une infrastructure de postes de travail virtuels. Les performances graphiques font depuis toujours l’objet de plaintes fréquentes de la part des utilisateurs d’applications et postes de travail virtuels. Les GPU virtualisés s’attaquent à ce problème. 

Lancer de rayon et autres tendances récentes

Voici les dernières tendances en matière de technologie GPU :

  • En 2019, les fournisseurs de GPU proposent généralement la virtualisation des GPU, tandis que des puces GPU plus récentes et plus puissantes arrivent régulièrement sur le marché.
  • La même année, AMD a dévoilé sa ligne complète de GPU de la série Radeon RX 5700, basée sur son architecture GPU Navi. Navi est considérée comme une mise à niveau de la technologie Graphics Core Next d’AMD.
  • ARM a ciblé le marché de la réalité augmentée (AR, Augmented Reality) et de la réalité virtuelle (VR, Virtual Reality) sur appareils mobiles avec ses processeurs Mali-G77.
  • NVIDIA a continué à améliorer ses fonctionnalités de lancer de rayon, dans le cadre de sa plateforme RTX. Le lancer de rayon est considérée comme l’étape suivante dans l’évolution du rendu graphique, après le tramage (ou rastérisation). Tandis que la rastérisation utilise des objets créés à partir d’un maillage de triangles pour représenter un modèle 3D, le lancer de rayon fournit un éclairage réaliste en simulant le comportement physique de la lumière. Il s’agit de tracer le parcours de la lumière sous la forme de pixels dans un plan d’image et d’en simuler les effets.
  • Les GPU de datacenter, destinés aux entreprises, aident ces dernières à tirer parti des fonctionnalités de traitement parallèle au moyen de mises à niveau matérielles. Les entreprises peuvent ainsi accélérer les flux de travail et les applications riches en graphismes.
Cette définition a été mise à jour en mars 2020

- ANNONCES GOOGLE

LeMagIT

Close