Nvidia mise sur le GPU pour booster les performances à moindre coût-MAJ test

Cet ordinateur portable n'est plus vendu
L'ordinateur portable présenté ci-dessous a été commercialisé en 2008, et n'est plus en vente. Depuis, de nombreux modèles plus récents et mieux équipés ont vu le jour.

NVIDIA relance la guerre entre le CPU et le GPU avec sa technologie Cuda (Compute Unified Device Architecture), un langage de programmation basé sur C destiné à exploiter les possibilités des cartes graphiques.


Actuellement, nos ordinateurs sont composés entre autre d’un processeur (généralement de marque Intel ou AMD) et d’une carte graphique (ATI ou NVIDIA). Pour faire (très) simple, le processeur, aussi appelé CPU, s’occupe principalement du calcul nécessaire au bon fonctionnement des différentes tâches exécutées par les applications et le système d’exploitation. La carte graphique (appelée GPU) prend en charge l’affichage et les calculs 3D (pour les jeux vidéos par exemple).

Or, il s’avère que dans certains cas, la puissance du GPU n’est pas exploitée.

NVIDIA a donc décidé avec Cuda de s’appuyer sur la puissance disponible de la carte graphique pour seconder le processeur et ainsi afficher des gains de performances assez impressionnants dans certaines applications comme l’encodage vidéo par exemple.

La firme au caméléon s’appuie en fait sur le nombre de Core embarqués dans les GPU. Ces derniers sont par exemple au nombre de 128 sur une GeForce 8800 GTS (pour desktop) alors qu’un processeur Intel Core 2 Duo ne dispose que de deux Core. Avec Cuda, la puissance de calcul des Core du GPU est donc exploitée, ce qui permet de seconder le CPU. Cependant, pour le moment, les Core du GPU ne peuvent pas traiter les calculs de manière indépendante, les instructions étant simplement réparties sur l’ensemble des Core.

La première application concrète devrait faire son apparition dans le courant de l’été sous la forme d’un plugin destiné à Adobe Premiere Pro. Ce dernier devrait permettre de réduire par un facteur 7 le temps d’encodage nécessaire pour convertir une vidéo au format MPEG-2 en H.264.

NVIDIA nous a également indiqué être en négociation avec certains éditeurs de logiciels de montage vidéo pour gérer de façon native cette technologie et ainsi économiser de précieuses minutes d’encodage y compris sur les configurations peu puissantes.

En effet, l’un des intérêts de Cuda, est qu’il possible d’obtenir des gains assez impressionnants sur des configurations de milieu de gamme voir d’entrée de gamme. Ainsi, grâce à la parallélisation, pour certains utilisateurs, il sera possible d’opter pour une machine moins puissante (et ainsi plus économique) tout en conservant des performances confortables. Actuellement, seul les GeForce 8 et 9 sont compatibles.
Cependant, il ne faut pas se leurrer, les joueurs notamment auront encore besoin d’une carte graphique puissante pour pousser les détails tout en conservant une bonne fluidité.

Cette technologie semble assez intéressante, il nous tarde de pouvoir essayer concrètement les premières applications optimisées afin de savoir si Cuda tiendra ou non toutes ses promesses en terme de performances.

Si vous souhaitez en savoir plus, vous pouvez consulter cette page dédiée à Cuda.

A noter qu’NVIDIA organise un concours de programmation, le Cuda Challenge :

les participants sont invités à présenter des applications autonomes ou des plug-ins grand public de tous types, fonctionnant sous Windows, Linux ou MacOS. Les applications novatrices et utiles qui exploiteront le mieux la puissance de traitement des GPU NVIDIA seront récompensées. Nous invitons les participants à se concentrer, entre autres, sur les domaines suivants : multimédia (traitement photo/vidéo/audio, etc.), sécurité (pare-feu, anti-virus, applications de chiffrement, etc.) et applications de bureautique (compression et gestion de fichiers, etc.).

Le CUDA Challenge récompensera les 6 meilleurs projets :

* 1er prix : une station de travail HP xw8600
(Dual 3.33 GHz Xeon 5260, Quadro FX 3700, Tesla C870, moniteur LCD 30″ HP)
* 2ème prix: une carte NVIDIA Tesla D870
* Du 3ème au 6ème prix: une carte graphique NVIDIA Quadro FX 3700

Les participants recevront des offres produits exclusives

Tous les projets devront être déposés au plus tard le 18 Juillet 2008 à 20 heures (Heure d’Europe Centrale)

NVIDIA démontre son savoir faire avec cette technologie qui semble prometteuse pour certaines applications spécifiques mais la mort annoncée du CPU n’est pas encore pour demain…

[MAJ 10/06] : Nos confrères de Présence PC viennent de se livrer à un test grandeur nature concernant les gains de performances apportés par Cuda.

Au final, les tests se sont avérés plutôt concluants :

Non CUDA n’est donc pas un gadget destiné aux chercheurs désireux de se faire offrir une GeForceMarque utilisée par NVIDIA pour désigner ses puces graphiques depuis 1999. La première série NVIDIA à porter le nom de GeForce était la GeForce 256… par leur université, CUDA est vraiment exploitable par tout programmeur connaissant le C au prix toutefois d’un petit investissement personnel histoire de s’adapter à ce nouveau paradigme de programmation. Cet effort ne sera pas une perte de temps pour peu que ses algorithmes se prêtent bien à la parallélisation. Soulignons au passage les efforts de NVIDIA pour fournir une documentation abondante et de qualité afin de répondre à toutes les questions du programmeur débutant.

Vous pouvez consulter l’ensemble de l’article chez Présence PC.

[Source : LaptopSpirit – NVIDIA]

Besoin d’aide pour choisir votre PC portable ?
LaptopSpirit vous propose un court questionnaire qui va nous permettre de bien comprendre vos besoins. Nous pourrons ainsi vous conseiller les ordinateurs portables les plus adaptés à votre utilisation et à votre budget !
, ,

4 réponses à “Nvidia mise sur le GPU pour booster les performances à moindre coût-MAJ test”

  1. Cool! Chouette idée que ce CUDA challenge.

    Pour ce qui est de CUDA en lui même, on savait déjà ça il y a un peu plus d’un ans, maintenant qu’on a des dates « proches », on retrouve enfin l’intérêt de ce système.

    A quand la riposte d’ATI… Je sais qu’ils avaient plus de mal à développer leur système. Dommage, ils se rattrapent avec le Folding@Home.

  2. « machine moins puissante (et ainsi plus économique) », je n’y crois pas vraiment.

    Comparativement entre le prix d’un CPU et le prix d’un GPU NVIDIA qui tienne la route ,car il ne faut pas se leurrait, leur test qui permettent d’accélérer 7X l’encodage n’a pas été fait sur des 8400 / 8600 c’est forcément, au minimum une 8800…

    Nvidia sont fort sympathique, mais qu’ils arrêtent de nous prendre pour des poires.

    Le PC doit tenir un minimum la route s’il on veut l’utiliser un temps soit peu au quotidien…

  3. QQ1 >> nvidia veut plutôt dire « pourquoi vouloir suivre la voir du multicore dans les cpu alors que les GPU le sont dèja? »

    La plupart des gains des CPU Multicore se font dans les applis multimédia donc si les cartes graphiques font mieux le boulot ca pourrait faire très mal a Intel.

  4. Ne pas oublier Intel dans les fournisseurs de GPU. Sauf erreur, ce sont eux qui en vendent le plus (certe, intégrées aux cartes mères).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


6 + 1 =