postit
Réseau CPC BIENDEBUTER.NET Crunchez vos adresses URL
|
Calculez la conso électrique de votre PC
|
Hébergez vos photos
Vendredi 19 Décembre, 2014
Ce site a été développé couché
Le site du jeu vidéo et du PC dont vous êtes le héros
image_couly_138 Canard PC cadre_recherche
Actu > Hardware
par la redac par 02 octobre 2009 - 01h21
illustration

A
vant toute chose, sachez que le jeu de mot du titre n'est pas de moi. D'ailleurs je tiens à remercier Gringo (non, pas notre El Gringo à nous qui est bien plus drôle, un autre Gringo qui se reconnaîtra) pour sa coopération humoristique à mon texte. D'autant que si il ne vous plaît pas ça fera toujours quelqu'un de plus sur qui me décharger.

Ceci étant dit, nous pouvons reprendre. ATi truste l'attention du monde du hardware depuis une bonne semaine avec le (très théorique) lancement de ses cartes Radeon HD 5870 et 5850 dont le Doc vous reparlera prochainement. Et c'est à l'occasion de l'ouverture du GTC (GPU Technology Conference, et oui y'a un acronyme dans l'acronyme) avant-hier soir que nVidia à lancé sa contre-offensive médiatique avec l'annonce de Fermi. Évoquée depuis quelques semaines sous les noms GT300 ou encore GF100, Fermi est donc l'architecture qui succédera à l'actuelle GT200 qu'on retrouve dans les Geforce GTX2xx. Et cette fois encore, nVidia à sorti l'artillerie lourde.

Attention, paragraphe abscons. Alors que certains de nos confrères français ou anglais ont eu la primeur de l'information et en ont profité pour sortir des dossiers complets à peu près en même temps que l'annonce, c'est une avalanche de données qui nous sont arrivées d'un coup ; d'autant les fuites ont été particulièrement bien contenues jusqu'alors. Dans les grandes lignes cependant, ce qu'il faut retenir c'est que nVidia a vu très gros et ambitieux pour sa puce. 3 milliards de transistors (contre 1,4 pour les GT200 et 2,15 pour les Radeon 5870/5850), une nouvelle finesse de gravure en 40nm, 512 stream processors (contre 240 pour le GT200) et surtout une grosse révision du fonctionnement en général. Les stream processors sont dorénavant groupés par 32 et non plus par 8, ce qui signifie une réduction du nombre de pipelines au profit d'une grosse augmentation de leur efficacité. Autre grosse nouveauté, Fermi possède dorénavant un cache L1 bien plus efficace et introduit le cache L2 au sein de la puce à l'instar de ce qui se fait déjà chez ATi. nVidia a également introduit des fonctionnalités pas forcément attendues par les gamers mais parfois réclamées par les professionels : Fermi intègrera donc la technologie ECC de correction d'erreurs sur toute la mémoire (ce qu'on retrouve sur les cartes mères serveur notamment) ; mais aura aussi un bien meilleur rendement en double précision (une optimisation introduite également dans la nouvelle gamme ATi), la cible étant clairement de rattraper nos CPUs particulièrement doués dans ce domaine. Enfin diverses optimisations ont été effectuées pour la parallélisation des calculs pour un code non optimisé multicore, ce qui est une bonne nouvelle pour tout le monde.

Maintenant que j'ai perdu tout mon lectorat, revenons à quelque chose de plus prosaïque. Comme je l'ai dit, Fermi s'annonce déjà comme un monstre de complexité avec un die probablement énorme. De plus, les documents qui ont été lachés à la presse sont tout entiers axés sur la partie GPGPU de la puce, à tel point que Jen-Hsun Huang (le patron de nVidia) a déjà sorti un nouveau terme marketing de son chapeau pour vendre ses cartes aux universités américaines : le cGPU. Car oui, avec Fermi nVidia se lance à corps perdu dans la bataille du GPU Computing et cherche de plus en plus à rapprocher le GPU d'un co-processeur multifonction. Et dorénavant avec la gestion du C++ par CUDA 3.0 au sein de la puce, on attaque les choses sérieuses. En ligne de mire, nVidia se prépare bien évidemment à l'arrivée du Larrabee d'Intel l'année prochaine, qui a placé voilà 1 an une gigantesque épée de Damoclès au dessus de la tête des fabricants de GPU. nVidia a encore de la ressource et ne veut décidément pas se laisser faire par Intel en proposant une alternative au "tout x86" avec une puce efficace pour la 3D mais aussi capable de faire du calcul.

Celà étant dit, de notre point de vue de joueurs, nous avons encore le temps de méditer longuement sur la puce. En effet, aussi surprenant que celà puisse paraître, nVidia a choisi de ne pas communiquer sur la partie "gaming" de Fermi. Tout au plus la compatibilité avec DirectX 11 et le support d'OpenGL 3.2 sont confirmés, bref le mimum syndical. Pire, plutôt que de nous rassurer, l'architecture présentée par nVidia lève plutôt des interrogations. Tout d'abord le bus mémoire régresse de 512bits à 384bits. Un recul étrange, bien que compensé par l'utilisation de GDDR5 en lieu et place de la GDDR3 du GT200. De plus, la complexité de la puce la rend très ardue à produire et est annonciatrice d'une taille et d'une dissipation thermique conséquente, sans parler de l'épineux problème du prix tant la rentabilité de la puce risque d'être le gros problème de Fermi auprès du grand public. Car en face, ATi à adopté une stratégie drastiquement différente depuis le semi échec de la Radeon HD 2900 en améliorant son architecture progressivement tout en misant sur des puces moins complexes et moins chères à produire. Et au vu de la réussite des HD48xx face à un GT200 certes techniquement plus abouti mais aussi bien plus cher, cette stratégie s'avère pour l'instant payante.

Quoiqu'il en soit, nVidia nous a donné rendez-vous au mieux en décembre pour une présentation cette fois ci axée Gaming de Fermi, ce qui laisse aux Radeon HD 58xx d'ATi un dernier trimestre 2009 en or. La bataille reprendra en 2010, et elle risque d'être passionante.


Comme pour tout mes copains des autres sites, la photo de la carte prototype ci-dessous à été volée à Bit-tech.net. Alors on fait tous un grand sourire et on y va "Merci Bit-Tech.net !"


Commentaires (41)
» Aller au forum
Boitameuh il y a 5 ans
Boitameuh
J'ai tout lu. J'ai mal au crâne.
lire la suite
kileureuleuss il y a 5 ans
kileureuleuss
Pareil mais j'ai vomi mes p'ti dèj.
lire la suite
El Chupalibre il y a 5 ans
El Chupalibre
Mais pourquoi bordeyl ai-je commencé ma journée par ça ?
lire la suite
Raphyo il y a 5 ans
Raphyo
Très bon résumé ;)
lire la suite
Froyok il y a 5 ans
Froyok
Fermi intègrera donc la correction d'erreur ECC sur toute la mémoire (ce qu'on retrouve sur les cartes mères serveur notamment) mais aussi un bien meilleur rendement en double précision (une optimisation introduite également dans la nouvelle gamme ATi), la cible étant clairement de rattraper nos CPUs particulièrement doués dans ce domaine.
Question : C'est quoi les erreurs ECC ? Sinon, moi aussi j'ai vomi ! B)
lire la suite
ShinSH il y a 5 ans
ShinSH
BoitameuhJ'ai tout lu. J'ai mal au crâne.
kileureuleussPareil mais j'ai vomi mes p'ti dèj.
Cindy SanderMais pourquoi bordeyl ai-je commencé ma journée par ça ?
Haha, Super Menteur, tu rends malade les gens, t'entends???
lire la suite
unpierrot il y a 5 ans
unpierrot
Intéressant le prochain bébé nVidia et la gestion native du C++ est vraiment une nouveauté au niveau des GPU (enfin peut on encore appeler ça un GPU ?). Mais au niveau prix, je crains que l'on se retrouve, comme à la sortie du G80, avec quelque chose de monstrueux également.
lire la suite
Say hello il y a 5 ans
Say hello
À force de parcourir des site je sais plus trop la source, mais il me semble que la réduction du bus mémoire n'est pas "étrange" mais due à l'architecture de la puce par rapport au regroupement d'unité et des conséquences de place, et que le bus ne pourrait être à 512bits que si la puce était en 28nm et pas en 40nm mais qu'ils veulent compenser la "petitesse" du bus par la vitesse de la ram, enfin ça reste à voir.
lire la suite
Mémoriser | oublié ? | Pas de login ? Inscrivez vous
En kiosque