[TEST] Gigabyte 8800GT NX88T512HP, O/C garanti !   vu 8478 fois Imprimer Envoyer
Note des utilisateurs: / 23
MauvaisTrès bien 
Écrit par Damien Saint-Martin le Lundi, 24 Mars 2008 16:36   

4- Consommation et Overclocking

A/ Overclocking

La partie la plus intéressante de cette carte concerne bien évidemment ses capacités d'overclocking, tout cela sous couvert du constructeur ! Au départ, les fréquences sont celles données par le constructeur. Après ce sera à vous de vous amuser à overclocker votre carte.

Pour cela nous devons utiliser le logiciel Gigabyte Gamer HUD compatible avec cette carte. Heureusement, le logiciel est facilement compréhensible et à portée de tous, du moins de ceux qui savent déjà overclocker une carte graphique normalement.

Si vous n'avez jamais franchi le pas, commencez d'abord par utiliser un logiciel comme Rivatuner, d'ailleur un tutorial est disponible sur le forum. Passons à la présentation du "Gamer HUD".

Image

On commence par souligner la capacité du logiciel à changer les fréquences de la carte graphique en la basculant alternativement d'un mode 2D et 3D, chose que les G80/G92/G94 ne savent pas faire habituellement ! Une économie d'énergie pour la carte graphique, pourquoi s'en priver ? Surtout que la consommation des cartes en 2D / repos est un des gros défauts dont est victime nVidia en ce moment.

Image

Le logiciel vous propose une tension GPU comprise entre 1,05 V et 1,2 V, la carte étant par défaut à 1,1 V contre 1,05 V pour les 8800GT génériques. A noter que les fréquences d'origine tiennent parfaitement avec seulement 1,05 V.

A la base, les fréquences GPU/shaders sont liés par un coefficient de 2.5 (Fréquence Shaders = Fréquence GPU x 2.5). Cette liaison a souvent pour effet qu'un des 2 paramètres va limiter l'autre dans son overclocking. En effet, il faudrait une chance insolente pour que les 2 limites soient égales. Le maximum stable n'est généralement pas celui des fréquences liées mais celui d'une fréquence GPU plus élevée ou moins élevée comparée au "linkage" original.

Notons aussi la possibilité de dissocier les fréquences GPU et shaders avec une fréquence maximale logicielle hors de toute limitation (+ de 1 GHz GPU par exemple). Passons aux gains en overclocking par paliers de tension (respectivement GPU/shaders/mémoire):

  • Tension par défaut de 1,1 V avec 756/1840/950 MHz / Températures: en IDLE (repos) 41° et 55° en burn
  • Tension de 1,15 V avec 770/1890/950 MHz /Températures: en IDLE (repos) 42° et 60° en burn
  • Tension de 1,2 V 783/1944/950 MHz / Températures: en IDLE (repos) 43/44° et 68/70° en burn

Les fréquences GPU/shaders sont vraiment bonnes, seule la mémoire ne suit pas avec seulement 950 MHz atteints contre 920 d'origine, autant dire un overclocking très modeste.

C'est d'autant plus dommage que les gains en bande passante mémoire sont importants pour le G92 compte tenu de son bus 256 bits pénalisant. Un tel overclocking GPU sans une bande passante mémoire suffisante représente un bridage certain que nous allons quantifier dans la suite de l'article.

Un petit regret concerne aussi l'incapacité de changer la tension de la mémoire, cela aurait pu se réveler vraiment intéréssant. Peut-être qu'un jour...

Avant de connaître l'apport de ce surcroît de fréquence RAM et surtout GPU en situation réelle, attardons-nous sur des mesures de consommation.

B/ Consommation

Pour le premier test, nous avons opté pour un relevé à l'aide d'un wattmètre prenant en compte seulement le câble d'alimentation de l'unité centrale, hors écran et périphériques :

    • Un relevé au repos après 5 min d'inactivité (IDLE)
    • Un relevé en charge complète de la configuration (LOAD à 100% avec 4 instances de Prime couplées à un test 3D en fond).

Nous relevons le plus haut pic de consommation avec le logiciel suivant : Rthdribl en AF16x et en 1680 x 1050.

Image

La consommation au repos ne change pratiquement pas tandis que le passage de 1,1 V et fréquences d'origines à 1,2 V et fréquences overclockées représente une hausse de consommation de 33,7 W en full, ce qui n'est pas négligeable !

Passons maintenant à un relevé de consommation en situation réelle, c'est-à-dire en "jouant". Nous avons choisi FEAR car le test intégré est assez facile à utiliser pour faire le relevé vu que nous devons avoir l'oeil sur le wattmètre durant tout le test. Nous prenons la plus faible consommation dans le bench et la plus haute.

Image

Une fois en situation réelle, la plus haute hausse de consommation est relevée au passage de 1,15 V à 1,2 V. Néanmoins, cette hausse reste raisonnable et ne viendra pas exploser votre facture d'électricité... C'est maintenant que les tests de performances commencent !



fff le 2008-03-27 à 16:13:58
Cette carte est interessante sauf son pb de ventilo !
Mais il existe 2
alternatives (Leadtek WinFast PX8800 GT ZL 512 Mo et MSI NX8800GT-Zilent) qui
mériteraient aussi un test.

Allez Dami1stm au boulot
Seuls les utilisateurs connectés peuvent écrire un commentaire !
 
Bannière
Plan du site | Partenaires | Contacts | |