AMD HD 6990: 7 ans plus tard, que vaut-elle ?

AMD HD 6990: 7 ans plus tard, que vaut-elle ?

27 mars 2018 0 Par Enzo Silva

Nous nous retrouvons aujourd’hui pour une nouvelle rétrospective de matériel informatique, cette fois sur la carte graphique Radeon HD 6990. Sortie début 2011, elle représentait le fleuron de la marque américaine. Toutes ses caractéristiques faisaient d’elle un mastodonte, et ce dans tous les sens du terme: deux puces “Cayman” de HD 6970 à son bord, 2x2GB de mémoire GDDR5, 375w de consommation (et 450 sur le second bios “extreme”), 1.3kg sur la balance, et j’en passe… Elle se posait en concurrente direct au vaisseau amiral Nvidia de l’époque, la GTX 590.

Voila donc la bête, plutôt sobre et élégante. Avant toutes choses, la carte est passée par un démontage total afin de la dépoussiérer et des changer les pâtes thermiques des puces.

La voici mise à nue, on remarque les deux puces graphiques distinctes, les puces mémoires, les 4 sorties DisplayPort et DVI et l’unique port Crossfire (pour rajouter une deuxième 6990 si la personne est assez folle et/ou possède des actions chez EDF). Choses originale, à droite de ce dernier port on remarque un interrupteur à deux positions. Il sert à switcher entre les deux bios de la carte graphique. En effet elle possède un bios “standard” où les puces tournent à 830mhz et avec un plafond de dissipation de 375w, et un autre bios “extreme” qui monte les fréquences à 880mhz pour une dissipation maximale de 450w (!).

Pour le test du jour, j’ai installé la carte dans mon setup de retro-test; ma plateforme Skulltrail (sujet d’un précédent article, voir ici) composé de deux Xeon X5470 à 3.5ghz, de 16gb de ram et d’une alimentation EVGA 750P2 (qui suffit à peine à nourrir la bête).

Parlons maintenant performance. Un problème survient immédiatement: trouver des jeux un tant soit-peu modernes qui utilisent correctement les deux puces vidéo. Le support de pilotes ayant été abandonné depuis belle lurette, il n’existe pas de profil Crossfire (l’élément logiciel qui dit au jeu d’utiliser les deux puces et non pas une seule) pour les jeux étant sortis après 2012… Certains jeux utilisent tout de même les deux puces, mais seulement si il a été codé en prenant en charge nativement le Crossfire de cartes graphiques si anciennes. Malheureusement, ces jeux ne sont pas légion. J’ai commencé par PUBG, qui a refusé d’utiliser les deux puces, ce qui nous a donné une moyenne de 30fps en medium/low 1080p. Vient ensuite le jeu de course Dirt2, connu pour fonctionner correctement en Crossfire: nous obtenons une moyenne de 110 fps environ après deux courses (1080p tout au max). Enfin vient Battelfield 3, toujours en 1080p ultra: on obtient une moyenne de 70fps, ce qui est très respectable.

Voici venu le temps de parler des nuisances, qui sont assez importantes il faut le dire. Tout d’abord la consommation dantesque de cette carte graphique; une alimentation de 750w étant je pense un minimum. Ensuite vient la chaleur, qui n’est cependant pas extrême comme on avait pu le voir sur la GTX 295 précédemment , la température des puces n’excédant que rarement 90 degrés. Finalement vient le bruit, et c’est la que le bas blesse. C’est véritablement l’une des cartes les plus bruyantes que j’ai pu tester, et il me semble parmi les plus bruyantes de l’histoire également. Au repos complet elle est déjà bien audible, mais ce n’est pas vraiment dérangeant. Mais en charge 3D… Entre les couinements électriques de la carte et son ventilateur qui réveillerais un mort, elle devient réellement irritante.

Alors conclusion ? Cette carte reste encore utilisable de nos jours, sauf si le jeu ne prends pas en charge le Crossfire, auquel cas les performances sont loin d’être bonnes. Est-ce que je vous recommande de l’acheter ? Surement pas. La seul bonne raison d’en acheter une de nos jours serait pour la collection, pas vraiment pour le jeu…