GTX Gamer

  • Accueil
  • PC gamer bureau
  • PC gamer portable
  • Ordinateurs et accessoires
  • Ecrans pour pc
    • Présentations
  • Actualités
  • Guide des jeux

by GTX Gamer

Pourquoi Nvidia et AMD n’intègrent-ils pas de processeurs dans leurs cartes graphiques ?

La réponse courte est qu’ils le font, au moins AMD le fait et a essayé de le faire pendant des décennies. L’idée d’un APU, une unité tout-en-un avec un GPU et un CPU complets, a été émise pour la première fois en 2006, mais elle commence tout juste à se concrétiser aujourd’hui.

La réponse la plus longue est que ce n’est pas aussi simple que de placer un GPU sur le même morceau de silicium qu’un CPU, comme l’atteste le fait qu’AMD a essayé et échoué à le faire pendant plus d’une décennie.

La chaleur est un problème majeur. Il n’est pas rare de voir une carte GFX sur un système atteindre 80 degrés Celsius, une température à laquelle un CPU commence à se plaindre de la réduction de sa durée de vie. Non seulement vous ajoutez soudainement beaucoup plus de chaleur au CPU, mais vous le rendez aussi plus difficile à refroidir. Une carte graphique a beaucoup plus de surface pour expulser cette chaleur vers un dissipateur thermique qu’un processeur (CPU).

Pourquoi Nvidia Et Amd Cpu Intégrés Dans Cartes Graphiques

Vous faites des grands dissipateurs thermiques et des ventilateurs, ou du refroidissement par eau, une exigence plutôt qu’un choix pour le passionné.

Il n’est pas non plus possible d’installer un GPU sur un CPU existant, ils doivent être redessinés pour fonctionner ensemble via des canaux personnalisés, plutôt que via l’interface PCIe générique actuellement privilégiée. Le problème est d’être obligé d’utiliser la mémoire système au lieu d’une mémoire graphique dédiée.

La plupart des systèmes tournent encore autour de 8-16 Go de mémoire système totale, alors que les cartes graphiques sont actuellement livrées avec 4-8 Go de mémoire plus rapide. En supprimant la mémoire vive de la carte graphique et en utilisant uniquement la mémoire vive du système, vous avez potentiellement réduit de moitié la mémoire disponible pour le système et l’avez rendu plus lent.

En fait, le concept d’AMD est de prendre des éléments à la fois du CPU et du GPU pour produire quelque chose avec certaines des forces des deux. En fait, il s’agit de créer un CPU avec la puissance de traitement parallèle d’un GPU, qui peut faire fonctionner un ordinateur sans carte graphique discrète.

Il s’agit essentiellement d’une manœuvre pour produire un concurrent à la série Core d’Intel avec des graphiques intégrés.

En d’autres termes, il est peu probable que vous obteniez un jour un “APU” capable de surpasser ou d’égaler un combo CPU et GPU dédié. Vous devrez simplement faire des compromis de conception qui réduiront les performances dans certains domaines. Un fabricant intelligent limitera presque toujours le composant GPU en faveur du CPU, car le consommateur pourra toujours acheter des composants graphiques dédiés pour le remplacer.

En outre, il est peu probable que cela séduise les passionnés, les joueurs et les créateurs de contenu, car vous entravez leur capacité à choisir les composants, tout en réduisant les possibilités de mise à niveau. J’ai pu garder mon ancien système pendant un an de plus en remplaçant la carte GFX, une option qui n’aurait pas été possible si elle avait été intégrée au CPU. De plus, mon nouveau système est bien plus puissant que ce que j’aurais pu m’offrir autrement, car j’ai pu réutiliser cette carte GFX relativement récente.

Il y a aussi la question de l’expertise. Traditionnellement (et par tradition, j’entends depuis l’an 2000 environ), Nvidia et ATI fabriquaient les cartes graphiques tandis qu’Intel et AMD fabriquaient les processeurs. Ces entreprises connaissaient bien leur métier, mais ne savaient pas forcément grand-chose de l’autre discipline. Ce n’est pas une coïncidence, par exemple, si AMD a acheté ATI en 2006, au moment même où ils formulaient leurs plans pour les APU.

Avec l’achat d’ATI, AMD a acquis du jour au lendemain une expérience des GPU grand public. Cela devrait également indiquer les difficultés impliquées. AMD est issu de la fusion d’un fabricant de processeurs et d’un fabricant de GPU leaders sur le marché, mais il lui a fallu plus de dix ans pour arriver à ses fins avec le concept d’APU. Intel est une force dominante dans toute l’industrie des semi-conducteurs, et un véritable poids lourd dans les CPU, mais ils ont du mal à obtenir autre chose que de maigres performances de leurs meilleurs efforts en matière de GPU.

NVidia ne sait littéralement rien de la construction de CPU à usage général, malgré ses contacts dans le domaine des GPU et devrait également obtenir une licence de l’architecture x86 d’Intel à un prix sans doute ruineux pour produire son propre APU. Pour Nvidia, essayer de produire un APU n’a que des inconvénients et aucun avantage, ils devraient dépenser une fortune pour obtenir une licence et développer un produit inférieur que personne n’achèterait, pourquoi s’embêter ?

Ce qui me ramène à mon paragraphe d’introduction. AMD/ATI et Nvidia produisent des combinaisons GFX/CPU. Intel accorde une licence sur la technologie Nvidia pour ses graphiques intégrés, tandis qu’AMD a acheté ATI afin d’utiliser leur technologie pour produire le concept APU.

Cependant, ces puces sont pleines de compromis parce qu’elles doivent l’être. Elles ne sont pas aussi performantes qu’un CPU et des graphiques discrets, et ne le seront probablement jamais. Pour la même raison que, quelle que soit la puissance des ordinateurs portables, vous pourrez toujours obtenir un ordinateur de bureau plus puissant et moins cher.

Cela ne veut pas dire que l’idée est inutile. Mon précédent ordinateur portable (*oui, je fais partie de ces gens qui ont un ordinateur de bureau et un ordinateur portable) n’avait pas de carte graphique, et s’appuyait sur des graphiques intégrés, il était même capable de faire quelques jeux légers. Mon ordinateur portable actuel, un Surface Book, possède une carte graphique discrète, mais utilise également des graphiques intégrés Intel lorsqu’il est détaché de la base de l’ordinateur portable.

Ces dispositifs existent donc dans la nature et sont utiles, mais leurs performances ne sont pas comparables à celles des cartes graphiques dédiées. Je peux voir le jour où les cartes graphiques intégrées seront courantes dans l’informatique domestique, alors que les cartes dédiées sont surtout destinées aux créateurs de contenu et aux joueurs qui ont besoin de toutes les performances possibles. En fait, on peut dire que ce jour est déjà arrivé.

Il y a beaucoup de systèmes qui s’appuient sur les graphiques intégrés, et tous les ordinateurs portables qui sont sur le marché grand public semblent être uniquement des cartes graphiques intégrées.

Pour boucler la boucle, finalement : AMD et NVidia construisent des CPU dans les cartes graphiques, ou plutôt des cartes graphiques dans les CPU.

Lectures connexes:

  • Les processeurs de bureau AMD et INTEL de 2021 : quels processeurs sont les meilleurs ?
    Les processeurs de bureau AMD et INTEL de 2021 : quels…
  • Guide des meilleurs pads de refroidissement pour pc portable
    Guide des meilleurs pads de refroidissement pour pc portable
  • Les meilleurs moniteurs de jeu pour PS4 Pro et XBOX One X
    Les meilleurs moniteurs de jeu pour PS4 Pro et XBOX One X
  • Guide des meilleures alimentations pour pc
    Guide des meilleures alimentations pour pc
  • Xiaomi BHR4269GL écran Plat de PC 86,4 cm (34") 3440 x 1440 Pixels WQHD Noir BHR4269GL, (34"), 4 ms, Noir XM700001
    3440 x 1440 Pixels WQHD 86,4 cm (34")
    395,74 € 499,00 € -21%
  • Plan du site
  • Mentions légales
  • Nous contacter

GTXGamer fait partie du programme d'affiliation Amazon. Lorsque vous achetez par le biais de liens sur notre site, nous pouvons percevoir une commission d'affiliation. Certains liens vous redirigeront vers Amazon. Voir cette page

© 2023 GTX Gamer. Tous droits réservés.