Désolé mais pour l'Imac suivant les modeles Il y a une carte video, je l'ai paye et sur la facture c'est bien indiqué, heureusement pour moi car si j'avais du changer la carte mere cela m'aurait coute beaucoup plus cher
D'autre part la qualite de l'ecran est fonction du chips ou de la carte et lié à lui : si le chips video n'est pas bon il n'est pas necessaire de mettre un ecran avec une resolution de ouf
Quand on parle de qualite de l'ecran en fait c'est le couple dont en parle
quel ecran est le meilleur pour la carte du MBP & moins cher :rolleyes:


: AMD Radeon HD 6770M
Bon, je n'ai pas encore ouvert tous les modèles d'iMac, mais s'il y a une chose dont je suis certain, c'est qu'aucun n'est doté d'une "carte" vidéo (c'est à dire une carte que tu enfiches dans un slot PCI, AGP ou PCI express), même si, par abus de langage, on parle de carte vidéo pour tous les ordinateurs. Par contre, il est possible que sur certains modèles, le chip vidéo soit monté sur support ZIF ou sur une carte fille avec un connecteur spécifique, ce qui permet de le changer sans changer toute la carte mère. Cela dit, ces modèles ne sont hélas pas la majorité, mais bien la rare exception, ainsi qu'en témoignent les deux iMac que j'ai encore envoyé au recyclage cette semaine et la semaine passée en raison de leurs chips vidéo H.S. impossibles à remplacer (du moins, sans équipement industriel) car soudés sur la carte mère.
Pour t'aider à préciser tes idées, une carte vidéo, c'est un équipement qui n'est pas fabriqué par le fabricant de l'ordinateur, mais par un fabricant tiers, qui se fournit chez NVidia ou ATI/AMD en chipsets vidéo, qu'il installe ensuite sur des cartes standardisées (PCI, PCI Express, AGP …

, les dites cartes pouvant être montées dans n'importe quel ordinateur (nonobstant les questions logicielles) pourvu d'un slot au même standard. Il n'existe de tels équipement sur Mac que dans une seule famille actuelle : les Mac Pro.
Par ailleurs, non, quand on parle de la qualité de l'écran, on ne parle que de la qualité de l'écran, le chip vidéo est toujours indépendant de l'écran, car il est situé sur l'ordinateur et non dans l'écran. Dans les Mac actuels (et tous ceux de ces dernières années), on trouve des chips vidéo capables d'animer tous les écrans du marché (et même ceux encore à venir). La qualité de l'écran, c'est la qualité de l'image, la qualité du chip vidéo, c'est la performance (la capacité à calculer un nombre plus ou moins grand d'images par secondes dans telle ou telle résolution), mais la performance n'a absolument aucune influence sur la qualité de l'image qui dépend uniquement de l'écran. même avec un mauvais chip vidéo, un bon écran affichera de bonnes images, il en affichera moins par seconde (du moins pour les images dynamiques, comme celles des jeux vidéo, par exemple, parce que pour le bureau du Mac ou la fenêtre d'Excel, ça ne changera rien), mais elles seront bonnes. à l'inverse, un mauvais écran avec un bon chip vidéo pourra afficher beaucoup de mauvaises images par secondes, mais bon ou mauvais chip vidéo, les images statiques (comme l'affichage du bureau ou d'un logiciel bureautique) seront identiques, et ne dépendront que de l'écran, parce que même les pires chips vidéo actuels ont une puissance largement surdimentionnée par rapport à celle nécessaire pour produire de tels affichages.
EDIT : Ah, au fait, tu parles de "résolution de ouf", alors il faut savoir que tous les Mac actuels supportent des résolutions qu'aucun écran du marché ne supporte encore, et aussi que qualité d'image et résolution sont deux critères différents, il est très possible, en comparant deux écrans, de trouver que celui qui à la "moins bonne résolution" affiche une image bien plus belle que celui qui a la "résolution de ouf", la qualité d'un écran, c'est une chose, sa résolution en est une autre, et mon 20 pouces, par exemple, affiche en 1680x1050 (16/10) des images d'une bien meilleure qualité que le 23 pouces (bon marché) de mon fils malgré ses 1920x1080 (16/9).
Et toujours de ce point de vue, un écran en 1920x1080, ça contient 2 073 600 pixels, donc la "carte" vidéo doit pouvoir calculer ce nombre de points en 24 ou 32 bits, soit calculer 6 220 800 octets d'info en 24 bits, ou 8 294 400 octets en 32 bits, et ceci 25 fois par secondes. Mon MBP, acheté en 2008, mais qui est un modèle de 2007 est équipé de la tristement célèbre NVidia 8600 GT qui doit remonter à 2006, je pense, eh bien, cette "vieille carte" est capable de calculer 25 fois par secondes les 3 060 000 pixels de mes deux écrans (j'utilise le bureau étendu, et en plus du 20 pouces, j'ai le 15 pouces du MBP qui affiche lui 1440x900), or, ce nombre de points correspond peu ou prou à une résolution globale de 2300x1300, qu'aucun des écrans du marché ne propose encore actuellement, et pourtant, ma "vieille carte vidéo" pourrait faire bien mieux encore !.