Mac Pro 2013 : Vos pronostics !

Apple n'aurais pas marqué Vram s'ils avaient de la GDDR5, ils se serait fait plaisir à le souligné en gros et de dire "6 GO de GDDR5" , surtout si c'est par GPU ( ca on ne sait pas). Mais ce dont je suis sur c'est que si les fabriquant de Carte et je parle bien du gros machin de 20cm qui se place SUR une carte mère en pic-e galèrent pour refroidir leur produits c'est pas du générique ATI soudé qui va se retrouver soudé à la CM sans concessions. Donc c'est pour ca que j'appuie en parlant de puce mobile car ils ont besoin d'une basse consommation et forcément les unités de calculs seront moindre que dans une vraie CG. Et ce dont je suis sûr aussi c'est qu'une carte graphique ca se change et pas une puce. Donc dans 2 ans le mac pro de 2013 sera périmé là ou dans les anciens je pouvais mettre n'importe quelle carte.

Quelques petites choses :

1) Apple n'a jamais divulgué avant leur commercialisation les caractéristiques techniques précises de ses produits (ce qui leur permet de les changer à tout moment, en fonction des opportunités), donc, je ne vois aucune raison pour qu'ils l'aient fait cette fois ci, donc, on sait juste que ces GPU bénéficieront de mémoire dédiée, point ! On ignore tout de la nature de cette mémoire !

2) Contrairement à ce que tu pense, qu'il soit sur carte fille ou sur carte mère, un GPU, c'est un GPU, et le fait qu'il soit sur carte mère n'implique pas qu'il s'agisse d'une puce "au rabais", les usines à gaz de refroidissement que les fabricants de cartes mettent sur celles ci tiennent justa au fait qu'elles ne peuvent pas bénéficier du système plus élaboré de refroidissement de la carte mère et de ses composants, puisque "non prévu" par le constructeur (de l'ordi), et sont susceptibles d'être montées dans des tours (de PC) au système de refroidissement général plus qu'approximatif.

3) Rien ne dit que le Mac sera périmé aussi vite que tu le prétends, parce que si j'ai bien vu, les GPU ne sont pas directement sur la carte mère, contrairement à ce que tu prétends, mais bien sur une carte distincte (et située à 90° par rapport à la carte mère), donc, que la mise à jour dépende uniquement d'Apple, ça ne fait aucun doute, mais ça ne signifie pas forcément qu'elle ne soit pas possible.

4) De toute façon, au bout de trois ans, c'est tout l'ordi, qui est obsolète, et les pros qui ont besoin de la puissance de cette machine aujourd'hui, dans trois ans, c'est pas juste le GPU, qu'ils voudront changer, c'est toute la machine, parce qu'il ne leur viendrait pas à l'idée de mettre un GPU "up to date" sur un ordi équipé d'un CPU hors d'âge ! Si, dans les entreprises, les ordinateurs s'amortissent comptablement sur trois ans, ça n'est pas du au hasard !

EDIT : je confirme, il s'agit bien de deux cartes graphiques séparées, même s'il s'agit à l'évidence de cartes spécifiques que seul Apple pourra fournir !
 
Dernière édition:
Je prends le post en cours d'slé je n'ai pas tout lu, bref ..., je suis stupéfait par l'ingéniosité de ce nouveau macpro, il est génial, si j'avais les moyens, je m'en prendrai un à la maison connecté à deux écran full hd (le rêve)

Sinon, si les pros et société avaient le courage de switcher (voir coût aussi) je pense qu'il pourrait faire un carton car énormément de possibilité qu'offre cette configuration d'ordi, n'en déplaise à certains, je pense qu'Apple a fait un coup de maître sur ce coup, l'avenir nous le dira, mais chapeau bas à Cupernito. :up:

J'ai hâte d'aller le voir à l'AppleStore d'à côté de chez moi.

;)
 
C'est marrant que tu dises ça parce que perso je pense que cette machine va effectivement aider à switcher quelques personnes, mais pas vraiment vers vers le Mac ... :casse:
 
Comme quoi, les avis peuvent être différent ;) , seul l'avenir nous le dira, et surtout le prix de base
de l'uc avec cartes graphiques, mais séduit comme même par le concept (d'slé de te décevoir :D)
 
Donc personne ne connaît donc la différence entre ça:
et ça:
Mais si, mais si !
La 1ère est la photo d'une carte graphique.
La seconde est la photo du GPU d'une carte graphique vieille de près de 10 ans...



C'est marrant quand dès qu'on essais d'expliquer le moindre truc technique la contestation et la mauvaise foie se fait entendre.
N'essaye pas de faire ton Caliméro, ça ne prend pas.
Nous contestons tes affirmations parce qu'elles ne sont pas crédibles, c'est tout.
Et si tu as des problèmes de foie, il faut consulter un médecin.



Si tu ne sait pas lire j'y peu rien. Apple n'aurais pas marqué Vram s'ils avaient de la GDDR5, ils se serait fait plaisir à le souligné en gros et de dire "6 GO de GDDR5" , surtout si c'est par GPU ( ca on ne sait pas).
Tu confonds plaquette publicitaire avec spécifications finales.
Est ce que l'on connait les modèles de Xeon E5 qui seront utilisés ? NON
Est ce que l'on connait les fréquences de fonctionnement du CPU ? NON
Est ce que l'on connait le modèle exact de GPU FirePro ? NON
Il n'y a rien d'étonnant à ne pas connaitre le type de GDDR qui sera utilisé.


Et ce dont je suis sûr aussi c'est qu'une carte graphique ca se change et pas une puce.
Comment se fait-il que tout le monde voit 2 cartes GPU et une carte CPU là où toi tu ne vois qu'une seule et unique carte mère ?
Chacune des 3 cartes pourra être changée individuellement.
Le design étant propriétaire, il n'y aura pas de possibilité d'évolution, sauf si Apple le décide.
 
En fait Jellyboy74 ne connait pas ce qu'il y a sous le ventilateur de sa carte graphique.

 
  • J’aime
Réactions: Siciliano
Et bah les amis , en effet je me suis buté à confondre la carte mère et les 2 carte Graphique car j'ai pas fait attention à l'animation qui retourne la bête et qui effectivement montre bien deux ensemble de cartes!

My god je sais pas ou me foutre tellement j'ai honte de moi là!

Mais bon comme je suis bon joueur et que je sais reconnaître ma connerie je m'excuse platement.

Faut dire qu'elles sont fichtrement bien intégrés les coquines!

Bref il y a quand même un truc sur lequel je ferait ma tête de mule c'est la Vram! :up:
 
  • J’aime
Réactions: iluro_64
Et bah les amis , en effet je me suis buté à confondre la carte mère et les 2 carte Graphique car j'ai pas fait attention à l'animation qui retourne la bête et qui effectivement montre bien deux ensemble de cartes!

My god je sais pas ou me foutre tellement j'ai honte de moi là!

Mais bon comme je suis bon joueur et que je sais reconnaître ma connerie je m'excuse platement.

Faut dire qu'elles sont fichtrement bien intégrés les coquines!

Bref il y a quand même un truc sur lequel je ferait ma tête de mule c'est la Vram! :up:

Il y a un dicton que j'aime beaucoup : "tourne sept fois ta langue dans ta bouche avant de dire n'importe quoi", dont j'ai une interprétation personnelle : "vérifie toujours ce que tu vas dire avant de le dire" ;)
 
Il y a un dicton que j'aime beaucoup : "tourne sept fois ta langue dans ta bouche avant de dire n'importe quoi", dont j'ai une interprétation personnelle : "vérifie toujours ce que tu vas dire avant de le dire" ;)

Ah m... Va plus y avoir grand monde pour discuter sur les forums !:siffle:
 
Personnellement j'ai cru à une blague ou à une partie de l'ordi en voyant la première image. Et puis je suis rentré sur la page d'Apple. Et là......

Je ne sais pas trop quoi penser. Je n'ai pas encore regarder les caractéristiques techniques de l'engin. Enfin bon, le jour où je devrais utiliser un Mac Pro n'est pas encore arrivé. C'est surtout le design sur lequel je bloque.

J'hésite entre "Marrant, ça change, c'est petit, ça prend pas trop de place" ou "C'est quoi ce putain de coup de commerce ?!"

Qu'en pensez-vous ? Est-ce que ce changement est vraiment utile, beau, ou alors Apple aurait-il dut s'abstenir ?
 
Ah m... Va plus y avoir grand monde pour discuter sur les forums !:siffle:

Évidemment, si tu considères que sur les forums on peut raconter tout et son contraire :D :D :D
 
Personnellement j'ai cru à une blague ou à une partie de l'ordi en voyant la première image. Et puis je suis rentré sur la page d'Apple. Et là......

Je ne sais pas trop quoi penser. Je n'ai pas encore regarder les caractéristiques techniques de l'engin. Enfin bon, le jour où je devrais utiliser un Mac Pro n'est pas encore arrivé. C'est surtout le design sur lequel je bloque.

J'hésite entre "Marrant, ça change, c'est petit, ça prend pas trop de place" ou "C'est quoi ce putain de coup de commerce ?!"

Qu'en pensez-vous ? Est-ce que ce changement est vraiment utile, beau, ou alors Apple aurait-il dut s'abstenir ?

Dans sa présentation, Apple indique que la solution choisie est celle qui permet de concentrer autant de puissance dans un si faible encombrement, avec un seul ventilateur dont les pales ont un dessin très étudié afin d'obtenir le meilleur flux d'air possible pour le moins de bruite possible.
Il faut peut-être prendre en considération cette argumentation :)
 
D'autant plus que certains studio on jusqu'a 30 mac pro alignés... donc plus petit, moins de bruit , moins de chaleurs je pense que c'est une demande direct à apple. Par contre l'acheteur passioné comme moi a de bonne raisons de tirer la tronche et de garder son modèle 2010!
 
Bref il y a quand même un truc sur lequel je ferait ma tête de mule c'est la Vram! :up:
Tu ne devrais pas, tu vas être déçu (ou ravi d'apprendre que tu t'es gaufré, au choix...).
Jamais, jamais, jamais Apple n'a partagé la VRAM sur ses modèles pro.
Je ne les vois pas commencer aujourd'hui alors qu'ils mettent 2 cartes graphiques par défaut et qu'elles sont là pour OpenCL, c'est à dire bien plus que du simple affichage à l'écran.

Verdict certainement en Septembre.
 
Tu ne devrais pas, tu vas être déçu (ou ravi d'apprendre que tu t'es gaufré, au choix...).
Jamais, jamais, jamais Apple n'a partagé la VRAM sur ses modèles pro.
Je ne les vois pas commencer aujourd'hui alors qu'ils mettent 2 cartes graphiques par défaut et qu'elles sont là pour OpenCL, c'est à dire bien plus que du simple affichage à l'écran.

Verdict certainement en Septembre.

Et dieu sait comme je prie pour que tu ai raison!

Ce qui m'inquiète c'est le terme VRAM et le "jusqu'à 6GO" car pour faire rapide ( peut être que tu sais ou pas ) la Vram fonctionne en 2 temps, ou plutôt deux modules. L'un stock directement les données vidéo et l'autre est censé puiser dans la Dram pour subvenir aux éventuelles besoins.

Maintenant ont est d'accord, si on as 3 Gigas de GDDR5 par module et que ceux ci peuvent puiser dans la Dram pour envoyer du lourd, c'est déjà très bon. Mais si ils nous mettent 6 GO de GDDR5 alloués à chaque cartes alors là c'est champagne.