Virginia Tech, des nouvelles...

NightWalker

world of muse
Modérateur
Club iGen
15 Septembre 2002
13 811
1 802
Bordeaux
On sait que le montage des xServe G5 de Virginia Tech a terminé depuis un moment, en revanche on a toujours pas de bench de leur nouvelle installation. Il semblerait que, selon USA Today le Department of Defense est en train de jouer avec. Et quand l'armée est là, pesonne ne peut y entrer. C'est la raison pour laquelle aucun bench n'a pu être effectué encore.

C'est encore une pub pour Apple...
 
  • J’aime
Réactions: TiteLine
MacBidouille nous apprend qu'il semblerait que Virginia Tech dispose d'un modèle spécial de XServe G5 :mouais:

Le plus puissant supercalculateur est à base de Power PC - Lionel - 16:10:07

IBM travaille depuis un bon moment au projet Blue Gene/L . C'est un supercalculateur, qui est progressivement monté par module. Selon le Top 500, il est quatrième. Mais IBM vient d'annoncer que dorénavant Blue Gene/L avait une capacité de calcul de 36.01 TFlops, surpassant le premier supercalculateur du monde, l'Earth Simulator qui ne fait "que" 35,86 TFlops.
Au-delà des chiffres, c'est un combat sans merci que se livrent les constructeurs pour avoir la palme de la puissance. Retenons juste que le plus puissant calculateur du monde a des processeurs Power PC, comme nos Mac.
 
C'est vrai que depuis que Apple "s'allie" au niveau de proc avec IBM le futur des machines pommées est plutôt rassurant. Power5 qui est déjà commercialisé, donc G6 est sûrement déjà encours d'échantillonnage. Freescale qui se porte de mieux en mieux....

Et le projet Bluegene en plus...
 
  • J’aime
Réactions: TiteLine
Sauf que le "Earth Simulator" à base de processeurs spécifiques vectoriels NEC, a un rendement exceptionnel, que ne sont pas prêt d'atteindre les machines à base de processeurs "standard". On tire plus de 50% de la puissance crête du Nec et en général que quelques % de la puissance crête des machines à base de processeurs "standard" (sur des applications réelles, naturellement)
Pour l'anecdote, il y a plus de 3000 km de cables dans le faux plancher du Earth Simulator que j'ai eu la chance de visiter pendant sa construction

Image 1

Image 2

Plus petites les images, la prochaine fois. J'ai édité. (Weboliver)


Pour se rendre compte, 3000 km ça va du nord du Japon à la pointe de la Corée :zen:
 
jaipatoukompri a dit:
Pour mieux se rendre compte ça fait aussi 15 000 fois le tour de ma maison ! :rolleyes: :love:
:modo: tu cherches tes clés? :hosto: :D

En redevant sérieux 3 secondes, l'esprit humain a beaucoup de mal à appréhender les "grands nombres" (les petits aussi d'ailleurs). Je me demande même si on est "cablé pour"...
Une anecdote: à une conférence "grand public" d'astrophysique, l'orateur annonce que d'ici une dizaine de milliards d'années, le soleil se sera dilaté et englobera la terre. Une personne terrorisée dans l'assemblée lui demande de répéter, et annonce soulagée après que l'orateur ait répété: ahhh, heureusement, j'avais compris 10 millions d'années

Vous y voyez vous une différence entre un million et un milliards d'années? je veux dire en termes "humains", et pas juste c'est mille fois plus.....
Qu'y aura-t-il au refurb AS dans un million d'années?
 
NightWalker a dit:
C'est encore une pub pour Apple...

La prochaine liste du Top500 sera dévoilée en novembre. Il sera peut-être question des clusters SystemX et Mach5 lors du keynote de MWSF, comme l'an dernier. Ce serait une bonne opportunité pour lancer un Xserve 2,3 GHz, un an après la sortie du Xserve G5.
 
Perfs du cluster VTech en novembre 2003
1 100 PowerMac dual 2 GHz (2 200 procs)
17,6 Tflops (Rpeak, puissance de calcul théorique)
10,28 Tflops (Rmax), "rendement" 58,48 %

Résultats relevés dans le Linpack Benchmark Report :

10 octobre 2004
1 024 Xserve dual 2,3 GHz (2 048 procs)
18,84 Tflops (Rpeak, puissance de calcul théorique)
10,93 Tflops réels (Rmax), "rendement" 58,14 %

13 octobre 2004
1 080 Xserve dual 2,3 GHz (2 160 procs)
19,87 Tflops (Rpeak, puissance de calcul théorique)
11,77 Tflops réels (Rmax), "rendement" 59,17 %

Avec 2 200 processeurs il devrait tutoyer les 12 Tflops.
 
Avec 20 XServes de plus en service et un peu plus d'optimisation, ils devraient dépasser les 12 TFlops...

Par contre, la bataille pour les trois premiers ça va être dure... classement de juin dernier.
 
  • J’aime
Réactions: TiteLine
En extrapolant à partir des résultats précédents j'arrive à 11,98 Tflops (Rmax) avec les 2 200 processeurs. Normalement le fait d'ajouter des processeurs fait chuter l'efficacité d'un cluster, mais ils ont peut-être quelques optimisations logicielles en réserve.

On peut trouver d'autres résultats dans le Linpack Benchmark Report. Le prototype DD2 de BlueGene/L (16 384 processeurs, 36,01 Tflops) et Earth Simulator (5 120 processeurs, Rmax de 35,8 Tflops) sont totalement hors d'atteinte, ainsi que le cluster Tiger4 (4 096 processeurs, 19,94 Tflops). ASCI Q (8 160 processeurs, 13,88 Tflops) devrait toujours devancer le cluster VTech, par contre le "petit" BlueGene/L (8 192 processeurs, 11,68 Tflops) vient d'être dépassé d'un cheveu.

D'autres machines devraient entrer au Top500, mais pas forcément dès la prochaine édition. Par exemple le cluster Colsa de 1 562 Xserve G5, qui a déjà son sujet, devrait atteindre 15 Tflops à peu près.

Par rapport aux autres supercalculateurs Earth Simulator est particulier, il ne s'agit pas d'un cluster. Sa puissance de calcul réelle approche vraiment de la puissance théorique (35,8/40,96 Tflops), ce qui lui a permis de garder la tête du Top500 depuis 2002.
 
Aujourd'hui, avec les 2 200 procs, le rendement s'est légèrement… amélioré. :eek:

VTech a gagné presque 2 Tflops (±14,5% de puissance de calcul), et beaucoup d'espace, en passant au Xserve. :up:

14 octobre 2004
1 100 Xserve dual 2,3 GHz (2 200 procs)
20,24 Tflops (Rpeak, puissance de calcul théorique)
12,05 Tflops réels (Rmax), "rendement" 59,52 %
 
MiniMe a dit:
Par rapport aux autres supercalculateurs Earth Simulator est particulier, il ne s'agit pas d'un cluster. Sa puissance de calcul réelle approche vraiment de la puissance théorique (35,8/40,96 Tflops), ce qui lui a permis de garder la tête du Top500 depuis 2002.
Je pense que Earth Simulator est un cluster!! dans la mesure où il est composé de 640 "noeuds de calcul" comportant chacun 8 processeurs partageant une mémoire commune de 16 GB (pour un total de mémoire de 10 TB). Les 640 noeuds sont interconnectés par un crossbar de 2x12.3GB/s

La différence fondamentale de cette machine par rapport à l'ensemble des autres est qu'elle utilise des processeurs dédiés (et donc très coûteux) vectoriels (lecture-écriture et opérations flottantes "simutanées" dans des registres dédiés) développés par NEC.
Du point de vue développement d'applications scientifiques, ces processeurs ont la particularité d'atteindre des performances proches du max théorique sans "torture" du développeur (tant que l'on reste sur un noeud)

Ce type de processeur, qui a été inventé par CRAY dans les années 70-80 et qui a conduit aux machines les plus puissantes de cette époque, a été ensuite abandonné dans les années 90 par les constructeurs américains (Seymour CRAY a perdu du temps en explorant et mettant au point les technologie Arseniure de Gallium, et CRAY changeant ensuite à de multiples reprises de propriétaire) pour investiguer les machines "massivement parallèles" basés sur des processeurs "du commerce".
Mais Fujitsu et Nec ont continué ce type de machines dans les années 90. Puis Fujitsu l'a abandonné il y a quelques années. NEC, soutenu par le gouvernement japonais, a persévéré et a déveleloppé ce qui a été appelé le COMPUTENIK aus Etats Unis, en référence à Spoutnik qui a "réveillé" les Etats Unis dans les années 60 pour la conquête spatiale.

En réaction, CRAY, entre temps passé des mains de SGI à celles de TERA, a redéveloppé un processeur vectoriel et une machine nommée X1 mais... est le distributeur américain du ... NEC SX6 ("presque" la machine du Earth Simulator), mais uniquement pour des applications civiles, le gouvernement Japonais interdisant l'exportation de ses supercalculateurs pour toute application de défense... voir le subptile "civilian government research applications" sur www.cray.com/products/sx6/index.html

Il est remarquable de voir que 2 ans après sa sortie, cette machine est toujours (et de très loin) la machine la plus puissante du monde, et sur des vraies applications.
 
Question de beotien ;)
et qui s'en sert a cette université ? et pour faire quoi ?, enfin je veux dire pourquoi ont i s besoin de toute cette puissance ?
 
Attends avec 2500 fiches d'étudiants avec des photos d'identités à 300 dpi, faut bien un cluster comme ça :D

Ou alors ils veulent être sûr de pouvoir jouer à DOOM 3 ?
 
naas a dit:
Question de beotien ;)
et qui s'en sert a cette université ? et pour faire quoi ?, enfin je veux dire pourquoi ont i s besoin de toute cette puissance ?
http://www.es.jamstec.go.jp/

Les besoins en calcul scientifique sont INFINIS!!!! (vu des performances d'aujourd'hui)
Ce centre de calcul est dédié aux sciences de la terre (d'où son nom de Earth Simulator):
- climatologie: étude de l'évolution du climat, effet de serre (... accord de... Kyoto!), niveau des océans, couplage océans-atmosphère...
- Techtonique (vulcanologie, Tsunami,...)
- Simulation de "l'environnement"
- ....

Le Japon est très "sensible" sur ces sujets.

C'est aussi une réponse "politique" aux USA qui ont lancé un grand programme de Calcul Scientifique (ASCI= Advanced Strategic Computing Initiative) pour des applications de Défense. D'où la dénomination de COMPUTENIK aux USA pour Earth Simulator. Les USA avait l'ambition d'être les seuls au monde à disposer de puissance de calcul gigantesque. Le Japon a fait à la fois une réponse technique ET politique.

La puissance de calcul peut être utilisée de deux manières:
- en "taille du plus gros calcul possible"
- en nombre de calculs

La simulation numérique consiste à résoudre sur ordinateur des "équations physiques" qui représentent un phénomène donné (écoulement d'un fluide par exemple http://www.onera.fr/cahierdelabo/french/simul_ind02.htm)
La recherche d'une plus grande précision, de prise en compte de plus de phénomènes (négligés dans des simulations plus rudimentaires), le couplage de phénomènes (par exemple "le bruit dans l'habitacle d'un véhicule provenant de sources aérodynamiques") demandent des puissances de calcul en croissance exponentielle.....

Par ailleurs, le calcul est de plus en plus utilisé dans l'industrie "à la place" de maquettes/prototypes/essais, ou a minima, en diminue le nombre. Et malgré le coût des ordinateurs, des logiciels et des ingénieurs qui mènent ces études numériques, cette démarche est à la fois moins coûteuse, mais aussi permet de meilleurs conceptions.

C'est ainsi qu'Airbus, avec l'A330 et A340 a gagné le pari (très risqué au moment où il a été fait puisque c'était une première) de concevoir un profile d'aile capable d'accueillir 1 ou 2 réacteurs en recourant massivement à la Simulation, concevant ainsi deux avions pour (à la louche) le coût d'un seul, et prenant le leadership sur Boeing.
 
  • J’aime
Réactions: NightWalker
TNK a dit:
Je pense que Earth Simulator est un cluster!!

Le terme cluster est souvent utilisé pour désigner des grappes d'ordinateurs personnels ou de petits serveurs avec processeurs x86, ou maintenant PowerPC, par opposition à de gros systèmes plus onéreux. J'ai du mal à me faire à l'idée qu'un gros monstre vectoriel puisse être désigné de la même manière, mais je vais m'y faire. :D

Toujours à propos de NEC :

Leur réaction à l'annonce des performances de Blue Gene/L : « Vous devriez vous rappeler que Earth Simulator a un pique de performance à 40 teraflops, mais que ses performances opérationnelles sont de 90% de cela, juste en dessous des 36 teraflops. La machine d'IBM n'est pas si efficace ! »

Même si elles sont plus efficaces on trouve de moins en moins de machines vectorielles au Top500, sans doute en raison des coûts. Elles ne représentaient plus que 5% de la liste en juin 2004 (contre 19,4% en juin 98). Malgré tout un nouveau supercalculateur NEC (512 noeuds SX8) devrait entrer en service, et au Top500, en mai prochain.

Dernières nouvelles du Linpack Benchmark Report, le cluster VTech atteint maintenant 12,25 Tflops. :eek:
 
MiniMe a dit:
Le terme cluster est souvent utilisé pour désigner des grappes d'ordinateurs personnels ou de petits serveurs avec processeurs x86, ou maintenant PowerPC, par opposition à de gros systèmes plus onéreux. J'ai du mal à me faire à l'idée qu'un gros monstre vectoriel puisse être désigné de la même manière, mais je vais m'y faire. :D
Je crois qu'à partir du moment où on peut faire acheter et exploiter "1 seul noeud" et que l'on interconnecte (certes pas par de l'ethernet :) ) un certains nombre de ces noeuds, on peut parler de cluster, même si le prix du processeur est aux alentours des 150k¤ ;) Pourquoi inventer un nouveau mot pour ces machines (dans le temps opn parlait de MPVP Massively Parallel Vector Processing)

MiniMe a dit:
Toujours à propos de NEC :

Leur réaction à l'annonce des performances de Blue Gene/L : « Vous devriez vous rappeler que Earth Simulator a un pique de performance à 40 teraflops, mais que ses performances opérationnelles sont de 90% de cela, juste en dessous des 36 teraflops. La machine d'IBM n'est pas si efficace ! »

Même si elles sont plus efficaces on trouve de moins en moins de machines vectorielles au Top500, sans doute en raison des coûts. Elles ne représentaient plus que 5% de la liste en juin 2004 (contre 19,4% en juin 98). Malgré tout un nouveau supercalculateur NEC (512 noeuds SX8) devrait entrer en service, et au Top500, en mai prochain.
Oui, il y a plusieurs raisons à cela, et pas que le "coût global":
- Il n'y a à ma connaissance plus que 2 offres, CRAY et NEC
- Ce sont les USA qui achètent le plus de supercalculateurs et NEC... n'est pas américain...
- Le prix du Tflops crête est beaucoup plus cher en vectoriel, même si le Tflops crête n'est qu'un argument marketing (qui commence à faiblir d'ailleurs), des études simples, mais que personne ne semble vouloir "sortir", montrent que le prix du Tflops efficace est à peu près équivalent en vectoriel et "scalaire"
- Lors de la "parallélisation" des codes de calcul pour passer sur les clusters scalaires dans les années 90, la vectorisation des parties locales de code a été "oubliée" (à cette époque beaucoup de gourous pensaient que le vectoriel était mort pour longtemps), ce qui fait que les "nouveaux" codes de calcul parallèles n'offrent plus de bonnes performances "sur le noeud", sauf pour ceux qui ont pris la précaution et fait l'investissement de continuer à "vectoriser en local" leur codes de calcul parallèles (ce qui donne en plus de meilleurs performances sur les processeurs super scalaires...)