8, 16, 32, et 64 bits...

Jimmy MAIZEROI

Membre actif
26 Novembre 2001
450
0
48
Saint-Denis, 93
perso.wanadoo.fr
Bonjour tout le monde,

Apple sort pour les particuliers comme pour les professionnels le premier ordinateur au monde 64 bits et c'est génial... mais ça veut dire quoi au juste 64 bits ?
Du 8 bits au 64 bits ? Quoi de plus ? De mieux ?
Et mon iMac G3 DV SE 500 Mhz, c'est un 32 bits j'imagine ?
Quoi faire pour le passer en 64 bits ? ;-)

Merci,

iMacalement,

Jimmy.
 
64 bit c'est la taille du bus plus il est grand plus il va traité de donné en parraléle donc c'est une méthode pour calculé plus vite quand les vitesse de pros commence a posé des probléme;
l'on ne peut rien faire sur les vielle machine pour passé en 64 bit depuis un 32 bit.
a+
 
Merci pour cette réponse mais pourquoi 8, 16, 32 et 64 bits ?
Pourquoi cette progression de 8 en 8 ? Que représente 8 bits ?
J'imagine ce que donnerait un ordi ou une console 128 bits... :)

Merci beaucoup,

iMacalement,

Jimmy.
 
On va être obligé de faire des maths et de l'histoire. Corrigez-moi si j'm'a gourré.
laugh.gif


L'information est codée en binaire depuis les premiers calculateurs, comme ceux de l'ingénieur Konrad Zuse (ici un Z3, au design futuriste
tongue.gif
), dont les composants mécaniques peuvent prendre deux positions (d'où le choix du binaire avec ses deux valeurs 0 et 1 ?).

Le bit est la plus petite unité d'information, de valeur 0 ou 1. Une série de 8 bits (= 1 octet) peut prendre des valeurs comprises entre 00000000 en mode binaire (en base 2), donc 0 en mode décimal (en base 10) et 11111111 en mode binaire, donc 255 en mode décimal.

Pourquoi est-on passé à l'octet, une série de 8 bits ? Sans doute parce que c'est suffisant pour coder du texte (code ASCII étendu à 256 caractères) avec seulement des 0 et des 1.

Pourquoi passer de 8, à 16, puis 32, et même 64 bits ? Parce que cela permet de manipuler plus facilement des nombres de plus en plus complexes (nombres entiers, décimaux, fractions), de gérer plus de mémoire ram, etc.

En travaillant sur 8 bits avec un Apple IIe on dispose de 256 nombres (2 puissance 8), qui vont de 0 à 255 (exprimé en base 10).

En travaillant sur 16 bits on dispose de 65 536 nombres (2 puissance 16), qui vont de 0 à 65 535, on peut gérer jusqu'à 2 puissance 16 = 64 Ko de mémoire.

En travaillant sur 32 bits -> on traite des nombres jusqu'à 4 294 967 295 (2 puissance 32), et on peut utiliser environ 4 Go de mémoire.

En travaillant sur 64 bits -> on traite des nombres jusqu'à 1,8446744074e19 (2 puissance 64), et on peut utiliser une telle quantité de mémoire qu'on est peinards pour un moment.
 
jimmy.maizeroi a dit:
Apple sort pour les particuliers comme pour les professionnels le premier ordinateur au monde 64 bits
Pas tout à fait. C'est le premier ordinateur 64bits personnel c'est à dire pour le grand public. Des ordis 64 bits, ça existe depuis belle lurette pour les professionels justement...

Haaa, la publicité.... (ou l'art de faire prendre des vessies pour des lanternes).
 
Bonjour,

Je vais peut-être donner un exemple simpliste mais qui correspondra à l'explication :

Avec une petite calculatrice que nous donne les banques par exemple. Si on fais l'addition suivante :
999999999
+ 999999999

On obtient souvent un message d'erreur.
Ou alors, lors d'un calcul avec des exposants par exemple (des puissance de 10).
Parce que la calculatrice n'a pas suffisament de bits (si je puis m'exprimer ainsi :-I) pour calculer cette addition.
Aurais-je bien tout compris ?

Merci,

iMacalement,

Jimmy.
 
non, ça dépend du logiciel de la machine...
exemple sur PC :

mathematica n'a pas de limite overflow : tu peux faire 1000 000!, tu auras un chiffre avec plusieurs centaines d'exposants, mais pas d'overflow.

par contre sur matlab, qui fait un calcul approché (comme sur la plupart des calculette) il y a un overflow, mais il est assez loin (10^309 si ma mémoire est bonne)