On va être obligé de faire des maths et de l'histoire. Corrigez-moi si j'm'a gourré.
L'information est codée en
binaire depuis les premiers calculateurs, comme ceux de l'ingénieur
Konrad Zuse (
ici un Z3, au design futuriste
), dont les composants mécaniques peuvent prendre deux positions (d'où le choix du binaire avec ses deux valeurs 0 et 1 ?).
Le bit est la plus petite unité d'information, de valeur 0 ou 1. Une série de 8 bits (= 1 octet) peut prendre des valeurs comprises entre 00000000 en mode binaire (en base 2), donc 0 en mode décimal (en base 10) et 11111111 en mode binaire, donc 255 en mode décimal.
Pourquoi est-on passé à l'octet, une série de 8 bits ? Sans doute parce que c'est suffisant pour coder du texte (code ASCII étendu à 256 caractères) avec seulement des 0 et des 1.
Pourquoi passer de 8, à 16, puis 32,
et même 64 bits ? Parce que cela permet de manipuler plus facilement des nombres de plus en plus complexes (nombres entiers, décimaux, fractions), de gérer plus de mémoire ram, etc.
En travaillant sur 8 bits avec un Apple IIe on dispose de 256 nombres (2 puissance 8), qui vont de 0 à 255 (exprimé en base 10).
En travaillant sur 16 bits on dispose de 65 536 nombres (2 puissance 16), qui vont de 0 à 65 535, on peut gérer jusqu'à 2 puissance 16 = 64 Ko de mémoire.
En travaillant sur 32 bits -> on traite des nombres jusqu'à 4 294 967 295 (2 puissance 32), et on peut utiliser environ 4 Go de mémoire.
En travaillant sur 64 bits -> on traite des nombres jusqu'à 1,8446744074e19 (2 puissance 64), et on peut utiliser une telle quantité de mémoire qu'on est peinards pour un moment.