Passer au contenu

Bit

Unité élémentaire de l’informatique pouvant prendre les valeurs 0 ou 1

Le système de numération binaire est à la base de toute l’informatique et le ” bit ” est son unité fondamentale.C’est une contraction de l’anglais Binary digit (chiffre binaire) qui joue plaisamment sur les mots, puisque bit est aussi un mot anglais signifiant ” petit bout “, voire ” très petit bout “.Un bit ne peut prendre que deux valeurs, 0 ou 1. Il est donc nécessaire de les combiner pour obtenir une plage de valeurs distinctes suffisante pour définir un sous-système de codage.Différents codages sont nécessaires sur un ordinateur, celui des lettres, chiffres et signes typographiques, bien sûr, avec notamment le code Ascii ; mais aussi celui des codes de commandes du microprocesseur ou celui des adresses de stockage en mémoire.Les regroupements de bits utilisés pour cela ont en partie évolué avec les capacités des ordinateurs. Au départ, les bits ont généralement été regroupés par huit pour former un octet pouvant prendre 256 (2 puissance 8) valeurs.L’octet est toujours d’actualité aujourd’hui, pour des raisons historiques, mais les regroupements portent maintenant pour certains sur plusieurs octets (cas du nouveau code de caractères Unicode) ou sur un nombre de bits plus élevé, par exemple 32 bits, voire 64, pour définir toutes les adresses de mémoire vive dun ordinateur.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Lionel Lumbroso