Pourquoi, en langage informatique, on utilise des 0 et des 1 ?
Parce que c'est un système simple, qui limite les erreurs. Un “ chiffre informatique ”, appelé bit (pour BInary digiT), ne peut prendre que deux valeurs : 0 et 1. Ce que l'on peut traduire par deux “ états ” : ouvert/fermé, oui/non, vrai/faux.Dans un ordinateur, qui fonctionne avec de l'électricité, les 0 et les 1 sont déterminés par la présence ou non d'un courant. Comme seules deux valeurs sont possibles, on parle de code binaire. Il peut, bien sûr, y avoir des erreurs de transmission : un 0 peut être pris pour un 1, par exemple, et vice versa. Mais il existe des techniques perfectionnées qui permettent de repérer et de corriger de telles erreurs, en ajoutant par exemple des bits de contrôle qui donneront le nombre de 0 et de 1 contenus dans les informations échangées.L'utilisation du code binaire en informatique est l'aboutissement d'une évolution technologique en plusieurs étapes. Dans la deuxième partie du XIXe siècle, George Boole, philosophe et mathématicien anglais épris de logique, travaille sur la compréhension des mécanismes du langage. Il réussit à les traduire sous la forme de symboles mathématiques : il élabore une algèbre binaire, n'acceptant que vrai et faux comme valeurs, et trois fonctions logiques (Et, Ou, Non), suffisantes pour retracer la démarche de la pensée. La publication de ses travaux en 1854 lui confère la renommée, mais il s'agit uniquement d'une recherche théorique.
Votre opinion