Bit signifie chiffre binaire, qui est l’unité d’information de base. C’est la plus petite unité de données qu’un ordinateur peut stocker et traiter. Il est toujours dans l’un des deux états physiques.
C’est comme dans un interrupteur marche ou arrêt, comme off ou on, bas ou haut, ou encore vrai ou faux. Dès lors, cet état est représenté par une seule « valeur binaire », qui est généralement, soit 0 soit 1. Cela dit, cette valeur binaire représente chaque bit. Avec l’utilisation de condensateurs, les chiffres binaires sont conservés en mémoire. C’est parce que ces condensateurs retiennent les charges électriques. La charge détermine d’abord l’état de chaque bit. Puis, à son tour, en détermine la valeur.
Un bit est un acronyme, peut-on l’écrire en majuscules ?
En effet, le mot « BIT » est un parmi les nombreux acronymes. Mais comme pour la plupart d’entre eux, on peut très bien l’écrire dans les deux formes, soit en minuscules, soit en majuscules. Il n’y a en fait aucune exigence pour le terme. Chacun peut l’écrire tel qu’il veut, tant que ce « chacun » reste cohérent.
Focus sur l’histoire du bit
La première forme de bit est discrètement apparue dans les cartes perforées. C’était à travers l’utilisation des données de codage inventées par Jean-Baptiste Falcon et Basile Bouchon en 1732. Joseph Marie Jacquard l’a ensuite développé en 1804 avant que Charles Babbage, Semyon Korsakov, Hermann Hollerith et les initiateurs d’ordinateurs portables comme IBM l’adoptent.
Par ailleurs, le ruban de papier perforé était une autre variante du concept. Théoriquement, la carte ou la bande (support) transportait la collection des positions des trous dans tous ces systèmes. Toutes les positions pouvaient ou non être poinçonnées, transportant un bit d’information. Puis, en 1844, l’utilisation du codage du texte par bits a été réalisé en code Morse. En 1870 également, il a été utilisé dans les machines de communication numérique comme les téléscripteurs.
Ralph Hartley a ensuite suggéré une mesure logarithmique de l’information en 1928. Quant au mot « bit », c’est Claude E. Shannon qui l’a utilisé pour la première fois. C’était dans son article fondateur intitulé « A Mathematical Theory of Communication ». Il a ensuite attribué la base à John W. Tukey, qui était à son tour l’auteur de la note de service des Bell Labs rédigée le 9 janvier 1947 dans lequel il a contracté le chiffre d’information binaire.
En 1936, pour être stockées sur les cartes perforées, les « bribes d’information » ont été écrites par Vannevar Bush. À cette époque, les ordinateurs mécaniques utilisaient cette information.
Quel est le rapport entre le bit et l’octet ?
Les ordinateurs peuvent très bien tester et manipuler les données au niveau du bit. Cependant, presque la totalité des systèmes traitent et stockent ces données en octets. Un octet est une séquence de huit bits, c’est-à-dire qu’il se forme à l’aide de huit bits. Cependant, on traite ces derniers comme une seule unité. Alors, si on parle de trois octets par exemple, il s’agit plus précisément de 24 bits (3 x 8). De même, s’il venait à dire 12 octets, ce serait en fait 12 x 8 soit 96 bits.
En fait, pour un ordinateur, l’octet est l’unité de stockage la plus courante. Toutes les références à sa mémoire et à son stockage sont toujours exprimés en octets. Cela concerne également les fichiers, les disques et les bases de données. En guise d’exemple, on peut prendre le périphérique de stockage. Il peut être capable de stocker 1 Téraoctet (To) de données. Cela équivaut à 1 000 000 mégaoctets (Mo). Pour être plus concis, 1 Mo équivaut à 1 million d’octets, soit 8 millions de bits. Cela veut alors dire qu’un disque de 1 To peut stocker 8 000 milliards de bits de données.
Quelles sont toutes les formes existantes ?
Les quatre premiers chiffres binaires, aussi connus comme un demi-octet, s’appellent communément appelés « quartet ». Le terme quartet sert ainsi à pour désigner une unité de 4 bits. Autrefois c’était un terme couramment utilisé, mais ce n’est plus vraiment le cas aujourd’hui. Quant au terme « octet », ou l’unité à huit bits, un bon nombre d’ordinateurs l’emploient. Plusieurs d’entre eux se forment notamment par quatre octets, c’est-à-dire de 32 chiffres binaires. Cette longueur du système peut des fois être expliquée en demi-mot (16 bits de longueur) ou en mot complet (32 bits de longueur). Quant au terme mot, il est souvent utilisé pour décrire deux ou plusieurs octets consécutifs. Un mot peut en général posséder 16, 32 ou 64 bits.
Dans les télécommunications, le débit binaire est le nombre de chiffres binaires transmis dans une période de temps donnée. En général, ceci se fait sous forme de nombre de bits par seconde ou d’une dérivée comme des kilobits par seconde.
Dès lors, il existe de nombreuses autres formes utilisées pour représenter des chiffres binaires. C’est par exemple le cas de la tension électrique à travers les impulsions de courant ou l’état d’un circuit électronique à bascule. En fait, la plupart des dispositifs logiques représentent le chiffre binaire 0 comme une fausse valeur logique et 1 comme une vraie. La différence apparaît alors à travers les niveaux de tension. En gros, le chiffre binaire se pose non seulement comme la manière dont l’information est exprimée en informatique, mais également la manière dont elle est transmise. D’ailleurs, la puissance de traitement d’un ordinateur peut très bien être mesurée en termes de nombre de bits.
Le volet informatique
Peu d’instructions informatiques fonctionnent à l’aide de la manipulation de chiffres binaires. Certains ordinateurs proposaient des instructions de transferts avec de blocs de bits. Mais c’était dans les années 1980 où les ordinateurs bitmap ont commencé à gagner en popularité.
Il arrive qu’un chiffre binaire dans son octet soit mentionné dans la plupart des ordinateurs et des langages de programmation. Celui-ci est alors défini à l’aide d’un nombre à partir de 0 correspondant à sa position. Cependant, sur la base du contexte, 0 peut désigner celui qui est le plus ou le moins significatif.
Comment fonctionne un bit ?
Comme expliqué précédemment, chaque bit d’un octet se voit attribuer une valeur spécifique. Cette valeur s’appelle aussi une « valeur de position ». Toutes les valeurs de position d’un octet servent donc à déterminer la signification de l’octet dans tout son ensemble. Et ce, en fonction des chiffres binaires individuels. Autrement dit, les valeurs d’octet indiquent quel caractère s’associe à cet octet. Une valeur de position est attribuée à chaque chiffre binaire dans un modèle de droite à gauche. Cela commence par 1 et augmente au fur et à mesure en la doublant pour chaque chiffre binaire.
On associe les valeurs de position avec les valeurs de bit pour arriver à la signification globale de l’octet. Pour calculer cette valeur, les valeurs de position correspondantes à chaque bit « 1 » sont additionnées. Ce total correspond ainsi à un caractère du jeu de caractères applicable.
Un seul octet peut prendre en charge jusqu’à 256 caractères uniques, commençant par l’octet 00000000 et finissant par l’octet 11111111. Quant aux combinaisons de chiffres binaires, les diverses modèles peuvent fournir une plage de 0 à 255. Cela veut ainsi dire que chaque octet peut prendre en charge jusqu’à 256 modèles de bits uniques.
Quelques exemples à considérer
Prenons comme exemple le jeu de caractères ASCII (American Standard Code for Information Interchange). La lettre majuscule « S » se voit attribuer la valeur décimale de 83. Cette dernière équivaut à la valeur binaire de 01010011 qui est l’octet de « S ». Elle comprend quatre bits 1 et quatre bits 0. Lorsqu’on les additionne, les valeurs de position associées aux bits 1 totalisent 83. Ceci correspond alors à la valeur décimale attribuée au caractère « S » majuscule d’ASCII. Cela dit, les valeurs de position associées aux chiffres 0 ne s’ajoutent donc pas au total d’octets.
En outre, certains jeux de caractères utilisent plusieurs octets par caractère. C’est par exemple le cas des jeux de caractère de transformation Unicode. Ils utilisent entre 1 et 4 octets par caractère. Cependant, même malgré ces différences, tous les jeux de caractères se basent sur la convention de 8 bits par octet. Chaque bit étant soit à l’état 1 soit 0.
Le bit dans un processeur d’ordinateur
Les tous premiers ordinateurs de l’histoire pouvaient très bien fonctionner avec des processeurs à 16 bits. Ils s’armaient de nombres binaires 16 bits. Cependant, plus tard, on a introduit le processeur 32 bits. C’est parce que les travaux avec les nombres binaires 32 bits l’exigeait.
Et de nos jours, les ordinateurs s’équipent de 64 bits capables de fonctionner avec des nombres binaires 64 bits.
Le bit dans les couleurs
En effet, l’utilisation du terme « bit » dans les couleurs est très importante. En fait, 2 à la puissance du bit de couleur permet de calculer la profondeur de couleurs. Par exemple, une couleur 8 bits décrit 256 couleurs qui seraient 2^8 (2 à la puissance 8 bits).12
- Partager l'article :
Mon dieu, en plus d’être expliqué de la plus ennuyeuse manière qu’il soit, cet article est tellement mauvais! « Un bit c’est 1 ou 0 », c’est vrai que l’informatique quantique ce n’est pas d’actualité… « 0 c’est faux et 1 c’est vrai » oui, ça s’appelle le booléen et c’est juste important de la signaler dans ce genre d’article… Le quartet, son seul intérêt aujourd’hui n’a même pas été cité, autant ne pas en parler. Et écrire bit en majuscule ? Mais vous avez fumé quoi p***in?! bit et Byte (octet en anglais), s’écrivent l’un avec une minuscule et l’autre une majuscule pour les différencier quand on parle en Kb/s ou en KB/s. Et quitte à parler bit et octet, un petit mot sur le kibioctet et toute la clique qui va derrière n’aurait pas été de trop.
Va falloir aller un peu plus loin que Wikipédia avant de pondre des article pareil les gars.