Was ist ein Byte: Die kleinste Datenmenge erklärt


Wer das Byte verstehen will, muss sich dasBit anschauen. Denn selbst wenn das Byte die kleinste Datenmenge ist, sind Bits die Kieselsteine, aus denen sich Bytes zusammensetzen. Der Name „Bit“ leitet sich ab von binary information digit. Der Begriff wurde vom US-Mathematiker John W. Turkey in Umlauf gebracht. Der Pionier der modernen Informationstechnik Claude E. Shannon war es, der es 1948 in seiner Abhandlung „A Mathematical Theory of Communication“ etablierte. Aus diesem Grund gilt Shannon auch als „Vater des Bit“.

Als kleinste Informationseinheit in der digitalen Datenübertragung kann das Bit nur zwei Informationszustände abbilden: 1 oder 0. Da Computer nur zwei Zustände kennen und in Binärcode kommunizieren, ist das Bit die kleinste Unterscheidung, die ein Computer adressieren bzw. lesen kann.

1 Bit = 1 oder 0 („An/Wahr“ oder „Aus/Falsch“)

Bits selbst sind zu klein, um Zeichen abzubilden. Selbst die sogenannten Nibbles, die jeweils aus 4 Bit bestehen, sind keine brauchbare Datenmenge. Sie kommen vorrangig in 4-Bit-Computer-Architekturen und Datenprotokollen zum Einsatz.

Um Datenmengen und Speicherkapazitäten zu berechnen, braucht es Bytes als Maßeinheit für Datengrößen. Der IBM-Ingenieur Werner Buchholz war es, der 1956 den Begriff „Bit“ zu „Byte“ abwandelte, um die kleinste Datenmenge von der kleinsten Informationseinheit abzugrenzen.



Source link

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen