Il termine "bit" fu coniato nel 1948 da Claude Shannon, matematico e ingegnere elettrico considerato il padre della teoria dell'informazione. Shannon usò il termine "bit" come abbreviazione di "cifra binaria", un concetto introdotto dal matematico John Atanasoff nel 1937.
I bit vengono utilizzati per misurare la quantità di dati che possono essere archiviati o trasmessi su un canale di comunicazione digitale. Ad esempio, un tipico segnale televisivo ad alta definizione (HD) richiede una larghezza di banda di circa 10 megabit al secondo (Mbps), il che significa che ogni secondo vengono trasmessi 10 milioni di bit di dati.
I dati possono anche essere misurati in unità di byte, kilobyte (1.024 byte), megabyte (1.048.576 byte) e gigabyte (1.073.741.824 byte). Di seguito una tabella riepilogativa delle diverse unità di misura dei dati:
| Unità | Numero di bit |
|---|---|
| Un po' | 1|
| Byte | 8|
| Kilobit (Kb) | 1.024 |
| Megabit (Mb) | 1.048.576|
| Gigabit (Gb) | 1.073.741.824 |
| Kilobyte (KB) | 8.192 |
| Megabyte (MB) | 8.388.608 |
| Gigabyte (GB) | 8.589.934.592|
Queste unità di misura dei dati sono comunemente utilizzate nell'informatica e nelle telecomunicazioni per descrivere la dimensione dei file, la velocità dei trasferimenti di dati e la quantità di spazio di archiviazione disponibile su un dispositivo.
software © www.354353.com