Bit czy bajt? Wyjaśniamy kod binarny komputera!

Czym megabit różni się od megabajta? Jak mierzy się wydajność komputera? Dlaczego informatycy liczą na zerach i jedynkach, a nie na wszystkich cyfrach? Jak można liczyć na kwantach? Czy kod binarny to tajny szyfr? Odpowiadamy na wszystkie pytania, które dręczą użytkowników pecetów z całego świata!

Jak działa kod binarny?

Zacznijmy od tego, w jaki sposób działa procesor, czyli mózg każdego komputera stacjonarnego, smartfona czy tableta. Dokonuje on obliczeń, zamieniając wszelkie liczby i litery w ciągi zer i jedynek, które nazywamy kodem binarnym. Jedynka to przepływ prądu, zero to jego brak. Mając te dwie opcje, można je układać w rozmaite kombinacje. I tak kod binarny określa, że cyfra 2 dwa to 10, 3 to 11, a 4 to 100. Litera A to 01100001, B to 01100010, a C to 01100011 - i tak dalej.

Taka jedynka lub zero to najmniejsza porcja informacji, którą w informatyce nazywa się bitem. Osiem bitów zaś to bajt. System dwójkowy (binarny) dotyczy wszystkich aspektów funkcjonowania komputera. Dlatego też nie posługujemy się tutaj potęgami dziesiątki (jak w przypadku kilogramów czy metrów), a potęgami dwójki. Czyli przedrostek kilo nie oznacza tu 1000, a 1024. Tak samo mega nie oznacza przemnożenia przez milion, a przez 1048576 (1024x1024).

Liczba

Nazwa

210 bajtów = 1024 bajty

Kilobajt (kB)

220 bajtów = 1024x1024 bajty

Megabajt (MB)

230 bajtów = 1024x1024x1024 bajty

Gigabajt (GB)

240 bajtów = 1024x1024x1024x1024 bajty

Terabajt (TB)

Kod binarny to przyczyna wielu pomyłek, szczególnie wśród nabywców sprzętu elektronicznego oraz usług internetowych. Kupując dysk twardy, wiele osób interpretuje jego pojemność w tradycyjny, dziesiętny sposób, a trzeba wiedzieć, że np. jeden gigabajt to wcale nie miliard bajtów! Z kolei przy przeglądaniu ofert dostawców sieci spotykamy się z przepustowością łącza wyrażoną w mb/s. Konsumenci często nie zdają sobie sprawy, że w takim przypadku mamy do czynienia z megabitami - a nie megabajtami - na sekundę. A to ośmiokrotnie mniej! Należy pamiętać, że megabajt zapisuje się przy użyciu dużej litery B (MB).

Kod binarny a liczenie na kwantach

Na koniec ciekawostka z pogranicza nauki i science fiction. W wielu laboratoriach trwają intensywne prace nad stworzeniem w pełni funkcjonalnego komputera kwantowego, który opierałby się nie na klasycznej, newtonowskiej fizyce, a na mocno zagadkowej mechanice kwantowej. Jak już wspomniano na początku, procesor opiera się na kodzie binarnym i przeprowadza obliczenia przy pomocy zer i jedynek. W jednym czasie może liczyć na skończonej ich liczbie. Użycie kwantów znosi to ograniczenie - kwant może bowiem być zerem i jedynką jednocześnie! Jak to możliwe?

Weźmy na przykład elektron. W standardowych modelach atomu, obecnych w szkolnych podręcznikach, elektron okrąża jądro po pewnej orbicie - taki układ planeta-księżyc w wersji miniaturowej. Nie da się jednoznacznie określić pozycji danego elektronu, można jedynie wyodrębnić obszar, w którym występuje pewna szansa na jego pojawienie się. Zgodnie z mechaniką kwantową taki elektron, gdy nic nie zaburza układu (nie dokonuje się obserwacji), leci w każdym kierunku jednocześnie! Cała nadzieja w tym, że naukowcom uda się zbudować procesor kwantowy, w którym ta niezwykła właściwość malutkich cząsteczek zostanie zachowana.