Od kilku dekad obserwujemy imponujący postęp w dziedzinie technologii informatycznych. Komputerystają się coraz potężniejsze - sprzęt, który kosztował krocie parę lat temu i odznaczał się parametrami z najwyższej półki, dziś ledwo kwalifikuje się do klasy średniej. Produkuje się smartfony o mocy zbliżonej do pecetów sprzed 5-6 lat. Szybkie chipy pojawiają się już nawet w zegarkach. To wszystko jest imponujące - ktoś jednak musi zadać to pytanie: kiedy dojdziemy do granicy rozwoju? Czy jesteśmy coraz bliżej uderzenia w “technologiczny sufit”? Jak będą wyglądać komputery przyszłości?
Komputery - granica możliwości
W latach sześćdziesiątych Gordon Moore, współzałożyciel firmy Intel, wymyślił prawo, według którego liczba tranzystorów w ówczesnych układach co roku się podwaja. Zasada ta została później zmodyfikowana - obecnie mówi się o podwajaniu mocy procesorów co dwa lata. Empiria pokazała, że prawo Moore’a sprawdza się niemal idealnie - zaobserwować może to każdy, kto co kilka lat dokonuje ulepszenia swojego sprzętu komputerowego. Głównym czynnikiem napędzającym rozwój jest miniaturyzacja - udaje się upychać więcej tranzystorów na mniejszej powierzchni. Możliwości krzemu - głównego materiału, z jakiego wykonuje się chipy - powoli się wyczerpują. Dlatego od kilku lat stosuje się inne podejście w śrubowaniu osiągów procesorów. Dziś mniejsze znaczenie ma taktowanie podzespołu, wyrażone w gigahercach (GHz) - ostatnie soki z krzemu wyciska się, stosując kilka rdzeni zintegrowanych w jednym układzie, które często mogą wykonywać jednocześnie dwa zadania (wątki).
Przy zastosowaniach naukowych korzysta się z tzw. superkomputerów, czyli gigantycznych maszyn zajmujących całe pokoje i potrzebujących tyle energii elektrycznej, co małe miasta. Imponujące szybkości obliczeniowe - obecnie najwydajniejszym superkomputerem jest chiński Tianhe-2 o mocy prawie 34 PFLOPS - osiąga się scalając ze sobą setki, a nawet tysiące pojedynczych układów. Niemal co roku dochodzi do zmiany lidera w rankingu TOP500, w którym klasyfikowane są najszybsze monstra obliczeniowe świata. Każdy kolejny potwór jest większy od poprzedniego i pobiera więcej elektryczności - znów pojawia się więc pytanie: gdzie jest bariera rozwoju? A nawet gdyby zwiększanie wydajności superkomputerów było kontynuowane w ten sposób bez przeszkód - czy jest to w ogóle opłacalne? Co mogą nam dać komputery przyszłości?
Komputery przyszłości, czyli kwantowe
Jednym z kierunków alternatywnego wobec klasycznych krzemowych układów rozwoju jest technologia kwantowa, która obecnie znajduje się jeszcze w powijakach. Chodzi o wykorzystanie niezwykłych zjawisk mających miejsce na poziomie subatomowym - czyli mikroskopijnym. W tym małym świecie panują zupełnie inne reguły niż te, które rządzą naszą makroskopową rzeczywistością. Patrząc na model atomu, przyzwyczajony do klasycznej fizyki umysł będzie postrzegać układ jądro atomu-elektrony jako podobny do układu planetarnego. Tak jednak nie jest - okazuje się, że można tylko określić obszar, w którym z pewnym prawdopodobieństwem znajduje się aktualnie elektron, bowiem według praw mechaniki kwantowej leci on we wszystkich kierunkach… jednocześnie. Co frapujące, ta niecodzienna właściwość znika, gdy dojdzie do aktu obserwacji zaburzającego ową kruchą sytuację, którą nazywa się superpozycją.
Aby lepiej wyjaśnić kwantowe dziwactwa, odwołajmy się do ciekawego eksperymentu myślowego, zaproponowanego przez wybitnego fizyka Erwina Schroedingera. Wyobraźmy sobie pudełko, do którego wsadzamy kota, radioaktywny izotop uwalniający raz na pewien czas cząstkę promieniowania, flakonik z trucizną oraz licznik Geigera. Te trzy wymienione przedmioty tworzą mechanizm uwalniający toksynę w chwili wykrycia emisji promieniowania. Pudełko zamykamy i rozpoczynamy rozmyślania. Patrząc na pudełko, nie wiemy, czy kot żyje, czy też zabiła go trucizna - możemy jedynie określić szansę na jeden albo drugi stan. To właśnie odzwierciedla sposób myślenia charakterystyczny dla klasycznej, makroskopowej fizyki. Ale w kategoriach kwantowych trzeba rozumować inaczej - w zamkniętym pudełku kot jest jednocześnie żywy i martwy. Dopiero zajrzenie do środka pozwala na definitywną ocenę. I tak właśnie działa mechanika w świecie mikroskopijnym - kwanty mają jednocześnie wiele stanów dopóki nie dokona się aktu ich obserwacji, który jest zarazem aktem zakłócenia ich superpozycji.
Naukowcy zaczęli się zastanawiać nad tym, w jaki sposób wykorzystać mechanikę kwantową do zastosowań informatycznych. I wpadli na pomysł - a gdyby tak zamiast w bitach opartych na przepływie prądu wewnątrz układu informacje zapisywać w kwantach, które mogą przecież w jednym czasie przyjmować wiele różnych wartości. Klasyczny bit może wyrażać albo 1 (przepływ prądu), albo 0 (brak przepływu), zaś kwantowy (kubit) powinien umieć reprezentować jednocześnie obie te wartości, a także wszystkie liczby pomiędzy nimi! Pojawił się jednak “mały problem” - jak można zbudować komputer oparty na tej mechanice, skoro każda ingerencja (a nawet sama obserwacja) w taki układ zburzy niesamowite zdolności kwantów? I tak oto głównym wyzwaniem stojącym przed naukowcami marzącymi o superszybkim komputerze stało się jak najdłuższe utrzymanie superpozycji kwantów, by móc zaprząc je do skomplikowanych obliczeń. Więcej na temat postępów w tej dziedzinie przeczytacie w artykule Komputery kwantowe.