Simply enter your keyword and we will help you find what you need.

What are you looking for?

quantum computing

Quantum Computing: from Science to Business

Quantum Computing to pojęcie ekscytujące przez to, jak rewolucyjne zmiany w IT ze sobą niesie. To również wielka niewiadoma. Napisano już ogromną liczbę publikacji teoretycznych na ten temat. Niewiele jest jednak istniejących i działających urządzeń, które faktycznie wykorzystują efekty fizyki kwantowej.

Zaczęło się od ekscytujących koncepcji naukowych

Pierwsze oznaki tego, że efekty z dziedziny fizyki kwantowej mogą zostać wykorzystane do obliczeń, pojawiły się już w roku 1959. To wtedy Richard Feynman wspomniał o takim pomyśle w swoim słynnym wykładzie „There’s Plenty of Room at the Bottom”. Oczywiście poruszyło to wyobraźnie naukowców z całego świata. W ten sposób zaczęła powstawać teoria komputerów kwantowych. Liczne grupy naukowców pracują nad przewidywaniem kolejnych wyzwań stojących na drodze kwantowego przetwarzania informacji i szukaniem ich rozwiązań. Wszystko od odbywa się w przeważającej części „na papierze”. Z drugiej strony trwają również intensywne prace nad „dogonieniem” istniejących podstaw teoretycznych przez faktycznie działający sprzęt. Także na tym polu śledzić można dynamiczne postępy. Co chwilę pojawiają się doniesienia o kolejnych przełomach w budowie komputerów kwantowych.

Granice możliwości dotychczasowej technologii

Klasyczne komputery były początkowo bardzo ograniczone. Zajmowały ogromne przestrzenie, ważyły niewyobrażalnie dużo, oferujący przy tym bardzo niewielkie możliwości. Ten stan rzeczy szybko jednak się zmieniał. Wraz z odkryciem tranzystora komputery niebywale szybko stawały się coraz mocniejsze, mniejsze, pobierały mniej energii i były coraz bardziej praktyczne. Postęp ten był tak szybki i regularny, że Gordon Moore, jeden z założycieli firmy Intel, stwierdził że liczba tranzystorów w układach scalonych będzie się podwajać co 18 miesięcy. Obserwacja ta, nazwana prawem Moore’a, okazała się przez bardzo długi czas zaskakująco trafnie opisywać rzeczywistość. Obecnie jednak, ciesząc się już 7-nanometrową litografią opracowaną przez firmę Intel, zaczynamy nieuchronnie zbliżać się do fizycznych granic możliwości klasycznych komputerów. Są to poważne ograniczenia takie jak rozmiary atomów czy stała c oznaczająca prędkość światła w próżni. Wydaje się, że szukając kolejnych dróg rozwoju w informatyce, prędzej czy później ludzkość zmuszona będzie szukać innych technologii, zamiast ulepszać istniejące.

 

Punkt zwrotny w rozwoju hardware’u

Komputery kwantowe kuszą obietnicami nowych możliwości w kwestii mocy obliczeniowej. Aktualnie jednak technika ta jest na etapie przypominającym nieco początki komputerów półprzewodnikowych (a może nawet ich poprzedników jeszcze sprzed wynalezienia tranzystora). Rozmiary czy pobór mocy, jakkolwiek rzeczywiście ogromne, nie są tu najdotkliwszymi problemami. Prawdziwe trudności techniczne to fizyczne wymogi, jakie muszą zostać spełnione, aby dana maszyna nadawała się do przetworzenia danych. Zależy to oczywiście od konkretnej fizycznej implementacji. Ogólnie jednak rzecz biorąc, wymagają one na przykład schłodzenia do temperatury bliskiej zera absolutnego bądź bardzo daleko idącej izolacji od czynników zewnętrznych. Oznacza to w skrócie, że od strony inżynierii wyzwania rzucane przez komputery kwantowe to zupełnie nowe problemy. Barierą nie jest już miniaturyzacja, ale inne, nowe ograniczenia.

Oczywiście podejmowane są już przykładowo wysiłki, aby skonstruować komputer kwantowy pracujący  prawidłowo w temperaturze pokojowej — na przykład przez firmę Xanadu. Zdecydowanie jednak namacalnych rezultatów tych prac jest w tej chwili o wiele za mało, aby przewidywać, kiedy i czy w ogóle procesory kwantowe zawitają „pod strzechy”. Nie znaczy to oczywiście, że technika ta nie będzie nigdy dostępna dla przeciętnego konsumenta. Może jednak już zawsze pozostać dostępna jedynie jako usługa w chmurze.

Niespotykane dotąd wyzwania

Inżynieria związana z umożliwieniem pracy komputera kwantowego to jednak dopiero początek zmagań. Oprócz tego wyróżnić można też dwa kluczowe obszary, w których pionierzy quantum computing widzą ważne wyzwania na drodze dalszego rozwoju.

Pierwszym z nich jest programowalność — większość funkcjonujących obecnie systemów kwantowych wykonuje jedynie takie operacje, do których została zbudowana. Wykonanie innej operacji wymagałoby zatem skonstruowania nowej, innej maszyny. Dopiero w 2016 roku naukowcy z University of Maryland zaprezentowali pierwszy komputer kwantowy, który da się przeprogramować. Jak można się domyślić, był to dopiero pierwszy krok na drodze do prawdziwych możliwości zmian w oprogramowaniu wykonywanym przez takie urządzenia.

Inne kluczowe wyzwanie to precyzja sterowania komputerem kwantowym (a więc i wprowadzania danych) oraz ich odczytu (czyli pomiaru). To nie tylko znane problemy, ale i wyzwania, o których istnieniu jeszcze nie wiemy. Teoretycy sugerują jednak, że to tu może leżeć „być albo nie być” przetwarzania kwantowego.

Zupełnie nowa algorytmika

Komputery kwantowe od strony fizycznej rządzą się zupełnie innymi prawami niż klasyczne, krzemowe układy scalone. Otwiera to drogę do algorytmów leżących poza zasięgiem układów tranzystorowych. Mowa tu głównie o algorytmach, których nie można z definicji uruchomić na zwykłym komputerze, niezależnie od tego, jak potężny by on nie był. Jednym z przykładów jest algorytm Shora dokonujący rozkładu liczby na czynniki pierwsze. Brzmi to niegroźnie, jednak rzecz w tym, że działa on nieporównywalnie szybciej na komputerze kwantowym, niż na zwyczajnym odpowiedniku. Tym sposobem najpowszechniejsze obecnie szyfry oparte na liczbach pierwszych takie komputery mogłyby łamać najprymitywniejszą metodą, niejako przez zgadywanie. Inny ciekawy przykład to algorytm Grovera usprawniający wyszukiwanie. Jest to jedno z podstawowych zagadnień w IT. Łatwo więc zgadnąć, jak wielkie znaczenie mogłoby mieć radykalne zwiększenie możliwości przeszukiwania dużych zbiorów informacji. Przykłady można mnożyć również w optymalizacji czy machine learningu.

By uniknąć niedomówień, trzeba jednak podkreślić, że aktualnie prace nad algorytmami w dużej części prowadzone bez udziału jakichkolwiek prawdziwych komputerów kwantowych. Zamiast nich używane są symulatory, które odzwierciedlają teoretyczne mechanizmy pracy urządzeń kwantowych przy użyciu tradycyjnych, krzemowych układów scalonych.

D-Wave Systems Chip

Dostępność? Już teraz.

Quantum computing jeszcze raczkuje, ale już teraz nie brak chętnych do zostania prekursorami tej dziedziny. Strona QuantumComputingReport.com zawiera listę aż 117 startupów, które chwalą się zastosowaniem komputerów kwantowych w swoich przedsięwzięciach biznesowych. Niektóre z firm specjalizujących się w tej dziedzinie już teraz oferują usługi działające dzięki komputerom kwantowym. Najbardziej chyba znaną z nich jest D-Wave, oferująca moc swojego komputera kwantowego w usłudze chmurowej. Może to być zaskoczeniem, ale możliwość pierwszego kontaktu z przetwarzaniem kwantowym jest tu oferowana za darmo. Innym przedsiębiorstwem, które może chwalić się mocną pozycją na rynku usług opartych na przetwarzaniu kwantowym, jest IBM z ich projektem Q Experience. Udostępniony w tej usłudze system przetwarzania kwantowego nazwany System One prezentuje podobne podejście — prawdziwy komputer kwantowy dostępny za pośrednictwem usługi chmurowej.

Entuzjaści i sceptycy

Specjaliści zajmujący się kwantowym przetwarzaniem danych są podzieleni. Nietrudno znaleźć wśród nich entuzjastów takich jak prof. Jacob Biamonte. Podkreślają oni, że nie dość, że spodziewają się realnych korzyści dostarczanych przez quantum computing, to nadejdą one znacznie szybciej, niż początkowo tego oczekiwaliśmy.

 

 

O prof. Jacobie Biamonte, który podczas wydarzenia Masters&Robots będzie prowadził prelekcję pt. „Quantum Computing from Science to Business” więcej można przeczytać TUTAJ.

Zdarzają się i sceptycy jak Gil Kalai. Twierdzi on, że dostatecznie skuteczne usunięcie zakłóceń z układów kwantowych jest matematycznie niemożliwe. Według niego jest tak ze względu na sprzeczność z pewnymi podstawowymi prawami, jakie udało się opisać w teorii przetwarzania kwantowego. Jego postulaty podają w wątpliwość zaistnienie kiedykolwiek tzw. quantum supremacy, czyli sytuacji gdzie komputery kwantowe zaoferują algorytmy bądź wydajność będące całkowicie poza zasięgiem tradycyjnych urządzeń półprzewodnikowych.

 

Na jakim więc tak naprawdę jesteśmy etapie?

To kluczowe pytanie nie jest wcale takie proste. Po pierwsze odpowiedź na nie zależy od tego, co właściwie rozumiemy przez pojęcie komputera kwantowego. Maszyny kwantowe, którym możemy dostarczyć jakieś informacje i liczyć na wynik ich przetworzenia, istnieją już od względnie dawna. Jednak czy można nazwać „komputerem” urządzenie, którego nie da się swobodnie przeprogramować, aby wykonywało dowolne instrukcje? Po drugie nie jest wcale tak prosto odnaleźć interesującą nas odpowiedź pośród przekazu marketingowego. Każda firma zajmująca się quantum computingiem ma świadomość, jak wielkie emocje budzi to określenie. Ponadto, wszystkie pojęcia zawierające przymiotnik „kwantowy” z natury kojarzą się  odbiorcy z czymś na pograniczu techniki i magii. Nie powinno więc być zaskoczeniem, że liczne startupy ścigają się w autopromocji. Każdy z nich stara się objąć tron pierwszego producenta prawdziwych komputerów kwantowych czy pierwszego kwantowego software house’u.

Czas na ostrożny entuzjazm

Owszem — komputery kwantowe są już dostępne i zaczęła się próba ich komercjalizacji. Pamiętajmy jednak, że jest to wciąż dziedzina bardzo młoda i nie należy przecenić możliwości, jakie aktualnie oferowane są przez IBM czy D-Wave. Pewne jest jednak, że warto trzymać rękę na pulsie. Lada moment quantum computing może osiągnąć dojrzałość na tyle dużą, że realne stanie się korzystanie z nowych możliwości w codziennych zastosowaniach. Wtedy liczyć będzie się szybka reakcja i bezzwłoczne ujarzmienie nowych możliwości, zanim zrobi to konkurencja.

 

 

Więcej  o Quantum Computing usłyszeć można będzie już w dniach 7-9 października, w trakcie wykładu prof. Jacoba Biamonte pt. „Quantum Computing from Science to Business” w ramach wydarzenia Masters&Robots.

Inline
Inline