Kvantový počítač versus klasický počítač: kdo vyhraje. Kvantové počítače

Svět je na pokraji další kvantové revoluce. První kvantový počítač okamžitě vyřeší problémy, jejichž řešení nejvýkonnějšímu modernímu zařízení v současnosti trvá roky. Jaké jsou tyto úkoly? Komu prospívá a kdo je ohrožen masivním používáním kvantových algoritmů? Co je to superpozice qubitů, jak se lidé naučili najít optimální řešení, aniž by procházeli biliony možností? Na tyto otázky odpovídáme pod nadpisem „Jednoduše o komplexu“.

Před kvantovou teorií se používala klasická teorie elektromagnetického záření. V roce 1900 byl německý vědec Max Planck, který sám na kvanta nevěřil a považoval je za fiktivní a čistě teoretický konstrukt, nucen připustit, že energie zahřátého tělesa je vyzařována po částech – kvantech; Předpoklady teorie se tedy shodovaly s experimentálními pozorováními. A o pět let později se velký Albert Einstein při vysvětlování fotoelektrického jevu uchýlil ke stejnému přístupu: při ozáření světlem vznikl v kovech elektrický proud! Je nepravděpodobné, že by si Planck a Einstein dokázali představit, že by svou prací položili základy nové vědy – kvantové mechaniky, která by byla předurčena k tomu, aby proměnila náš svět k nepoznání, a že by se vědci v 21. století přiblížili k vytvoření kvantový počítač.

Kvantová mechanika nejprve umožnila vysvětlit strukturu atomu a pomohla pochopit procesy, které se v něm odehrávají. Celkově vzato se splnil dlouholetý sen alchymistů přeměnit atomy některých prvků na atomy jiných (ano, dokonce i na zlato). A Einsteinův slavný vzorec E=mc2 vedl ke vzniku jaderné energie a v důsledku toho k atomové bombě.

Pěti-qubitový kvantový procesor od IBM

Dále - více. Díky práci Einsteina a anglického fyzika Paula Diraca vznikl v druhé polovině 20. století laser – rovněž kvantový zdroj ultračistého světla shromážděného do úzkého paprsku. Laserový výzkum přinesl Nobelovu cenu více než desítce vědců a samotné lasery našly své uplatnění téměř ve všech oblastech lidské činnosti – od průmyslových řezaček a laserových pistolí až po skenery čárových kódů a korekci zraku. Přibližně ve stejné době probíhal aktivní výzkum polovodičů – materiálů, pomocí kterých lze snadno řídit tok elektrického proudu. Na jejich základě vznikly první tranzistory – později se staly hlavními stavebními prvky moderní elektroniky, bez kterých si již nedovedeme představit svůj život.

Vývoj elektronických počítacích strojů – počítačů – umožnil rychle a efektivně vyřešit mnoho problémů. A postupné zmenšování jejich velikosti a nákladů (kvůli masové výrobě) vydláždilo cestu počítačům do každé domácnosti. S příchodem internetu se naše závislost na počítačových systémech, včetně komunikace, ještě více prohloubila.

Richard Feynman

Závislost roste, výpočetní výkon neustále roste, ale nastal čas přiznat, že navzdory svým působivým schopnostem počítače nebyly schopny vyřešit všechny problémy, které jsme jim připraveni postavit. Jako jeden z prvních o tom mluvil slavný fyzik Richard Feynman: ještě v roce 1981 na konferenci prohlásil, že na běžných počítačích je v zásadě nemožné přesně vypočítat skutečný fyzikální systém. Je to všechno o jeho kvantové povaze! Efekty v mikroměřítku jsou snadno vysvětlitelné kvantovou mechanikou a velmi špatně vysvětlovány klasickou mechanikou, která je nám známá: popisuje chování velkých objektů. Tehdy Feynman jako alternativu navrhl použití kvantových počítačů k výpočtu fyzických systémů.

Co je to kvantový počítač a jak se liší od počítačů, na které jsme zvyklí? Vše je o tom, jak informace prezentujeme.

Jestliže v konvenčních počítačích jsou bity - nuly a jedničky - zodpovědné za tuto funkci, pak v kvantových počítačích jsou nahrazeny kvantovými bity (zkráceně qubits). Samotný qubit je poměrně jednoduchá věc. Stále má dvě základní hodnoty (nebo stavy, jak říká kvantová mechanika), které může nabývat: 0 a 1. Díky vlastnosti kvantových objektů nazývané „superpozice“ však může qubit nabývat všech hodnot. které jsou kombinací těch základních. Navíc jeho kvantová povaha mu umožňuje být ve všech těchto stavech současně.

Toto je paralelismus kvantového počítání s qubity. Vše se děje najednou – již není potřeba procházet všechny možné možnosti stavů systému a přesně to dělá běžný počítač. Prohledávání velkých databází, navrhování optimální trasy, vývoj nových léků je jen několik příkladů problémů, které lze kvantovými algoritmy vyřešit mnohonásobně rychleji. To jsou úkoly, kde k nalezení správné odpovědi musíte projít obrovským množstvím možností.

Navíc k popisu přesného stavu systému už není potřeba obrovský výpočetní výkon a množství RAM, protože pro výpočet systému 100 částic stačí 100 qubitů a ne biliony bilionů bitů. Navíc s rostoucím počtem částic (jako ve skutečných komplexních systémech) se tento rozdíl stává ještě významnějším.

Jeden z výčtových problémů vynikal svou zdánlivou zbytečností – rozkladem velkých čísel na prvočinitele (tedy dělitelné pouze jimi samými a jednou). Tomu se říká „faktorizace“. Faktem je, že běžné počítače dokážou poměrně rychle násobit čísla, a to i velmi velká. Konvenční počítače se však velmi špatně vyrovnávají s inverzním problémem rozkladu velkého čísla vyplývajícího z vynásobení dvou prvočísel na jejich původní faktory. Například k rozdělení počtu 256 číslic do dvou faktorů bude i ten nejvýkonnější počítač potřebovat desítky let. Ale kvantový algoritmus, který dokáže tento problém vyřešit za pár minut, vynalezl v roce 1997 anglický matematik Peter Shor.

S příchodem Shorova algoritmu čelila vědecká komunita vážnému problému. Na konci sedmdesátých let vytvořili vědci v oblasti kryptografie na základě složitosti problému faktorizace algoritmus šifrování dat, který se rozšířil. Zejména s pomocí tohoto algoritmu začali chránit data na internetu - hesla, osobní korespondenci, bankovní a finanční transakce. A po mnoha letech úspěšného používání se najednou ukázalo, že takto zašifrované informace se stávají snadným cílem pro Shorův algoritmus běžící na kvantovém počítači. Dešifrování s jeho pomocí se stává otázkou několika minut. Jedna věc byla dobrá: kvantový počítač, na kterém by se dal spustit smrtící algoritmus, ještě nebyl vytvořen.

Mezitím se po celém světě desítky vědeckých skupin a laboratoří začaly zabývat experimentálním studiem qubitů a možností vytvořit z nich kvantový počítač. Koneckonců jedna věc je teoreticky vymyslet qubit a úplně jiná je uvést jej do reality. K tomu bylo nutné najít vhodný fyzikální systém se dvěma kvantovými úrovněmi, které lze použít jako základní stavy qubitu – nula a jedna. Sám Feynman ve svém průkopnickém článku navrhl pro tyto účely použít fotony zkroucené různými směry, ale první experimentálně vytvořené qubity byly ionty zachycené ve speciálních pastích v roce 1995. Po iontech následovalo mnoho dalších fyzikálních implementací: atomová jádra, elektrony, fotony, defekty v krystalech, supravodivé obvody – všechny splňovaly požadavky.

Tato rozmanitost měla své opodstatnění. Různé vědecké skupiny, poháněné intenzivní konkurencí, vytvářely stále pokročilejší qubity a stavěly z nich stále složitější obvody. Pro qubity existovaly dva hlavní konkurenční parametry: jejich životnost a počet qubitů, které by mohly spolupracovat.

Zaměstnanci Laboratoře umělých kvantových systémů

Životnost qubitů určovala, jak dlouho v nich byl křehký kvantový stav uložen. To zase určilo, kolik výpočetních operací bylo možné provést s qubitem, než „zemře“.

Pro efektivní fungování kvantových algoritmů nebyl potřeba jeden qubit, ale alespoň sto, a to společně. Problém byl v tom, že qubitové neměli rádi být vedle sebe a protestovali tím, že dramaticky zkrátili jejich životnost. Aby vědci tuto nekompatibilitu qubitů obešli, museli se uchýlit k nejrůznějším trikům. A přesto se vědcům do dnešního dne podařilo získat pro spolupráci maximálně jeden nebo dva tucty qubitů.

K radosti kryptografů je tedy kvantový počítač stále věcí budoucnosti. I když to není vůbec tak daleko, jak by se kdysi mohlo zdát, protože jak největší korporace jako Intel, IBM a Google, tak jednotlivé státy, pro které je vytvoření kvantového počítače strategicky důležité, jsou se aktivně podílí na jeho tvorbě.

Nenechte si ujít přednášku:

29. ledna 2017

Slovní spojení „kvantový počítač“ je pro mě srovnatelné například s „fotonovým motorem“, tedy je to něco velmi složitého a fantastického. Nyní však čtu ve zprávách: "Kvantový počítač se prodává každému, kdo ho chce." Je zvláštní, myslí tím výrazem něco jiného, ​​nebo je to jen falešný?

Podívejme se blíže...


JAK TO VŠECHNO ZAČALO?

Teprve v polovině 90. let se teorie kvantových počítačů a kvantových počítačů etablovala jako nový vědní obor. Jak už to u skvělých nápadů bývá, je těžké určit původce. Na možnost rozvoje kvantové logiky zřejmě jako první upozornil maďarský matematik J. von Neumann. V té době však ještě nevznikly nejen kvantové, ale ani běžné, klasické počítače. A s příchodem posledně jmenovaného bylo hlavní úsilí vědců zaměřeno především na hledání a vývoj nových prvků pro ně (tranzistory a poté integrované obvody), a nikoli na vytváření zásadně odlišných výpočetních zařízení.


Americký fyzik R. Landauer, který pracoval v IBM, se v 60. letech minulého století pokusil upozornit vědecký svět na to, že výpočty jsou vždy nějaký fyzikální proces, takže bez pochopení limitů našich výpočetních možností nelze s uvedením, jaké fyzické provedení odpovídají. Bohužel v té době mezi vědci převládal názor, že výpočet je jakýsi abstraktní logický postup, který by měli studovat matematici, nikoli fyzici.

Jak se počítače rozšiřovaly, kvantoví vědci došli k závěru, že je prakticky nemožné přímo vypočítat stav vyvíjejícího se systému, který se skládá pouze z několika desítek interagujících částic, jako je molekula metanu (CH4). Vysvětluje se to tím, že pro úplný popis složitého systému je nutné uchovávat v paměti počítače exponenciálně velký (co do počtu částic) počet proměnných, tzv. kvantové amplitudy. Nastala paradoxní situace: při znalosti evoluční rovnice, znalosti s dostatečnou přesností všech potenciálů vzájemného působení částic a výchozího stavu systému je téměř nemožné vypočítat jeho budoucnost, i když se systém skládá pouze z 30 elektronů v potenciální jámě a k dispozici je superpočítač s RAM, jehož počet bitů se rovná počtu atomů ve viditelné oblasti Vesmíru (!). A zároveň, abyste mohli studovat dynamiku takového systému, můžete jednoduše provést experiment s 30 elektrony a umístit je do daného potenciálu a počátečního stavu. Toho si všiml zejména ruský matematik Yu I. Manin, který v roce 1980 poukázal na nutnost vyvinout teorii kvantových výpočetních zařízení. V 80. letech 20. století se stejným problémem zabýval americký fyzik P. Benev, který jasně ukázal, že kvantový systém může provádět výpočty, a také anglický vědec D. Deutsch, který teoreticky vyvinul univerzální kvantový počítač, který je lepší než jeho klasický protějšek.

Nositel Nobelovy ceny za fyziku R. Feynman přitáhl velkou pozornost k problému vývoje kvantových počítačů. Díky jeho směrodatné výzvě mnohonásobně vzrostl počet specialistů, kteří věnovali pozornost kvantovým počítačům.


Základ Shorova algoritmu: schopnost qubitů ukládat více hodnot současně)

Dlouho však zůstávalo nejasné, zda lze hypotetický výpočetní výkon kvantového počítače využít k urychlení řešení praktických problémů. Ale v roce 1994 americký matematik a zaměstnanec Lucent Technologies (USA) P. Shor ohromil vědecký svět tím, že navrhl kvantový algoritmus, který umožňuje rychlou faktorizaci velkých čísel (o důležitosti tohoto problému již byla řeč v úvodu). Ve srovnání s nejlepší dnes známou klasickou metodou poskytuje Shorův kvantový algoritmus mnohonásobné zrychlení výpočtů a čím delší je číslo, tím větší je nárůst rychlosti. Algoritmus rychlého faktorizace je velmi praktický pro různé zpravodajské agentury, které nashromáždily banky nedešifrovaných zpráv.

V roce 1996 navrhl Shoreův kolega z Lucent Technologies L. Grover kvantový algoritmus pro rychlé vyhledávání v neuspořádané databázi. (Příkladem takové databáze je telefonní seznam, ve kterém nejsou jména účastníků řazena abecedně, ale libovolně.) S úkolem hledání, výběru optimálního prvku z mnoha možností se velmi často setkáváme v ekonomických, vojenských, inženýrské problémy a v počítačových hrách. Algoritmus Grover umožňuje nejen urychlit proces vyhledávání, ale také přibližně zdvojnásobit počet parametrů, které se berou v úvahu při výběru optima.

Skutečný vznik kvantových počítačů brzdil v podstatě jediný závažný problém – chyby, neboli interference. Faktem je, že stejná úroveň interference kazí proces kvantového počítání mnohem intenzivněji než klasické výpočty.


Jednoduše řečeno: " kvantový systém produkuje výsledek, který je správný pouze s určitou pravděpodobností. Jinými slovy, pokud počítáte 2+2, pak 4 vyjde jen s určitým stupněm přesnosti. Nikdy nedostanete přesně 4. Logika jeho procesoru není vůbec podobná procesoru, na který jsme zvyklí.

Existují metody, jak vypočítat výsledek s předem stanovenou přesností, přirozeně se zvýšením počítačového času.
Tato funkce určuje seznam úkolů. A tato funkce není propagována a veřejnost získává dojem, že kvantový počítač je stejný jako běžný PC (stejné 0 a 1), pouze je rychlý a drahý. To v zásadě není pravda.

Ano, a ještě jedna věc - pro kvantový počítač a kvantové výpočty obecně, zejména pro využití „výkonu a rychlosti“ kvantového počítání, jsou zapotřebí speciální algoritmy a modely vyvinuté speciálně pro specifika kvantového počítání. Obtížnost použití kvantového počítače proto spočívá nejen v dostupnosti hardwaru, ale také ve vývoji nových, dosud nepoužívaných metod výpočtu. "

A nyní přejděme opět k praktické implementaci kvantového počítače: komerční 512-qubitový D-Wave procesor již nějakou dobu existuje a dokonce se prodává!!!

Nyní by se zdálo, že jde o skutečný průlom!!! A skupina renomovaných vědců v neméně renomovaném časopise Physical Review přesvědčivě dosvědčuje, že efekty kvantového zapletení byly v D-Wave skutečně objeveny.

V souladu s tím má toto zařízení plné právo být nazýváno skutečným kvantovým počítačem, jeho architektura umožňuje další nárůst počtu qubitů, a proto má skvělé vyhlídky do budoucna... (T. Lanting et al. Entanglement in; procesor Quantum Annealing.

Pravda, o něco později to jiná skupina renomovaných vědců v neméně renomovaném časopise Science, kteří studovali stejný výpočetní systém D-Wave, zhodnotila čistě prakticky: jak dobře toto zařízení plní své výpočetní funkce. A tato skupina vědců, stejně důkladně a přesvědčivě jako první, dokazuje, že ve skutečných ověřovacích testech, které se optimálně hodí pro tento návrh, kvantový počítač D-Wave neposkytuje žádné zvýšení rychlosti ve srovnání s konvenčními klasickými počítači. (T.F. Ronnow, M. Troyer a kol. Definování a detekce kvantového zrychlení. SCIENCE, červen 2014 Vol. 344 #6190 (http://dx.doi.org/10.1126/science.1252319))

Ve skutečnosti neexistovaly žádné úkoly pro drahý, ale specializovaný „stroj budoucnosti“, kde by mohl prokázat svou kvantovou převahu. Jinými slovy, o samotném smyslu velmi nákladných snah o vytvoření takového zařízení jsou velké pochybnosti...
Výsledky jsou následující: nyní ve vědecké komunitě již není pochyb o tom, že v počítačovém procesoru D-Wave skutečně dochází k činnosti prvků na základě skutečných kvantových efektů mezi qubity.

Jenže (a to je nesmírně závažné ALE) klíčové vlastnosti v konstrukci D-Wave procesoru jsou takové, že při reálném provozu celá jeho kvantová fyzika neposkytuje žádný zisk ve srovnání s běžným výkonným počítačem, který má speciální software ušitý na míru k řešení optimalizačních problémů.

Jednoduše řečeno, nejen že vědci testující D-Wave dosud nebyli schopni vidět jediný reálný problém, kde by kvantový počítač mohl přesvědčivě demonstrovat svou výpočetní převahu, ale ani samotná výrobní společnost netuší, o jaký problém by se mohlo jednat. ..

Je to všechno o konstrukčních prvcích 512-qubitového D-Wave procesoru, který je sestaven ze skupin 8 qubitů. Přitom v rámci těchto skupin po 8 qubitech všechny komunikují přímo mezi sebou, ale mezi těmito skupinami jsou spojení velmi slabá (v ideálním případě by měly VŠECHNY qubity procesoru komunikovat přímo mezi sebou). To samozřejmě VELMI výrazně snižuje složitost stavby kvantového procesoru... ALE z toho plyne spousta dalších problémů, které nakonec vyústí v kryogenní zařízení, jehož provoz je velmi nákladný, chlazení okruhu na ultranízké teploty.

Co nám tedy nyní nabízejí?

Kanadská společnost D-Wave oznámila zahájení prodeje svého kvantového počítače D-Wave 2000Q, oznámeného v září loňského roku. V souladu s vlastní verzí Moorova zákona, podle kterého se počet tranzistorů na integrovaném obvodu zdvojnásobí každé dva roky, umístil D-Wave na QPU (quantum processing unit) 2 048 qubitů. Dynamika růstu počtu qubitů na CPU v posledních letech vypadá takto:

2007 — 28

— 2013 — 512
— 2014 — 1024
— 2016 — 2048.

Navíc, na rozdíl od tradičních procesorů, CPU a GPU, je zdvojnásobení qubitů doprovázeno nikoli 2násobným, ale 1000násobným zvýšením výkonu. Oproti počítači s tradiční architekturou a konfigurací jednojádrového CPU a 2500jádrového GPU je rozdíl ve výkonu 1000 až 10 000krát. Všechna tato čísla jsou jistě působivá, ale je tu několik „ale“.

Za prvé, D-Wave 2000Q je extrémně drahý – 15 milionů dolarů. Jedná se o poměrně masivní a komplexní zařízení. Jeho mozkem je CPU vyrobený z neželezného kovu zvaného niob, jehož supravodivé vlastnosti (nezbytné pro kvantové počítače) se vyskytují ve vakuu při teplotách blízkých absolutní nule pod 15 milikelvinů (to je 180krát nižší než teplota ve vesmíru).

Udržení takto extrémně nízké teploty vyžaduje hodně energie, 25 kW. Ale přesto je to podle výrobce 100krát méně než u tradičních superpočítačů s ekvivalentním výkonem. Takže výkon D-Wave 2000Q na watt spotřeby energie je 100krát vyšší. Pokud se společnosti podaří i nadále dodržovat svůj „Mooreův zákon“, pak u jejích budoucích počítačů tento rozdíl exponenciálně poroste, přičemž spotřeba energie zůstane na současné úrovni.

Za prvé, kvantové počítače mají velmi specifický účel. V případě D-Wave 2000Q mluvíme o tzv. adiabatické počítače a řešení problémů kvantové normalizace. Vznikají zejména v těchto oblastech:

Strojové učení:

Detekce statistických anomálií
— hledání komprimovaných modelů
— rozpoznávání obrázků a vzorů
— trénink neuronové sítě
— ověření a schválení softwaru
— klasifikace nestrukturovaných dat
— diagnostika chyb v obvodu

Zabezpečení a plánování

Detekce virů a hackování sítě
— rozdělování zdrojů a hledání optimálních cest
— určení členství v souboru
— analýza vlastností grafu
— faktorizace celých čísel (používaná v kryptografii)

Finanční modelování

Detekce nestability trhu
— rozvoj obchodních strategií
— optimalizace obchodních trajektorií
— optimalizace oceňování aktiv a zajištění
— optimalizace portfolia

Zdravotnictví a lékařství

Odhalování podvodů (pravděpodobně související se zdravotním pojištěním)
— vytvoření cílené („molekulárně cílené“) lékové terapie
— optimalizace léčby [rakoviny] pomocí radioterapie
— tvorba proteinových modelů.

Prvním kupujícím D-Wave 2000Q byla společnost TDS (Temporal Defense Systems), která se zabývá oblastí kybernetické bezpečnosti. Obecně jsou produkty D-Wave používány společnostmi a institucemi jako Lockheed Martin, Google, NASA Ames Research Center, University of Southern California a Los Alamos National Laboratory Ministerstva energetiky USA.

Hovoříme tedy o vzácné (D-Wave je jediná společnost na světě, která vyrábí komerční vzorky kvantových počítačů) a drahé technologii s poměrně úzkou a specifickou aplikací. Tempo růstu jeho produktivity je ale úžasné, a pokud bude tato dynamika pokračovat, pak díky adiabatickým počítačům D-Wave (ke kterým se časem mohou připojit další společnosti) můžeme v příštích letech očekávat skutečné průlomy ve vědě a technice. Zvláště zajímavá je kombinace kvantových počítačů s tak slibnou a rychle se rozvíjející technologií, jakou je umělá inteligence – zvláště když tak autoritativní specialista jako Andy Rubin v tom vidí budoucnost.

Ano, mimochodem, věděli jste, že IBM Corporation umožnila uživatelům internetu připojit se zdarma k univerzálnímu kvantovému počítači, který postavila, a experimentovat s kvantovými algoritmy. Zařízení nebude dostatečně výkonné, aby prolomilo kryptografické systémy s veřejným klíčem, ale pokud se plány IBM uskuteční, na obzoru jsou sofistikovanější kvantové počítače.

Kvantový počítač, který IBM zpřístupnila, obsahuje pět qubitů: čtyři slouží k práci s daty a pátý slouží k opravě chyb při výpočtech. Oprava chyb je hlavní inovací, na kterou jsou její vývojáři hrdí. V budoucnu to usnadní navýšení počtu qubitů.

IBM zdůrazňuje, že její kvantový počítač je univerzální a je schopen provádět jakékoli kvantové algoritmy. To jej odlišuje od adiabatických kvantových počítačů, které D-Wave vyvíjí. Adiabatické kvantové počítače jsou navrženy tak, aby nacházely optimální řešení funkcí a nejsou vhodné pro jiné účely.

Předpokládá se, že univerzální kvantové počítače umožní vyřešit některé problémy, které konvenční počítače nezvládnou. Nejznámějším příkladem takového problému je rozklad čísel na prvočinitele. Běžnému počítači, dokonce i velmi rychlému, by trvalo stovky let, než by našel prvočinitele velkého počtu. Kvantový počítač je najde pomocí Shorova algoritmu téměř stejně rychle jako násobení celých čísel.

Neschopnost rychle rozdělit čísla na prvočinitele je základem kryptografických systémů s veřejným klíčem. Pokud se naučí provádět tuto operaci rychlostí, kterou slibují kvantové algoritmy, pak většina moderní kryptografie bude muset být zapomenuta.

Je možné spustit Shorův algoritmus na kvantovém počítači IBM, ale dokud nebude více qubitů, bude to málo platné. Během příštích deseti let se to změní. Do roku 2025 plánuje IBM postavit kvantový počítač obsahující padesát až sto qubitů. Podle odborníků i s padesáti qubity budou kvantové počítače schopny vyřešit některé praktické problémy.

Zde je několik dalších zajímavých informací o počítačové technologii: přečtěte si jak, ale také se ukazuje, že je to možné a co to je

Kvantový počítač je výpočetní zařízení, které využívá jevů kvantové superpozice a kvantového zapletení k přenosu a zpracování dat. Plnohodnotný univerzální kvantový počítač je stále hypotetickým zařízením, jehož samotná možnost stavby je spojena se seriózním rozvojem kvantové teorie v oblasti mnoha částic a složitých experimentů; vývoj v této oblasti je spojen s nejnovějšími objevy a úspěchy moderní fyziky. K dnešnímu dni bylo prakticky implementováno pouze několik experimentálních systémů, které provádějí pevný algoritmus nízké složitosti.

Jak píší redaktoři Science Alert, skupině specialistů z Vídeňské univerzity se podařilo vyvinout první kvantový router v historii a dokonce provedli první testy nového zařízení. Jde o první zařízení, které dokáže zapletené fotony nejen přijímat, ale i vysílat. Okruh použitý v routeru by se navíc mohl stát základem pro vytvoření kvantového internetu.

Množství informací ve světě se každoročně zvyšuje o 30 %. Jen za posledních pět let lidstvo bylo vyrobeno více dat než v celé předchozí historii. Objevují se systémy internetu věcí, ve kterých každý senzor každou sekundu odesílá a přijímá obrovské množství dat a analytici předpovídají, že počet věcí připojených k internetu brzy překročí počet lidských uživatelů. Tato kolosální množství informací je třeba někde uložit a nějak zpracovat.

V dnešní době již existují superpočítače s kapacitou více než 50 petaflopů (1 petaflops = 1 tisíc bilionů operací za sekundu). Dříve či později však narazíme na fyzickou hranici možného výkonu procesorů. Samozřejmě, že superpočítače budou moci stále růst, ale to není řešení problému, protože velikost nakonec dosáhne svých limitů. Podle vědců Moorův zákon brzy přestane platit a lidstvo bude potřebovat nová, mnohem výkonnější zařízení a technologie zpracování dat. Velké IT společnosti proto již nyní pracují na vytvoření zcela nového revolučního typu počítače, jehož výkon bude stokrát větší, než jaký máme dnes. Toto je kvantový počítač. Odborníci slibují, že díky ní bude možná možné najít lék na rakovinu, okamžitě najít zločince analýzou kamerových záznamů a simulovat molekuly DNA. Nyní je těžké si vůbec představit, jaké další problémy bude schopen vyřešit.

Microsoft se snaží být ve vývoji v této oblasti na špici, studuje ji dvacet let, protože kdo první vytvoří kvantový počítač, získá nepopiratelnou konkurenční výhodu. Společnost navíc nepracuje pouze na vytváření hardwaru, ale nedávno také představila programovací jazyk, který mohou vývojáři používat. Ve skutečnosti se jen velmi málo lidí může pochlubit tím, že rozumí principům fungování tohoto revolučního zařízení, pro většinu z nás jde o něco ze sci-fi. Tak co je?

Jednou z nejdůležitějších částí počítače, na které přímo závisí jeho výkon, je procesor, který se zase skládá z obrovského množství tranzistorů. Tranzistory jsou nejjednodušší částí systému, jsou trochu podobné spínačům a mohou být pouze ve dvou polohách: buď „zapnuto“ nebo „vypnuto“. Právě z kombinací těchto pozic se tvoří binární kód skládající se z nul a jedniček, na kterých jsou založeny všechny programovací jazyky.

Podle toho, čím je počítač výkonnější, tím více tranzistorů je potřeba pro jeho provoz. Výrobci neustále zmenšují jejich velikosti a snaží se jich do procesorů vměstnat co nejvíce. Například v novém Xboxu One X jsou jich miliardy.

Nyní je velikost jednoho tranzistoru 10 milimikronů, tedy sto tisícina milimetru. Ale jednoho dne bude dosaženo fyzického limitu, menšího, než který tranzistor prostě vyrobit nelze. Aby nedošlo ke krizi ve vývoji IT, vědci pracují na vytvoření počítače, který bude fungovat na úplně jiném principu – kvantovém. Tranzistory, které budou tvořit kvantový počítač, mohou být ve dvou polohách současně: „zapnuto“ a „vypnuto“, a proto mohou být současně jedna i nula, nazývá se to „superpozice“.

Vezmeme-li 4 standardní tranzistory (bity), pak mohou společně vytvořit 16 různých kombinací jedniček a nul. Jeden po druhém.

Pokud vezmeme v úvahu 4 kvantové tranzistory (qubity), pak to může být všech 16 kombinací současně. To je obrovská úspora místa a času!

Ale samozřejmě vytváření qubitů je velmi, velmi obtížné. Vědci se musí vypořádat se subatomárními částicemi, které se řídí zákony kvantové mechaniky, a vyvinout zcela nový přístup k programování a jazyku.

Existují různé typy qubitů. Experti Microsoftu například pracují na vytváření topologických qubitů. Jsou neuvěřitelně křehké a snadno je zničí sebemenší zvukové vlny nebo tepelné záření. Pro stabilní provoz musí být neustále při teplotě –273°C. Oproti jiným typům však mají i řadu výhod: informace v nich uložené jsou prakticky bezchybné, a proto bude kvantový počítač vytvořený na základě topologických qubitů ultra spolehlivým systémem.

Kvantový počítač Microsoftu se skládá ze tří hlavních úrovní: první úrovní je samotný kvantový počítač obsahující qubity a neustále umístěný při teplotě blízké absolutní nule; další úrovní je kryogenní počítač - to je také zcela nový typ počítače, který řídí kvanta a pracuje při teplotě –268°C; poslední úrovní je počítač, na kterém už člověk umí pracovat a ovládá celý systém. Takové počítače budou 100–300krát výkonnější než nejpokročilejší superpočítače, které dnes existují.

Dnes je svět blíže než kdy jindy k vynálezu skutečného kvantového počítače: existuje pochopení principu jeho fungování, prototypů. A ve chvíli, kdy výkon konvenčních počítačů na zpracování všech informací existujících na Zemi přestane stačit, objeví se kvantový počítač, který značí zcela novou éru digitální technologie.

Ještě před pěti lety věděli o kvantových počítačích jen specialisté v oblasti kvantové fyziky. V posledních letech však exponenciálně vzrostl počet publikací na internetu a ve specializovaných publikacích věnovaných kvantovým počítačům. Téma kvantového počítání se stalo populární a vyvolalo mnoho různých názorů, které ne vždy odpovídají realitě.
V tomto článku se pokusíme co nejjasněji hovořit o tom, co je kvantový počítač a v jaké fázi je moderní vývoj v této oblasti.

Omezené možnosti moderních počítačů

O kvantových počítačích a kvantových počítačích se často mluví jako o alternativě k křemíkovým technologiím pro vytváření mikroprocesorů, což obecně není tak úplně pravda. Proč vlastně vůbec musíme hledat alternativu k moderní počítačové technologii? Jak ukazuje celá historie počítačového průmyslu, výpočetní výkon procesorů roste exponenciálně. Žádné jiné odvětví se nerozvíjí tak rychlým tempem. Zpravidla, když se mluví o tempu růstu výpočetního výkonu procesorů, vzpomínají na tzv. zákon Gordona Moora, odvozený v dubnu 1965, tedy pouhých šest let po vynálezu prvního integrovaného obvodu (IC) .

Na žádost časopisu Electronics napsal Gordon Moore článek věnovaný 35. výročí publikace. Předpověděl, jak se budou polovodičová zařízení vyvíjet v příštích deseti letech. Po analýze tempa vývoje polovodičových součástek a ekonomických faktorů za posledních šest let, tedy od roku 1959, Gordon Moore navrhl, že do roku 1975 bude počet tranzistorů v jednom integrovaném obvodu 65 tisíc.

Ve skutečnosti se podle Moorovy prognózy očekávalo, že počet tranzistorů v jediném čipu vzroste během deseti let více než tisíckrát. To zároveň znamenalo, že každý rok se počet tranzistorů v jednom čipu musel zdvojnásobit.

Následně byly provedeny úpravy Moorova zákona (aby byl korelován s realitou), ale význam se nezměnil: počet tranzistorů v mikroobvodech roste exponenciálně. Přirozeně zvýšení hustoty tranzistorů na čipu je možné pouze zmenšením velikosti samotných tranzistorů. V tomto ohledu je relevantní otázka: do jaké míry lze zmenšit velikost tranzistorů? Již nyní jsou rozměry jednotlivých tranzistorových prvků v procesorech srovnatelné s atomovými, například šířka vrstvy oxidu oddělující hradlové dielektrikum od kanálu pro přenos náboje je jen několik desítek atomových vrstev. Je jasné, že existuje čistě fyzikální limit, který znemožňuje další zmenšení velikosti tranzistorů. I když předpokládáme, že v budoucnu budou mít trochu jinou geometrii a architekturu, je teoreticky nemožné vytvořit tranzistor nebo podobný prvek o velikosti menší než 10 -8 cm (průměr atomu vodíku) a operačním frekvence větší než 10 15 Hz (frekvence atomových přechodů). Proto, ať se nám to líbí nebo ne, je nevyhnutelný den, kdy bude muset být Moorův zákon archivován (pokud ovšem nebude znovu opraven).

Omezené možnosti zvýšení výpočetního výkonu procesorů zmenšením velikosti tranzistorů jsou jen jedním z úzkých míst klasických křemíkových procesorů.

Jak uvidíme později, kvantové počítače v žádném případě nepředstavují pokus o řešení problému miniaturizace základních prvků procesorů.

Řešení problematiky miniaturizace tranzistorů, hledání nových materiálů pro tvorbu elementové báze mikroelektroniky, hledání nových fyzikálních principů pro zařízení s charakteristickými rozměry srovnatelnými s De Broglieho vlnovou délkou, která má hodnotu cca 20 nm – tyto otázky jsou na pořadu dne téměř dvě desetiletí. Výsledkem jejich řešení byla vyvinuta nanotechnologie. Vážným problémem při přechodu na oblast nanoelektronických zařízení je snižování ztráty energie při výpočetních operacích. Myšlenku možnosti „logicky reverzibilních“ operací, které nejsou doprovázeny ztrátou energie, poprvé vyslovil R. Landauer již v roce 1961. Významný krok v řešení tohoto problému učinil v roce 1982 Charles Bennett, který teoreticky dokázal, že univerzální digitální počítač lze postavit na logicky a termodynamicky vratných hradlech tak, že energie bude disipována pouze díky nevratným periferním procesům vstupu informace. do stroje (příprava výchozího stavu) a podle toho z něj výstup (načtení výsledku). Mezi typické reverzibilní univerzální ventily patří ventily Fredkin a Toffoli.

Další problém klasických počítačů spočívá v samotné von Neumannově architektuře a binární logice všech moderních procesorů. Všechny počítače, od analytického enginu Charlese Babbage až po moderní superpočítače, jsou založeny na stejných principech (von Neumannova architektura), které byly vyvinuty již ve 40. letech minulého století.

Každý počítač na softwarové úrovni pracuje s bity (proměnnými, které nabývají hodnoty 0 nebo 1). Pomocí logických hradel se provádějí logické operace s bity, což umožňuje získat na výstupu určitý konečný stav. Změna stavu proměnných se provádí pomocí programu, který definuje sekvenci operací, z nichž každá používá malý počet bitů.

Tradiční procesory provádějí programy sekvenčně. Navzdory existenci víceprocesorových systémů, vícejádrových procesorů a různých technologií zaměřených na zvýšení úrovně paralelismu jsou všechny počítače postavené na bázi von Neumannovy architektury zařízeními se sekvenčním režimem provádění instrukcí. Všechny moderní procesory implementují následující algoritmus pro zpracování příkazů a dat: načítání příkazů a dat z paměti a provádění instrukcí na vybraných datech. Tento cyklus se opakuje mnohokrát a obrovskou rychlostí.

Architektura von Neumanna však omezuje schopnost zvýšit výpočetní výkon moderních PC. Typickým příkladem úlohy, která přesahuje možnosti moderních PC, je rozklad celého čísla na prvočinitele (prvočinitel je faktor, který je dělitelný sám sebou a beze zbytku 1).

Pokud chcete zahrnout číslo do prvočinitelů X, mající n znaků v binárním zápisu, pak je zřejmým způsobem, jak tento problém vyřešit, pokusit se jej postupně rozdělit na čísla od 2 do. K tomu budete muset projít 2 n/2 možností. Pokud například uvažujete o čísle, které má 100 000 znaků (v binárním zápisu), budete muset projít možnostmi 3x10 15 051. Pokud předpokládáme, že na jedno vyhledávání je potřeba jeden cyklus procesoru, pak při rychlosti 3 GHz bude prohledání všech čísel trvat delší dobu, než je stáří naší planety. Existuje však chytrý algoritmus, který řeší stejný problém v exp( n 1/3) kroků, ale ani v tomto případě si ani jeden moderní superpočítač neporadí s úkolem faktorizovat číslo s milionem číslic.

Problém rozkladu čísla na prvočinitele patří do třídy problémů, o kterých se říká, že se neřeší v polynomiálním čase (NP-úplný problém - Nedeterministický polynom-čas úplný). Takové problémy jsou zařazeny do třídy nevyčíslitelných problémů v tom smyslu, že je nelze řešit na klasických počítačích v časovém polynomu v závislosti na počtu bitů. n, představující úkol. Pokud mluvíme o rozkladu čísla na prvočinitele, pak s rostoucím počtem bitů roste čas potřebný k vyřešení problému exponenciálně, nikoli polynomiálně.

Při pohledu do budoucna si všimneme, že kvantové výpočty jsou spojeny s vyhlídkami na řešení NP-úplných problémů v polynomiálním čase.

Kvantová fyzika

Kvantová fyzika samozřejmě volně souvisí s tím, co se nazývá elementární základna moderních počítačů. Když se však mluví o kvantovém počítači, je prostě nemožné vyhnout se zmínce o některých konkrétních termínech kvantové fyziky. Chápeme, že ne každý studoval legendární třetí díl „Teoretické fyziky“ od L.D. Landaua a E.M. Lifshitze a pro mnoho takových pojmů, jako je vlnová funkce a Schrödingerova rovnice, jsou něco z jiného světa. Pokud jde o specifický matematický aparát kvantové mechaniky, jedná se o pevné vzorce a nejasná slova. Proto se budeme snažit dodržovat obecně dostupnou úroveň prezentace a pokud možno se vyvarovat tenzorové analýzy a dalších specifik kvantové mechaniky.

Pro drtivou většinu lidí je kvantová mechanika mimo chápání. Smysl není ani tak ve složitém matematickém aparátu, ale v tom, že zákony kvantové mechaniky jsou nelogické a nemají podvědomou asociaci – nelze si je představit. Analýza nelogičnosti kvantové mechaniky a paradoxní zrod harmonické logiky z této nelogičnosti je však údělem filozofů, my se dotkneme aspektů kvantové mechaniky pouze v rozsahu nezbytném k pochopení podstaty kvantového počítání.

Historie kvantové fyziky začala 14. prosince 1900. Právě v tento den informoval německý fyzik a budoucí nositel Nobelovy ceny Max Planck na setkání Berlínské fyzikální společnosti o zásadním objevu kvantových vlastností tepelného záření. Tak se ve fyzice objevil pojem kvanta energie a mezi jinými základními konstantami Planckova konstanta.

Planckův objev a teorie fotoelektrického jevu Alberta Einsteina, která se pak objevila v roce 1905, stejně jako vytvoření první kvantové teorie atomových spekter Nielsem Bohrem v roce 1913, podnítily vznik a další rychlý rozvoj kvantové teorie a experimentálních studií kvant. jevy.

Již v roce 1926 formuloval Erwin Schrödinger svou slavnou vlnovou rovnici a Enrico Fermi a Paul Dirac získali kvantové statistické rozdělení pro elektronový plyn, zohledňující zaplnění jednotlivých kvantových stavů.

V roce 1928 Felix Bloch analyzoval kvantově mechanický problém pohybu elektronu ve vnějším periodickém poli krystalové mřížky a ukázal, že elektronové energetické spektrum v krystalické pevné látce má pásovou strukturu. Ve skutečnosti to byl začátek nového směru ve fyzice – teorie pevných látek.

Celé 20. století je obdobím intenzivního rozvoje kvantové fyziky a všech těch odvětví fyziky, pro které se kvantová teorie stala předchůdcem.

Vznik kvantového počítání

Myšlenku použití kvantového počítání poprvé vyjádřil sovětský matematik Yu.I. Manin v roce 1980 ve své slavné monografii „Computable and Incomputable“. Pravda, zájem o jeho práci se zvedl až o dva roky později, v roce 1982, po zveřejnění článku na stejné téma od amerického teoretického fyzika, laureáta Nobelovy ceny Richarda Feynmana. Poznamenal, že určité kvantově mechanické operace nelze přesně přenést do klasického počítače. Toto pozorování ho vedlo k přesvědčení, že takové výpočty by mohly být efektivnější, kdyby byly prováděny pomocí kvantových operací.

Zvažte například kvantově mechanický problém změny stavu kvantového systému sestávajícího z n se točí po určitou dobu. Aniž bychom se pouštěli do detailů matematického aparátu kvantové teorie, poznamenáváme, že obecný stav systému z r. n spiny jsou popsány vektorem ve 2n-rozměrném komplexním prostoru a změna jeho stavu je popsána unitární maticí o velikosti 2nx2n. Pokud je uvažované časové období velmi krátké, pak je matice strukturována velmi jednoduše a každý z jejích prvků lze snadno vypočítat, přičemž zná interakci mezi rotacemi. Pokud potřebujete znát změnu stavu systému za delší dobu, pak je potřeba takové matice násobit, a to vyžaduje exponenciálně velké množství operací. Opět jsme postaveni před PN-úplný problém, neřešitelný v polynomiálním čase na klasických počítačích. V současné době neexistuje způsob, jak tento výpočet zjednodušit, a je pravděpodobné, že simulace kvantové mechaniky je exponenciálně obtížný matematický problém. Pokud ale klasické počítače nejsou schopny řešit kvantové problémy, pak by možná bylo vhodné použít pro tento účel samotný kvantový systém? A pokud je to skutečně možné, jsou kvantové systémy vhodné pro řešení jiných výpočetních problémů? Podobné otázky zvažovali Feynman a Manin.

Již v roce 1985 navrhl David Deutsch konkrétní matematický model kvantového stroje.

Až do poloviny 90. let se však oblast kvantových počítačů vyvíjela spíše pomalu. Praktická implementace kvantových počítačů se ukázala jako velmi obtížná. Kromě toho byla vědecká komunita pesimistická ohledně skutečnosti, že kvantové operace mohou urychlit řešení některých výpočetních problémů. To pokračovalo až do roku 1994, kdy americký matematik Peter Shor navrhl rozkladový algoritmus pro kvantový počítač. n-ciferné číslo na prvočinitele v časovém polynomu v závislosti na n(algoritmus kvantové faktorizace). Shorův algoritmus kvantové faktorizace se stal jedním z hlavních faktorů, které vedly k intenzivnímu rozvoji kvantových výpočetních metod a vzniku algoritmů, které umožňují řešení některých NP problémů.

Přirozeně vyvstává otázka: proč ve skutečnosti vedl algoritmus kvantového faktorizace navržený Shorem k takovým důsledkům? Faktem je, že problém rozkladu čísla na prvočísla přímo souvisí s kryptografií, zejména s populárními šifrovacími systémy RSA. Díky schopnosti faktoru čísla do prvočísel v polynomiálním čase by kvantový počítač mohl teoreticky dešifrovat zprávy zakódované pomocí mnoha populárních kryptografických algoritmů, jako je RSA. Až dosud byl tento algoritmus považován za relativně spolehlivý, protože účinný způsob, jak rozdělit čísla na prvočinitele pro klasický počítač, není v současné době znám. Shor přišel s kvantovým algoritmem, který vám umožňuje faktorizovat n-digitální číslo pro n 3 (log n) k kroků ( k=konst). Praktická implementace takového algoritmu by přirozeně mohla mít spíše negativní než pozitivní důsledky, protože umožnila vybrat klíče k šifrám, padělat elektronické podpisy atd. Do praktické implementace skutečného kvantového počítače je však ještě daleko, a proto se během následujících deseti let neobává, že by bylo možné kódy pomocí kvantových počítačů prolomit.

Myšlenka kvantových počítačů

Po krátkém popisu historie kvantového počítání tedy můžeme přejít k úvahám o jeho samotné podstatě. Myšlenka (ale ne její implementace) kvantového počítání je docela jednoduchá a zajímavá. Ale i pro její povrchní pochopení je nutné se seznámit s některými konkrétními pojmy kvantové fyziky.

Než budeme uvažovat o zobecněných kvantových konceptech stavového vektoru a principu superpozice, uvažujme jednoduchý příklad polarizovaného fotonu. Polarizovaný foton je příkladem dvouúrovňového kvantového systému. Polarizační stav fotonu může být specifikován stavovým vektorem, který určuje směr polarizace. Polarizace fotonu může směřovat nahoru nebo dolů, takže mluví o dvou hlavních neboli základních stavech, které se označují jako |1 a |0.

Tyto zápisy (zápisy podprsenka/kočka) zavedl Dirac a mají striktně matematickou definici (základní stavové vektory), která určuje pravidla pro práci s nimi, nicméně abychom nezabředli do matematické džungle, nebudeme tyto uvažovat jemnosti v detailu.

Vrátíme-li se k polarizovanému fotonu, podotýkáme, že jako základní tvrzení jsme si mohli vybrat nejen horizontální a vertikální, ale také libovolné vzájemně ortogonální směry polarizace. Význam stavů báze je ten, že jakákoli libovolná polarizace může být vyjádřena jako lineární kombinace stavů báze, tj. a|1+b|0. Protože nás zajímá pouze směr polarizace (velikost polarizace není důležitá), lze stavový vektor považovat za jednotku, tedy |a| 2 +|b| 2 = 1.

Nyní zobecněme příklad s fotonovou polarizací na libovolný dvouúrovňový kvantový systém.

Předpokládejme, že máme libovolný dvouúrovňový kvantový systém, který je charakterizován základními ortogonálními stavy |1 a |0. Podle zákonů (postulátů) kvantové mechaniky (princip superpozice) budou možné stavy kvantového systému také superpozice y = a|1+b|0, kde a a b jsou komplexní čísla nazývaná amplitudy. Všimněte si, že v klasické fyzice neexistuje žádná analogie stavu superpozice.

Jeden ze základních postulátů kvantové mechaniky říká, že aby bylo možné změřit stav kvantového systému, musí být zničen. To znamená, že jakýkoli proces měření v kvantové fyzice narušuje výchozí stav systému a převádí jej do nového stavu. Porozumět tomuto tvrzení není tak snadné, a proto se u něj pozastavme podrobněji.

Obecně platí, že pojem měření v kvantové fyzice hraje zvláštní roli a nemělo by být považováno za měření v klasickém smyslu. K měření kvantového systému dochází vždy, když se dostane do interakce s „klasickým“ objektem, tedy objektem, který se řídí zákony klasické fyziky. V důsledku takové interakce se mění stav kvantového systému a povaha a velikost této změny závisí na stavu kvantového systému a může tedy sloužit jako jeho kvantitativní charakteristika.

V tomto ohledu se klasický objekt obvykle nazývá zařízení a jeho proces interakce s kvantovým systémem se nazývá měření. Nutno zdůraznit, že tím vůbec není míněn proces měření, kterého se pozorovatel účastní. Měřením v kvantové fyzice rozumíme jakýkoli proces interakce mezi klasickými a kvantovými objekty, ke kterému dochází navíc a nezávisle na jakémkoli pozorovateli. Objasnění role měření v kvantové fyzice patří Nielsi Bohrovi.

Abychom tedy mohli změřit kvantový systém, je nutné na něj nějak působit klasickým objektem, načež se jeho původní stav naruší. Navíc lze namítnout, že v důsledku měření se kvantový systém přenese do jednoho ze svých základních stavů. Například pro měření dvouúrovňového kvantového systému je zapotřebí alespoň dvouúrovňový klasický objekt, tedy klasický objekt, který může nabývat dvou možných hodnot: 0 a 1. Během procesu měření se stav kvantového systém bude transformován do jednoho ze základních vektorů, a pokud klasický objekt nabývá hodnotu rovnou 0, pak se kvantový objekt transformuje do stavu |0, a pokud klasický objekt nabývá hodnotu rovnou 1, pak kvantový objekt se převede do stavu |1.

Ačkoliv tedy kvantový dvouúrovňový systém může být v nekonečném počtu superpozičních stavů, jako výsledek měření zaujímá pouze jeden ze dvou možných základních stavů. Modul amplitudy na druhou |a| 2 určuje pravděpodobnost detekce (měření) systému v základním stavu |1 a druhou mocninu amplitudového modulu |b| 2 - v základním stavu |0.

Vraťme se však k našemu příkladu s polarizovaným fotonem. K měření stavu fotonu (jeho polarizace) potřebujeme nějaké klasické zařízení s klasickou bází (1,0). Potom bude polarizační stav fotonu a|1+b|0 definován jako 1 (horizontální polarizace) s pravděpodobností |a| 2 a jako 0 (vertikální polarizace) s pravděpodobností |b| 2.

Protože měření kvantového systému vede do jednoho ze základních stavů, a tudíž ničí superpozici (např. při měření se získá hodnota rovna |1), znamená to, že v důsledku měření kvantový systém přejde do nového kvantového stavu a při dalším měření získáme se 100% pravděpodobností hodnotu |1.

Stavový vektor dvouúrovňového kvantového systému se také nazývá vlnová funkce kvantových stavů y dvouúrovňového systému, nebo v interpretaci kvantového počítání qubit (kvantový bit, qubit). Na rozdíl od klasického bitu, který může nabývat pouze dvou logických hodnot, je qubit kvantovým objektem a počet jeho stavů určený superpozicí je neomezený. Ještě jednou však zdůrazňujeme, že výsledek měření qubit nás vždy vede k jedné ze dvou možných hodnot.

Nyní zvažte systém dvou qubitů. Měřením každého z nich lze získat klasickou hodnotu objektu 0 nebo 1. Proto má systém dvou qubitů čtyři klasické stavy: 00, 01, 10 a 11. Analogické jsou základní kvantové stavy: |00, |01, |10 a |11. Odpovídající kvantový stavový vektor je zapsán jako A|00+b|01+ C|10+ d|11, kde | A| 2 - pravděpodobnost při měření získat hodnotu 00, | b| 2 - pravděpodobnost získání hodnoty 01 atd.

Obecně platí, že pokud se kvantový systém skládá z L qubity, pak má 2 L možné klasické stavy, z nichž každý lze s určitou pravděpodobností změřit. Stavová funkce takového kvantového systému bude zapsána jako:

kde | n- základní kvantové stavy (například stav |001101 a | Cn| 2 - pravděpodobnost, že bude v základním stavu | n.

Aby se změnil stav superpozice kvantového systému, je nutné implementovat selektivní vnější vliv na každý qubit. Z matematického hlediska je taková transformace reprezentována unitárními maticemi velikosti 2 L x2 L. V důsledku toho bude získán nový stav kvantové superpozice.

Struktura kvantového počítače

Uvažovali jsme o transformaci stavu superpozice kvantového systému sestávajícího z L qubits je v podstatě model kvantového počítače. Zvažte například jednodušší příklad implementace kvantového počítání. Předpokládejme, že máme systém L qubity, z nichž každý je ideálně izolován od vnějšího světa. V každém okamžiku si můžeme vybrat libovolné dva qubity a působit na ně jednotnou maticí o velikosti 4x4. Posloupnost takových vlivů je jakýmsi programem pro kvantový počítač.

Chcete-li použít kvantový obvod pro výpočet, musíte být schopni zadat vstupní data, provést výpočet a přečíst výsledek. Proto schéma zapojení každého kvantového počítače (viz obrázek) musí obsahovat následující funkční bloky: kvantový registr pro vstup dat, kvantový procesor pro konverzi dat a zařízení pro čtení dat.

Kvantový registr je soubor určitého počtu L qubity Před zadáním informace do počítače je nutné uvést všechny qubity kvantového registru do základních stavů |0. Tato operace se nazývá příprava nebo inicializace. Dále jsou určité qubity (ne všechny) vystaveny selektivnímu vnějšímu vlivu (např. pomocí pulzů vnějšího elektromagnetického pole řízeného klasickým počítačem), který mění hodnotu qubitů, to znamená, že přecházejí ze stavu |0 do stát |1. V tomto případě půjde stav celého kvantového registru do superpozice základních stavů | n s, to znamená, že stav kvantového registru v počátečním okamžiku bude určen funkcí:

Je jasné, že tento stav superpozice lze použít pro binární reprezentaci čísla n.

V kvantovém procesoru jsou vstupní data podrobena sledu kvantově logických operací, které jsou z matematického hlediska popsány unitární transformací působící na stav celého registru. Výsledkem je, že po určitém počtu cyklů kvantového procesoru se počáteční kvantový stav systému stává novou superpozicí formy:

Když už mluvíme o kvantovém procesoru, musíme udělat jednu důležitou poznámku. Ukazuje se, že ke konstrukci jakéhokoli výpočtu stačí pouze dvě základní logické booleovské operace. Pomocí základních kvantových operací je možné napodobit činnost běžných logických hradel, ze kterých jsou počítače vyrobeny. Vzhledem k tomu, že zákony kvantové fyziky na mikroskopické úrovni jsou lineární a reverzibilní, odpovídající kvantová logická zařízení, která provádějí operace s kvantovými stavy jednotlivých qubitů (kvantová hradla), se ukazují jako logicky a termodynamicky reverzibilní. Kvantová hradla jsou podobná odpovídajícím reverzibilním klasickým bránám, ale na rozdíl od nich jsou schopna provádět unitární operace na superpozicích stavů. Implementace unitárních logických operací na qubitech má být prováděna s využitím vhodných vnějších vlivů řízených klasickými počítači.

Schématická struktura kvantového počítače

Po implementaci transformací v kvantovém počítači je nová superpoziční funkce výsledkem výpočtů v kvantovém procesoru. Zbývá jen spočítat získané hodnoty, pro které se měří hodnota kvantového systému. Výsledkem je vytvoření sekvence nul a jedniček a vzhledem k pravděpodobnostní povaze měření to může být cokoliv. Kvantový počítač tedy může s určitou pravděpodobností dát jakoukoli odpověď. V tomto případě je kvantové výpočetní schéma považováno za správné, pokud je správná odpověď získána s pravděpodobností dostatečně blízkou jednotě. Několikanásobným opakováním výpočtů a výběrem odpovědi, která se vyskytuje nejčastěji, můžete snížit pravděpodobnost chyby na libovolně malé množství.

Abychom pochopili, jak se klasické a kvantové počítače liší ve svém provozu, připomeňme si, co klasický počítač ukládá do paměti L bitů, které se mění během každého cyklu procesoru. V kvantovém počítači paměť (stavový registr) ukládá hodnoty L qubity, nicméně kvantový systém je ve stavu, který je superpozicí všech bází 2 L stavy a změna kvantového stavu systému vytvořeného kvantovým procesorem ovlivní všechny 2 L základní stavy současně. Podle toho je v kvantovém počítači výpočetního výkonu dosaženo implementací paralelních výpočtů a teoreticky může kvantový počítač pracovat exponenciálně rychleji než klasický obvod.

Má se za to, že pro implementaci kvantového počítače v plném měřítku, který má lepší výkon než jakýkoli klasický počítač, bez ohledu na to, na jakých fyzikálních principech funguje, musí být splněny následující základní požadavky:

  • fyzický systém, který je plnohodnotným kvantovým počítačem, musí obsahovat dostatečně velký počet L>103 jasně viditelných qubitů pro provádění relevantních kvantových operací;
  • je nutné zajistit maximální potlačení účinků destrukce superpozice kvantových stavů způsobených interakcí systému qubit s prostředím, v důsledku čehož může být provádění kvantových algoritmů nemožné. Doba pro zničení superpozice kvantových stavů (doba dekoherence) musí být alespoň 104krát delší než doba potřebná k provedení základních kvantových operací (doba cyklu). K tomu musí být systém qubit poměrně volně propojen se svým prostředím;
  • je nutné zajistit měření s dostatečně vysokou spolehlivostí stavu kvantového systému na výstupu. Měření konečného kvantového stavu je jednou z hlavních výzev kvantového počítání.

Praktické aplikace kvantových počítačů

Pro praktické využití zatím nebyl vytvořen jediný kvantový počítač, který by splňoval všechny výše uvedené podmínky. V mnoha vyspělých zemích je však vývoji kvantových počítačů věnována velká pozornost a ročně se do takových programů investují desítky milionů dolarů.

V současnosti je největší kvantový počítač tvořen pouze sedmi qubity. To stačí k implementaci Shorova algoritmu a faktoru číslo 15 na prvočinitele 3 a 5.

Pokud mluvíme o možných modelech kvantových počítačů, pak je jich v zásadě poměrně hodně. První kvantový počítač, který byl v praxi vytvořen, byl spektrometr pulzní nukleární magnetické rezonance (NMR) s vysokým rozlišením, i když se samozřejmě nepovažoval za kvantový počítač. Teprve když se objevil koncept kvantového počítače, vědci pochopili, že NMR spektrometr je variantou kvantového počítače.

V NMR spektrometru tvoří spiny jader studované molekuly qubity. Každé jádro má svou vlastní rezonanční frekvenci v daném magnetickém poli. Když je jádro vystaveno pulzu na jeho rezonanční frekvenci, začne se vyvíjet, zatímco zbývající jádra nezaznamenají žádný dopad. Abyste přinutili další jádro k vývoji, musíte vzít jinou rezonanční frekvenci a dát jí impuls. Pulzní působení na jádra na rezonanční frekvenci tedy představuje selektivní účinek na qubity. Navíc molekula má přímé spojení mezi spiny, takže je to ideální přípravek pro kvantový počítač a samotný spektrometr je kvantový procesor.

První experimenty na jaderných spinech dvou atomů vodíku v molekulách 2,3-dibromthiofenu SCH:(CBr) 2:CH a na třech jaderných spinech - jednom v atomu vodíku H a dvou v izotopech uhlíku 13 C v molekulách trichlorethylenu CCl 2:CHCl - byly představeny v roce 1997 v Oxfordu (UK).

V případě použití NMR spektrometru je důležité, že pro selektivní ovlivnění jaderných spinů molekuly je nutné, aby se výrazně lišily v rezonančních frekvencích. Později byly kvantové operace prováděny v NMR spektrometru s počtem qubitů 3, 5, 6 a 7.

Hlavní výhodou NMR spektrometru je, že může používat obrovské množství identických molekul. Navíc každá molekula (přesněji jádra atomů, ze kterých se skládá) je kvantový systém. Sekvence radiofrekvenčních pulsů, působící jako určitá kvantová logická hradla, provádějí unitární transformace stavů odpovídajících jaderných spinů současně pro všechny molekuly. To znamená, že selektivní vliv na jednotlivé qubity je nahrazen současným přístupem k odpovídajícím qubitům ve všech molekulách velkého souboru. Počítač tohoto druhu se nazývá kvantový počítač s hromadným souborem. Takové počítače mohou pracovat při pokojové teplotě a doba dekoherence kvantových stavů jaderných spinů je několik sekund.

V oblasti NMR kvantových počítačů na organických kapalinách bylo dosud dosaženo největšího pokroku. Jsou způsobeny především propracovanou technikou pulzní NMR spektroskopie, která umožňuje provádět různé operace na koherentních superpozicích jaderných spinových stavů, a možností použití standardních NMR spektrometrů pracujících při pokojové teplotě pro tento účel.

Hlavním omezením NMR kvantových počítačů je obtížnost inicializace počátečního stavu v kvantovém registru. Faktem je, že ve velkém souboru molekul je počáteční stav qubitů odlišný, což komplikuje uvedení systému do počátečního stavu.

Dalším omezením NMR kvantových počítačů je skutečnost, že signál měřený na výstupu systému exponenciálně klesá s rostoucím počtem qubitů L. Navíc je omezený počet jaderných qubitů v jedné molekule s velmi rozdílnými rezonančními frekvencemi. To vede k tomu, že NMR kvantové počítače nemohou mít více než deset qubitů. Měly by být považovány pouze za prototypy budoucích kvantových počítačů, užitečné pro testování principů kvantového počítání a testování kvantových algoritmů.

Jiná verze kvantového počítače je založena na použití iontových pastí, kdy úlohou qubitů je energetická hladina iontů zachycených iontovými pastmi, které vznikají ve vakuu určitou konfigurací elektrického pole za podmínek chlazení laseru na ultra nízké teploty. První prototyp kvantového počítače založeného na tomto principu byl navržen v roce 1995. Výhodou tohoto přístupu je, že je relativně jednoduché jednotlivě ovládat jednotlivé qubity. Hlavními nevýhodami kvantových počítačů tohoto typu je potřeba vytvářet ultra nízké teploty, zajistit stabilitu stavu iontů v řetězci a omezený možný počet qubitů - ne více než 40.

Možné jsou i další schémata pro kvantové počítače, jejichž vývoj právě probíhá. Než však budou definitivně vytvořeny skutečné kvantové počítače, potrvá ještě minimálně deset let.




Nahoru