Článek
Čtete ukázku z newsletteru TechMIX, ve kterém Pavel Kasík a Matouš Lázňovský každou středu přinášejí hned několik komentářů a postřehů ze světa vědy a nových technologií. Pokud vás TechMIX zaujme, přihlaste se k jeho odběru!
Překročení této symbolické hranice firma pochopitelně využila pro reklamu, ale skutečně zajímavé milníky ve vývoji kvantových počítačů padají jinde. Ostatně i samotné IBM ve svém programu dalšího vývoje kvantových zařízení dává najevo, že větší důraz bude klást na jiné aspekty technologie.
Připomeňme, že kvantové počítače mají být v řešení určitého okruhu problémů, například v kryptografii, výrazně efektivnější než ty klasické. V kvantovém procesoru dochází zjednodušeně řečeno k rychlejšímu „škrtání“ špatných řešení, takže v některých případech (zdaleka ne ve všech) je možné dosáhnout cíle s vynaložením výrazně menšího výpočetního výkonu.
„Někteří lidé z oboru tvrdí, že kvantové počítače dokážou vyřešit prakticky cokoliv. Viděl jsem i materiály, které slibovaly bez nadsázky průlom v léčbě rakoviny, ale ve skutečnosti je okruh problémů, ve kterých slibují výrazné zlepšení, poměrně úzký,“ říká Jakub Mareček z ČVUT, který v minulosti pracoval i pro firmu IBM a s jejím výzkumným týmem spolupracuje na některých projektech dodnes.
Byť se o kvantových počítačích mluví desetiletí, a kvantové procesory i počítače jsou dokonce v prodeji (ve velmi omezených počtech a za extrémně vysoké ceny), skutečně praktický počítač tohoto typu zatím neexistuje. Pokrok v oblasti je ale v poslední době až nečekaně rychlý a po letech slibů se rýsuje možnost, že kvantové počítače budou k dispozici rychleji, než se čekalo.
Je to ovšem jen možnost, nikoliv jistota. „Ve hře je totiž stále příliš mnoho neznámých a mnoho nejistoty,“ dodává Mareček.
Tři různé cesty
Vývoj kvantových počítačů probíhá v několika směrech. Tím prvním je zmíněné zvyšování počtu qubitů v procesorech. To je nepochybně důležitý krok. Malé procesory totiž zvládnou v principu jen malé problémy a na ty stačí křemíkové digitální procesory, byť je třeba neřeší optimálně. Práce s jednotkami qubitů je poměrně dobře zvládnutá a takové stroje není těžké postavit, jen k ničemu praktickému nejsou.
Inženýrům a konstruktérům se ovšem v posledních letech daří počty kvantových bitů v čipech poměrně rychle zvyšovat. Loni měl rekordní procesor IBM 433 qubitů, letošní model Condor už disponuje 1121 supravodivými qubity ve voštinové struktuře.
Zvyšování samotného výkonu je ovšem jen jednou z nutných podmínek. Tou další, a zatím problematičtější, je vychytávání chyb, kterých kvantové počítače - protože jde o počítače analogové - nutně dělají.
Část chyb je dána samým principem zařízení. Jistá „zaokrouhlení“ jsou nezbytná a nutně s sebou nesou chybu. Zároveň jsou ovšem samotná kvantová zařízení v principu velmi citlivá na šum z prostředí a vznikají v nich nejrůznější chyby dané jejich konstrukčním řešením.
Ve výsledku je chybovost tak velká, že v dnešních kvantových počítačích vám i po relativně nízkém počtu operací z původních hodnot nezůstane nic než šum. Prakticky jsou tak tato zařízení i přes velmi odvážná tvrzení některých vývojářů nebo firem nepoužitelná.
Jak se chyb zbavit? Osvědčeným řešením je vytvořit robustnější výpočty spojením několika jednotlivých qubitů – každého zakódovaného například v supravodivém obvodu nebo v jednotlivém iontu – do větších „logických qubitů“. Ty mají sloužit ke kontrole chyb a umožňují jejich opravu.
Takové neefektivní nakládání s qubity je dobrý důvod, proč je důležité zvyšovat počet qubitů kvantových počítačů. Pokud bychom měli k dispozici stroj s miliardami qubitů, obětovat jich velkou část na „kontrolu kvality“ by nebyl problém.
Bohužel v takové pozici nejsme. Pokud by mělo zvyšování výkonu probíhat stávajícím tempem, kvantové počítače by velikosti řádově miliard qubitů mohly dosáhnout zhruba za 20 let. Pokud by se tedy podařilo současné tempo vývoje udržet, což není vůbec jisté.
Méně nepřesné díly a méně náročné opravy
Další cestou je snižování množství chyb v samotných qubitech. „Problém přitom není v jednom jediném qubitu, ale v chybovosti hradla složeného ze dvou qubitů, které je vlastně takovým základním dílem, ze kterého se počítače skládají,“ přibližuje Jakub Mareček.
I v této oblasti nastal v posledních letech pokrok, který byl ovšem výrazně pomalejší než v případě zvyšování počtu qubitů v procesoru. Letos se ale obor dočkal příjemného překvapení: IBM v prosinci představila kromě svého rekordního čipu Condor také výrazně menší čip Heron (Volavka). Ten má sice „jen“ 133 qubitů, ale s rekordně nízkou chybovostí, třikrát nižší než u předchozího kvantového procesoru. I když chybovost pořád není tak nízká, jak by bylo zapotřebí, rozhodně jde o nečekaný a vítaný krok správným směrem, který dává naději do budoucna.
Posledním dílem skládačky, který dává naději na nečekaně rychlý přechod ke kvantové výpočetní technice, je „měkká“ část počítačů, tedy software. Spolehlivost a praktickou použitelnost kvantových počítačů má totiž kromě dostatečného výkonu a robustních qubitů zajišťovat i to, co na nich „bude běhat“, tedy algoritmy, které mají takové stroje používat.
Protože hlavním problémem jsou v této oblasti chyby, prim hraje vývoj „samoopravných kvantových kódů“, který zajistí spolehlivost výsledků (tedy za podmínky, že chyb v práci procesoru nebude příliš). V této oblasti se ovšem vývoj příliš nehýbal. Odhady donedávna tvrdily, že aby byla zaručena dostatečně nízká chybovost, bude muset být fyzických qubitů mnohonásobně více než „logických“.
Kvantové výpočty na tisíci kubitech by v takovém případě potřebovaly tisícinásobné jištění. Což třeba znamená, že nový čip Condor by v praxi nebyl 1000qubitový, ale jednoqubitový. Z milionů qubitů by byly přinejlepším tisíce – a skutečně výkonných kvantových počítačů bychom se tedy těžko mohli dočkat dříve než za desítky let.
V poslední době ovšem obor nadchlo alternativní schéma korekce s pomocí nízkohustotního kódu s kontrolou parity (v anglické zkratce qLDPC, tedy „quantum low-density parity-check code“). Jde o techniku tvorby samoopravného kódu, která je založena na postupech používaných zcela běžně v klasických komunikacích. Ovšem upravit ji pro kvantová zařízení ji zatím nikdo nedokázal.
V posledních dvou letech přibývá výsledků, které naznačují, že tuto složitou a dosti exotickou otázku se snad může podařit vyřešit. Zdá se, že by tuto úspornou techniku mohlo být možné nasadit i na větších kvantových procesorech. To může znamenat zásadní snížení potřeby „jištění“ pro jednotlivé qubity. Tým odborníků z IBM nedávno dospěl k závěru, že by se poměr mohl pohybovat kolem 25:1 místo třeba 1000:1, což by mohlo zajistit, že výkonné kvantové počítače by měly „dozrát“ rychleji, než se ještě nedávno čekalo.
Na oslavy a definitivní potvrzení je stále ještě příliš brzy. Ve hře je příliš mnoho nejistoty a neznámých proměnných. Nasazení qLDCP techniky je zatím spíše teoretické, nebo reálné jen na těch nejjednodušších modelech. Může trvat roky, než se kód podaří zvládnout tak, aby bylo možné uvažovat o jeho implementaci na výkonnějších strojích.
Nepůjde to také vždy. Pro využití tohoto typu kódu je nutné, aby byl každý fyzický qubit propojen alespoň se šesti dalšími. V případě současných čipů IBM je propojen jen se dvěma, a tak bude nutné změnit celou řadu věcí i na hardwarové úrovni. Ovšem obor je stále v plenkách a vývojáři nejsou omezeni požadavky výroby, ochota ke změnám je vysoká.
Pokud se tyto změny podaří uskutečnit a osvědčí se, můžeme se tedy kvantových počítačů dočkat dříve, než se čekalo. Což je v mnoha ohledech dobře, zároveň to ovšem může být velmi drahé.
Už v tuto chvíli je totiž jasné, že kvantové počítače si výrazně snáze a rychleji než ty klasické poradí s prolamováním řady dnes používaných typů šifer a zabezpeční. Pokud se výkonné kvantové výpočetní stroje objeví rychle, organizace jako státy, banky a další budou muset rychle přijít se „záplatou“. Což není nemožné, rozhodně to ale nebude levné a přes noc.
V plné verzi newsletteru TechMIX toho najdete ještě mnohem víc. Přihlaste se k odběru a budete ho dostávat každou středu přímo do své e-mailové schránky.