Kvanteoverlegenhet er en milepæl som refererer til en eksperimentell demonstrasjon der en programmerbar kvanteprosessor utfører en veldefinert beregningsoppgave på en tid som er umulig for noen kjent klassisk datamaskin. Eksperimentet rapportert av Google i 2019, utført på den 53-qubit superledende prosessoren kalt «Sycamore», er den første aksepterte demonstrasjonen av denne milepælen. Oppgaven som Sycamore utførte blir ofte parafrasert som «sampling fra utgangsfordelingen til en tilfeldig kvantekrets». Det nøyaktige beregningsproblemet, dets formelle formulering og årsakene til at det antas å være utenfor praktisk rekkevidde for klassiske maskiner, undersøkes nedenfor trinnvis.
1. Teoretisk innramming av tilfeldig kretssampling (RCS)
1.1. Formell definisjon
En tilfeldig kvantekrets C som virker på n qubits er tegnet fra en offentlig kjent fordeling D av kretser. Hver krets har en fast dybde d (antall sykluser med porter) og et foreskrevet portsett; for Sycamores demonstrasjon er d = 20 sykluser og portsettet besto av vilkårlige rotasjoner av én qubit og fSIM-porter på to qubits arrangert på et todimensjonalt rutenett. Beregningsproblemet er følgende:
Inndata: en beskrivelse av kretsen C ∼ D på n qubits.
Oppgave: produsere m uavhengige bitstrenger s₁, …, s_m ∈ {0,1}ⁿ hvis fellesfordeling er ε-nær (i total variasjonsavstand) kvanteutgangsfordelingen P_C(z) = |⟨z|C|0ⁿ⟩|².
Kravet «ε-lukket» forbyr trivielle eller åpenbart gale løsninger, som å sende ut en uniform tilfeldig streng. Det er eksplisitt: utdatafordelingen må ha en statistisk avstand til P_C som består spesifiserte kvalitetstester (lineær kryssentropi-benchmarking i Google-eksperimentet).
1.2. Kompleksitetklassifisering
Utvalgsproblemer analyseres vanligvis innenfor rammeverket av distribusjonskompleksitetsklasser. RCS kan formuleres som et løfteproblem i klassen BQP over distribusjoner (BQPSamp). Den viktige antagelsen er at det å approksimere P_C til multiplikativ feil opptil 1/ poly(n) er #P-vanskelig i gjennomsnitt. Under Stockmeyers tellesetning ville en effektiv klassisk sampler som gir selv beskjedne multiplikative tilnærminger, kollapse polynomhierarkiet (PH) til dets tredje nivå. Den stående antagelsen om at PH ikke kollapser, fører til at samfunnet anser RCS som klassisk vanskelig å løse ved store n og d.
2. Eksperimentell realisering på Sycamore
2.1. maskinvare
Sycamore benytter plane superledende transmon-qubits. Hver qubit kobles kapasitivt til fire nærmeste naboer arrangert på et semi-rektangulært gitter. Spennings- og mikrobølgepulser gir rotasjoner av enkeltqubits rundt vilkårlige akser, mens avstemmbare koblere aktiverer fSIM to-qubit entangling gate (en generalisert √iSWAP etterfulgt av kontrollerte fasetermer).
2.2. Kretskonstruksjon
Tjue sykluser ble utført, hver syklus inneholdt:
• For hver qubit, en enkelt-qubit rotasjon parametrisert som Rz(θ₁)Rx(θ₂)Rz(θ₃). Vinklene ble tegnet pseudotilfeldig med svært presise rasjonelle verdier kjent for både eksperimentelle og verifikatorer.
• På alternerende sykluser ble et mønster av fSIM-porter brukt mellom disjunkte sett med nærliggende qubits, slik at hver kant av gitteret ble aktivert to ganger i løpet av de 20 syklusene.
Resultatet er en krets med «høy dybde, lav lokalitet» som viser en Porter-Thomas-fordeling av utgangssannsynligheter.
2.3. Prøvetakingsprosedyre
Etter å ha utført 20-sykluskretsen, ble alle 53 qubits målt i beregningsgrunnlaget. Hver kjøring leverte en 53-bits binærstreng. Sekvensen av eksperimentelle bitstrenger er eksemplet fra P_C.
3. Verifisering av korrekt prøvetaking
3.1. Kryssentropi-benchmarking (XEB)
For kretser opptil 14 qubits er klassisk simulering fortsatt mulig. Google målte den lineære kryssentropi-fideliteten F_XEB = (2ⁿ)〈P_C(s)〉_m − 1, hvor 〈·〉_m betegner det empiriske gjennomsnittet over m prøver. En ideell kvanteenhet som sampler perfekt fra P_C ville gi F_XEB = 1. En jevnt tilfeldig sampler gir F_XEB ≈ 0. Sycamore-enheten oppnådde F_XEB ≈ 0.002 for hele 53-qubit-kretsene, noe som samsvarer med en gate-fidelitet per syklus over 99.9 %.
3.2. Verifisering av syklussegmenter
Ved å avkorte de siste syklusene, laget teamet grunnere versjoner av kretsene som fortsatt var klassisk simulerbare, og bekreftet at XEB ekstrapolerte jevnt med dybde, noe som gir tillit til gjengivelsesestimatene for fulldybdeeksperimentet.
4. Klassisk simuleringsinnsats
4.1. Schrödinger-Feynman hybridalgoritme
Googles egne simulatorer utnyttet minneavtrykk på 4 petabyte fordelt på 512 TPU-kjerner og 4096 noder i Summit-superdatamaskinen for å beregne ideelle amplituder for kretser på opptil 42 qubit og 20 sykluser. Ekstrapolering av ressursbruk antydet at simulering av 53 qubit i full dybde ville kreve dager til måneder på eksisterende eksaskalasystemer og hundrevis av petabyte med RAM.
4.2. Konkurrerende simuleringer (IBM, Alibaba, osv.)
IBM-forskere benyttet en tensor-nettverks-kontraksjonsstrategi og hevdet at den samme fordelingen kunne samples på omtrent 2.5 dager på Summit. Dette estimatet utelot I/O-kostnaden ved å skrive terabyte med amplitudedata og baserte seg på partisjoneringstriks som mislykkes for kretser med litt høyere dybde eller uregelmessige qubit-oppsett. Oppfølgingstester bekreftet Googles estimat om at en direkte klassisk simulering med sammenlignbar gjengivelse ville ta århundrer på dagens superdatamaskiner hvis den ble utført naivt. Selv om justerte algoritmer reduserer 10¹¹ s med to størrelsesordener, forblir kjøretidsgapet flere millioner ganger større enn Sycamores 200-sekunders veggklokke.
5. Hvorfor tilfeldig kretsprøvetaking antas å være vanskelig
5.1. Porter-Thomas sparsitet
Utgangsamplitudene til kaotiske kvantekretser følger en eksponensiell fordeling; dermed endrer ørsmå endringer i amplituder sannsynlighetene i stor grad, noe som gjør omtrentlig sampling ekstremt følsom for beregningsstøy.
5.2. Gjennomsnittlig hardhet i kassen
Jozsa og Van den Nest viste at klassisk simulering av en tilfeldig tegnet krets fra universelle portsett er like vanskelig i gjennomsnitt som å simulere de hardeste kretsene, forutsatt antikonsentrasjonsegenskapen. Aaronson og Chen beviste videre at multiplikative tilnærminger av amplituder forblir #P-harde i gjennomsnittstilfellet for kretser som viser antikonsentrasjon, noe RCS tilfredsstiller.
5.3. Finkornet kompleksitet
Forutsatt at det ikke finnes noen klassisk 2^{αn}-tidsalgoritme for omtrentlige utgangsfordelinger ved konstant dybde utover 40–50 sykluser, forklarer en antagelse som er parallell med den eksponensielle tidshypotesen, den eksponensielle skaleringen som observeres i både tensornettverks- og Feynman-bane-klassiske tilnærminger.
6. Didaktisk miniatyreksempel
6.1. Tre-qubit tilfeldig krets
Velg kretsdybde d = 2 sykluser:
Syklus 1: tilfeldige rotasjoner av én qubit på hver qubit etterfulgt av CZ-gate mellom q₀-q₁.
Syklus 2: nye rotasjoner med én qubit etterfulgt av CZ mellom q₁-q₂.
Klassisk beregning av alle åtte amplituder krever 2³ = 8 komplekse tall, trivielt for moderne datamaskiner. Sampling av 1000 bitstrenger er umiddelbar. For 53 qubits trenger man 2⁵³ ≈ 9×10¹⁵ amplituder; det er umulig å mellomlagre bare de ikke-ubetydelige fordi Porter-Thomas-fordelingen sikrer at de fleste amplituder ligger over 2^{−53}. Dermed fremhever tre-qubit-leketøyet den eksponensielle økningen samtidig som kretsstrukturen holdes analog.
6.2. Illustrasjon av skalering av tensornettverk
Sammentrekningen av et 3×3-gitter oppå eksemplet med tre qubit deler seg i ni rang-2-tensorer; film til 53 qubits på et ikke-kvadratisk rutenett blåser opp indekser og bindinger, med skalering av sammentrekningskostnad ~χ^w hvor χ er bindingsdimensjonen (~2) og w er trebredden (≈n). Dette oversettes til 2^{53} etter å ha eliminert optimaliseringer med konstant faktor.
7. Forholdet mellom TensorFlow Quantum (TFQ) og maskinlæring
Sycamores prestasjon benyttet ikke maskinlæringsteknikker i kjerneprøvetakingsoppgaven, men metodikken påvirket hybride klassisk-kvante arbeidsflyter eksponert i rammeverk som TFQ. Tilfeldig kretsprøvetaking har blitt et standard referanselag i TFQ, nyttig for:
• Stresstesting av stokastiske gradientoptimalisatorer som opererer på variasjonelle kvantekretser under maskinvarestøy.
• Generering av syntetiske datasett for å kalibrere kvantegenerative adversarielle nettverk, med Porter-Thomas-fordelingen som mål.
• Produsere funksjonskart med kjerneverdier som tilnærmer seg polynomkjerner av høy grad som klassisk er utilgjengelige, gunstig for visse støttevektormaskinkonstruksjoner.
Forskere kan derfor undersøke hvordan treningsmålinger forringes med økende dybde, noe som speiler forfallet av gjengivelsen som observeres i overlegenhetseksperimentet.
8. Vanlige misoppfatninger, avklaringer og begrensninger
8.1. Nytten av det løste problemet
RCS har ingen direkte industriell anvendelse. Dens betydning er grunnleggende: den setter standarden for krysningspunktet der kvanteenheter overgår klassiske motparter for minst én eksplisitt beregningsoppgave.
8.2. «Løs» versus «prøve»
Sycamore beregnet ikke et svar på et algebraisk problem eller et optimaliseringsproblem; det genererte prøver. Valideringen var basert på statistiske egenskaper, ikke deterministisk likhet.
8.3. «53-qubit kvantedatamaskin slår superdatamaskin»
Fortellingen er ofte overdrevet. Påstanden om overlegenhet holder stand under antagelsen om at det ikke finnes noen ukjent, drastisk bedre klassisk algoritme for omtrentlig RCS og under feilgrensene satt av eksperimentet. Praktiske, feilkorrigerte kvantedatamaskiner for brede applikasjoner krever fortsatt størrelsesordener flere logiske qubits.
9. Utviklingen etter overherredømmet
9.1. Replikasjoner på tvers av plattformer
Fotoniske ensembler (f.eks. USTCs Jiuzhang-serie) utførte Gaussisk bosonsampling med 100+ fotoner, noe som illustrerer at overlegenhetsstandarden kan oppfylles i flere fysiske modaliteter ved å skreddersy samplingsoppgaven til maskinvarens native styrker.
9.2. Trinnvise forbedringer i klassiske simulatorer
Tensor-nettverkskondensasjon, lavrangsstabilisatordekomposisjoner og amplitudeinnbyggingsmetoder utvidet gjennomførbare simuleringsstørrelser, og flyttet den klassiske grensen fra omtrent 43 til 48 qubits på lignende dybder. Hvert fremskritt reduserer, men lukker ikke gapet.
9.3. Mot kvantefordeler for nyttige algoritmer
Det pågår arbeid med å portere kjemi- og kombinatorisk optimaliseringsarbeidsflyter til Noisy Intermediate-Scale Quantum (NISQ)-maskinvare. Overlegenhet har motivert raffinerte feilreduserende teknikker, f.eks. probabilistisk feilkansellering og symmetriverifisering, som først ble stresstestet på tilfeldige kretser.
10. Viktige lærdommer for praktikere
• Beregningsproblemet i kvanteoverlegenhet er tilfeldig kretssampling: å produsere bitstrenger fra den nøyaktige utgangsfordelingen til en offentlig spesifisert, pseudotilfeldig kvantekrets.
• Formell hardhet stammer fra gjennomsnittlig #P-hardhet og den antatte stabiliteten til polynomhierarkiet.
• Sycamores 53-qubit-prosessor utførte 20-sykluskretser på omtrent 200 sekunder, mens de mest kjente klassiske algoritmene krever astronomisk tid og minne med sammenlignbar gjengivelseskvalitet.
• Verifisering innebærer kryssentropi-benchmarking snarere enn parvis sammenligning av bitstrenger.
• Problemet er verdifullt som et referansepunkt og metodisk springbrett, selv om det ikke utfører en klassisk nyttig beregning.
Andre nyere spørsmål og svar vedr EITC/AI/TFQML TensorFlow Quantum Machine Learning:
- Hva er de viktigste forskjellene mellom klassiske og kvante nevrale nettverk?
- Hva er konsekvensene av oppnåelsen av kvanteoverlegenhet?
- Hva er fordelene med å bruke Rotosolve-algoritmen fremfor andre optimaliseringsmetoder som SPSA i forbindelse med VQE, spesielt når det gjelder jevnheten og effektiviteten til konvergens?
- Hvordan optimaliserer Rotosolve-algoritmen parametrene ( θ ) i VQE, og hva er nøkkeltrinnene involvert i denne optimaliseringsprosessen?
- Hva er betydningen av parameteriserte rotasjonsporter ( U(θ) ) i VQE, og hvordan uttrykkes de typisk i form av trigonometriske funksjoner og generatorer?
- Hvordan beregnes forventningsverdien til en operator ( A ) i en kvantetilstand beskrevet av ( ρ ), og hvorfor er denne formuleringen viktig for VQE?
- Hva er rollen til tetthetsmatrisen ( ρ ) i sammenheng med kvantetilstander, og hvordan er den forskjellig for rene og blandede tilstander?
- Hva er nøkkeltrinnene involvert i å konstruere en kvantekrets for en to-qubit Hamiltonian i TensorFlow Quantum, og hvordan sikrer disse trinnene nøyaktig simulering av kvantesystemet?
- Hvordan transformeres målingene til Z-grunnlaget for ulike Pauli-termer, og hvorfor er denne transformasjonen nødvendig i sammenheng med VQE?
- Hvilken rolle spiller den klassiske optimizeren i VQE-algoritmen, og hvilken spesifikk optimizer brukes i TensorFlow Quantum-implementeringen beskrevet?
Se flere spørsmål og svar i EITC/AI/TFQML TensorFlow Quantum Machine Learning

