Logo newsbot.ch

Wissenschaft

Fortschritt bei Fehlerkorrektur in Quantencomputern

2023-02-23 17:25:07
newsbot by content-proivder.ch GmbH
Quelle: Science Media Center Deutschland

Ein Team von Forschenden von Google Quantum AI stellt in einer Studie eine Methode zur Fehlerkorrektur bei Quantencomputern vor, wie das Science Media Center Deutschland mitteilt.

Die Autorinnen und Autoren zeigen einen Weg auf, wie man Fehlerkorrektur skalieren und somit die für den praktischen Einsatz von Quantencomputern nötigen Fehlerkorrekturraten erreichen kann. Die Studie sei am 22.02.2023 im Fachjournal „Nature“ erschienen (siehe Primärquelle).Quantencomputern werde großes Potenzial in verschiedenen Anwendungsfeldern zugeschrieben – zum Beispiel bei Optimierungsprozessen, bei der Materialforschung und -entwicklung, bei Risikoanalysen oder auch beim maschinellen Lernen.

Um dieses Potenzial voll zu realisieren, sei es allerdings notwendig, die Fehler der dafür anfälligen Qubits zu korrigieren. Diese Fehler seien wegen der kaum zu vermeidenden, durch die Wechselwirkung mit der Umgebung entstehenden Dekohärenz und dem Quantenrauschen eine große Herausforderung.

Eine verlässliche Methode zur Fehlerkorrektur in der Praxis zu realisieren, werde daher als ein Meilenstein auf dem Weg zu einem funktionierenden Quantencomputer gesehen.Bei der in der Studie vorgestellten Methode zur Fehlerkorrektur konnten die Forschenden jetzt in Tests zeigen, dass die Fehlerraten bei einem größeren System kleiner waren als bei einem kleineren System. Das sei nicht selbstverständlich, da größere Systeme mit mehr Qubits auch mehr Potenzial für Fehler beinhalten.

So könnte sich theoretisch die Performance der Fehlerkorrektur mit zunehmender Anzahl an Qubits verbessern. Wie weit diese Skalierung möglich ist, sei allerdings noch unklar.

Die Autorinnen und Autoren betonen selbst, dass es Szenarien gibt, in denen ein größeres System erst weniger Fehler erzeugt – ab einer gewissen Größe aber ein Punkt überschritten wird, ab dem die Anzahl der Fehler wieder zunimmt.Den Autorinnen und Autoren zufolge sei noch weitere Forschung nötig, um Fehlerraten zu erreichen, die gering genug für effektive Berechnungen mit Quantencomputern sind. Laut ihnen stellen die in der Studie vorgestellten Fortschritte aber einen entscheidenden Schritt für künftige Entwicklungen dar.„Die in der Arbeit von Google AI präsentierten Resultate zur Fehlerkorrektur von logischen Qubits basieren auf einer Implementierung des sogenannten Surface Codes mit supraleitenden Qubits.

Supraleitende Qubits gelten derzeit als eine der am weitesten fortgeschrittenen Plattformen für Quantencomputing, mit einigen jüngst vorgestellten sehr vielversprechenden Resultaten zur Fehlerkorrektur, zum Beispiel von der Gruppe von Andreas Wallraff an der ETH Zürich, von Google AI und von IBM. Der oben genannte Surface Code sei eine der Methoden, Fehlerkorrektur zu implementieren und gilt hier auch derzeit als der Königsweg zu einem fehlertoleranten Quantencomputer mit supraleitenden Qubits.

Er basiert darauf, dass eine Erhöhung der Anzahl der physikalischen Qubits, die für ein logisches Qubit benötigt wird, zu einer Verminderung der logischen Fehlerrate führt. Das Resultat von Google zeigt zum ersten Mal, dass dies tatsächlich der Fall ist, und sei – obwohl der Effekt noch klein sei – daher als ein Meilenstein in Richtung fehlerkorrigiertes Quantencomputing zu werten.“Auf die Frage nach dem momentanen Stand der Forschung zu Fehlerkorrektur bei Quantencomputern und warum Fehlerkorrektur so wichtig ist: „Es werde derzeit sehr intensiv an Fehlerkorrektur gearbeitet, insbesondere mit den beiden prominentesten Plattformen, supraleitende Qubits und gefangene Ionen.

Um tatsächlich einen Vorteil durch die Implementierung von logischen Qubits zu erhalten, müssen die Fehlerraten allerdings sehr klein sein, unter einem sogenannten Fehler-Threshold. Dann würden logische Qubits länger als die zugrunde liegenden physikalischen Qubits ‚leben‘, also eine längere Kohärenzzeit haben und somit die Durchführung von Quantenalgorithmen erlauben.

Hier steht die Forschung gerade an einem Wendepunkt, mit Fehlerraten die gerade an der Grenze dieses Fehler-Thresholds liegen. Es wurde in mehreren Arbeiten gezeigt, dass logische Qubits realisiert werden können, jedoch noch nicht eindeutig, dass diese auch tatsächlich länger leben.

Was jedoch nun in der Arbeit von Google gezeigt wird, ist, dass ein Grundpfeiler der Fehlerkorrektur (mehr physikalische Qubits führen zu weniger Fehlern) tatsächlich in einem Experiment realisiert werden kann.“„Das bringt die Forschung einen Schritt näher in Richtung Fehlerkorrektur. Diese sei insbesondere deswegen äußerst relevant, da damit ein eindeutiger Quantenvorteil bei Algorithmen erzielt werden kann.

Mit den derzeit vorhandenen sogenannten noisy-intermediate-scale quantum (NISQ) Prozessoren sei das noch höchst unklar und es gibt derzeit noch keine praktisch anwendbaren Algorithmen. Es sei noch Gegenstand intensiver Forschung, für welche Algorithmen ein Quantenvorteil ohne Fehlerkorrektur zu erwarten sei – und ob überhaupt.

Deswegen sei das vom Google AI Team gezeigte Resultat auch ein wichtiger Schritt in Richtung eines Quantenvorteils.“„Die Studie sei methodisch sehr gut aufbereitet und entspreche den hohen Standards in der Community. Auch die Schlussfolgerungen der Autoren, dass dies ein Schritt in die richtige Richtung sei, aber noch viel Arbeit bevorstehe, seien klar und nachvollziehbar.“Auf die Frage, ob mit solchen und anderen Methoden die Fehlerraten erreicht werden können, die nötig sind, um das Potenzial von Quantencomputern zu realisieren und welche Herausforderungen verbleiben: „Eine der Hauptherausforderungen sei natürlich die weitere Unterdrückung der Fehlerraten, insbesondere bei der Kontrolle von Qubits und deren intrinsischer Kohärenz.

Hier werden derzeit große Fortschritte in den verwendeten Materialien gemacht, sodass die Kohärenzzeiten der Qubits immer weiter steigen. Außerdem werden die Kontrollpulse und auch die Designs der zugrundeliegenden supraleitenden Schaltkreise ständig verbessert, sodass hier sicherlich die Fehlerraten in den nächsten Jahren noch weiter minimiert werden können.

Eine weitere Herausforderung sei jedoch die Skalierung hin zu Quantenprozessoren mit mehreren Tausend bis zu Millionen von Qubits. Hier bedarf es noch neuartiger Ansätze zum Beispiel bei der Kontrolle der Qubits, die derzeit auch in anderen Projekten, beispielsweise im europäischen OpenSuperQPlus-Konsortium, erforscht und entwickelt werden.

Insgesamt betrachtet gibt es aber kein fundamentales Limit, das der Entwicklung eines fehlertoleranten Quantencomputers entgegenstehen würde.“„Die Studie verfolgt mit dem Surface Code einen der führenden Ansätze für Quantenfehlerkorrektur. Der Fortschritt liegt hier nicht so sehr in den Methoden der Fehlerkorrektur, sondern vielmehr in der experimentellen Kontrolle von Systemen mit 50 oder mehr Qubits.

Fehlerkorrektur solle dem Quantencomputer ermöglichen, Rechenfehler durch den Einsatz zusätzlicher Qubits zu unterdrücken. Zusätzliche Qubits bringen üblicherweise aber auch zusätzliche Fehlerquellen.

Diese Arbeit demonstriert, dass sich die höhere Komplexität eines Systems mit mehr Qubits so weit unter Kontrolle bringen lässt, dass ein größerer Fehlerkorrekturcode die Information tatsächlich besser schützt als ein kleiner Code. Dies sei ein wichtiger erster Schritt, der zeigt, dass die zugrundeliegenden Fehlerquellen zwar noch deutlich unterdrückt werden müssen, aber dass sich der Aufwand lohnt.“Auf die Frage nach dem momentanen Stand der Forschung zu Fehlerkorrektur bei Quantencomputern und warum Fehlerkorrektur so wichtig ist: „Quantencomputer basieren auf Quanteneffekten wie Superposition und Verschränkung, die extrem sensibel auf Umwelteinflüsse sind.

Diese Einflüsse führen zu Rechenfehlern und beschränken damit die Komplexität der Rechnungen, die ein Quantencomputer durchführen kann.“„Quantenfehlerkorrektur verspricht eine Lösung für dieses Problem, indem – durch geschicktes Speichern der Information in viele Qubits – die Rechenfehler im Prinzip beliebig unterdrückt werden können. Damit dies funktioniert, muss jedoch die Fehlerrate aller Bestandteile des Quantencomputers unter einem gewissen Schwellenwert liegen und es müssen entsprechend viele Qubits zur Verfügung stehen.

Eine Handvoll Forschungsgruppen konnten hier in den letzten Jahren eindrucksvolle Fortschritte machen. Die Arbeit sei aber noch lange nicht getan und der fehlertolerante Quantencomputer bleibt weiterhin eine zentrale Herausforderung für die aktuelle Forschung.“„Die Studie zeigt schön, dass Quantencomputer große Schritte Richtung Fehlerkorrektur und Skalierbarkeit machen.

Insbesondere demonstrieren die Ergebnisse vergleichbare Fehlerraten in einem 17-Qubit und einem 49-Qubit Fehlerkorrekturcode. Die Autoren betonen aber auch ganz klar, dass diese Arbeit einen ersten Schritt darstellt und noch viel zu tun ist, um fehlertolerante Quantencomputer zu realisieren.

Insbesondere muss die Qualität der Bestandteile heutiger Quantencomputer noch weiter verbessert werden, damit diese wirklich von Fehlerkorrekturmethoden profitieren können.“Auf die Frage, ob mit solchen und anderen Methoden die Fehlerraten erreicht werden können, die nötig sind, um das Potenzial von Quantencomputern zu realisieren und welche Herausforderungen verbleiben: „Mehrere Quantentechnologien zeigen sich mittlerweile sehr vielversprechend, um die nötigen Fehlerraten für nützliche Quantenfehlerkorrektur zu erreichen. Limitierend seien hier meist technische, nicht fundamentale Herausforderungen.

Allerdings seien auch Fehlerraten nur ein Teil des Puzzles. Neben logischen Fehlern wie bit-flips, gilt es zusätzliche Fehlerquellen, wie etwa den Verlust von Qubits, zu meistern.

Es reicht auch nicht, nur Speicherfehler zu korrigieren, sondern man muss mit den fehlerkorrigierten Qubits auch rechnen, ohne dabei zu viele zusätzliche Fehler zu induzieren. Viele dieser Bausteine wurden schon einzeln in verschiedenen Systemen demonstriert; alle zu kombinieren, und die Anzahl der Qubits drastisch zu erhöhen ohne an Qualität zu verlieren, bleibt weiterhin eine spannende Herausforderung.“„Der Ansatz zur Fehlerkorrektur, der in der Studie verwendet wird, sei der sogenannte Surface Code.

Das sei ein wichtiger Ansatz, der auch von vielen anderen Forschungsgruppen verfolgt wird. Er sticht auf verschiedene Arten und Weisen gegenüber anderen Ansätzen heraus: Zum einen sei er besonders nützlich für festkörperbasierte Quantencomputer.

Das liegt daran, dass er damit umgehen kann, dass die verwendeten physikalischen Qubits, aus denen das fehlerkorrigierte logische Qubit erzeugt wird, auf einer Ebene angeordnet sind. Außerdem sei der Surface Code die beste bekannte Codierungsmöglichkeit, die mit den größten Fehlern umgehen kann.“„In einem codierten logischen Qubit stellt sich immer die Frage, wann es besser sei als die physikalischen Qubits, aus denen es zusammengesetzt ist.

Und da gibt es einen Grenzwert (Threshold) für diesen Surface Code, ab dem er besser funktioniert. Die wichtigste Erkenntnis dieser Publikation ist, dass die Qualität des Surface Codes besser wird, wenn man die Anzahl der physikalischen Qubits erhöht.

Theoretisch war das schon seit einiger Zeit bekannt, aber das Experiment von Google sei jetzt das erste, in dem das auch in der Praxis nachgewiesen werden konnte. Das war schwierig zu erreichen.“Auf die Frage nach dem momentanen Stand der Forschung zu Fehlerkorrektur bei Quantencomputern und warum Fehlerkorrektur so wichtig ist: „Fehlerkorrektur sei für große Quantencomputer nötig.

Qubits seien fehlerbehaftet. Auch bei normalen Computern werde Fehlerkorrektur verwendet, aber im Vergleich zu Qubits sei die Fehlerrate bei normalen Bits sehr viel geringer.

Die Fehlerkorrektur kommt mit einem sogenannten Overhead. Statt das physikalische Qubit direkt zu nutzen, um die Berechnung durchzuführen, muss man aus vielen physikalischen Qubits ein logisches Qubit zusammenbauen – in dieser Studie aus 25 physikalischen Qubits.

Wenn man beispielsweise 100 logische Qubits braucht, um einen Algorithmus zu implementieren, braucht man mit einem Overhead-Faktor von 25 eine Anzahl von 2500 physikalische Qubits, um fehlerkorrigiert rechnen zu können.“„Momentan sei noch nicht ganz klar, wie niedrig Fehlerraten sein müssen, um solide Schlüsse aus den Berechnungen von Quantencomputern ziehen zu können. Es werden wohl nach derzeitigem Stand der Technik sehr große Zahlen an physikalischen Qubits nötig sein, um fehlerkorrigierte Quantencomputer zu bauen.“„Dass Fehlerkorrektur nötig sein wird, war schon vor 20 Jahren klar, aber die Implementierung sei schwierig.

In den letzten Jahren habe es in dem Bereich jedoch große Fortschritte gegeben. Aber auch nach den Erkenntnissen der aktuellen Studie sei man noch nicht fertig.

Die Qualität der Fehlerkorrektur muss noch deutlich verbessert werden, bevor sie im großen Stil in Quantencomputern eingesetzt werden kann.“„Die Qualität der Studie sei sehr gut, die Arbeit sei zuverlässig. Die vorgestellte Verbesserung der Fehlerkorrektur von einem Surface Code mit neun physikalischen Qubits zu einem mit 25 physikalischen Qubits sei allerdings noch sehr klein.

Vielleicht auch kleiner, als die Autoren sich erhofft hatten, weshalb sie auch sicherstellen mussten, dass Messungen und Analysen Hand und Fuß haben. Da haben sie sich aber große Mühe gegeben, die Ergebnisse seien zuverlässig.

Deshalb könne die Arbeit als einer der nächsten Schritte auf dem Weg zu einem fehlerkorrigierten Quantencomputer gesehen werden.“„Am Ende des Artikels werde noch analysiert, wie viel besser das vorgestellte System werden könnte, wenn mehr Qubits zur Verfügung stünden. Und bei der derzeitigen Qualität der Qubits könne es sein, dass bei wachsender Zahl physikalischer Qubits im logischen Qubit (also mit wachsender Distanz) die Fehlerraten wieder zunehmen.

Bei einem anderen in der Studie auch diskutierten Ansatz (Repetition Code) zeigen die Autoren aber klar, dass die Codierung exponentiell besser wird, wenn man die Anzahl der physikalischen Qubits erhöht. Auch beim Surface Code sollten diese Probleme eigentlich nicht mehr auftauchen, wenn physikalische Qubits besser werden.“Auf die Frage, ob mit solchen und anderen Methoden die Fehlerraten erreicht werden können, die nötig sind, um das Potenzial von Quantencomputern zu realisieren und welche Herausforderungen verbleiben: „Fehlerkorrektur macht aus fehlerbehafteten physikalischen Qubits bessere logische Qubits.

Die Fehlerrate, die am Ende erreicht wird, hängt zusammen mit der Fehlerrate in den physikalischen Qubits und dem eben erwähnten Threshold-Fehler. Je besser die Fehlerrate in den physikalischen Qubits, desto besser werde auch die Fehlerrate in den logischen Qubits.

Bessere physikalische Qubits seien also der nächste Schritt auf dem Weg zu einem fehlerkorrigierten Quantencomputer. Wenn die physikalischen Qubits und die an ihnen durchgeführten Operationen um den Faktor 10 oder Faktor 100 besser werden, könnte all das anfangen, gut zu funktionieren.“„Das Ziel, dass logische Qubits verbessert werden, wurde in der Studie erreicht – wenn auch knapp.

Das nächste Ziel muss es sein, das mit deutlich besseren physikalischen Qubits zu demonstrieren, sodass der Vorteil der Verwendung der logischen Qubits stärker sichtbar wird. Im Moment sei nur demonstriert, dass es funktioniert, der praktische Vorteil sei noch sehr gering.

Bessere Qubits, bessere logische Gatter, besseres Auslesen der einzelnen Qubits – das könnten nächste Schritte sein. Trotzdem seien die in der Studie präsentierten Fortschritte ein Meilenstein.“„Zum Kontext: Quantencomputer seien fehleranfällig in dem Ausmaß, dass bei den größeren heute erhältlichen Prozessoren nicht mehr alle Quantenbits (Qubits) für Anwendungen genutzt werden können.

Neben Verbesserungen der Hardware geht man davon aus, dass langfristig Quantenfehlerkorrektur notwendig sein wird. Diese funktioniert durch das geschickte redundante Speichern von Quanteninformationen in mehreren Qubits, dem Ausmessen von Fehlern und deren aktiver Korrektur.

Hierfür existiert ein elaborierter theoretischer Formalismus – insbesondere gehört der ‚Oberflächencode‘ zu dessen wichtigsten und führenden Konzepten.“„Was leistet das Paper? Im Paper werde ein Chip der Sycamore Serie genutzt (mit dem auch das 2019er Quantenüberlegenheits-Experiment [1] durchgeführt wurde), hier aber mit 72 Qubits und zahlreichen Detailverbesserungen. Die Autorinnen und Autoren implementieren Versionen des Oberflächencodes mit unterschiedlicher Distanz.

Die Distanz sei ein abstraktes Maß für die Zahl der korrigierbaren Einzelqubitfehler – in einem Qubit können immer zwei unabhängige Fehler auftreten (in einem klassischen Bit nur einer). Codedistanz 3 bedeutet, dass ein Qubit vollständig korrigiert werden kann, Codedistanz 5 bedeutet, dass Fehler in zwei Qubits korrigiert werden können.

Da die Fehlerzahl realistisch nicht feststeht, bedeutet das, dass bei d=5 unkorrigierte Fehler seltener seien als bei d=3. Dies werde erstmals praktisch gezeigt und analysiert. Durch die Nutzung des (beliebig skalierbaren) Oberflächencodes sei damit ein weiterer Schritt auf dem Weg zur vollständigen Fehlerkorrektur gegangen.“„Warum sei das wichtig? Es sei extrem unwahrscheinlich, dass Quantencomputerhardware jemals so fehlerarm sein werde wie klassische Hardware.

Die Roadmap für Quantenfehlerkorrektur sei darum für das Gebiet insgesamt entscheidend. Wichtig sei auch, diese Roadmap zu implementieren und zu verifizieren.

Außerdem sei es natürlich eine technologische Meisterleistung von simultan hoher Qualität und Komplexität.“„Was leistet das Paper nicht? Wenn man mehr physikalische Qubits für die Fehlerkorrektur hat, habe man auch mehr Einfallstore für Fehler. Damit gibt es einen Gegensatz: mehr Fehlermöglichkeiten aber auch effektivere Fehlerkorrektur.

Es wurde theoretisch gezeigt, dass die effektivere Fehlerkorrektur dann die Fehlermöglichkeiten übertrifft, wenn die Fehler der Bauelemente klein genug sind. Technisch gesprochen: Mehr Qubits bedeuten polynomial mehr Fehler, höhere Distanz aber exponentielle Unterdrückung.“„Diesen ‚Break-Even-Punkt‘ der Fehlerkorrektur habe das Experiment knapp nicht erreicht.

Tatsächlich habe ich mit zwei Kollegen im Januar ein Heraeus-Seminar zu dem Thema mit Sprechern von Google und anderen Gruppen organisiert, an dem sich alle an diesem letzten Meilenstein abgearbeitet haben.“„Im Anhang werde dies analysiert und ein detailliertes Fehlermodell aufgestellt. Es zeigt sich: Das durchschnittliche Qubit sei gut genug, aber die Qubits über den Chip seien unterschiedlich.

Außerdem könne man das Fehlerbudget auseinandernehmen und es zeigt sich, dass zwei Fehlerquellen eine Rolle spielen, die die Fehlerkorrektur über alle Maßen stören (stärker als andere Algorithmen): Das seien Leckagefehler – Übergang zwischen 0 und 1 in den Zustand 2 oder 3 – sowie ‚katastrophale Ereignisse‘. Letztes wurde mit einem Test eines großen Codes (Distanz 25) verifiziert, der nur bit-flip-Fehler korrigiert.

Es zeigt sich, dass sehr selten große Fehler auftreten, die etwa 90 Prozent des Fehlerbudgets ausmachen. Aus verwandten Arbeiten könne man spekulieren, dass diese durch ionisierende Strahlung (wie natürliche Radioaktivität oder kosmische Strahlung) verursacht werden.

Die Community sei bereits dabei, diese sehr strukturierten Fehlermodelle in der Theorie und Software der Quantenfehlerkorrektur zu berücksichtigen.“„Zum Hintergrund: Als in den 1930er Jahren die Theorie moderner Computer entwickelt wurde, bestand die Sorge, dass klassische Bits ihren Zustand nicht zuverlässig genug beibehalten können, um lange Rechnungen zu ermöglichen. Als Antwort darauf wurden Protokolle zur Fehlerkorrektur entwickelt – und dann nie eingesetzt! Klassische elektronische Computer stellten sich als so robust heraus, dass der Aufwand nicht nötig war.“„Für Quantencomputer sei das völlig anders.

Quantenbits (Qubits) seien extrem fragil. Kleinste Störungen – von kosmischen Strahlungen bis zu minimalen Schwingungen – bringen die Rechnung zum Scheitern.“„In diesem Zusammenhang sei das Google-Papier zu sehen.

Die Gruppe von Google habe gezeigt, dass das System zumindest nicht schlechter wird, wenn man größere Fehlerkorrektur-Protokolle verbessert.“„Das scheint vielleicht nicht so beeindruckend. Und tatsächlich – die Veröffentlichung stellt nur einen sehr kleinen Schritt auf dem weiten Weg zum fehlerkorrigierten Quantencomputer dar.

Selbst einzelne Quantenbits können bis heute noch nicht fehlerfrei über lange Zeit betrieben werden. Auf der anderen Seite zeigt die Arbeit aber, dass es weiterhin Fortschritt gibt.“Prof.

Doktor Stefan Filipp: „Ich habe hier keine Interessenkonflikte, da wir zwar an demselben Problem forschen, aber noch nicht in Richtung Fehlerkorrektur.“Dr. Martin Ringbauer: „Keine Interessenkonflikte.“Prof.

Doktor Andreas Wallraff: „Es bestehen keine Interessenkonflikte.“Prof. Doktor Frank Wilhelm-Mauch: „Frank Wilhelm-Mauch koordiniert die Forschungsverbünde QSolid und OpenSuperQplus, die an einer ähnlichen Plattform arbeiten.

Außerdem habe er eine Beiratstätigkeit bei der finnischen Quantencomputerfirma IQM O.Y.“Prof. Doktor David Gross: „Also Professor für Quanteninformationstheorie bin ich selbst an einigen großen Projekten beteiligt, die unter anderem langfristig die Fehlertoleranz von Quantenhardware verbessern sollen – insbesondere im Exzellenzcluster Materie und Licht für Quanteninformation und dem BMBF-Projekt QSolid.“Neven H et al.

(2023): Suppressing quantum errors by scaling a surface code logical qubit. Nature.

DOI: 10.1038/s41586-022-05434-1.Kelly J et al. (2021): Exponential suppression of bit or phase errors with cyclic error correction.

Nature. DOI: 10.1038/s41586-021-03588-y.

Eine vorherige Forschungsarbeit von Google Quantum AI zu Fehlerkorrektur.Science Media Center (2021): Fehlerkorrektur bei Quantencomputern: Durchbruch? Research in Context. Stand: 14.07.2021. Einordnungen von Experten zu der obigen Studie von 2021.Science Media Center (2021): Quantencomputer: Zeitplan, Meilensteine, Herausforderungen, Hype.

Science Response. Stand: 21.07.2021. Einordnungen von Expertinnen und Experten zum Stand der Forschung bei Quantencomputern.Krinner S et al.

(2022): Realizing repeated quantum error correction in a distance-three surface code. Nature.

DOI: 10.1038/s41586-022-04566-8. Eine vorherige wichtige Studie zur Fehlerkorrektur bei Quantencomputern von der Arbeitsgruppe um Professor Doktor Andreas Wallraff.[1] Martinis JM et al. (2019): Quantum supremacy using a programmable superconducting processor.

Nature. DOI: 10.1038/s41586-019-1666-5.[2] Neven H et al.

(2022): Suppressing quantum errors by scaling a surface code logical qubit. arXiv.

Hinweis der Redaktion: Es handelt sich bei dieser Version des Papers um eine Vorabpublikation, die noch keinem Peer-Review-Verfahren unterzogen und damit noch nicht von unabhängigen Experten und Expertinnen begutachtet wurde..

Suche nach Stichworten:

einigen Fortschritt Fehlerkorrektur Quantencomputern



Newsticker


Stadt Bern

Kauf eines Wohngebäudes im Kleefeld


Stadt Bern

Kauf des Gewerbe- und Bürogebäudes am Lagerhausweg 30


Fürstentum Liechtenstein

Regierungsrat Manuel Frick verleiht Urkunden zu den "Schönsten Büchern aus Liechtenstein 2022"


Kantonspolizei Zürich

A1 Rümlang: Verkehrsunfall fordert drei Verletzte


Kantonspolizei Schwyz

Steinerberg: Velofahrer schwer verletzt