Quantencomputer: Wenn Quantenhardware auf künstliche neuronale Netze trifft

Portrait von Prof. Dr. Michael J. Hartmann
Prof. Dr. Michael J. Hartmann vom Lehrstuhl für Theoretische Physik an der FAU. (Bild: FAU/Georg Pöhlein)

„Wir laufen einen Marathon und sind bei Kilometer zehn.“

Sie könnten die Rechenleistung von heutigen Supercomputer verdoppeln: Quantencomputer. Aber wie weit ist deren Entwicklung überhaupt? Was dürfen wir in den nächsten Jahren erwarten? Darüber haben wir mit Prof. Dr. Michael J. Hartmann, Lehrstuhl für Theoretische Physik gesprochen. Er forscht unter anderen an Möglichkeiten, künstliche neuronale Netze mit Quantenhardware zu verbinden.

Herr Prof. Hartmann, Sie bringen Quantenhardware mit maschinellem Lernen zusammen. Heißt das, der Quantencomputer funktioniert bereits?

Wenn Sie an ein kompaktes Gerät denken, einen PC oder Laptop, dann ist die Antwort ein klares Nein. Aber es gibt Versuchsaufbauten, in denen einige Qubits zusammengeschlossen sind und auf denen bereits Rechenoperationen laufen. Mehrere zusammengeschlossene Qubits entsprechen den Prozessoren klassischer binärer Computer, aber sie arbeiten nicht mit Nullen oder Einsen, sondern mit Quantenzuständen. Das macht sie einerseits so überlegen, weil sich mit jedem zusätzlichen Qubit die Rechenleistung theoretisch verdoppelt. Andererseits sind sie extrem empfindlich gegenüber Störquellen und müssen entsprechend abgeschirmt werden.

Was bedeutet das konkret?

Qubits bestehen aus Spulen, Kondensatoren und sogenannten Josephson-Kontakten – das sind zwei Drahtspitzen, die sich über eine hauchdünne Oxidschicht berühren. Damit die Ströme in diesen Komponenten absolut störungsfrei fließen, müssen sie auf etwa zehn Millikelvin gekühlt werden. Das ist nah am absoluten Temperaturnullpunkt. Doch auch damit ist es nicht getan. Wir müssen sicherstellen, dass nur Qubits miteinander kommunizieren, die für die jeweilige Gatteroperation vorgesehen sind. Und wir müssen zuverlässige Wege finden, Befehle einzugeben und Ergebnisse abzurufen, ohne die Quanteninformation zu zerstören.

Und daran forschen Sie in Erlangen?

Genau. Meine Kollegen, insbesondere Professor Christopher Eichler, und ich arbeiten hier hauptsächlich an zwei Baustellen: Zum einen versuchen wir, die Qubits selbst und die umgebende Hardware zu konstruieren und zu verbessern. Das sind zum Teil ganz handwerkliche Dinge, etwa in welchen Korpus die Quantenchips eingebettet werden und wie die Verdrahtung aussieht. Für die angesprochene Steuerung entwickeln wir Mikrowellenschaltungen, die sich möglichst nah an den Chips befinden und Impulse im Nanosekundenbereich ermöglichen. Das zweite ist die theoretische Ebene: Hier geht es zum Beispiel darum, Schaltkreiskonzepte zu entwerfen, um Qubits zu entkoppeln, die nicht miteinander interagieren sollen. Dafür lassen sich beispielsweise Interferenzeffekte nutzen. Speziell in meiner Arbeitsgruppe simulieren wir solche Konzepte und bauen verschiedene Störeffekte ein, um Quantenprozessoren robuster für den praktischen Einsatz zu machen.

Kommen wir zurück zu Quantenhardware und den künstlichen neuronalen Netzen. Was genau haben Sie da gemacht?

Im Grunde das, was im Zusammenhang mit maschinellem Lernen auf klassischen Rechnern auch gemacht wird. Ein prominentes Beispiel für den Einsatz künstlicher neuronaler Netze ist die Bilderkennung. Da wird das Programm mit Bildern – sagen wir von Hunden und Katzen – trainiert und lernt, welche spezifischen Merkmale die Tierarten auszeichnen, um sie dann selbstständig klassifizieren zu können. Wir haben unsere Prozessoren nicht mit Bildern von Hunden und Katzen trainiert, sondern mit quantenmechanischen Wellenfunktionen. Das Programm war in der Lage, Korrelationen zwischen Elektronenspins zu erkennen und verschiedene Arten von Magnetismus zu unterscheiden. Die Anwendung des zugrundeliegenden Quantenalgorithmus auf einem 100-Qubit-Prozessor beinhaltet derart viele Rechenoperationen, dass ein klassischer Computer dazu nicht in der Lage wäre.

Wäre das ein typisches Anwendungsfeld für künftiges Quantencomputing?

Auf jeden Fall. Gerade quantenmechanische Prozesse sind so komplex, dass sie nur mit dem Quantencomputer berechnet werden können. Aber es gibt auch andere Anwendungsbereiche, etwa die Simulation chemischer Reaktionen – mit dem Ziel, Prozesse sicherer oder energieeffizienter zu gestalten. Die Kombinationsmöglichkeiten auf molekularer Ebene sind so zahlreich, dass sie die Rechenleistung konventioneller Technologien übersteigen.

Was schätzen Sie – wann werden die ersten Quantencomputer in den Rechenzentren stehen?

Ich vergleiche die Entwicklung des Quantencomputers gern mit einem Marathonlauf und würde sagen, wir befinden uns bei Kilometer zehn. Vor über drei Jahren hat Google eine Gatteroperation mit 53 Qubits durchgeführt und erstmals die Quantenüberlegenheit demonstriert. Dennoch arbeiten wir noch immer an den Basics dieser Technologie. Das liegt insbesondere daran, dass Quantencomputer sehr viel fehleranfälliger sind als klassische Rechner.

Wie lässt sich das beheben?

Dafür gibt es aktuell zwei Strategien: Die eine ist, Quantencomputer gigantisch groß zu machen und mit bis zu einer Million Qubits auszustatten. Dadurch schafft man Kapazitäten für redundante Operationen und kann Fehler nach Wahrscheinlichkeitsalgorithmen eliminieren. Wir verfolgen eine andere Strategie und wollen Qubits entwickeln, die Quantenzustände deutlich länger präsentieren als nur wenige Mikrosekunden, wie das bisher der Fall ist. Das macht sie robuster, und man braucht weniger Qubits für eine zuverlässige Korrektur. Wir dürfen gespannt sein, welches Konzept sich durchsetzen wird.

Quromorphic Winter Workshop

Vom 14. bis 16. Februar findet in Erlangen der Quromorphic Winter Workshop statt. Auf dem Kongress werden die Ergebnisse des EU-geförderten Projektes Neuromorphic Quantum Computing (Quromorphic) präsentiert, das die Möglichkeiten ausloten soll, künstliche neuronale Netze mit Quantenhardware zu verbinden.

Weitere Informationen:

Prof. Michael J. Hartmann
Lehrstuhl für Theoretische Physik
Tel.: 09131/85-28461
michael.j.hartmann@fau.de