Durch maschinelles Lernen und künstliche Intelligenz (KI) können komplexe Aufgaben in kurzer Zeit gelöst werden. Mit diesen Technologien lassen sich beispielsweise Muster in großen, unstrukturierten Datenmengen erfassen. Aber auch Texte automatisiert übersetzen oder Handschriften erkennen. Die lernfähigen Systeme verarbeiten große Datenmengen: Je höher die Datenmenge, desto zuverlässiger das Ergebnis.
Quantenneuronale Netze
Um weitere Fortschritte zu erzielen, braucht es mehr Rechenleistung. Forscher erhoffen sich dies durch Quantencomputer. Doch bevor Quantencomputer für maschinelles Lernen genutzt werden können, müssen erst quantenmechanische Versionen neuronaler Netze entwickelt werden. Jetzt hat ein Team am Institut für theoretische Physik der Leibniz Universität Hannover eine vielversprechende Struktur für ein solches Netz vorgestellt. Das quantenneuronale Netz ist robust, flexibel und lernfähig.
Robust, flexibel und lernfähig
Bestehende quantenneuronale Netze können häufig nur ganz bestimmte Quantenprobleme bearbeiten. Die Struktur, die die Forscher in Hannover entwickelt haben, ist dagegen universell einsetzbar. Damit ist sie in der Lage beliebige Rechnungen auszuführen. Zudem ist sie effizient lernfähig und tolerant gegenüber internen Störquellen, die Daten verfälschen können.
Bei einem Leistungstext zeigte sich, dass es bereits mit wenigen Daten zu einer optimalen Lösung kommt. Außerdem kann das System effizient relevante Daten von irrelevanten unterscheiden. Eine wichtige Eigenschaft, weil Experimente häufig auch so genannten Datenmüll erzeugen. Das neue quantenneuronale Netz ist selbst dann noch lernfähig, wenn mehr als die Hälfte der Daten nicht zum Muster gehören.
Auch interessant: Physiker entwickelten eine Schnittstelle für Quantencomputer
Struktureller Aufbau
Das quantenneuronale Netz ist aus mehreren Ebenen aufgebaut. Dabei besteht jede Ebene aus mehreren Quantenneuronen, die jeweils von einzelnen Qubits gebildet werden. Qubits sind veränderbare Quantenzustände und entsprechen den Bits eines klassischen Computers.
Die erste Ebene dient der Eingabe von Quantendaten – indem die Qubits entsprechend manipuliert werden. Für die Ergebnisausgabe sorgt die letzte Ebene. Die Zahl der Zwischenebenen ist variabel. So können je nach Bedarf Netze geeigneter Größe erzeugt werden: Quantenneuronale Netze mit wenigen Zwischenebenen arbeiten schneller, tiefere Netzwerke mit vielen Ebenen sind komplexeren Aufgaben gewachsen.
Relevante Quantenzustände identifizieren
Bis zur möglichen Anwendung des quantenneuronalen Netzes ist es noch ein weiter Weg. Aber wenn es soweit ist, könnte das quantenmaschinelle Lernen dort relevante Quantenzustände identifizieren, wo Experimente zahllose Quantenzustände erzeugen. Das ist zum Beispiel in der Gravitationswellenforschung der Fall.
Zum Projekt:
Die Arbeit entstand im Rahmen des Sonderforschungsbereichs SFB 1227 DQ-mat der Deutschen Forschungsgemeinschaft (DFG), der sich mit der Kontrolle von komplexen quantenmechanischen Systemen beschäftigt. Im Sonderforschungsbereich kooperieren experimentelle und theoretische Physiker der Leibniz Universität Hannover, des ZARM Bremen und der Physikalisch Technischen Bundeslehranstalt PTB Braunschweig.
Die Ergebnisse wurden im Fachmagazin Nature Communications veröffentlicht.
Originalpublikation:
Training deep quantum neural networks
Kerstin Beer, Dmytro Bondarenko, Terry Farrelly, Tobias J. Osborne, Robert Salzmann, Daniel Scheiermann & Ramona Wolf
Nature Communications 11: 808 (2020)
DOI: https://doi.org/10.1038/s41467-020-14454-2
Auch interessant:
Prototyp des kommerziell nutzbaren Quantencomputer soll 2022 stehen