Physik-Nobelpreis für bahnbrechende Entdeckungen und Erfindungen im Bereich des maschinellen Lernens
John J. Hopfield und Geoffrey E. Hinton trainierten künstliche neuronale Netze mithilfe der Physik
©Johan Jarnestad/The Royal Swedish Academy of Sciences
Sie trainierten künstliche neuronale Netze mithilfe der Physik
Die beiden diesjährigen Nobelpreisträger für Physik haben Werkzeuge aus der Physik genutzt, um Methoden zu entwickeln, die die Grundlage für das heutige leistungsstarke maschinelle Lernen bilden. John Hopfield entwickelte einen Assoziativspeicher, der Bilder und andere Arten von Mustern in Daten speichern und rekonstruieren kann. Geoffrey Hinton erfand eine Methode, die selbstständig Eigenschaften in Daten finden und so Aufgaben wie die Identifizierung bestimmter Elemente in Bildern erfüllen kann.
Wenn wir von künstlicher Intelligenz sprechen, meinen wir oft maschinelles Lernen unter Verwendung künstlicher neuronaler Netze. Diese Technologie wurde ursprünglich von der Struktur des Gehirns inspiriert. In einem künstlichen neuronalen Netz werden die Neuronen des Gehirns durch Knoten dargestellt, die unterschiedliche Werte haben. Diese Knoten beeinflussen sich gegenseitig durch Verbindungen, die mit Synapsen verglichen werden können und die stärker oder schwächer werden können. Das Netzwerk wird trainiert, indem zum Beispiel stärkere Verbindungen zwischen Knoten mit gleichzeitig hohen Werten aufgebaut werden. Die diesjährigen Preisträger haben seit den 1980er Jahren wichtige Arbeiten mit künstlichen neuronalen Netzen durchgeführt.
John Hopfield erfand ein Netz, das eine Methode zur Speicherung und Wiederherstellung von Mustern verwendet. Wir können uns die Knotenpunkte als Pixel vorstellen. Das Hopfield-Netzwerk nutzt die Physik, die die Eigenschaften eines Materials aufgrund seines atomaren Spins beschreibt - eine Eigenschaft, die jedes Atom zu einem winzigen Magneten macht. Das Netzwerk als Ganzes wird auf eine Weise beschrieben, die der Energie im Spinsystem in der Physik entspricht, und wird trainiert, indem Werte für die Verbindungen zwischen den Knoten gefunden werden, damit die gespeicherten Bilder eine niedrige Energie haben. Wenn das Hopfield-Netzwerk mit einem verzerrten oder unvollständigen Bild gefüttert wird, arbeitet es sich methodisch durch die Knoten und aktualisiert ihre Werte, damit die Energie des Netzwerks sinkt. Das Netz arbeitet also schrittweise, um das gespeicherte Bild zu finden, das dem unvollkommenen Bild, mit dem es gespeist wurde, am ähnlichsten ist.
Geoffrey Hinton nutzte das Hopfield-Netzwerk als Grundlage für ein neues Netzwerk, das eine andere Methode verwendet: die Boltzmann-Maschine. Diese kann lernen, charakteristische Elemente in einer bestimmten Art von Daten zu erkennen. Hinton verwendete Werkzeuge aus der statistischen Physik, der Wissenschaft von Systemen, die aus vielen ähnlichen Komponenten aufgebaut sind. Die Maschine wird trainiert, indem sie mit Beispielen gefüttert wird, die mit hoher Wahrscheinlichkeit auftreten, wenn die Maschine ausgeführt wird. Die Boltzmann-Maschine kann verwendet werden, um Bilder zu klassifizieren oder neue Beispiele für die Art von Mustern zu erstellen, für die sie trainiert wurde. Hinton hat auf dieser Arbeit aufgebaut und dazu beigetragen, die derzeitige explosionsartige Entwicklung des maschinellen Lernens in Gang zu setzen.
"Die Arbeit der Preisträger war bereits von größtem Nutzen. In der Physik setzen wir künstliche neuronale Netze in einer Vielzahl von Bereichen ein, z. B. bei der Entwicklung neuer Materialien mit spezifischen Eigenschaften", so Ellen Moons, Vorsitzende des Nobelkomitees für Physik.
Hinweis: Dieser Artikel wurde mit einem Computersystem ohne menschlichen Eingriff übersetzt. LUMITOS bietet diese automatischen Übersetzungen an, um eine größere Bandbreite an aktuellen Nachrichten zu präsentieren. Da dieser Artikel mit automatischer Übersetzung übersetzt wurde, ist es möglich, dass er Fehler im Vokabular, in der Syntax oder in der Grammatik enthält. Den ursprünglichen Artikel in Englisch finden Sie hier.