2. Dezember 2022

Wie Roboter lernen – Promotion von Charles Wilmot

Charles Wilmot verteidigte seine Doktorarbeit über Verhaltenslernen in der Robotik (Arbeitsgruppe Jochen Triesch) am 2. Dezember 2022.

Menschliche Experten programmieren Roboter, um vordefinierte Aufgaben zu erfüllen. Solche Roboter müssen in einer kontrollierten Umgebung arbeiten, um die Wiederholbarkeit zu gewährleisten; sie sind für eine einzige Aufgabe konzipiert und erfordern kostspieligen Entwicklungsaufwand. „Während meiner Zeit am FIAS untersuchte ich, wie die jüngsten Fortschritte im Bereich des maschinellen Lernens mit neuronalen Netzen den Weg zu neuartigen Roboteranwendungen ebnen, indem sie diese allgemeinen Beschränkungen aufheben", erklärt Wilmot.

Die Entwicklungsrobotik versucht, die Art und Weise, wie Lebewesen ihr Verhalten durch Lernen erlernen, künstlich zu imitieren. Lernalgorithmen sind der Schlüssel zur Entwicklung vielseitiger und robuster Roboter, die sich an ihre Umgebung anpassen und mehrere Aufgaben effizient lösen können. Aber Wilmot betont, dass diese Algorithmen auch aus entwicklungspsychologischer Sicht interessant sind: "Durch die Untersuchung der grundlegenden Prinzipien des Lernens bietet das maschinelle Lernen eine neue Perspektive auf die Entstehung von Intelligenz und lädt uns ein, anders über das Bewusstsein zu denken“.

Während seiner Doktorarbeit untersuchte Wilmot insbesondere das Verstärkungslernen (Reinforcement Learning, RL), das den Erwerb von Fähigkeiten durch Belohnungen modelliert. In seiner Dissertation stellt er moderne RL-Ansätze vor und präsentiert die jüngsten Fortschritte bei der Anwendung von RL in der Robotik. Er beschreibt das intrinsisch motivierte Lernen (IM), eine spezielle Form des RL, und wendet insbesondere das Prinzip des Active Efficient Coding (AEC) auf das Lernen des aktiven Sehens an. Wilmot untersucht das Problem des unüberwachten Repräsentationslernens unter dem Blickwinkel der multimodalen Integration. Schließlich gibt die Arbeit einen Überblick über das Hierarchische Verstärkungslernen (HRL), eine weitere spezielle Form des RL. Dieses Prinzip wendet auf eine robotische Manipulationsaufgabe an.

Charles beginnt Anfang 2023 bei der Firma Festo in Stuttgart. Dort wird er neue Reinforcement Learning Algorithmen für die Steuerung von pneumatisch betätigten Roboterarmen entwickeln.

Veröffentlichungen:

  • Wilmot, Charles, Bertram E. Shi und Jochen Triesch: Self-Calibrating Active Binocular Vision via Active Efficient Coding with Deep Autoencoders. IEEE 10th International Conference on Development and Learning and Epigenetic Robotics (2020).
  • Wilmot, Charles, Gianluca Baldassarre und Jochen Triesch: Learning Abstract Representations through Lossy Compression of Multi-Modal Signals. IEEE Transactions on Cognitive and Developmental Systems (2021).
  • Wilmot, Charles: Autonomous Learning Applied to Robotics. PhD Thesis, Goethe-Universität Frankfurt, 2022.