Autonomen Industrierobotern vorzuwerfen, sie seien schwer von Begriff, ist unfair. Aber: Sie lernen langsam und wollen mit massig Trainingsdaten gefüttert werden, um im Gewusel von Produktionshallen zurechtzukommen. Auch wenn 3D-Sensoren, Scanner und Ultraschallsensoren von Fahrerlosen Transportsystemen (FTS) sofort mitbekommen, dass der eingeschlagene Weg so nicht befahrbar ist, ist es nicht sicher, dass sich die selbstfahrenden Teiletaxis richtig entscheiden. Es sei denn, ihnen wurde exakt diese Situation vorher mit Trainingsdaten von Menschen eingeimpft. Oder: Gehen Bodenmarkierungen für vorgegebene Fahrwege verloren, kann das mitunter die vermeintlich schlauen Systeme überfordern, weil sie die Daten falsch oder gar nicht interpretieren. Also gilt es, die digitalen Produktionshelfer tatsächlich künstlich intelligent zu machen.
Dabei könnte sich die Gaming-Industrie als hilfreich erweisen. Und zwar mit realistischen Animationen der Umgebung, durch die die Technik lernt – und dies ziemlich reflektiert, indem Motion-Capture-Tools eingesetzt werden. Also eine Bildverarbeitung, durch die Roboter „sehen“, was sie gerade treiben und daraus ihre Schlüsse ziehen. Sozusagen aus ihren Fehlern lernen.
Training von Roboterverhalten
An solchen Verfahren arbeiten unter anderem Forscher der Abteilung „Perzeption und Kognition“ des Deutschen Zentrums für Luft- und Raumfahrt (DLR). Wie bei Videospielen, deren Animationen blitzschnell an die Aktionen eines Gamers angepasst werden und dies zuweilen hyperrealistisch gelingt, soll dies auch beim Anlernen von Robotern helfen, deren „Verhalten“ zu trainieren. Dieses selbstlernende Aktions-Reaktions-Muster läuft weitgehend automatisiert ab, sodass nun nicht mehr vorher etliche Eventualitäten programmiert werden müssen – was ohnehin nicht machbar ist. Stichwort: Semantisches Lernen. Dabei hilft den DLR-Forschern die Software BlenderProc, durch die unter anderem die Lichtverhältnisse einer simulierten Produktionsumgebung äußerst wirklichkeitsnah wiedergegeben werden, weil die exakten Daten jedes einzelnen Pixels, jedes Lichtstrahls und dessen Änderung beim Perspektivenwechsel berücksichtigt werden.
Allerdings: Aktuell zeigt ich, dass dieser Ansatz teilweise zu realistisch ist, was auf Kosten des Trainingsergebnisses gehen kann. Heißt: Etwas weißes Rauschen und Störungen in der Animation müssen schon sein. Am DLR arbeitet man daran, die richtige Balance zu finden: Dazu müssen die durch Motion Capturing entstandenen Abweichungen zwischen virtueller und wirklicher Welt bestimmt und diese in der Simulation herausgerechnet werden.
Smarte Automation braucht Rechenpower
Bei BMW werden gemeinsam mit Nvidia die neuen Trainingsmethoden bereits praktisch erprobt. Kein Wunder, dass die Bayern den Grafikprozessor- und Spielekonsolenhersteller mit an Bord haben: Ohne Leistungsstarke Prozessoren und Grafikkarten läuft nichts. „Wir bringen Simulationen im Planungsprozess auf ein neues Niveau“, lässt der Autobauer wissen. Dies zunächst bei fünf Logistikrobotern, die durch KI-Module gesteuert werden. Schon jetzt zeigt sich, dass autonome Transportsysteme Hindernisse wie Stapler, Routenzüge oder Mitarbeiter besser erkennen und fixer darauf mit Ausweichmanövern reagieren als manuell angelernte Systeme.
„Die Verwendung von High-End Technologie im Bereich KI und Visualisierung zur Neugestaltung der Logistik ist revolutionär. Unsere Zusammenarbeit mit Nvidia ermöglicht es uns heute fortschrittliche Industrie-4.0-Technologien zu entwickeln“, sagt Jürgen Maidl, Leiter Logistik im BMW Group Produktionsnetzwerk. Die BMW-Robos basieren auf der von Nvidia entwickelten ISAAC Robotics-Softwareplattform und verwenden eine Reihe von künstlich neuronalen Netzwerken. Darunter Wahrnehmung, Segmentierung, räumliche Lage und Schätzung der menschlichen Position.
Zusätzlich zu realen Daten werden die Roboter – ganz im Gamer-Style - mithilfe virtueller Bilder trainiert, um Bauteile und Ladungsträger auch unter verschiedenen Sicht- und Lichtbedingungen sicher zu erkennen. Die so gewonnenen realen und synthetischen Daten werden wiederum genutzt, um neuronale Netzwerke auf den Grafikkarten-basierten Servern zu trainieren. Lebenslanges Lernen ist also auch bei Robotern angekommen.