schließen

Lob der Arbeitstiere

Die meisten Roboter arbeiten in der Industrie.

Von MANUELA LENZEN

Zwei Industrieroboter stehen nebeneinander
Illustration: Malcolm Tween/Digital Progression

Es kommt nicht oft vor, dass sich Museumsführer um die gelangweilten Kinder der Ausstellungsbesucher kümmern. Im Heinz Nixdorf Museums Forum im westfälischen Paderborn spielt er mit ihnen Verstecken. Kaum hat das Kind sich umgedreht und begonnen, bis zehn zu zählen, hat er sich schon leise surrend davongemacht, irgendwo zwischen die Exponate. Nur sein altmodischer Hut ragt noch hervor. Dieser Museumsführer ist ein Roboter. In den japanischen Henn-na-Hotels stehen Roboter an der Rezeption: mal so menschenähnlich, dass man zweimal hinschauen muss, mal in klassischem Roboter-Weiß oder auch à la Jurassic Park in Form von Dinosauriern. Am Flughafen München ist Josie Pepper unterwegs, einen Meter zwanzig groß, ein Bildschirm vor der Brust. Sie soll Reisenden Auskunft über Abflugzeiten und -orte geben. In Dubai und in China fahren Roboter-Polizisten Streife – nicht mit dem Auto, sondern auf ihren eigenen Rädern.

80 Prozent der Menschen wünschen sich Umfragen zufolge einen robotischen Haushaltshelfer. Doch mit künstlichen Menschen, den Humanoiden oder Androiden, ist die neue Welt der Roboter noch längst nicht durchmessen. Auch das viel diskutierte autonome Auto ist genau genommen ein Roboter, vielleicht müsste man auch ein Haus mit intelligent vernetzten Geräten ebenso bezeichnen. Und im Schatten der so spektakulären wie werbewirksamen Auftritte von Robotern wie Sophia aus dem Hause Hanson-Robotics, der in Talkshows geladen wird und von Saudi-Arabien die Staatsbürgerschaft verliehen bekam, ist ein ganzer Zoo unterschiedlicher Roboter entstanden: In den Labors von Universitäten, Unternehmen und des Militärs tummeln sich Maschinen, die laufen, kriechen, hüpfen, fahren, fliegen oder schwimmen.

Die Roboter-Biene der Harvard University kann schwimmen, sich aus dem Wasser erheben und losfliegen. Die meisten dieser Roboter bestehen aus Plastik, Metall und anderem harten Material, manche sind weich wie Gummibärchen, können empfindliche Dinge ergreifen, ohne sie zu zerstören, oder ihre Form verändern und sich, wenn nötig, durch enge Ritzen zwängen. Manche sind groß wie Lastwagen, andere finden auf einem Fingernagel Platz. Sie werden für Einsätze als Katastrophenhelfer trainiert, sollen Umweltdaten erheben, die Kanalisation überprüfen, den Mars erforschen, Bäume fällen, im Krankenaus die Wäsche zur Wäscherei fahren und vieles mehr. Roboter, so heißt es mit Blick auf diese Vielfalt, haben die längste Zeit an Fließbändern, hinter Absperrgittern oder in Käfigen verbracht. Doch das ist nur die halbe Wahrheit, vielleicht auch nur ein Viertel oder ein Achtel. Denn die allermeisten dieser Entwicklungen sind Prototypen und kommen erst nach und nach zum Einsatz.

Die Roboter, die unsere Arbeitswelt schon heute massiv verändern, schaffen es hingegen nur selten in die Schlagzeilen: Die meisten von ihnen haben ihren Platz nämlich nach wie vor in den Fabrikhallen und arbeiten unter ihresgleichen: die Roboter der Logistik, die in den Lagerhäusern der großen Internethändler die effizientesten Transportwege berechnen und die gewünschten Dinge zu den Packstationen oder gleich zum Lastwagen bringen; die Fertigungsstraßen, in denen Fließbänder und Greifarme die Werkstücke von einem Fertigungsschritt zum nächsten transportieren und der Mensch nur noch anwesend ist, um Störungen zu beheben, ein verklemmtes Bauteil zurechtzurütteln oder ein schadhaftes Teil auszuwechseln.

„Unser Ausgangspunkt war und zentraler Schwerpunkt ist die klassische Industrierobotik“, sagt Andreas Müller, Vorstand des Instituts für Robotik der Johannes Kepler Universität Linz. „Wir lassen große Roboter sehr schnell unterschiedliche Dinge tun.“ Industrieroboter stellen bis heute die größte Gruppe unter den Robotern, dem Statistikportal Statista zufolge sind weltweit etwa 1,8 Millionen im Einsatz, eine halbe Million davon in Europa.

Die meisten Roboter pro angestelltem Menschen arbeiten in Korea, gefolgt von Japan, Deutschland und den USA; der chinesische Markt gilt als derjenige mit dem größten Wachstum. Industrieroboter arbeiten vor allem in der Auto- und der Elektrobranche und in der Metallverarbeitung, kommen aber nach und nach in immer mehr Bereichen zum Einsatz. Sie schweißen, lackieren, kleben, schrauben und nieten in hohem Tempo, sie ergreifen Werkstücke, drehen sie blitzschnell in die richtige Position und reichen sie weiter, oft mit wesentlich mehr Gelenken und damit Freiheitsgraden, als dem menschlichen Arm zur Verfügung stehen.

Es ist ein atemberaubendes Maschinenballett, das sich in machen Produktionsanlagen und auch in Müllers Institut vollzieht. UNIMATE war das erste dieser technischen Arbeitstiere: 1961 kaufte der Auto-Konzern General Motors den robotischen Arm des amerikanischen Erfinders George Devol und integrierte ihn in seine Fertigungsstraße. Seither arbeiten Forscher daran, Maschinen dazu zu bringen, komplexe Bewegungsabläufe präzise, schnell und sicher auszuführen, nicht nur einmal, sondern hunderte und tausende Male, rund um die Uhr. Solche Systeme sind umso schwieriger zu realisieren, je flexibler sie sein sollen. Ein Arm, der nichts sieht oder fühlt, kann immer nur genau dieselbe Bewegung ausführen, und wenn das Werkstück, das er ergreifen soll, ein Stück weiter rechts oder links liegt als erwartet, kann er sich nicht korrigieren. Die meisten Industrieroboter sind heute schnell, aber dumm. Sie werden eingerichtet und erfüllen dann immer wieder dieselbe Aufgabe. Doch je komplexer die Vorgänge werden, die automatisiert werden sollen, je mehr unterschiedliche Maschinen zusammenarbeiten sollen, desto größer wird der Bedarf an flexibleren Systemen.

„Ein System, das komplexere Aufgaben erfüllen soll, muss in der Lage sein, die Umgebung wahrzunehmen, zu verstehen, zu bewerten und, wenn es mit Menschen unmittelbar zusammenarbeiten soll, muss es sicher sein“, erklärt Müller. Roboterforscher arbeiten an unterschiedlichen Verfahren, um ihren Maschinen flexibles Verhalten beizubringen. Manche nehmen ihre Roboter bei der Hand und führen sie die Bewegung, die sie erlernen sollen. Andere versuchen sie zu lehren, sich die Bewegungen bei einem menschlichen Lehrer abzuschauen. Wieder andere trainieren ein digitales Abbild des Roboters im Computer und übertragen den Controller dann mit einigen Nachbesserungen auf den realen Roboter.

Müller und sein Team setzen auf Modelle: Das sind abstrakte Darstellungen, wie eine Aufgabe zu lösen ist. „Stellen Sie sich vor, Sie wissen, wie es geht, ein Tablett so zu schwenken, dass die Gläser nicht herunterfallen“, erklärt Müller. „Wenn man berechnen kann, wie die Gläser sich bewegen, weiß man genau, was man machen darf und was nicht.“ Solche Modelle entwickeln die Forscher für unterschiedliche Bewegungen. Modelle allerdings müssen die Welt richtig wiedergeben. Und sie müssen sich an die Welt anpassen können, wenn diese sich verändert. Das Modell einer Bewegung, mit der ein Roboter einen Ball fangen soll, nützt nicht viel, wenn man nicht weiß, wie groß und schwer und schnell der Ball ist. Hier schlägt die Robotik die Brücke zu den Lernverfahren: „Das Problem mit den modellbasierten Verfahren ist, dass die Forscherin oder der Forscher die Parameter kennen muss. Künstliche Intelligenz kann dabei dem System ermöglichen, diese auch alleine herauszufinden“, sagt Stefan Gadringer, wissenschaftlicher Mitarbeiter am Linzer Robotik-Institut. Bei dem aus der Biologie abgeschauten Reinforcement-Lernen bekommt ein System eine Rückmeldung über den Erfolg oder Misserfolg seiner Versuche und kann sich mit ihrer Hilfe verbessern und sich an Veränderungen anpassen: an Bälle anderer Größe, aber auch etwa an Temperaturunterschiede, Reibung und die Alterung des Materials im Arbeitsprozess. Solches Lernen durch Feedback wird umso wichtiger, je mehr die starren Arbeitsmaschinen durch leichtere und damit elastischere Roboter ersetzt werden: „Klassische Roboter sind so schwer, damit sie steif und ihre Bewegungen exakt sind. Dadurch benötigen sie sehr viel Energie, um sich zu bewegen. Unsere Idee ist, leichtere elastischere Roboter mithilfe von anpassungsfähigen Modellen in die Lage zu versetzen, ebenso genau zu arbeiten“, so Müller. „Darin sehe ich die Zukunft: modellbasierte und lernende Verfahren zusammenzubringen.“

Vielleicht entstehen wirklich intelligente Maschinen ja erst, wenn wir sie, ein wenig wie Kinder, bei der Hand nehmen und führen, unterrichten und ausprobieren lassen können. Bei modellbasierten Verfahren geben die Forscher den Systemen mit, was sie selbst über die Lösung einer Aufgabe wissen: „Dass Körper herunterfallen und wann sie unten ankommen, was eine Wurfparabel ist, das ist Teil des Modells.“

Das maschinelle Lernen ermöglicht es den Maschinen, Aufgaben selbstständig zu erlernen und sich der Umgebung anzupassen. Sehr weit liegen modellbasierte Verfahren und maschinelles Lernen nicht auseinander, da auch mit Lernverfahren Modelle der Welt erstellt, d.h. gelernt werden, wie beispielsweise beim Reinforcement-Lernen. Sehr erfolgreich war in letzter Zeit Deep Reinforcement Learning, mit dem KIs bei Atari-Spielen besser als Menschen waren, obwohl sie auch nur den Bildschirm gesehen und sonst keine zusätzlichen Daten bekommen haben.

Deep Reinforcement Learning basiert auf Deep Learning, d.h. dem Lernen mit künstlichen neuronalen Netzen. Deep Learning benötigt eine große Anzahl von Trainingsdaten, um eine Aufgabe zu lernen. Zur Durchführung dieser Trainingsläufe reichen Hochleistungscomputer nicht mehr aus, es werden Grafikkartencluster benötigt – auch die JKU wird demnächst einen GPU-Cluster im LIT AI Lab anschaffen.

Doch selbst mit neuen Lernmethoden können sich Roboter nicht schneller bewegen als in Echtzeit. Auch eine ganze Reihe von Robotern parallel lernen zu lassen, wie es Googles Forschungslabor ausprobiert hat, führt nicht zu einem befriedigenden Ergebnis.

Eine weitere Herausforderung: die Sicherheit derjenigen Roboter, die einmal ohne schützende Zäune mit Menschen zusammenarbeiten sollen, der sogenannten kollaborativen Roboter. Auch hier arbeiten Forscher mit unterschiedlichen Ansätzen: einer druckempfindlichen Haut, die die Maschine sofort anhalten lässt, wenn sie irgendwo anstößt, oder Augen, mit denen der Roboter zwar nicht sehen kann, die er aber auf seinen Arbeitsbereich richtet, sodass der Nutzer erkennen kann, wo der Roboter aktiv werden wird.

In der Praxis ist das Mittel der Wahl bislang vor allem ein sehr geringes Arbeitstempo, damit der Mensch von den Bewegungen der Maschine nicht überrascht wird. Das macht die auf Geschwindigkeit getrimmte Produktion nicht gerade effizienter.

Andreas Müller denkt in eine andere Richtung: Wäre es mithilfe der KI möglich, die Bewegungen eines Menschen zu analysieren und vorherzusagen, welche Bewegung er im nächsten Moment machen wird? „Dann könnte der Roboter ihm frühzeitig ausweichen.“

Sepp Hochreiter, Leiter des Instituts für Maschinenlernen an der JKU, bestätigt: „Solche Vorhersagen werden auch beim Steuern von selbstfahrenden Autos durch KIs benötigt. Im Audi.JKU Deep Learning Center entwickeln wir beispielsweise KI-Methoden, die erkennen, ob ein Fußgänger die Straße überqueren will oder sich nur am Straßenrand unterhält. Es werden sogar ganze Verkehrsszenen durch KIs eingeschätzt, wo das Verhalten nicht nur eines Verkehrsteilnehmers, sondern das vieler vorhergesagt werden muss.“

Schon jetzt spielen Roboter also eine wichtige Rolle in der Industrie.

In Zukunft werden sie immer häufiger unmittelbar neben und mit uns leben und arbeiten. Dem alten Menschheitstraum von Maschinen, die uns die schmutzige, anstrengende, monotone oder gefährliche Arbeit abnehmen und uns mehr Zeit für die angenehmen Seiten des Lebens lassen, kommen wir damit wieder ein Stückchen näher.  

NEWS 28.09.2018

Wissen

Erschienen in Ausgabe 3/2018