Humanoide Roboter



Bipedal Locomotion: Fortschritte und Innovationen
Zweibeinige Roboter bleiben in Bezug auf Beweglichkeit und Effizienz hinter ihren biologischen Vorbildern zurück, was vor allem auf die Schwierigkeiten bei der Nachbildung des menschlichen Bewegungsapparats zurückzuführen ist. Im Robotik-Forschungslabor konzentrieren sich die Bemühungen, diese Lücke zu schließen, auf bioinspirierte Kontrollstrategien und fortschrittliche mechanische Konstruktionen. Eine Schlüsselinnovation ist das Compliant Robotic Leg (CARL) mit von hinten antreibbaren und nachgiebigen elastischen Aktuatoren (RRLAB-SEAs), die menschenähnliche Eigenschaften wie nachgiebige Muskeln, Kraftverstärkung, geringe Trägheit, Beweglichkeit und reduzierten Stromverbrauch ermöglichen.
Um die bioinspirierte verhaltensbasierte Steuerung der zweibeinigen Fortbewegung (B4LC) voranzutreiben, nutzt CARL die passive Dynamik und ahmt anthropomorphe Eigenschaften wie Betätigung, kinematische Anordnung und Gewichtsverteilung nach. Sein mono- und bi-artikuläres Antriebssystem, gekoppelt über direkte und viergliedrige Verbindungen, bietet eine robuste und redundante Struktur. Inspiriert vom Erfolg menschlicher Amputierter mit SEAs und Fußprothesen, beinhaltet CARL einen handelsüblichen Prothesenfuß, um ein natürliches, energieeffizientes Gehen zu ermöglichen.
Ein spezieller Prüfstand, der ein Laufband und einen Hebemechanismus zur Simulation eines zweiten virtuellen Beins umfasst, hat die Impedanz- und Kraftkontrolle von CARL auch in gekoppelten Konfigurationen bestätigt. Vorläufige Gehbewegungen wurden durch die Portierung eines Teilsystems von B4LC auf CARL erreicht, wodurch die Machbarkeit für reale Anwendungen demonstriert wurde. Diese Bemühungen ergänzen Studien an simulierten Zweibeinern, wie z. B. einem 1,80 m langen und 76 kg schweren Roboter, der eine überlegene Anpassungsfähigkeit an unebenes Terrain und Störungen gezeigt hat.
CARL ist ein wichtiger Schritt auf dem Weg zum Einsatz von B4LC auf humanoiden Plattformen. Künftige Forschungsarbeiten zielen darauf ab, CARL in größere Robotersysteme zu integrieren und seine Fähigkeit zur Bewältigung komplexer, adaptiver Laufverhaltensweisen zu verfeinern und gleichzeitig die Lücke zwischen Simulation und physischer Implementierung zu schließen.
Robin und Emah: Fortschrittliche Mensch-Roboter-Interaktion (HRI)
Die Mensch-Roboter-Interaktion (HRI) konzentriert sich auf die Schaffung einer natürlichen und effizienten Kommunikation zwischen Menschen und Robotern durch multimodale Interaktion. Durch den Einsatz von Gestik, Mimik und kontextbezogenen Hinweisen verschieben Roboter wie Robin und Emah von Engineered Arts die Grenzen der menschenähnlichen Interaktion.
Robin: Eine bewährte Plattform für HRI
Robin ist mit einem von hinten beleuchteten, projizierten Gesicht und 35 Freiheitsgraden in seinem Oberkörper ausgestattet und unterstützt vielfältige Interaktionen durch ausdrucksstarke Gesichtsgesten und intelligente Handbewegungen. Die wichtigsten Merkmale sind:
- Sprachfähigkeiten: Eingebaute Sprachsynthese in Englisch und Deutsch.
- Interaktionsfunktionen: Gestenerkennung, Verfolgung von Gesichtsausdrücken und Erkennung der Persönlichkeit anhand von nonverbalen Hinweisen.
- Validierungsszenarien: Nachgewiesene Effektivität in 20-Fragen-Spielen und allgemeinen interaktiven Szenarien durch Anpassung an das Benutzerverhalten und Kontextinformationen.
Robins Fähigkeit, niedrige Wahrnehmungsmerkmale wie Blicke, ethnische Zugehörigkeit und Körperhaltung zu erkennen, ermöglicht in Kombination mit der Erkennung der Persönlichkeit auf hoher Ebene spezifische und personalisierte Interaktionen. Diese Merkmale haben bei der Validierung des menschlichen Feedbackverhaltens und der Persönlichkeitserkennung in der HRI eine wichtige Rolle gespielt.
Emah: Ein HRI-System der nächsten Generation
Das Emah-System, das auf dem Ameca-Roboter der Generation 1 implementiert wurde, baut auf der Grundlage von Robin auf und bietet verbesserte Hardware- und Softwarefunktionen:
- Erweiterte Wahrnehmung: Integration externer Sensoren, einschließlich einer ZED2-Kamera und eines Mikrofons, für eine verbesserte Wahrnehmung der Szene und Erkennung von Menschen.
- Sprache und Emotionen: Nutzt Googles Speech-to-Text und die vom Team entwickelte Emotionserzeugung für lebensechte Sprache und Lippensynchronisation, gepaart mit den Ausdrucksmöglichkeiten von Ameca.
- Realistisches Design: Verfügt über ein lebensechtes Gesicht auf Siliziumbasis, binokulare, an den Augen angebrachte Kameras und eine an der Brust angebrachte ZED2-Kamera für Tracking und Blickkontakt.
Emah wurde in Studien zur sozialen Wahrnehmung, zum Szenenbewusstsein und zum Beobachtungslernen validiert. Sein für realistische Interaktion optimiertes Design fördert das Engagement und unterstützt Anwenderstudien im Bereich HRI.