ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Startseite
  Neuigkeiten
  Historie
  Pressestimmen
  Redaktion
  Kontakt
  Sitemap
  Haftungsausschluss
  Impressum


SCHLAGZEILEN

14.03.2017
Mensch-Roboter-Zusammenarbeit in Industrie 4.0 (Heinz Schmitz)

Auf der CeBIT können Besucher unmittelbar erleben, wie Handlungen eines Menschen an einem Ort zu einer direkten robotischen Aktion an anderer Stelle führen. Ergänzt wird die Präsentation durch Displays, auf denen die Mixed Reality-Egoperspektive des HoloLens-Trägers dargestellt wird.

Mit Mixed Reality Production 4.0 präsentieren Forscher des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) neue, ortsübergreifende Formen der Mensch-Roboter-Kollaboration (MRK). Anpassbare und trainierbare Leichtbauroboter interagieren mit ihren menschlichen und robotischen Kollegen auf dem CeBIT-Stand des DFKI. Mit Hilfe von Mixed Reality- und Virtual Reality-Technologien lösen Mitarbeiter an einem Ort zusammen mit Robotern und Kollegen an einem anderen Ort gemeinsam und flexibel die Aufgabe, Gefahrgüter sicher zu handhaben.

Gezeigt wird wie drei baugleiche Roboter auf dem DFKI-Stand durch einen Operator auf einer Exponatsinsel auf dem benachbarten BMBF-Stand über eine HoloLens-Brille telemanipuliert werden. Ergänzt wird die Präsentation durch die Telemanipulation von zwei Robotern (Universal Robotics UR, MiR
100) via Live-Schaltung in das MRK4.0-Innovationslabor des DFKI am Standort Saarbrücken. Mit Hilfe des Mixed-Reality-Systems ist es möglich, Objekte in einer dreidimensionalen virtuellen Repräsentation des Kollaborationsszenarios in Echtzeit zu manipulieren. Der Benutzer kann dabei mit dem Roboter interagieren, indem er auf die virtuelle Repräsentation des Zielobjekts blickt und durch eine Geste die gewünschte Aktion auslöst.

Zusätzlich demonstriert wird die Telemanipulation in der unmittelbaren Umgebung. Auf der Exponatsinsel am BMBF-Stand werden drei Roboter – ein ABB Yumi, ein Universal Robotics UR und ein Mobilitätsroboter MiR 100 – zusammen mit dem Operator gemeinsam Aktionen ausführen. Der Operator steuert die Abläufe in einer Mixed-Reality Umgebung (HoloLens) mit Gesten. Die Roboter führen die Befehle aus, greifen und bewegen Objekte auf einem Tisch bzw. einer Ablage, die auf dem Mobilitätsroboter montiert ist. Das Objekt wird so sicher zwischen den Leichtbaurobotern transportiert. Ziel ist die Einübung des fehlerfreien Handlings der Roboter in der Remote-“Gefahrgut”-Situation.

Siehe auch:
https://www.dfki.de/web/aktuelles/dfki-cebit-2017/index_html
http://www.heinz-schmitz.org


zurück zum Archiv

Druckversion Impressum Haftungsausschluss