ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Startseite
  Neuigkeiten
  Historie
  Pressestimmen
  Redaktion
  Kontakt
  Sitemap
  Haftungsausschluss
  Impressum


SCHLAGZEILEN

26.09.2017
Vom Gehirn zur Robotik (Heinz Schmitz)

Algorithmen verarbeiten Sensordaten wie das Gehirn. Dazu dienst die Entwicklung von neuro-morphen Algorithmen, die audio-visuelle Sensordaten nach dem Vorbild des menschlichen Gehirns verarbeiten sollen. Die Wissenschaftler möchten mit ihrem Projekt die neurobiologischen Funktionsweisen des Gehirns auf robotische und informationstechnische Systeme übertragen.

Er hat tintenblaue Ohren, und mit seinen dunklen Kameraaugen, die seitlich auf dem rundlichen Aufbau montiert sind, sieht er recht possierlich aus. Auf einem fahrbaren Untersatz rollt der kleine Roboter den Ulmer Wissenschaftlern vorsichtig entgegen. Der NinjaTurtle, so sein Name, hilft den Neuroinformatikern und Kognitionsforschern dabei, spezielle Algorithmen zu testen, die der menschlichen Wahrnehmung und Kognition nachempfunden sind. Damit wollen die Ulmer Forscher die Verarbeitung von visuellen und auditiven Sensordaten robuster, schneller und effizienter machen.

"Das menschliche Gehirn gehört noch immer zu den effektivsten Datenverarbeitungssystemen überhaupt. Vor allem bei der Auswertung von Sinneseindrücken arbeiten natürliche Nervensysteme hocheffektiv und sind vielen technischen Systemen überlegen", erklärt Professor Heiko Neumann. Der stellvertretende Leiter des Instituts für Neuroinformatik gehört wie Professor Marc Ernst, Leiter der Abteilung für Angewandte Kognitionspsychologie, zu den erfolgreichen Antragstellern. Mit ihrem VA- MORPH Projekt möchten die Wissenschaftler neurobiologische Funktionen des Gehirns auf robotische und informationstechnische Systeme übertragen. Im Mittelpunkt steht dabei die Entwicklung sogenannter neuro-morpher Algorithmen, die sich in ihrer Struktur und Arbeitsweise am menschlichen Gehirn und seinen elementaren Bestandteilen, den Neuronen, orientieren.

Ausgangspunkt ist dabei die Frage, wie visuelle und auditive Sensorströme verarbeitet, fusioniert und technisch genutzt werden können, beispielsweise für die räumliche Orientierung und Navigation.

Das Gehirn wählt nur diejenigen Informationen aus, die relevant sind
"Die menschliche Wahrnehmung ist nicht wie bei technischen Systemen getaktet, sondern arbeitet ereignisbasiert. Das heißt, relevant ist vor allem das, was sich über einen bestimmten Zeitraum hinweg verändert. Aus all den Informationen, die auf uns einströmen, wählt das Gehirn nur diejenigen aus, die "überlebensrelevant" sind und in der jeweiligen Situation einen Sinn ergeben", erklärt der Kognitionspsychologe Ernst. Das laufe eben nicht wie bei einer herkömmlichen Kamera ab, wo die räumliche Umgebung über Einzelbilder erfasst wird. Der biologische Hörvorgang ist ebenso komplex und dabei nicht weniger "Daten-ökonomisch". Hierfür kombiniert das Gehirn sensorische Signale mit Erwartungen aus unterschiedlichen Erfahrungskontexten und verrechnet die Informationen zu einem multisensorischen Gesamteindruck. "Die Integration dieser sensorischen Datenströme ist eine Meisterleistung des Gehirns. Wenn wir verstanden haben, wie das genau funktioniert, können wir versuchen, diese Funktionsweisen auf technische Systeme zur Sensordatenverarbeitung zu übertragen", fassen die Ulmer Forscher ihren wissenschaftlichen Auftrag zusammen. Gehirninspirierte Hard- und Software sind heute aus dem Cognitive Computing, der Neurorobotik und der Künstlichen Intelligenz nicht mehr wegzudenken.

Zur Generierung der neuro-morphen Algorithmen haben die Ulmer Wissenschaftler biologisch plausible Lernverfahren entwickelt, mit deren Hilfe die "relevanten" Informationen aus der Gesamtheit der sensorischen Daten herausgefiltert werden können. Jetzt wollen Neumann und Ernst mit ihren Doktoranden Christian Jarvers, Maximilian Löhr und Timo Oess herausfinden, wie praxistauglich und leistungsfähig die nach menschlichem Vorbild geschaffenen Algorithmen sind. Dafür werden sie auf der Roboterplattform implementiert und zunächst an einfachen Orientierungsaufgaben getestet. "Diesen Job hat nun der kleine Ninjabot: Ohne sich durch Nebengeräusche und Sichthindernisse irritieren oder ablenken zu lassen, soll er bestimmte visuelle und akustische `Landmarken´ aufsuchen und einsammeln", erläutern die wissenschaftlichen Mitarbeiter Löhr und Oess.

Zum Einsatz kommen Rechner mit gehirninspirierter Hardware
Um die Algorithmen zu realisieren, kommen ganz besondere Rechnerarchitekturen zum Einsatz. Bei dieser sogenannten gehirninspirierten Hardware sind Prozessor und Speicher nicht getrennt, wie dies bei herkömmlichen Rechnern der Fall ist. Vielmehr arbeiten diese vereint wie Neuronen und ihre synaptischen Verbindungen im Gehirn. Damit lassen sich die Daten wesentlich schneller und effizienter verarbeiten.

"Dank unserer Kooperationspartner haben wir Zugriff auf eine wissenschaftliche Ausstattung, die für Universitäten wohl einzigartig ist", freut sich das Ulmer Projektteam. Über den Technologiekonzern IBM Research Almaden (USA) stehen neuro-morphe Chip-Architekturen aus dem Bereich Brain-Inspired Computing zur Verfügung. Außerdem können die Wissenschaftler auf eine Hardware-Plattform aus dem EU-geförderten Human Brain Projekt zurückgreifen und über die Firma IniLabs zudem auf spezielle neuro-morphe Sensoren.

Wenn alles gut geht, wird sich der kleine Roboter NinjaTurtle unbehelligt von Störgeräuschen auch bei schwierigen Sichtverhältnissen seinen Weg zielstrebig durch das Labor bahnen, und dabei nur einen Bruchteil an Rechenkapazitäten und Speicherplatz verbrauchen wie herkömmliche Rechnerarchitekturen. Denn vom Gehirn lernen lohnt sich, glauben die Ulmer!

Siehe auch:
https://www.bwstiftung.de/neurorobotik/
http://www.uni-ulm.de/
http://www.heinz-schmitz.org



zurück zum Archiv

Druckversion Impressum Haftungsausschluss