Beobachtung von Mensch und Tier soll künftige Roboter besser machen
Hoch entwickelten Lebewesen wie Menschen fällt es bis heute deutlich leichter, sich auf neue Situationen einzustellen, als es Roboter können. Um das zu ändern, hat eine internationale Forschungsgruppe am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld nun flexible Verhaltensweisen beobachtet und daraus Erkenntnisse abgeleitet.
Trotz vielfältiger technischer Möglichkeiten schaffen es Computer und Roboter bisher nicht, sich schnell und intuitiv auf neue Situationen einzustellen. Genau das ist aber nötig, wenn sie künftig noch mehr Aufgaben im Alltag übernehmen sollen. Für Menschen ist es beispielsweise meist einfach, sich in einer Küche zu orientieren, beispielsweise eine Tasse zu finden und diese mit heißem Wasser sowie einem Teebeutel zu füllen. Das gilt auch dann noch, wenn dort zwischendurch andere Personen zusätzliche Gegenstände abgestellt und den Wasserkocher etwas umgestellt haben. Menschen kochen auch einfach Reis, wenn ihnen z. B. die Nudeln ausgegangen sind.
Es gibt Fortschritte in mehreren Forschungsbereichen
Wie Menschen und Tiere an solche und ähnliche Aufgabenstellungen herangehen, hat jetzt eine internationale Forschungsgruppe am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld erforscht. Zehn Monate, von Oktober 2019 bis Juli 2020, haben die Forschenden daran gearbeitet, flexibles Verhalten bei den Lebewesen besser zu verstehen. Denn sie sollen künftig als Vorbilder für die Maschinen dienen. Dazu arbeiten Forschende aus so unterschiedlichen Disziplinen wie Psychologie, Biologie und Verhaltensforschung zusammen, um Maschinen zu befähigen, sich an wechselnde Situationen anzupassen.
„Derzeit sehen wir faszinierende Fortschritte in ganz unterschiedlichen Forschungsbereichen und arbeiten daran, diese zusammenzubringen“, sagt der Psychologe Werner Schneider. Er leitete die Forschungsgruppe zusammen mit dem Neuroinformatiker Helge Ritter. Beide sind Professoren an der Universität Bielefeld.
Warum Roboter Veränderung nicht mögen
Mit unvorhergesehenen Veränderungen umzugehen ist nämlich für Computerprogramme eine viel größere Herausforderung, als beispielsweise den Weltmeister im Schach zu schlagen. Entscheidend ist das auch für die Weiterentwicklung von Robotern, die bisher meist fest montiert hinter Schutzzäunen in Fabrikhallen stehen und monotone Fließbandarbeit erledigen. Sollen sie sich in den Fabriken und vielleicht sogar außerhalb solcher definierten Arbeitsumgebungen bewegen, müssen sie ihre Umwelt wahrnehmen, selbstständig Entscheidungen treffen und Handlungen planen. Dazu fehlen ihnen bisher Strategien.
Situationsmodelle können helfen
Um das zu ändern, haben sich die Forschenden dazu auf sogenannte Situationsmodelle konzentriert. Diese geben an, welche kognitiven Prozesse nötig sind, um eine Aufgabe zu bewältigen. Hier geht es um Prozesse, die bei Menschen in neuen Situationen automatisch ablaufen, wie die Wahrnehmung und Erkundung einer Situation, das Durchspielen verschiedener Handlungsmöglichkeiten in Gedanken, die Ausführung einer Handlung sowie das Erinnern an ähnliche Konstellationen und das Lernen aus Erfolgen und Misserfolgen. „Um einen produktiven Dialog zwischen den unterschiedlichen Forschungsfeldern zu ermöglichen, haben wir uns auf basale, nicht sprachlich vermittelte Formen des Verhaltens konzentriert, auf Navigation und Suche, Lernen und Gedächtnis“, berichtet Ritter. „Letztlich erhoffen wir uns Einsichten in grundlegende Mechanismen im flexiblen Verhalten von Menschen und Tieren, die sich auch für den Bau intelligenter Maschinen nutzen lassen“, sagt er und sein Kollege Schneider ergänzt: „Situationsmodelle werden dabei eine zentrale Rolle spielen.“
Erkenntnisse von der Abschlusstagung
Auf der hybriden Abschlusstagung in Bielefeld und online tauschten Ende August über 60 Forschende aus acht Ländern ihre Erkenntnisse aus. Der Titel der Tagung lautete „Enabling flexible behavior: From frameworks to mechanisms and complete systems“ (Flexibles Verhalten ermöglichen: von Rahmenwerken bis zu Mechanismen und vollständigen Systemen).
Das Team der Forschungsgruppe zum Thema „Situationsmodelle: Neue Perspektiven auf das kognitive Verhalten von Menschen, Tieren und Maschinen“ (engl. „Cognitive behavior of humans, animals, and machines: Situation model perspectives“) am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld hat daraus vier Kernfragen herausgearbeitet und die Antworten darauf zusammengefasst. 1. Wie entscheidet ein Organismus, was für die Lösung einer anstehenden Aufgabe wichtig ist und was dieser ignorieren kann? 2. Welche Rolle spielen Lernen und Entscheiden? 3. Wie repräsentieren Organismen eine Situation im Kopf? 4. Wie spielen diese verschiedenen Bereiche zusammen?
1. Entscheidungsfindung im Organismus
Laut den Professoren Schneider und Ritter legt die Forschung aus den letzten beiden Jahrzehnten nahe, dass an solchen Entscheidungen zwei verschiedene Systeme beteiligt sind: „Das erste System ist ein sehr schnell operierendes ‚habituelles‘ System, in dem unsere gut eingeübten, ‚gewohnheitsmäßigen‘ Verhaltensmuster niedergelegt sind. Damit ist es in der Lage, die nötigen Reaktionsmuster für eine Aufgabe schnell, hoch automatisiert und zu einem meist sehr gut funktionierendem Gesamtverhalten ‚zusammenzubauen‘. Zugleich beansprucht es nur sehr wenig kognitive ‚Ressourcen‘, heißt es in einer schriftlichen Stellungnahme der Forscher auf Anfrage von VDI nachrichten. „Wir haben ,den Kopf noch frei‘, wenn wir für eine zweite Aufgabe adäquat reagieren müssen“, beschreiben sie den Effekt. Ein typisches Beispiel sei die phasenweise ‚vollautomatische‘ morgendliche Autofahrt entlang einer kaum befahrenen Landstraße zum Arbeitsplatz, während der z. B. ohne Weiteres ein Gespräch mit einer Person im Auto geführt werden kann.
„Das zweite System agiert in allen Fällen, in denen das erste System keine gut eingeübten, gewohnheitsmäßigen Muster gespeichert hat“, berichten die Forscher. In diesem Falle müsse eine neue Lösung ‚abwägend‘ gefunden werden. Ritter spricht vom ‚deliberativen‘ System. „Bei dieser Suche ermöglicht uns System 2 sogar eine ‚innere Simulation‘ von Handlungsmöglichkeiten, um diese zu bewerten und zu vergleichen. Aufgrund dieses hohen Aufwands bindet System 2 unsere Aufmerksamkeit und unser Bewusstsein und ist gegenüber System 1 viel flexibler, aber auch sehr viel langsamer in seinen Reaktionen“, schreiben die Wissenschaftler.
2. Die Rolle von Lernen und Entscheiden
Die beiden Worte suggerieren laut den Experten vom ZiF, dass es sich dabei um lediglich zwei Prozesse handelt. In Wirklichkeit fassten sowohl Lernen als auch Entscheiden jeweils ein ganzes Bündel verschiedener Prozesse zusammen. „Allein am Lernen ist nach heutigem Wissensstand mehr als ein halbes Dutzend verschiedener Gedächtnissysteme beteiligt, die unterschiedliche Formen des Lernens unterstützen“, fassen sie ihre Erkenntnisse zusammen. Die Formen reichten dabei von sensorischem Lernen – etwa mit Fragen wie: Wie sieht ein Apfel aus? Wie schmeckt er? –, senso-motorischem Lernen (Wie greift man einen Apfel oder schält ihn mit einem Messer?), Lernen von deklarativem Wissen (Wo gibt es Äpfel? Wie wachsen sie?) bis hin zu episodischem Lernen (Bei welcher Gelegenheit habe ich das letzte Mal einen Apfel gegessen?).
Nicht viel einfacher sieht es nach ihrer Erkenntnis beim Entscheiden aus. Schneider und Ritter fassen dazu zusammen: „Wir haben bereits erwähnt, dass es zwei komplementäre Systeme gibt, die Verhaltensentscheidungen treffen. Und auch innerhalb dieser Systeme müssen wir verschiede spezialisierte Teilprozesse unterscheiden, z. B. Entscheidungen darüber, ob eine Situation uns vertraut erscheint, oder darüber, ob wir die Tasse vor uns mit der linken oder mit der rechten Hand greifen wollen.“ Das seien gänzlich unterschiedliche Entscheidungsräume, für die das Gehirn nach heutigem Wissen mit hoher Wahrscheinlichkeit unterschiedliche Prozesse nutze.
3. Repräsentieren einer Situation im Kopf
Die Frage, wie Organismen eine Situation im Kopf repräsentieren, ist für die Experten sehr umfangreich, da Menschen Situationen in der Regel sehr vielschichtig begegnen. In der Konferenz beleuchteten Expertinnen und Experten die Frage deshalb aus möglichst vielen Richtungen, von der Neurobiologie über die Psychologie bis hin zur Robotik. Schneider: „In den kognitiven Neurowissenschaften besteht inzwischen ein großer Konsensus, dass für die Repräsentation einer Situation der Hippocampus – beim Menschen eine tief im Gehirn liegende und in ihrer Form einem Seepferdchen ähnelnde Struktur – eine zentrale Rolle spielt.“ Er sei der Sitz sogenannter ‚Kognitiver Karten‘, die zunächst räumliche Situationsaspekte (z. B. die Lage markanter Gebäude und anderer Landmarken, wenn wir uns durch eine Stadt begeben) durch die Aktivierungsmuster in sogenannten „Place Cells“ repräsentieren und Menschen dadurch eine Vorstellung ermöglichten, wo sie sich gerade befinden. „In einer neuen Umgebung müssen diese Karten durch Exploration erst aufgebaut werden, in einer vertrauten Umgebung kann die passende Karte dagegen abgerufen und weiter verfeinert werden“, so die Wissenschaftler.
Neuere Untersuchungen deuteten darauf hin, dass sich der Hippocampus bei der Repräsentation von Kontext nicht auf die räumlichen Aspekte beschränke, sondern uns auch ein Navigieren in abstrakteren Bedeutungsstrukturen, z. B. entlang hierarchischer Beziehungen zwischen Objekten, oder auch zwischen Mitgliedern einer Gruppe, ermögliche. Schneider und Ritter erklären dazu: „Ähnliche Fähigkeiten sind natürlich auch in der Robotik von Interesse. Dazu wurden in den vergangenen Jahren zahlreiche Algorithmen entwickelt, durch Deep Learning sind noch weitere Methoden hinzugekommen.“ Hier wollen sie die unterschiedlichen Perspektiven und Ideen der beteiligten Disziplinen in Austausch bringen, um Einsichten sowohl in der Technik als auch in der Gehirnforschung voranzubringen.
4. Zusammenspiel verschiedener Bereiche
Die Organisation des Zusammenspiels der vielen beteiligten Einzelprozesse lässt für die Wissenschaftler des ZiF erahnen, dass es sich um einen sehr komplexen Gesamtprozess handelt, der bis heute erst in bescheidenen Anfängen durchdrungen werden kann. Es sei jedoch sehr spannend zu sehen, wie z. B. die Architektur überschaubarerer Teilfunktionen, wie das Lernen durch Verstärkung (Reinforcement Learning), schrittweise besser verstanden werde – in diesem Falle das Zusammenwirken von Bewertungsprozessen, Prädiktionsprozessen und Auswahlprozessen, die die Balance zwischen Exploration neuer und Ausnutzung bereits erprobter und bewährter Aktionen steuern. Ähnliches gelte für die Frage, wie eine kognitive Karte mit dem Arbeitsgedächtnis – dem „Rechenzentrum“ des Gehirns – zusammenarbeite. „Wir sehen aber auch, dass es in diesem Feld noch viele offene Fragen gibt – uns Wissenschaftlern und Wissenschaftlerinnen wird also auch in der Zukunft der Stoff für neue Fragen noch lange Zeit nicht ausgehen“, räumen Schneider und Ritter ein.
Mit Material von der Universität Bielefeld.