Künstliche Intelligenz erkennt Objekte. Aber weiß sie auch, was man mit ihnen tun kann? Eine aktuelle Studie zeigt, warum unser Gehirn der Technik immer noch einen entscheidenden Schritt voraus ist.
Ein kurzer Blick auf eine fremde Umgebung genügt, und schon wissen wir instinktiv: Hier kann man laufen, dort müsste man klettern, und in jenem Gewässer könnte man schwimmen. Diese Fähigkeit mag selbstverständlich erscheinen, doch wie das Gehirn diese Handlungsmöglichkeiten erkennt, war bisher weitgehend unerforscht.
Ein Team der Universität Amsterdam hat nun in einer aktuellen Studie nachgewiesen, dass unser Gehirn über einzigartige Aktivierungsmuster verfügt, die es uns ermöglichen, Fortbewegungsmöglichkeiten in unserer Umgebung sofort zu erkennen – eine Fähigkeit, an der selbst fortschrittlichste KI-Systeme bisher scheitern.
"In der Psychologie sprechen wir von 'Affordanzen' – also den Handlungsmöglichkeiten, die uns eine Umgebung bietet", erläutert Studienleiterin Iris Groen. "Wir wollten herausfinden: Nehmen wir hauptsächlich nur das wahr, was da ist, zum Beispiel Objekte oder Farben, oder erkennen wir auch automatisch, wie wir damit interagieren können?"
Gehirn erkennt Handlungsmöglichkeiten automatisch
Für ihre im Fachjournal PNAS veröffentlichte Untersuchung ließen die Forscherinnen und Forscher Probanden im MRT-Scanner diverse Fotos von Landschaften und Innenräumen betrachten. Die Teilnehmenden bewerteten per Knopfdruck, ob die gezeigten Umgebungen zum Gehen, Radfahren, Autofahren, Schwimmen, Bootfahren oder Klettern einluden.
Das Team fand heraus: Die Handlungsmöglichkeiten werden automatisch verarbeitet – selbst wenn die Testpersonen gar nicht explizit auf Handlungsmöglichkeiten achten sollten. Das Gehirn erfasst diese Information offenbar als grundlegenden Bestandteil unserer visuellen Wahrnehmung.
Die Forschenden wiesen damit zum ersten Mal nach, dass Affordanzen nicht nur ein psychologisches Konzept sind, sondern auch eine messbare Eigenschaft unseres Gehirns.
Was künstliche Intelligenz noch nicht versteht
Im Vergleich mit der menschlichen Wahrnehmung zeigten KI-Systeme deutliche Schwächen. Die Wissenschaftlerinnen und Wissenschaftler verglichen die menschliche Fähigkeit mit KI-Modellen wie ChatGPT und stellten fest: Selbst modernste künstliche Intelligenz hat hier noch erhebliche Defizite.
So kam keines der getesteten Systeme an die Treffsicherheit menschlichen Urteilsvermögens heran. Selbst KI-Modelle, die speziell für diese Aufgabe trainiert wurden, konnten die menschliche Leistung nur annähernd erreichen.
Lesen Sie auch
"Wir verbinden unsere Wahrnehmung mit unserer Erfahrung in einer physischen Welt. KI-Modelle können das nicht, weil sie nur in einem Computer existieren", erklärt Groen.
KI kann noch viel vom menschlichen Gehirn lernen
Die Erkenntnisse der Studie könnten weitreichende Konsequenzen für die KI-Forschung haben. In einer Zeit, in der künstliche Intelligenz auch in sensiblen Bereichen wie dem Gesundheitswesen eingesetzt wird, ist es laut Groen wichtig, dass Maschinen nicht nur erkennen, was etwas ist, sondern auch verstehen, was es tun kann.
Als Beispiel nennt sie Roboter, die sich in einem Katastrophengebiet zurechtfinden müssen, oder selbstfahrende Autos, die einen Fahrradweg von einer Einfahrt unterscheiden müssen.
Die Amsterdamer Forschenden sehen in ihren Erkenntnissen auch Potenzial für eine nachhaltigere KI-Entwicklung. Das Training heutiger KI-Modelle verbrauche viel Energie, sagt Groen. Mehr Wissen darüber, wie das Gehirn funktioniert und wie es bestimmte Informationen schnell und effizient verarbeitet, könne dazu beitragen, KI intelligenter, wirtschaftlicher und menschenfreundlicher zu machen. (bearbeitet von ali)