Über den falschen Glauben – Der Blick einer Künstlichen Intelligenz

Ein Artikel bei Golem.de über einen Forschungsfortschritt in Sachen künstliche Intelligenz hat mich mal wieder darüber nachdenken lassen, was wir uns eigentlich darunter vorstellen.

In dem Artikel geht es um folgendes:

Wissenschaftlern in den USA ist ein wichtiger Schritt bei der Entwicklung künstlicher Intelligenz (KI) gelungen. Ihre KI-Software besteht einen wichtigen kognitiven Test. Wer diesen Test besteht, verfügt über die Fähigkeit, von eigenen Überzeugungen zu abstrahieren.

Genauer gesagt bedeutet das, „der Roboter-Avatar wird von einer Software mit künstlicher Intelligenz (KI) gesteuert, und diese hat soeben den Test über den falschen Glauben bestanden.“ Okay, so genau ist das auch nicht. Mit meinen Worten: Der Roboter weiß, was die Wahrheit ist in einer Situation, kann sich aber von dem Wissen lösen und sich „in einen anderen hineinversetzen“. Er kann zwischen seinem und dem Wissen eines anderen unterscheiden. Menschen lernen das im Alter von 4 bis 5 Jahren.

Bisher kennen wir – oder zumindest ich – künstliche Intelligenz hauptsächlich aus Computerspielen. Doch wenn man recht darüber nachdenkt, ist dies meilenweit von etwas entfernt, das man tatsächlich KI nennen könnte. KI in Computerspielen verfügt zB über ein bestimmtes Repertoire an Aktionen, zwischen denen sie auswählt, je nachdem, was der Spieler gerade tut. Als großes Ziel steht das Fortkommen des Spielers, das ihm zwar schwerer, aber nicht unmöglich gemacht werden soll, denn sonst macht ihm das Spiel keinen Spaß mehr.

Aber wie wäre das mit einer oben beschriebenen KI? Man stelle sich vor, der PC-Held wird beauftragt, eine Truhe zu finden und erhält vom Auftraggeber den Hinweis, sie bei Person B zu suchen. In 90% aller Fälle besitzt Person B auch diese Truhe und rückt sie raus, wenn man die richtigen Worte findet. Das weiß der Spieler, denn er hat immer und immer wieder die gleichen Aufgaben in den verschiedensten Spielen meistern müssen.
Doch was, wenn die KI mitbekommt, dass der PC-Held nicht wissen kann, ob sie die Kiste hat oder nicht? Dann wird sie behaupten, sie nicht zu besitzen und der Spieler wird nicht wissen, ob er ihr Vertrauen kann. Was, wenn er sich dann ihr Vertrauen verdienen muss? Bei allen üblichen PC-Spielen ist das Verfahren klar: man erledigt für eine bestimmte Fraktion Aufträge, das Ansehen bei ihnen steigt und ab einem bestimmten Wert wird man akzeptiert.
Aber was, wenn es keinen bestimmten Wert gibt? Wenn die KI selbst entscheidet, wann sie dir vertraut? Wenn man sich ein Bein ausreißt für die Erledigung der Aufgaben, die KI aber überhaupt nicht beeindruckt ist, weil sie selbst viel leistungsfähiger ist?

Eine echte KI könnte ganz neue Grundlagen für einen Schwierigkeitsgrad schaffen. Motivation zum Noch-einmal-spielen ergäbe sich praktisch von selbst. Die Frage ist nur, wenn man nicht weiß, wie das Spiel reagieren wird, wenn es fertig ist, kann man dann noch garantieren, dass es Spaß machen wird?



Hinterlasse einen Kommentar