Die Medien waren voll damit, dass die KI-Forscher bei FAIR (Facebook Artificial Intelligence Research) es anscheinend nötig fanden, bei zwei Chatbots den Stecker zu ziehen. Sie hatten nämlich bemerkt, dass sich die Chatbots in einer merkwürdigen Sprache verständigten, die nur sie verstanden, wenn überhaupt etwas daran verständlich war.

Ziel dieser Untersuchungen war es, zwei Chatbots darauf zu trainieren, dass sie autonom miteinander Verhandlungen über den Besitz von virtuellen Objekten führen können. Dazu war es wohl notwendig, die beiden Chatbots Alice und Bob auch mit der verwendeten Sprache experimentieren zu lassen, um die Verhandlungen zu verbessern. Eine Beispiel-Kommunikation, die zumindest ansatzweise der englischen Sprache nahekommt:

Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to

Viele Berichte interpretierten das als eine neuartige Sprache, die von den beiden Bots dazu verwendet wurde, um uns außen vor zu halten, dass sie also was hinter unserem Rücken aushecken würden etc. Eine naheliegendere Erklärung wäre, dass die neuronalen Netzwerke einfach die verwendete Sprache soweit optimiert haben, dass eben die Verhandlungen effizienter ablaufen.

Wenn Sie die Sache interessiert: Die Forscher stellen eine PyTorch-Implementierung ihres Forschungsberichts Deal or No Deal? End-to-End Learning for Negotiation Dialogues via Github zur Verfügung. Nicht vergessen sollte man, dass es gerade Hochsommer ist und sich nicht so viel Neues in der Ferienzeit tut. Da werden auch Dinge aufgebauscht, die sonst eher untergingen. Vielleicht sind da auch schlicht die Systeme aus dem Ruder gelaufen und die Kommunikation eher sinnbefreit. Sie wissen noch, wie das in 2001 bei der Odyssee im Weltraum mit HAL geendet hat?