Facebook-Forscher wollen Chatbots glaubwürdiger machen, indem sie KI-Gesprächspartnern Smalltalk beibringen. Um das zu erreichen, statten sie Chatbots versuchsweise mit persönlichen Interessen und charakterlichen Eigenschaften aus.

Laut den Forschern scheitern Chatbots in drei Punkten am Smalltalk: Sie haben keine einheitlichen persönlichen Eigenschaften, auf die sich während eines Gesprächs berufen könnten, sie können sich nicht merken, was der menschliche Gesprächspartner sagte und sie fallen auf vorprogrammierte Standardsätze zurück, wenn sie Antworten nicht verstehen.

Um das erste Problem einer fehlenden Persönlichkeit anzugehen, ließen die Forscher einen neuen, experimentellen Datensatz erstellen, anhand dessen die Chatbot-KI trainiert wurde. Bislang dienten Dialoge aus Kinofilmen als Lernmaterial. Das führt zu merkwürdigen Antworten, sobald das Gespräch die Form eines ungezwungenen Geplauders annimmt.

In folgendem Beispiel entspricht Person 1 einem realen Menschen, Person 2 einem Chatbot:

[PERSON 1:] Oh yeah? well I enjoy a nice steak. how about you? 
[PERSON 2:] Father always used to say that if we ever had the money you have… we’ d have steak and ice cream three times every day! 
[PERSON 1:] I eat all the steak and chicken too, even bacon 
[PERSON 2:] Father always used to say that if we ever had the money you have… we’ d have steak and ice cream three times every day! 
[PERSON 1:] yeah you said that already 
[PERSON 2:] Dynamic structure can absorb shock. 
[PERSON 1:] yes it can. I know about that as a bodybuilder 
[PERSON 2:] Ladies and gentlemen… the strongest man in the world is blowing up a hot water bottle.

Mit biografischen Daten ausgestattet

Um einen brauchbareren Datensatz zu erstellen, haben die Forscher menschliche Gesprächsteilnehmer rekrutiert und beauftragt, schriftliche Dialoge zu führen. Dabei kamen mehr als 10.000 Gespräche und 160.000 Dialogzeilen zustande.

Die Gesprächsteilnehmer mussten dabei in die Rolle einer fiktiven Persönlichkeit schlüpfen, die auf fünf charakterlichen oder biografischen Gegebenheiten beruht. Zum Beispiel: “Ich bin ein Künstler. Ich habe vier Kinder. Ich habe seit kurzem eine Katze. Ich gehe gern spazieren. Ich liebe Game of Thrones.”

Chatbots, die Liebesromane schreiben

Die neuronalen Netzwerke der Chatbot-KI wurden anhand dieser Zusatzinformationen trainiert. Anschließend führte eine zweite Gruppe menschlicher Versuchsteilnehmer Gespräche mit den Chatbots und musste das Ergebnis bewerten. Die Auswertung ergab, dass sich die Dialoge insgesamt glaubwürdiger anfühlen als zuvor.

In folgendem Beispiel ist Person 1 wiederum ein Mensch, Person 2 ist ein Chatbot, dessen Hobby ist, Liebesromane zu schreiben:

[PERSON 1:] I just got done playing soccer. What have you been up to?
[PERSON 2:] I do not have pets. I spend my free time writing. what about you?
[PERSON 1:] Just graduated from college. Looking for work.
[PERSON 2:] yes I graduated, in writing and poetry
[PERSON 1:] Have you had anything published?
[PERSON 2:] I mainly write fiction novels.
[PERSON 1:] Do you like to watch sports?
[PERSON 2:] do you like kings of leon my favorite by them is use somebody
[PERSON 1:] Are you married? I will be married soon.
[PERSON 2:] haha, no time. I have got a novel to finish

Facebooks Experiment bestätigt die Alltagserfahrung, dass Smalltalks von persönlichen Interessen und charakterlichen Eigenschaften der Gesprächspartner leben. Die Forschungsergebnisse legen nahe, dass die Chatbots und KI-Assistentin der Zukunft nicht leere Projektionsflächen sein werden, sondern mit einer Persönlichkeit und Geschichte ausgestattet sein könnten.

| Featured Image: Facebook | Source: The Verge

Tagesaktuelle und redaktionell ausgewählte Tech- und VR-Deals: Zur Übersicht
VRODO-Podcast #121: VR-Wachstum, StarVR-Pleite und KI-Rendering | Alle Podcast-Folgen


Unsere Artikel enthalten vereinzelt sogenannte Affiliate-Links. Bei einem Kauf über einen dieser Links erhalten wir eine kleine Provision. Der Kaufpreis bleibt gleich.