Um noch natürlicher sprechen zu können, muss Alexa „lernen“, Bezüge innerhalb einer Konversation zu bilden. Oder anders ausgedrückt: fragt ein Nutzer „Wie weit ist es nach Berlin?“ muss der Sprachassistent nach seiner Antwort dazu in der Lage sein, die Folgefrage „Wo gibt es dort gute Restaurants?“ ebenfalls auf die besagte Stadt zu beziehen. Die Herausforderung besteht hier oft darin, dass im Rahmen von Folgefragen oft verschiedene Skills gebraucht werden.
Auch auf der diesjährigen Interspeech ist dieser Bereich ein wichtiges Thema.
Neues System könnte die natürliche Sprache von Alexa verbessern
Im Rahmen aktueller Forschungen wird auf der Interspeech eine besondere Herangehensweise an das Thema vorgestellt. Diese soll dafür sorgen, die einzelnen Skills noch besser miteinander vernetzen zu können, um die Kommunikation mit Alexa auf der Basis von Folgefragen noch flüssiger zu machen.
Das Ganze basiert auf einem komplexen Verschlüsselungs- und Entschlüsselungsprinzip. In der Erprobungsphase nutzte das neue System verschiedene Kategorienamen, wie beispielsweise „Stadt“ und gruppierte hierunter die entsprechenden Unterkategorien, wie „Berlin“, ein. Miteinander verwandte Begriffe wurden somit verknüpft, während ein Speicher dafür sorgt, dass auf bestimmte Muster immer wieder zurückgegriffen werden kann.
Mit anderen Worten: Alexa „lernt“ -im wahrsten Sinne des Wortes- was zusammengehört, greift auf das Wissen zu und kommuniziert flüssiger.
Keine News mehr verpassen? Dann folgt uns auf Facebook, Twitter, dem RSS Feed oder abonniert uns per Mail!
Quelle: developer.amazon.com
Hinterlasse uns einen Kommentar
Mit der Nutzung dieses Formulars, erklärst du dich mit der Speicherung und Verarbeitung deiner Daten durch diese Website einverstanden. Weitere Informationen kannst du der Datenschutzerklärung entnehmen.