Apple forscht daran, Siri so zu verbessern, dass es Menschen, die Einschränkungen beim Sprechen haben, besser zu verstehen. Die Wallstreet Journal berichtet in einem Artikel, wie Apple Siri trainiert, um mit sprachlichen Besonderheiten umzugehen.
Datenbank mit 28.000 Audioclips dank Podcasts mit spracheingeschränkten Menschen!
Apple hat eine Datenbank mit 28.000 Audioclips aus Podcasts mit sprachlich eingeschränkten Menschen angelegt, mit denen Siri trainiert werden soll auch schwer verständliche Sätze und Wörter zu verstehen. Die Daten, die Apple gesammelt hat, werden laut einem Apple-Sprecher die Spracherkennungssysteme für atypische Sprachmuster zu verbessern. Neben der Verbesserung der Art und Weise, wie Siri Menschen mit atypischen Sprachmustern versteht, hat Apple auch eine „Hold to Talk“ Funktion für Siri implementiert. Mit dieser Funktion kann der Benutzer selber bestimmen wie lange Siri zuhören soll. Dadurch wird verhindert, dass Siri den Benutzer noch während der Aufnahme unterbricht, bevor dieser überhaupt zu Ende gesprochen hat.
Wusstet ihr, dass Siri ganz ohne Spracheingabe funktioniert? Seit IOS 11 gibt es eine „Type to Siri“ Fähigkeit. Außerdem plant Apple, seine Arbeit zur Verbesserung von Siri in einem Forschungsbericht zu erläutern. Der Bericht soll noch in dieser Woche veröffentlich werden.
Ihr wollt in Zukunft keine News mehr verpassen? Dann folgt uns auf Facebook, Twitter, dem RSS Feed oder abonniert unseren Newsletter! Auch auf YouTube findet Ihr übrigens viele hilfreiche Videos.
Hinterlasse uns einen Kommentar
Mit der Nutzung dieses Formulars, erklärst du dich mit der Speicherung und Verarbeitung deiner Daten durch diese Website einverstanden. Weitere Informationen kannst du der Datenschutzerklärung entnehmen.