Google Assistant schlägt Amazons AlexaForscherteam der Hochschule Aalen testet Smart Speaker
Künstliche Intelligenz (KI) ist seit vielen Jahren auf dem Vormarsch. Dieser Technologie bedienen sich auch Smart Speaker, mit denen der Nutzende sich ganz natürlich unterhalten kann. Sie sind eine Weiterentwicklung textbasierter (Chat-)Bots, die sich ebenfalls großer Beliebtheit erfreuen. Die bekannteste Anwendung von sprachbasierten (Chat-)Bots sind intelligente persönliche Assistenten (Smart Speaker), wie wir sie zum Beispiel von Amazon Alexa kennen. Das Ziel persönlicher Assistenten ist es, dem Nutzer die Ausführung verschiedener Funktionen durch eine einfache verbale Aufforderung zu ermöglichen und diese durch eine intuitive Bedienung erheblich zu erleichtern. Mit ihnen lassen sich beispielsweise Smart-Home-Geräte bedienen oder Waren im Internet bestellen.
Amazon Alexa, Google Assistant & Co. im Test
In einer jetzt durchgeführten Untersuchung wurde der aktuelle Stand sprachbasierter (Chat-)Bot-Technologien ermittelt und etwaige Unterschiede in der Funktionalität und Antwortqualität der vier bekanntesten Sprachassistenten Amazon Alexa, Apple Siri, Google Assistant und Microsoft Cortana erfasst. „Wir haben dafür die vier Sprachassistenten einem umfänglichen Test unterzogen, bei dem sie einen Fragenkatalog mit 71 Fragen in den vier Kategorien Persönliche Fragen, Wissensfragen/technische Fragen, Fragen zu Funktionen und Konversationsfragen beantworten mussten“, erklärt Prof. Dr. Peter Gentsch, Professor für Internationales Marketing im Studienbereich Internationale Betriebswirtschaft an der Hochschule Aalen. Die Antwort der Smart Speaker wurde anschließend daraufhin überprüft, ob die Intention der Frage verstanden wurde und die Antwortqualität wurde anhand vorgegebener qualitativer und quantitativer Kriterien, wie beispielsweise Relevanz und Genauigkeit der Antworten oder Antwortgeschwindigkeit, bewertet.
Vergleich der Ergebnisse
Testsieger ist der Google Assistant. Der Sprachassistent konnte insgesamt 82% der gestellten Fragen richtig beantworten. Besonders gut schnitt er in der Kategorie Wissen/Technik ab, in der alle gestellten Fragen richtig beantwortet wurden. „Das liegt am Know-how von Google im Bereich Suchmaschinen, weshalb diese Kategorie am besten für den Sprachassistenten geeignet ist“, erklärt Gentsch. Amazon Alexa sicherte sich mit einer Quote von etwa 77% richtig beantworteter Fragen in der Studie den zweiten Platz. Die Autoren der Studie berichten, dass Alexa vor allem in den Kategorien Funktionen und Konversation glänzen konnte und dort den ersten Platz belegt. Dies lässt sich für die Autoren vor allem durch die Integration des Amazon Onlineshops und die zahlreichen Drittanbieter-Skills, wie beispielsweise „Chefkoch“ zur Rezeptsuche oder der „Abfallkalender“ zur Abfrage von Müllabfuhrterminen, für Alexa erklären.
Den dritten Platz in der Gesamtwertung belegt Apple Siri. Siri konnte bei 49 von 71 Fragen die Absicht erkennen und eine gute Antwort geben. Damit konnte Siri etwa 69% der Fragen beantworten. Lediglich in der Kategorie Konversation konnte Siri nicht überzeugen und belegte den letzten Platz. „Das könnte daran liegen, dass Apple seinen Sprachassistenten mit der Absicht entwickelt, in erster Linie ihre Betriebssysteme zu ergänzen“, so Gentsch. Den letzten Platz in der Umfrage belegt Microsoft Cortana mit einer Antwortquote von circa 44%. Damit ist Cortana der einzige getestete Sprachassistent, der weniger als die Hälfte der Fragen beantworten konnte. Gentsch erklärt sich das Ergebnis damit, dass Cortana kein eigenständiges Produkt bei Microsoft ist, sondern eine neue Funktion, die meist im Hintergrund arbeitet und ein Windwosprodukt aufwertet
Die vollständige Studie kann unter folgendem Link abgerufen werden.
