Vergleich zeigt, dass iPhone länger als Pixel braucht um Sprache in Text umzuwandeln
Wird es Zeit für Apple, Siris Spracherkennung komplett zu überholen? Im Vergleich mit dem Google Pixel und der Spracherkennung von Gboard könnte man auf ein 'Ja' schließen, oder so zumindest laut Entwickler James Cham.
Dass Siri intelligenztechnisch ein wenig hinter den Konkurrenten Google Assistant und Alexa hinterherhinkt, ist mittlerweile eine Tatsache die auch Apple selbst beschäftigt. Vor nicht allzu langer Zeit hat das Unternehmen das KI-Startup Voysis aufgekauft, welcher mit dem hochwertigen "Wavenet" Verfahren die Erkennung von Stimmen für Sprachassistenten einfacher gestaltet hat und Mitte 2018 so Wellen geschlagen hat. Dass sich das Cupertino-ansässige Unternehmen aus der Akquisition erhofft, Siris Fähigkeiten zu verbessern und wieder auf einer Ebene mit der Konkurrenz zu bringen, ist einsichtig. Dass dies auch vonnöten ist, beweist ein neuer Vergleich von Entwickler und Investor James Cham, der Apples Siri direkt mit der Spracherkennung vom Google Pixel vergleichen ließ.
In einem Video, in dem die neuesten Versionen des Pixels und iPhones nebeneinander gelegt worden sind, ließ Cham für über eine Minute lang die Spracherkennungssoftware beider Geräte ganze Arbeit leisten um die Geschwindigkeit effektiv zu vergleichen. Nachdem das Google Pixel praktisch in Echtzeit die gesprochenen Wörter aufgenommen und perfekt transkribiert hat, brauchte Siri fast einen ganzen Satz länger um das Ende der gesprochenen Nachricht zu erreichen. Cham war über diesen Vergleich (und vor allem über das Resultat) mehr als enthusiastisch:
"Ich glaube nicht dass die Leute wirklich schätzen, wie unterschiedlich die Sprache-zu-Text Erfahrung von einem Pixel zu einem iPhone ist. Also ist hier ein kleines Kopf-an-Kopf Beispiel. Das Pixel ist so responsiv dass es sich anfühlt, als würde es meine Gedanken lesen! [...] Geschwindigkeit [beim Übersetzen] hat einen eigenen Wert. Das jetzige Modell von Sprache-zu-Text Assistenten behandelt die Funktion wie eine Kommandozeile. Man sagt etwas und wartet auf eine Antwort. Aber nun da die Spracherkennung so schnell ist und viel weniger Ressourcen benötigt als man denken würde, besteht das Potential um wahrlich interaktive Erfahrungen mit Assistenten zu schaffen."
4 Kommentare
Na und?
Zum einen kann man so einen Test, gerade wenn er vom Entwickler eines der Systeme durchgeführt wird, leicht manipulieren! Zum anderen frage ich mich, was das alles mit „neuronaler Vernetzung“ oder künstlicher Intelligenz zu tun haben soll!?! Hier wird lediglich ein programmierter Algorithmus vorgeführt, der über eine Datenbank „lernt“, das hat mit KI überhaupt nichts zu tun!
Die Autoren mal wieder schlecht informiert
Kann mich dem vorherigen Kommentar nur anschließen. Und wenn man sich informieren würde, wüsste man dass Apple grade dabei ist Siri um einiges zu verbessen
Artikel mal wieder schlecht
Echt peinlich was hier manchmal drinsteht
AppTickerTeam
An die drei Kommentatoren
Unser Artikel gibt lediglich die Resultate des Vergleichs und Meinungen der Durchführenden wieder. Bezüglich der Verbesserung von Siri. Das wird bereits im ersten Absatz erwähnt. Wie kann man das nur überlesen? :-)