Wie Machine Learning Siri verbessert

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.687
Wie Machine Learning Siri verbessert
watchOS-4-Siri-700x400.jpg



Die Eindrücke über Siri sind nach wie vor sehr gemischt. Während kürzlich veröffentlichte Tests Siri ein gutes Zeugnis ausstellen, sind unsere Eindrücke - und die unserer Community - mitunter konträr. Jetzt veröffentlicht Apple im hauseigenen Machine Learning Journal einige Details darüber, wie Siri dazugelernt hat.

Ein herber Knackpunkt vorweg: Die Verbesserungen gelten vor allem nur für die englische Version. Insofern erklären sich auch die oben angesprochenen Unterschiede zwischen Tests und unseren Erfahrungen.

Mit Hilfe der gesammelten Daten stellt Apple mittlerweile kleinere Zonen zusammen. So sollen lokale Unterschiede bei der Aussprache besser unterschieden werden. Die USA wurde für diesen Zweck sehr fein granular aufgeteilt - in insgesamt 169 sogenannte Geo-LMs. Damit sollen 80 Prozent der US-Nutzer abgedeckt werden.


Machine Learning bringt Siri nach vorne


Die Ergebnisse scheinen überzeugend zu sein. Apple gibt in dem Blogeintrag aber auch an, dass es noch Potential nach oben gibt. Generische Sprachräume will der Konzern dennoch nicht abschaffen. Diese sind vor allem dann nötig, wenn sich Nutzer in anderen, ggf. nicht abgedeckten, Gebieten aufhalten.

So wünschenswert diese Verbesserung auch sein mag - nur die wenigsten die das hier lesen können, werden davon profitieren. Liebes Apple: Es gibt auch noch Nutzer außerhalb der USA. Sogar sehr viele,.. Auch diese haben dazu beigetragen, dass ihr euren Aktienrekord aufgestellt habt!
 

access

Zwiebelapfel
Registriert
21.11.12
Beiträge
1.271
Wie Machine Learning Siri verbessert

So wünschenswert diese Verbesserung auch sein mag - nur die wenigsten die das hier lesen können, werden davon profitieren. Liebes Apple: Es gibt auch noch Nutzer außerhalb der USA. Sogar sehr viele,.. Auch diese haben dazu beigetragen, dass ihr euren Aktienrekord aufgestellt habt!

Ich würde mal behaupten das Apple mittlerweile mehr Nutzer außerhalb der Staaten hat und sich daher viel mehr auch um die Kümmern sollte. Ich für mich kann kaum Fortschritte erkennen und mein erstes iPhone war ein 3G.
 

leton53

Thurgauer Weinapfel
Registriert
03.07.08
Beiträge
1.018
Ich hatte noch unter XP ein Spracherkennungsprogramm, dem man unverstandenes schriftlich eingeben konnte, und das funzte im Weiteren dann in der Regel recht gut. Die Einsteigezeit (Vorgaben vorlesen und bissi korrigieren) betrug ca. 3-4 Stunden und dann ab und zu eintippen ... wieso kriegt Apple das nicht hin?
 
Zuletzt bearbeitet:

Weihnachtsman91

James Grieve
Registriert
21.12.12
Beiträge
134
Kann ich aber jetzt den erweiterten Umfang der USA Dienste, zum Beispiel in der Spracherkennung, nutzen wenn ich das Handy auf englisch stelle? Oder ist das geografisch vorgegeben?
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.687
Kann ich aber jetzt den erweiterten Umfang der USA Dienste, zum Beispiel in der Spracherkennung, nutzen wenn ich das Handy auf englisch stelle? Oder ist das geografisch vorgegeben?

Siri kann auf Englisch mehr. Die hier spezielle Dialekt Erkennung nutzt die aber nur auf Englisch was. In dem Fall bist du ja in keiner der Regionen mit lokalen Profil und kriegst damit das gegnerische englische. Was halt dennoch besser ist als das generische deutsche. Bis Alexa hab ich meine iPhones deshalb auf Englisch gehabt.

Ich hatte noch unter XP ein Spracherkennungsprogramm, dem man unverstandenes schriftlich eingeben konnte, und das funzte im Weiteren dann in der Regel recht gut. Die Einsteigezeit (Vorgaben vorlesen und bissi korrigieren) betrug ca. 3-4 Stunden und dann ab und zu eintippen ... wieso kriegt Apple das nicht hin?

Das find ich nicht ganz fair. Spracherkennung ist was anderes als ein Sprachassistent. Bei der Erkennung- also dem Diktat - find ich Siri gut genug und deutlich besser als Nuance damals. Zugegeben - Google ist noch besser. Siri ist halt Ansicht Strunz dumm - das ist eher mein Problem.

Ich würde mal behaupten das Apple mittlerweile mehr Nutzer außerhalb der Staaten hat und sich daher viel mehr auch um die Kümmern sollte. Ich für mich kann kaum Fortschritte erkennen und mein erstes iPhone war ein 3G.

Da bin ich ja bei dir - aber was meinst du? Siri komplett bei dir aber das gab's beim 3G nicht. Fortschritte sehr ich seit dem 3G sehr viele ;)
 

Macbeatnik

Golden Noble
Registriert
05.01.04
Beiträge
34.207
„America First“ ist die Devise, wurde ja von höchster Stelle ausgegeben, galt aber auch schon früher
Ich würde mal behaupten das Apple mittlerweile mehr Nutzer außerhalb der Staaten hat und sich daher viel mehr auch um die Kümmern sollte. Ich für mich kann kaum Fortschritte erkennen und mein erstes iPhone war ein 3G.

Ja, das wird Apple sicherlich haben, aber zum einen gibt es da viele unterschiedliche Sprachen, Kulturen und Regeln, auch was zum Beispiel Datenschutz angeht und sofern die Legende stimmt, das bei Apple im OS X/macOS Entwicklerteam nur ein Entwickler für das Festplatten Dienstprogramm zuständig ist, wird die men/women Power hinter der Entwicklung von Siri vermutlich auch eher Einstellig, als Zweistellig sein, die anderen sind vermutlich damit beschäftig, den 40Fuss Container mit 100$ Noten zu füllen, um den Rest der Steuerschulden für den Versand nach Irland fertig zu stellen.
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.687
Ich dacht mir ich formuliers mal sehr einfach und direkt :D Aber so was gerade Spracherkennung betrifft finde ich es nicht so schlecht. Ich war dieses Jahr zwei Wochen ohne rechten Arm / konnte meinen rechten Arm nicht nutzen. Artikel hab ich teilweise über ne Einhand-Tastatur eingegeben, das bin ich von früher schon gewöhnt, oder eingesprochen - letzteres Funktioniert heute wirklich schon sehr gut - meinen Test nach zumindest. Und hey - ich bin Ösi - mich versteht man ja sowieso nicht eigentlich ;p
 

Benutzer 190524

Gast
Wir haben uns bei uns im Dienst damit arrangiert und Siri ist einfach nur für Termine, Kalender und Notizen zu gebrauchen... Routing via Karten ist in ßwien zumindest unbrauchbar... krass ist aber speziell die Diktat Funktion die ja nur bedingt mit Siri zu tun hat... der Vergleich zwischen Apple Watch und iPhone bei der iMessage Diktierfunktion ist bei der Uhr um den Faktor x zuverlässiger warum auch immer..
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.687
Stimmt, ähnlich gehts mir auch am Notebook - da find ich sie eig am Besten
 

Mokotschombo

Leipziger Reinette
Registriert
05.03.15
Beiträge
1.782
Siri ist auf jeden Gerät anders nicht wahr? Liegt es am Datenschutz?
 

access

Zwiebelapfel
Registriert
21.11.12
Beiträge
1.271
Siri kann auf Englisch mehr. Die hier spezielle Dialekt Erkennung nutzt die aber nur auf Englisch was. In dem Fall bist du ja in keiner der Regionen mit lokalen Profil und kriegst damit das gegnerische englische. Was halt dennoch besser ist als das generische deutsche. Bis Alexa hab ich meine iPhones deshalb auf Englisch gehabt.



Das find ich nicht ganz fair. Spracherkennung ist was anderes als ein Sprachassistent. Bei der Erkennung- also dem Diktat - find ich Siri gut genug und deutlich besser als Nuance damals. Zugegeben - Google ist noch besser. Siri ist halt Ansicht Strunz dumm - das ist eher mein Problem.



Da bin ich ja bei dir - aber was meinst du? Siri komplett bei dir aber das gab's beim 3G nicht. Fortschritte sehr ich seit dem 3G sehr viele ;)
Ich wollte damit zum Ausdruck bringen, das ich langjährier iPhone-Nutzer bin, das Siri später kam dürfte klr sein. Das zweite was ich damit sagen wollte ist, Siri hat in Deutschland kaum Fortschritte gemacht.
 

echo.park

deaktivierter Benutzer
Registriert
08.06.11
Beiträge
11.076
Geht es jetzt nur darum das Gesprochene besser zu verstehen, oder auch darum die Kommandos zu interpretieren und auszuführen?

Weil mit dem Verstehen gibt es bei Siri kein Problem. Sie versteht was man sagt. Nur sie weiß nicht was man von ihr will. Das sind zwei Paar Schuhe.
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.687
Bei dem Machine Learning Artikel, wenn ich es richtig verstehe, geht es um das Verstehen von Dialekten.
Und da bin ich eben auch der Meinung - sie versteht mich - sie ist halt dämlich