• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Wir haben den Frühjahrsputz beendet, Ihr auch? Welches Foto zu dem Thema hat Euch dann am Besten gefallen? Hier geht es lang zur Abstimmung --> Klick

Apple stoppt Analyse von Siri-Anfragen

Marcel Bresink

Hadelner Sommerprinz
Registriert
28.05.04
Beiträge
8.574
Wie um alles in der Welt soll man phonetische Spracherkennung weiter entwickeln wenn man keine "Sprach-Vorlagen" hat?

So wie man das schon immer gemacht hat: Man nimmt Testpersonen und erzeugt die Sprachvorlagen selbst. Oder man gibt das in Auftrag, wenn man es nicht selber machen will.

Aber das würde Geld kosten und den Profit schmälern. Deshalb ist man auf die Idee gekommen, diese Dienste kostenlos für die Masse anzubieten, aber im Gegenzug vertraglich zu verlangen, jeden Teilnehmer auswerten zu dürfen. So kann man Daten in Millionenwert nebenbei abgreifen.

Ach ja, wo soll denn da ein Unterschied sein, es sind doch beides Spracheingaben, oder?

Bei einem Diktiersystem reicht es, aus der Sprache korrekt geschriebene Texte zu erzeugen. Ein Linguist würde sagen, man braucht nur Phonetik und Syntax. Das ist auch nicht einfach, aber das hat man heute gut im Griff.

Ein System wie Siri macht etwas anderes, denn es muss den Sinn der Sprache begreifen und das Ergebnis in eine Handlung umsetzen. Die "Spracheingabe" ist dabei nur ein kleiner Teil, die eigentliche Leistung liegt in zwei zusätzlichen Verarbeitungsbereichen, die in der Sprachanalyse als Semantik und Pragmatik bezeichnet werden.

Man sollte übrigens daran denken, dass die reinen Sprachdaten nur die Spitze des Eisbergs sind. Damit Siri einen scheinbar einfachen Satz wie "ruf meine Kusine an" verstehen kann, ist es z.B. notwendig, dass vorher die Kontakte des Sprechers überwacht und ausgewertet wurden und dass daraus eine Art Stammbaum der Familie rekonstruiert und gespeichert wurde.

Ich befürchte sogar, dass solche Daten auch erfasst werden, wenn Siri abgeschaltet ist. Um das zu unterbinden, muss man einigermaßen versteckte Einstellungen unter "Systemeinstellungen > Siri > Siri-Vorschläge & Datenschutz > Siri lernt von den unten ausgewählten Apps" abschalten.
 

echo.park

deaktivierter Benutzer
Registriert
08.06.11
Beiträge
11.076
Das mit den Familienmitgliedern kann man Siri bei Bedarf auch selbst beibringen. Einfach sagen „Meine Frau ist XXX“, oder „Meine Mutter heißt XXX“. Ich selbst habe das aber noch nicht probiert. Dazu gibt es auch eine Anleitung von Apple.
 

Macbeatnik

Golden Noble
Registriert
05.01.04
Beiträge
34.252
Ja, aber ein "einfaches" Diktierprogramm, wird diesen Satz zwar schreiben können, aber nicht "begreifen", das deine Mutter XXX heisst.
 
  • Like
Reaktionen: saw

echo.park

deaktivierter Benutzer
Registriert
08.06.11
Beiträge
11.076
Ja, aber ein "einfaches" Diktierprogramm, wird diesen Satz zwar schreiben können, aber nicht "begreifen", das deine Mutter XXX heisst.
Ei ja. Und weiter? Habe ich was anderes gesagt?

Ich habe nur meinen Vorgängerpost mit ein paar weiteren Infos unterfüttert.
 

leton53

Stina Lohmann
Registriert
03.07.08
Beiträge
1.021
So wie man das schon immer gemacht hat:Bei einem Diktiersystem reicht es, aus der Sprache korrekt geschriebene Texte zu erzeugen. Ein Linguist würde sagen, man braucht nur Phonetik und Syntax. Das ist auch nicht einfach, aber das hat man heute gut im Griff.

Ein System wie Siri macht etwas anderes, denn es muss den Sinn der Sprache begreifen und das Ergebnis in eine Handlung umsetzen. Die "Spracheingabe" ist dabei nur ein kleiner Teil, die eigentliche Leistung liegt in zwei zusätzlichen Verarbeitungsbereichen, die in der Sprachanalyse als Semantik und Pragmatik bezeichnet werden.
Mit dieser Zweiteilung der Spracheingabe liegst du ziemlich falsch, gesprochene Sprache unterliegt immer der Phonetik, der Syntax sowie auch Semantik und Pragmatik, weiter wären da die Morphologie, die Grammatik und Orthographie zu bewältigen, und da versagt Siri kläglich.

Zurück zu Dragon: da hat man die Möglichkeit Wörter und Begriffe per Tasten einzugeben (etwas, das bei Siri und Alexa völlig fehlt), welche dann in weiteren Spracheingaben problemlos implementiert werden.

Siri funktioniert nur in massiver Sprachreduktion, als dass der Begriff "Spracheingabe" imo lediglich als Euphemismus zu werten ist.

Ich habe während ca. 3-4 Jahren noch in XP mit Dragon getextet und bin mit dem Wechsel zu OS X im 2005 wieder aufs Tippen umgestiegen ... und die aktuelle Mac-Version ist mir einfach zu teuer für mein bissi Tippen.
 
Zuletzt bearbeitet:

NorbertM

Hochzeitsapfel
Registriert
03.01.15
Beiträge
9.390
So kann man Daten in Millionenwert nebenbei abgreifen.
Wie errechnet sich dieser "Millionenwert" und wie viele Sprachschnipsel muss man wohl auswerten um auch nur eine Person dadurch zu identifizieren?

So ein "Hey Tom, das sind Hans und Franz" dürfte wohl eher selten vorkommen. :rolleyes:
 

leton53

Stina Lohmann
Registriert
03.07.08
Beiträge
1.021
Wie errechnet sich dieser "Millionenwert" und wie viele Sprachschnipsel muss man wohl auswerten um auch nur eine Person dadurch zu identifizieren?

So ein "Hey Tom, das sind Hans und Franz" dürfte wohl eher selten vorkommen. :rolleyes:
Hier muss man M. Bresink recht geben: das herausfiltern von Informationen dürfte per Algorithmus relativ einfach sein, und nimmt man die schiere Menge der Eingaben, dürfte ein doch erkleckliches Quantum an Verwertbarkeit rauskommen ... ohne jetzt die des BND, FBI, NSA, CIA und KGB mit einzubeziehen. o_O
 

Marcel Bresink

Hadelner Sommerprinz
Registriert
28.05.04
Beiträge
8.574
Mit dieser Zweiteilung der Spracheingabe liegst du ziemlich falsch, gesprochene Sprache unterliegt immer der Phonetik, der Syntax sowie auch Semantik und Pragmatik, weiter wären da die Morphologie, die Grammatik und Orthographie zu bewältigen,

Du hast offenbar nichts von dem verstanden, was ich gesagt habe. Du kannst ja mal erklären, warum Siri deiner Meinung nach Rechtschreibung beherrschen muss, um einen gesprochenen HomeKit-Befehl auszuführen.

Wie errechnet sich dieser "Millionenwert"

Man hat den potenziellen Zugriff auf Millionen von Testpersonen für lau, ohne dass man ihnen die sonst übliche Aufwandsentschädigung für ihre Arbeit zahlen muss.

und wie viele Sprachschnipsel muss man wohl auswerten um auch nur eine Person dadurch zu identifizieren?

Davon war hier nirgendwo die Rede. Aber je nach dem, was die Person sagt, ist das sehr einfach.

Auch der Originalartikel, auf den diese ganze Diskussion ursprünglich zurückgeht, hat bestätigt, dass sich viele Personen schnell identifizieren lassen.
 

leton53

Stina Lohmann
Registriert
03.07.08
Beiträge
1.021
Du hast offenbar nichts von dem verstanden, was ich gesagt habe. Du kannst ja mal erklären, warum Siri deiner Meinung nach Rechtschreibung beherrschen muss, um einen gesprochenen HomeKit-Befehl auszuführen.
Wenn die Sprache nur noch in Zerstückelung und Reduktion machbar ist, dann pfeif' ich auf HomeKit; das ist dann nahe am Orwellschen New Speak, muss ich nicht haben.

Ach ja, du solltest davon ausgehen, dass ich einiges von Sprache und Information verstehe, -nicht zu verwechseln mit Informatik; davon verstehe ich nicht viel, aber von dem was ich aus Cupertino erwarte hingegen schon.
 

Macbeatnik

Golden Noble
Registriert
05.01.04
Beiträge
34.252
Und du bist mit diesen Informationen nicht in der Lage einen Unterschied zwischen einem Diktierprogramm und Diensten wie Alexa, Siri und co zu erkennen?
 

NorbertM

Hochzeitsapfel
Registriert
03.01.15
Beiträge
9.390
Auch der Originalartikel, auf den diese ganze Diskussion ursprünglich zurückgeht, hat bestätigt, dass sich viele Personen schnell identifizieren lassen.
Sorry, aber schon der Aufmacher dieses Artikels ist unseriös und die Quelle natürlich ein anonymer Whistleblower.

Wer glaubt denn ernsthaft, dass es in diesen mitgehörten und zur Auswertung herangezogenen Mitschnitten in erster Linie um Sex, Drugs und Rock'n Roll geht?