Marcel Bresink
Hochzeitsapfel
- Registriert
- 28.05.04
- Beiträge
- 9.280
Wie um alles in der Welt soll man phonetische Spracherkennung weiter entwickeln wenn man keine "Sprach-Vorlagen" hat?
So wie man das schon immer gemacht hat: Man nimmt Testpersonen und erzeugt die Sprachvorlagen selbst. Oder man gibt das in Auftrag, wenn man es nicht selber machen will.
Aber das würde Geld kosten und den Profit schmälern. Deshalb ist man auf die Idee gekommen, diese Dienste kostenlos für die Masse anzubieten, aber im Gegenzug vertraglich zu verlangen, jeden Teilnehmer auswerten zu dürfen. So kann man Daten in Millionenwert nebenbei abgreifen.
Ach ja, wo soll denn da ein Unterschied sein, es sind doch beides Spracheingaben, oder?
Bei einem Diktiersystem reicht es, aus der Sprache korrekt geschriebene Texte zu erzeugen. Ein Linguist würde sagen, man braucht nur Phonetik und Syntax. Das ist auch nicht einfach, aber das hat man heute gut im Griff.
Ein System wie Siri macht etwas anderes, denn es muss den Sinn der Sprache begreifen und das Ergebnis in eine Handlung umsetzen. Die "Spracheingabe" ist dabei nur ein kleiner Teil, die eigentliche Leistung liegt in zwei zusätzlichen Verarbeitungsbereichen, die in der Sprachanalyse als Semantik und Pragmatik bezeichnet werden.
Man sollte übrigens daran denken, dass die reinen Sprachdaten nur die Spitze des Eisbergs sind. Damit Siri einen scheinbar einfachen Satz wie "ruf meine Kusine an" verstehen kann, ist es z.B. notwendig, dass vorher die Kontakte des Sprechers überwacht und ausgewertet wurden und dass daraus eine Art Stammbaum der Familie rekonstruiert und gespeichert wurde.
Ich befürchte sogar, dass solche Daten auch erfasst werden, wenn Siri abgeschaltet ist. Um das zu unterbinden, muss man einigermaßen versteckte Einstellungen unter "Systemeinstellungen > Siri > Siri-Vorschläge & Datenschutz > Siri lernt von den unten ausgewählten Apps" abschalten.