InMind: Auch Yahoo will uns besser verstehen

InMind: Auch Yahoo will uns besser verstehen

Apple hat seine Spracherkennungssystem Siri und Google seinen mitdenkenden Assistenten Now. Siri versteht gesprochene Anweisungen und Google Now weiß, wie jemand seinen Tag verbringt und versucht mitzudenken. Nun will auch Yahoo in diesem Markt mitmischen. Zehn Millionen Dollar stellt das Onlineunternehmen bereit, um den Bereich erforschen und später dann den Yahoo Echtzeit-Service zu verbessern.

Entwickler von Yahoo und Forscher der angesehenen Carnegie Mallon University arbeiten dazu fünf Jahre lang zusammen. Das Ziel: Schnittstellen zu schaffen, die einen User besser verstehen, wenn er umgangssprachlich Wünsche formuliert. Das InMind genannte Projekt will einen mitdenkenden, persönlichen Assistenten schaffen, ähnlich wie Google Now, nur weiter entwickelt.

Solchen persönlichen Assistenten scheint die Zukunft zu gehören. Auch Microsoft tüftelt an entsprechenden Lösungen. Doch so praktisch mitdenkende Assistenten sein mögen: Die Technologie birgt auch Risiken, denn um wirklich persönlich zu sein und nutzbringe Empfehlungen abgeben zu können, müssen die Assistenten eine Menge über den User wissen. Sie kennen seine Gewohnheiten und Termine, seine Freunde und sein Kommunikationsverhalten. Dabei fallen jede Menge Daten an, die ausgewertet werden. Ganz sicher nicht nur im Interesse des Users.

Bildschirmfoto 2014-02-21 um 09.39.39

Praxis-Tipp: Trink-Geld ausrechnen mit Siri und dem iPhone

Sie haben’s nicht so mit dem Kopfrechnen? Im Restaurant sind je nach Situation und Bedienung 5 bis 15% Trinkgeld üblich. Doch wie viel ist das denn genau? Mit dem iPhone-Taschenrechner wird das Berechnen des Trinkgelds zu kompliziert. Am einfachsten klappt’s mit Ihrer digitalen Assistentin „Siri“. (mehr …)

Google Now und Apple Siri wollen unsere persönlichen Assistenten werden

Eines Tages sollen Menschen keine Fragen mehr in kleine Eingabefelder eintippen, sondern sich mit ihrem Computer oder Smartphone unterhalten und die Fragen einfach stellen – und die passenden Antworten kommen blitzschnell, teilweise gesprochen, teilweise als Information auf dem Bildschirm. Was ein bisschen wie Science-fiction klingt, ist tatsächlich geplant und teilweise auch schon zu sehen.

Denn Apple und Google versuchen gerade, den persönlichen digitalen Assistenten zu erfinden. Einen Assistenten, der unsere Bedürfnisse kennt, jederzeit zur Verfügung steht und uns mit Informationen versorgt, die wir nicht mal angefragt haben – wenn sie denn nur nützlich für uns sind.

Mit Siri hat alles begonnen – jetzt geht es weiter

Apple hat mit seinem Sprachassistenten Siri den ersten Schritt gemacht, Google hat gerade Google Now vorgestellt, ein noch deutlich komplexeres System, das auf gewisse Weise sogar mitdenken soll. Google Now soll wissen, was wir als nächstes machen, ob wir zum Sport gehen, zur Arbeit fahren, ob wir einen Freund treffen, zum Abendessen verabredet sind oder unsere Kinder von der Schule abholen. Viele dieser Daten sind heute im Smartphone gespeichert – und was nicht konkret eingetragen wurde, das bemerkt das Handy von alleine, etwa wenn wir morgens immer zur selben Zeit das Haus verlassen, um zur Arbeit zu fahren.

Der spannende Teil: Google Now „ahnt“ nach einer Weile, was wir vermutlich als nächstes machen werden, etwa zur Verabredung in ein bestimmtes Restaurant fahren – und zeigt uns automatisch die passende Straßenkarte. Und wenn es Stau auf der Straße gibt, dann werden wir rechtzeitig gewarnt, selbst wenn wir gar nicht danach gefragt haben. Dasselbe gilt für den Fall, dass ein gebuchter Flug oder eine Zugfahrt verschoben wird: Google Now bekommt es mit und verrät es uns, hat sogar Alternativrouten in petto, sollte das mal erforderlich sein. Noch bevor wir selbst daran denken.

Digitaler Privatsekretär mit Gruselfaktor

Das Ganze ist also schon ein Privatsekretär mit Gruselfaktor. Zu haben, gratis, auf modernen Smartphones und später auch Tablets mit dem neuen Android-Betriebssystem. Der Privatsekretär kann auch ganz konkrete Fragen beantworten, etwa nach de Wetter oder wie ein Baseball-Spiel ausgegangen ist.

Mit Spracheingabe hat Apple beim neuen iPhone 4S angefangen: Siri heißt die virtuelle Dame, die alle Fragen mehr oder weniger charmant beantwortet. Google Now geht aber einen Schritt weiter, das dieses System mehr ist als „nur“ Spracheingabe. Now soll ganz normal gestellte Fragen verstehen, auch komplexere Fragen wie „Wie heißt das Staatsoberhaupt von Frankreich?“ Now soll „mitdenken“, vorausahnen, was wir als nächstes brauchen oder wissen wollen – und den Benutzer dann mit den entsprechenden Informationen versorgen.

Google Now lernt dazu und lernt den Benutzer kennen

Siri versteht erstaunlich viel, man muss gar nicht abgehackt sprechen, sondern kann ganz normal reden. Allerdings ist die deutsche Version von Siri und auch von Google Now noch arg zurück geblieben. So gibt es in der deutschen Version keine Hinweise auf aktuelle Verkehrssituationen, auch kann man nur in der englischen, aber noch nicht in der deutschen Version allgemeine Fragen stellen, etwa nach der Hauptstadt von Brasilien. In der englischen Version von Siri und Now geht das bereits.

Apple und Google entwickeln ihre Assistenten gerade mit Hochdruck weiter. Google hat mit Now gerade die Nase vorn, aber es ist überdeutlich, dass hier gerade viel entwickelt wird. Now ist schlauer, erkennt zum Beispiel, wenn man gerade nicht zu Hause ist, vielleicht sogar in einer fremden Zeitzone – und sagt einem dann, wie spät es zu Hause ist, oder rechnet Preise in die eigene Währung um und vieles andere mehr.

Automatisch mit Sportergebnissen versorgt werden

Sportfreunde werden automatisch mit aktuellen Spielständen versorgt, und auch danach müssen sie nicht fragen: Es reicht, in der jüngeren Vergangenheit einschlägige Webseiten aufgerufen und sich nach Spielergebnissen erkundigt zu haben. Google will selbständig erkennen, welche Mannschaft oder sogar welcher Spieler für einen besonders interessant ist.

Doch es mehren sich auch Bedenken. Denn damit Google Now überhaupt so schlau sein kann wie beschrieben, also erahnen kann, was wir machen oder wollen, muss das System schon eine Menge über uns und unsere Gewohnheiten wissen. Das System muss wissen, wann wir normalerweise zur Arbeit fahren, ob wir das Auto oder den Zug nehmen – nur dann sind Empfehlungen möglich, die sich auf die aktuelle Situation beziehen. Kurzum: Je mehr Google Now über uns weiß, desto besser wird es funktionieren. Ein guter Assistent weiß schließlich alles.

Datenschützer haben Bedenken: Jede Menge Daten nötig

Aber ein persönlicher Assistent wird von mir selbst eingestellt und ist zu Verschwiegenheit verpflichtet. Das ist bei Google Now natürlich komplett anders: Da steckt ein großer, amerikanischer Onlinedienst dahinter, der Millionen von Menschen betreut. Und was mit den anvertrauten Daten letztlich passiert, wie und wie lange sie gespeichert werden und was mit den Daten passiert, all das ist bestenfalls schwammig formuliert. Datenschützer befürchten: Das Datenfass läuft über, die Onlinedienste wissen noch mehr, viel zu viel über uns.

Die Kritik ist natürlich nicht von der Hand zu weisen. In der Tat müssen dem Onlinedienst jede Menge Daten und Informationen zur Verfügung gestellt werden, damit Dienste wie Google Now gut funktionieren können. Ob man all diese Date, konkret oder unkonkret, bewusst oder unbewusst, einem Onlinedienst anvertrauen möchte, muss jeder selbst entscheiden.

Auch Google will aufs Wort hören

Apples iPhone 4S hat eine Funktion, mit der kann die Konkurrenz bislang nicht aufwarten: Siri. Eine Spracherkennung, die nicht nur zum Diktieren von SMS oder E-Mails verendet werden kann, sondern die auch Befehle und Anweisungen versteht. „Wecke mich um sieben Uhr“, mit so etwas kann Siri etwas anfangen und stellt dem Wecker im Luxus-Handy.

Das funktioniert zwar nicht immer und auch nicht tadellos, doch schon erstaunlich gut – und die Leute mögen es. Deshalb tüfteln auch Google und Microsoft an entsprechenden Lösungen. Googles Spracherkennung soll Majel heißen und womöglich schon im Januar zu haben sein: Auch Android-Handys und Tablets sollen dann Sprache und Anweisungen verstehen, sogar besser als Siri.

Microsofts Lösung nennt sich TellMe und geht noch weiter: Hier sollen sogar gesprochene komplexe Anweisungen, etwa Suchanweisungen oder Aufträge für Onlineshops, verstanden und ausgeführt werden. Das nächste Jahr wird das Jahr der Spracherkennung, da bin ich sicher. Warum nicht, denn praktisch ist es schon – wenn es funktioniert.