Google hat für viele seiner Produkte einige Neuerungen angekündigt, auch der Google Assistant durfte dabei natürlich nicht fehlen. Neu ist zum Beispiel eine neue App für Wear OS, die Google schon vor einiger Zeit angekündigt hatte. Jetzt ist der Start des Next Gen Assistant endlich offiziell und mit Datum. In diesem Sommer startet der noch schnellere Google Assistant für Wear OS-Smartwatches zuerst auf der Samsung Galaxy Watch 4.

Google will weniger Hey Google hören

Nicht so weitreichend verfügbar ist das neue Look and Talk, das sich ebenfalls schon früher ankündigte. Das neue Feature ist erst mal nur auf dem Nest Hub Max verfügbar, den es bei uns leider gar nicht zu kaufen gibt. Look and Talk sorgt dafür, dass Assistant euch über die Frontkamera erkennt und auf eure Sprachbefehle aktiv wartet. Damit entfällt die Notwendigkeit, den Befehlen ein „Hey Google“ vorher zu schicken.

„Hinter den Kulissen passiert viel, um zu erkennen, ob Sie tatsächlich Augenkontakt mit Ihrem Gerät herstellen, anstatt ihm nur einen flüchtigen Blick zu schenken. Tatsächlich sind sechs Modelle für maschinelles Lernen erforderlich, um mehr als 100 Signale von Kamera und Mikrofon – wie Nähe, Kopfausrichtung, Blickrichtung, Lippenbewegung, Kontextbewusstsein und Absichtsklassifizierung – in Echtzeit zu verarbeiten.“

Ebenfalls neu für den Nest Hub Max sind die weiteren Direktbefehle. Auch hierfür ist kein Hey Google mehr notwendig. In Deutschland gibt es die ersten wenigen Direktbefehle zum Beispiel auf den Pixel 6-Smartphones.

Wir weiten auch schnelle Sätze auf Nest Hub Max aus, sodass Sie bei einigen Ihrer häufigsten täglichen Aufgaben das Sagen von „Hey Google“ überspringen können. Sobald Sie also durch die Tür gehen, können Sie einfach sagen: „Schalten Sie die Flurbeleuchtung ein“ oder „Stellen Sie einen Timer auf 10 Minuten ein“.

Google Assistant versteht „ähm“, Pausen und Korrekturen besser

Weitere Verbesserungen finden wir in der Spracherkennung ganz allgemein. Google arbeitet daran, dass der Assistant besser versteht, wann ein Nutzer zum Beispiel eine Pause einfügt und seinen Sprachbefehl noch nicht zu Ende gesprochen hat. Korrekturen oder das ganz natürliche „ähm“ sollen ebenfalls effektiver gefiltert werden können.

„Um dies zu erreichen, bauen wir neue, leistungsfähigere Sprach- und Sprachmodelle, die die Nuancen der menschlichen Sprache verstehen können – etwa wenn jemand eine Pause macht, aber noch nicht fertig gesprochen hat. Und mit dem Tensor-Chip , der speziell für die superschnelle Bearbeitung von maschinellen Lernaufgaben auf dem Gerät entwickelt wurde , kommen wir der Fluidität von Echtzeitgesprächen näher.“

Links mit einem * sind Partner-Links. Kauft ihr ein Produkt bei einem Partner, erhalten wir dafür eine Provision. Der Preis für euch bleibt davon unberührt.

Folge uns auf Google News, Facebook oder Twitter. Außerdem kannst du dich in unserem Telegram-Kanal mit anderen Lesern austauschen.

Denny Fischer

Gründer und amtierender Chef von SmartDroid.de, bloggt hier und nur hier seit 2008. Alle Anfragen an mich, in den Kommentaren oder über die verlinkten Netzwerke.

Nehmen Sie an der Konversation teil

3 Kommentare

  1. würde mir gefallen wenn man dieses dämliche „hey Google“ so modifizieren könnte dass man einfach sagen „Google“ oder „yo Google“ als dass „Google einfach das Keywort ist und man es rufen kann wie man will.

    1. *edit*
      würde mir gefallen wenn man dieses dämliche „hey Google“ so modifizieren könnte dass man einfach sagen kann „Google“ oder „yo Google“
      also dass „Google einfach das Keywort ist und man es rufen kann wie man will.

  2. Ich dachte immer, es wäre….“OK, Google“ und „HEY, Siri“…aber scheinbar hab ich mich getäuscht.
    Wobei mein Androide auf „Hey Google“ gerade gar nicht reagiert….^^

Hinterlassen Sie bitte einen Kommentar
Beachtet die üblichen Regeln für Kommentarspalten und seid nett zueinander. Wir speichern keine IP-Adressen der kommentierenden Nutzer. Hier entlang zur Telegram-Gruppe von Smartdroid.de

Deine E-Mail-Adresse wird nicht veröffentlicht.