Alexa Plus (oder auch Alexa+) startet endlich in Deutschland. Zunächst mit einem Early Access Programm. Wir haben uns die neue auf KI basierte Alexa näher anschauen dürfen. Im Vorfeld wurden wir zu einem Event eingeladen und waren mal kurz in Berlin bei Amazon und haben uns angeguckt, was die neue Alexa Plus kann.
Wobei die meisten Dinge jetzt kein großes Geheimnis gewesen sind, denn Alexa Plus gibt es ja schon seit einer Weile in den USA. Nun startet das Ganze auch bei uns in Deutschland. Zunächst mit einem Early Access Programm. Das heißt, in dieser Phase muss und kann man sich aktiv für Alexa Plus anmelden. Ansonsten bleiben eure Echo Lautsprecher zunächst auf der alten Alexa bestehen, bis Alexa Plus final ausgeliefert wird. Alexa Plus ist bei Prime inklusive.
Der entscheidende Punkt ist, dass Alexa Plus auf ungefähr 75 Prozent aller bestehenden Echo Geräte kommen wird. Das bedeutet, wenn ihr ein Echo Gerät der letzten Jahre zu Hause besitzt, dann wird darüber Alexa Plus nutzbar sein. Man hat uns vor Ort gesagt, dass im Grunde genommen nur die ältesten Modelle da kein Upgrade bekommen.
Aber die ganzen Echo Geräte der letzten Jahre sind fähig genug, um Alexa Plus auszuführen. Denn es ist ganz klar, die Software läuft hier hauptsächlich in der Cloud. Da wird nicht sonderlich viel auf den Geräten direkt berechnet.
Alexa Plus und die neue KI-Basis
Der größte Vorteil, das liegt auf der Hand, ist die natürliche Sprache. Das bedeutet, ihr könnt zum Beispiel sagen: „Hey Alexa, mir ist es hier gerade zu hell.“ Und dann wird das Gerät einerseits erkennen, in welchem Raum ihr euch gerade befindet und natürlich anhand eurer Aussage, dass ihr sehr wahrscheinlich wollt, dass die Lampen in diesem Raum gedimmt werden.
Genauso funktioniert es natürlich mit anderen Befehlen. Wenn ihr zum Beispiel eure Heizungsthermostate da verbunden habt, könntet ihr auch sagen: „Hey, mir ist gerade ein bisschen kalt.“ Und dann wird der Raum entsprechend aufgeheizt. Oder ihr könntet sagen: „Ich brauche ein bisschen frische Luft.“ Und der Lüfter, der im selben Raum steht, wird aktiviert.
Die natürliche Sprache ist der eine Vorteil. Das heißt, man muss nicht mehr exakt sagen: „Hey Alexa, schalte das Fernsehlicht auf 50 Prozent“. Sondern man kann sagen: „Hey Alexa, mach die Lampen heller“. Ein anderer Punkt, der für mich aber viel entscheidender ist: Man kann endlich mehrere unterschiedliche Befehle in einen Satz bzw. in eine Ansage an Alexa packen.
Das heißt, ich muss nicht sagen wie früher: „Hey Alexa, mach das Fernsehlicht auf 50 Prozent“. Dann musste ich immer warten und dann konnte ich den nächsten Befehl sagen. Nun kann ich sagen: „Alexa, mir ist es hier ein bisschen zu hell, zu kalt und ich hätte gerne schon mal, dass du Netflix öffnest“. Diese Befehle packen wir in einen gemeinsamen Satz und Alexa wird alle Befehle auf einen Schlag ausführen.
Natürliche Sprache und komplexe Befehle
Man hat uns vor Ort gesagt, dass es dann auch möglich sein soll, das wäre nämlich für mich sehr interessant, zum Beispiel mit Alexa auch Kalorien zu tracken. Und zwar auf Zuruf. Das heißt, wenn ich in der Küche bin und mir gerade mein Frühstück zubereite oder mein Mittagessen, kann ich Alexa sagen: Hey, ich habe jetzt das und das gegessen, rechne mal meine Kalorien aus. Und dann kann ich am Ende des Tages auch fragen, wie Kalorien und Nährwerte über den Tag verteilt ausgesehen haben.
Das funktioniert mit anderen Chatbots auch. Entscheidend ist natürlich, dass Alexa hier halt wissen muss oder sich speichern muss, was ich ihr gesagt habe, ohne dass ich immer einen selben Chat öffnen muss, so wie ich das in einer normalen KI-Chat-App machen würde. Man hat uns auch gesagt, dass Alexa dann Stimmen unterscheiden können wird.
Da bin ich sehr gespannt, ob das wirklich funktioniert. Denn theoretisch müsste ja dann meine Frau sagen können, was sie gegessen hat, und auch ich müsste sagen können, was ich gegessen habe, und dann müsste Alexa sich das theoretisch pro Person merken. Bin ich gespannt, ob das so kommt. Ich bin mir ein bisschen unsicher.
Vor Ort ist uns jedenfalls aufgefallen, dass das, was ich gerade gesagt habe, an sich funktioniert. Also diese natürliche Spracherkennung, die Erkennung des Raumes, in dem ihr euch aufhaltet, und solche Punkte. Uns ist allerdings auch aufgefallen, dass alle Antworten grundsätzlich etwas lange gedauert haben, bis Alexa geantwortet hat.
Etwas langsam und schmeichelhaft
Hier gibt es einige Gedenksekunden und das war selbst bei recht einfachen Befehlen der Fall. Das könnte daran liegen, dass hier eine generative KI dahintersteckt. Problem der generativen KI ist, sie kann halt auch „kreativ werden“ und eure Befehle auch jedes Mal anders interpretieren. Aber natürlich soll das Ziel sein, die Befehle, auch wenn sie jedes Mal anders klingen, trotzdem den Erwartungen nach richtig zu interpretieren.
Das ist eine Herausforderung bei der generativen KI, weil die im Grunde genommen, wenn man so will, zu intelligent ist, deutlich zu viel Freiraum hat. Ich denke mal, da braucht das System im Hintergrund immer ein, zwei Sekunden, bis es antwortet. Das könnte im Alltag ein bisschen nerven, aber wird mit der Zeit sicherlich auch reduziert werden – Google schafft das ja auch.
Was mich auch genervt hat, sind die meistens sehr ausführlichen Antworten und ja, Alexa will immer nett sein. Das heißt, egal welche Frage man stellt, sie hatte zumindest in Beispielen vor Ort bei dem Event immer gesagt: „Oh ja, das ist aber schön“… blabla. Das finde ich nicht so geil, weil ich nicht ständig gelobt werden möchte, nur weil ich eine Frage gestellt habe. Und ich will auch nicht jedes Mal noch einen ausschweifenden Halbsatz an die Antworten ran bekommen, der mir nichts nutzt.
Denn ich will die Information und das war’s. Da hat man uns gesagt, die Antworten passen sich auch ein bisschen daran an, wie der Nutzer mit Alexa redet. Und ich sag mal, ganz simple Smart Home Befehle werden noch weiterhin ganz simpel mit einem kurzen Okay ausgeführt.
Intelligentes Smart Home und neue Funktionen
Was man uns außerdem gezeigt und verraten hat, ist, dass Alexa jetzt mit der neuen App und auch einer Weboberfläche die Lösung für alles sein will. Man kann z. B. eine Einkaufsliste pflegen. Wie schon immer, nur jetzt sehr viel besser. Das heißt, wenn ich sage: „Pack Butter, Salz und Tomaten auf die Einkaufsliste“, dann wird das nicht mehr wie früher in einen Satz gepackt, sondern es werden drei einzelne Punkte in der Einkaufsliste erstellt.
Man kann außerdem Funktionen wie Hausaufgabenhilfe verwenden. Das geht zum Beispiel in der eben angesprochenen Webversion, die man im Browser dann öffnen kann. Da will man natürlich auch mit Gemini, ChatGPT und so weiter konkurrieren und grundsätzlich den Nutzer im eigenen Ökosystem halten, egal was er tut. Hier gibt es auch die Möglichkeit Dokumente hochzuladen, E-Mails und vieles mehr, mit denen Alexa arbeiten kann.
Man hat uns dennoch versprochen, dass es das frühere Skill-System so ähnlich auch in Zukunft geben wird. Es gibt Entwicklerschnittstellen. Ich frage zum Beispiel, ob wir langfristig dann Apps wie Bring anbinden kann, die wir lieber für die Einkaufsliste nutzen. Und man sagte uns: Ja, Amazon wird weiterhin mit externen Diensten zusammenarbeiten.
An sich ist das ganze Thema jetzt keine Riesenüberraschung. Es ist eine generative KI. Wenn ihr jetzt mal mit ChatGPT im Live-Gespräch seid oder mit Gemini Live im Gespräch, dann wisst ihr schon, was euch mit Alexa Plus erwartet. Nur in diesem Fall halt sehr stark auf das Smart Home konzentriert. Das finde ich eigentlich ganz cool, weil aktuell aktiviere ich immer mein Handy irgendwie und muss es halt auch eingesteckt haben.
Und wenn ich es eingesteckt habe, lässt sich damit nicht gut reden. Das heißt, ich muss es in die Hand nehmen oder es muss auf dem Tisch liegen. Bei Alexa habe ich den Vorteil, so ist es zumindest bei uns, dass wir quasi fast in jedem Raum einen Lautsprecher haben und ich den entsprechend ansprechen kann. Auch die alten Funktionen, das heißt Musik in anderen Raum übertragen und solche Dinge, werden funktionieren.

Man kann zum Beispiel auch die Kamera nutzen, wenn man einen Echo Show hat und etwa sagen: „Bewerte mal mein Outfit“. Man hat da allerdings gesagt, dass wenn wir zum Beispiel ein Foto erstellen lassen und sagen: „Hey, bewerte mal mein Outfit, passt das für den und den Anlass?“ Dann werden diese Fotos zumindest im 24-Stunden-Speicher verharren, werden dann aber verschwinden.
Diese Fotos, die ihr da erstellt, werden nicht dauerhaft gespeichert. Das wäre nämlich ein Punkt, der mich interessiert hätte. Denn wenn ich jetzt zum Beispiel frage: „Hey, das Outfit, was ich jetzt anhabe, passt das für heute Abend?“ Dann wäre für mich auch interessant, ob ich eine Woche später fragen kann: „Kkannst du mir noch mal sagen, welches Outfit ich letzten Donnerstag anhatte in welcher Kombination?“ Das wäre ja durchaus interessant, soll aber nicht funktionieren.
Man hat außerdem vorgestellt, dass Alexa Plus auf die Kameras zugreifen kann, die es zum Beispiel im Haus oder auch im Vorgarten geben kann, wenn ihr das Ring-System nutzt. Da ist es zum Beispiel möglich, das bietet auch Google an, dass ihr die KI gezielt fragen könnt: „Hey, guck mal ins Kameraarchiv, wann hast du denn das letzte Mal den gelben Ball gesehen?“
Und dann sagt dir das System: „Ich habe an Tag X um die Uhrzeit Y das letzte Mal im Garten den gelben Ball gesehen.“ Das geht auch mit der Mülltonne. Heißt: „Hey, habe ich gestern die Mülltonne rausgestellt?“ Dann wird dir das System sagen können: „Jo, ich habe dich gestern auf der Sicherheitskamera gesehen, du hast die blaue Mülltonne, rausgeschoben.“
Was nicht geht, das fände ich eigentlich viel interessanter, ist, dass das System proaktiv wird. Es müsste nach meinen Vorstellungen eigentlich sagen: „Hey, morgen ist Dienstag, morgen wird der Müll abgeholt. Ich habe auf der Kamera gesehen, du hast die Mülltonne noch nicht rausgestellt, das müsstest du noch tun.“ Das wäre ein Ding, ist jetzt aber noch nicht möglich.
Aber ja, da werden wir dann gucken, ob das in Zukunft kommt. Ich gehe mal davon aus, dass man es irgendwann auch so oder so ähnlich umsetzen wird. Über den Vorschlag hat man sich vor Ort jedenfalls gefreut, den ich da gebracht habe. Nun freue ich mich, dass Alexa Plus endlich den Smart Home Alltag deutlich erleichtern wird.
An Early Access teilnehmen können Kund:innen auf zwei Wegen:
- Nutzer kaufen ein neues Echo-Gerät wie beispielsweise einen Echo Show 8, Echo Show 11, Echo Dot Max oder Echo Studio.
- Wer schon ein kompatibles Echo-Gerät besitzt, kann sich hier registrieren, um eine Einladung zu erhalten.
Die meisten Echo-Geräte unterstützen Alexa+. Ausgenommen sind einige älterer Echo-Modelle, auf denen die ursprüngliche Version von Alexa weiterhin genutzt werden kann: Echo Dot (1. Gen.), Echo (1. Gen.), Echo Plus (1. Gen.), Echo Show (1. Gen.), Echo Show (2. Gen.) und Echo Spot (1. Gen.). Kompatible Fire TV-Geräte sind: Fire TV Stick HD (2nd Gen), Fire TV Stick 4K Select, Fire TV Cube (3. Gen.), Fire TV Stick 4K Max (2. Gen.) und Fire TV Stick 4K Plus (2. Gen.) sowie die aktuelle Generation der Amazon Ember Smart TVs: Ember Omni Mini-LED Series, Ember Omni QLED Series, Ember 4-Series, Ember 2-Series, Ember Artline.
