
Hintergrund
True Black – Stromsparen auf kleiner Flamme
von Dominik Bärlocher
Google zeigt, was uns dereinst erwartet. Am Wichtigsten: Die gesprochene Sprache und Text rücken näher zusammen. Damit will Google viele Barrieren abschaffen. Dazu ein paar neue Phones, so apropos, und ein neues Home Hub namens Next Hub Max.
Google I/O ist ein Festival für Developer und Enthusiasten. Und eine Gelegenheit für den Suchkonzern, der weit mehr als nur Suchkonzern ist, sich selbst in Szene zu setzen. Developer wie Kevin Barry, Entwicker des Nova Launcher, können an Workshops teilnehmen, erhalten Einblick in die offene Software Android und deren Anwendungsmöglichkeiten. Ich vermute, die Bars in der Gegend um das Shoreline Amphitheatre in Mountain View, Kalifornien, werden sich ebenfalls freuen.
Für uns in Übersee aber ist die Keynote von grosser Wichtigkeit. Denn wir sehen so, was die Zukunft Googles und Androids dereinst bringt.
Google hat bereits einiges durchsickern lassen, dass das Betriebssystem für Wearables, WearOS, ein Update erfahren wird. In einem Blog Post beschreibt Frank Deschenes, Produktmanager, wie sich WearOS künftig verhalten soll.
Neu wird das Betriebssystem über Tiles, also Kacheln, verfügen. Diese sind einfach via Swipe auf der Smartwatch erreichbar und zeigen dir auf dem Vollbildschirm folgende Daten an:
Die Tiles können so angeordnet werden, wie du es gerne magst. Das Update, das dir die Tiles bringt, soll im Verlauf des Monats ausrollen.
Ein weiterer Blog Post beschreibt den neuen Look der Navigations- und generellen Auto-Versmartungs-Software Android Auto. An der Funktionalität ändert sich wenig, denn nach wie vor spielt die Musik im Auto weiter, die du gerade eben noch auf dem Smartphone gehört hast. Der Look aber wird dünkler, was mit dem Trend des Dark Mode einhergeht, der im laufenden Jahr auf immer mehr Google Apps ausgerollt wird. Im dunklen Modus ist der Hintergrund nicht leuchtend weiss, sondern bei Google dunkelgrau, HEX #424242.
Ein Dark Mode ist wohl nirgends entscheidend wichtiger als hinter dem Steuer. Auf Smartphones ist er zwar nett und spart etwas Akku, aber im Auto kann er – um es plakativ auszudrücken – über dein Leben entscheiden. Denn wenn du nachts auf ein helles Display blicken musst, dann geht dir die Nachtsicht verloren. Es geht zwar einige Sekunden, bis sich deine Augen wieder etwas an die Dunkelheit gewöhnt haben, aber auch dann ist die Nachtsicht nicht das, was sie vor dem Blick auf das grelle Display war. Diese wenigen Sekunden können über Unfall oder nicht entscheiden. Perfekt wäre aber, wenn Google sich auf Amoled-Schwarz besinnen könnte, also HEX #000000. Denn dann wären die Pixel des Bildschirmhintergrundes unter Android Auto – bevorzugt unter allem in Android – nicht mit Strom versorgt. Sprich: Weniger Licht im Cockpit, deine Nachtsicht wird geschont. Aber immerhin: Ein anständiger Dark Mode auf Android Auto ist schon mal ein solider Anfang.
Damals, wir erinnern uns, waren die Pixel-Geräte aus dem Hause Google noch keine Pixel, sondern hiessen Nexus. Sie waren günstig und gut. So gut sogar, dass einige User sie noch bis heute verwenden. Mit der Pixel-Ära sind die Phones dann massiv teurer geworden und vom nützlichen und preiswerten Gerät zum Prestigeobjekt mit Hammerkamera aufgestiegen. Jetzt macht Google einen Schritt zurück und veröffentlicht mit dem Google Pixel 3a und dem grösseren 3a XL zwei Smartphones, die in der Mittelklasse kämpfen.
Das grössere Google Pixel 3a XL kommt mit einer Bildschirmdiagonale von 6 Zoll daher, also 15.42 Zentimeter. Anders als andere Amoled-Bildschirme heisst es von der Bühne, dass Google hier ein sogenanntes gOLED-Display verbaut. Das steht für «Google OLED», vielleicht. Experten sind sich uneinig, auch darüber, was ein gOLED Display anders macht als ein Amoled-Display. Kollege Jan Johannsen hat drüben bei galaxus.de bereits ein komplettes Review online.
Künstliche Intelligenz wird bei Google dieses Jahr gross geschrieben. Android soll noch schlauer und noch integrativer werden. «Google soll noch hilfreicher werden», heisst es. Eines dieser Features sei die «Full Coverage» in Google News, wo die Option dir mehrere Blickwinkel auf ein Thema gibt. Google Search soll damit im Laufe des Jahres ausgestattet werden und so will Google unter anderem den Glauben an sogenannte Fake News verhindern und etwas Balance in die Medienwelt bringen.
Natürlich wird der Assistant auch schneller. Mit dem Feature «Continued Conversation» musst du nicht einmal mit «Hey Google» den Assistant aktivieren. Dennoch, ein Feature fehlt noch: Der AND-Operator. Du kannst zwar x Fragen in rasender Geschwindigkeit stellen, SMS und Mails verschicken, Wetterberichte und anderes abfragen, aber nur halt ein Ding nach dem anderen. «Hey Google, schalt das Licht ein und schreib Andrea eine SMS mit dem Inhalt "ich mag Delfine"» geht nicht. Denn Google will nach wie vor den einen Befehl «schalt das Licht ein und schreib Andrea eine SMS mit dem Inhalt "ich mag Delfine"» ausführen und nicht die zwei Befehle, die mit dem «und» verknüpft werden. So scheint es zumindest nach der Demo auf der Bühne.
Der überarbeitete Assistant kommt mit dem Google Pixel 4.
Die Google-Suche erfährt ein recht grosses Update. Wenn du etwas suchst, dann kannst du dir eine dreidimensionale Ansicht anzeigen lassen und diese Objekte dann gleich auch via Augmented Reality in der Realität anzeigen lassen.
Auf der Bühne wird ein weisser Hai in 3D eingeblendet. Die Animation wirkt noch etwas hölzern und die Texturen könnten besser sein, aber die Technologie vermag zu beeindrucken. Ich kann mir vom Schiff aus nicht vorstellen, warum ich einen Haifisch im Büro haben möchte, aber ich werd das trotzdem mal testen, denn Googles Suche ist an der Oberfläche seit gefühlten Ewigkeiten nur visuell aufgefrischt worden.
Google Lens, Googles virtuelles Auge mit Interpretationsfähigkeit, wird schlau. Wenn du in einem Restaurant eine Speisekarte vor die Kamera deines Smartphones hältst, zeigt dir Lens die beliebtesten Menus an, rechnet dir Trinkgeld aus und teilt die Rechnung durch die Anzahl Gäste. Das ist mit Datenkorrelation mit Daten aus Google Maps möglich.
Das ist zwar ein nettes Gadget, aber mit Google Go will Google auch Analphabeten in der Welt helfen. Wenn du in der Google Search Bar auf Google Lens klickst, liest dir die Stimme deines Google Assistants Text vor. Zudem werden die Textpassagen, die die App gerade vorliest besonders ausgezeichnet. Übersetzungen sind natürlich auch möglich, sowohl in Bild wie auch in Ton.
Es ist offensichtlich, dass Google seine Apps vereint, seine Dienste gleichschaltet und die Datenkorrelation zwischen all dem Wissen, das der Suchkonzern im Laufe der Jahre gesammelt hat, erlaubt und fördert. Ist das unheimlich? Ja, schon. Denn zum ersten Mal siehst du, was «Ein kleiner Informationsfetzen hier und einer da» bringt, wenn die Daten zusammengeführt werden.
Aber keiner kann abstreiten, dass das technologisch schwer beeindruckend ist. Der Applaus aus dem Publikum macht mir aber etwas Bauchweh. Ist das wirklich das, was wir gut finden? Also, so objektiv gut, und nicht nur technologisch beeindruckend?
Apropos, kleine Randbemerkung: Google, das heisst «Deutsch» und «Deutsche Sprache». Eine Sprache namens «Deutsche» gibt es nicht.
Google Duplex heisst Googles Lösung zur Telefonie. Sprich: Du gibst deinem «Hey Google» einen Auftrag. Also «Hey Google, reservier mir einen Tisch für drei in der Zürcher Tales Bar um halb neun». Würde Google Duplex in Zürich funktionieren, dann würde Duplex im Tales anrufen, dort mit menschlicher Stimme einen Tisch reservieren.
Das geht neu auch im Browser. Duplex versteht deine Reisepläne, unter anderem. Es kann also deine Kalenderdaten auslesen, deine Flugtickets anzeigen und so dir Autoreservationen und dergleichen vorschlagen und bereits einen Berg von Daten einfüllen. Im Wesentlichen musst du als Nutzer nur noch auf «Continue» und «Yes» klicken.
Google ist sich bewusst, dass die riesige Datenmenge, die verwendet wird, damit du deine personalisierten Dinge bekommst, in den falschen Händen zu Schlimmem führen kann. Daher hat Google die Privatsphäreneinstellungen angepasst.
Neu kannst du mit Klick auf dein Avatarbildchen die Sicherheitseinstellungen für das Feature, das du gerade nützt, einstellen. Die Features, inklusive einem separaten Incognito-Modus für die Suche, sollen im späteren Verlauf des Jahres ausrollen.
Das Thema, das Android Q definiert, ist denn auch die Sicherheit und die Privatsphäre. Wird zwar nur kurz angesprochen, aber dennoch: Es soll viel unter der Haube geschehen.
Zudem unterstützt Google nativ faltbare Smartphones. Wir erinnern uns: Beim Notch hat Google im Android Core nicht mitgemacht. Ein Zeichen dafür, dass Foldables die Zukunft sind? Wo sich Google aber sicher ist, dass die Zukunft dort liegt ist 5G. Der Standard wird von Android Q nativ unterstützt.
So lustig das auch klingt, und so lässig all die Komfort-Features sind, die eingeführt werden, so bedeutsam ist etwas ganz anderes. Federated Learning hofft, eine ganze Welt zu öffnen.
Dafür aber führt Google «Federated Learning» ein. Das heisst, dass Daten aus allen Ecken Googles analysiert werden und dann in Dingen wie der Voraussage des nächsten Worts in Googles GBoard-Smartphone-Tastatur angewendet werden. Die Cloud Speech API transkribiert Sprache zu Text in Echtzeit. Live Caption wir das sogar auf Videos erweitern. Sprich: Du schaust dir ein Video an und die AI errechnet dir Untertitel automatisch. Das soll auch mit Telefongesprächen möglich sein. Stell dir mal vor, du bist taub, stumm oder taubstumm. Beeindruckend.
Noch besser: Die Gespräche bleiben auf deinem Gerät und daher privat. Ganz ohne Datenkonnektivität. Das neurale Netzwerk hinter der Technologie läuft lokal auf deinem Phone und ist lediglich 80 Megabyte gross. Es ist systemweit, also nicht app-abhängig.
Google macht damit aber nicht Schluss. Klar, da sind bereits Aufnahmen von Tauben und solchen, die einen Hirnschlag hatten. Aber was ist mit denen, die nonverbal kommunizieren? Google arbeitet dran. Und ehrlich gesagt, da bin ich dafür. Sehr stark sogar.
Google öffnet das Projekt. Wenn du jemanden kennst, der sich nur schwer artikulieren kann und der helfen möchte, dann kannst du ein Formular ausfüllen und vielleicht mithelfen.
Der Google Assistant hat ein neues Zuhause. Alle Home Hardware heisst neu Nest, da die Teams des ehemaligen Startups Nest und die Google Home Teams zusammengelegt wurden. Das Google Home Hub heisst neu also Nest Hub. Mit einem Display heisst das Google Nest Hub Max, das neu auf den Markt kommt. Mit einem 10-Zoll-Display und einer Kamera vereint es alle Geräte wie die Nest Cams und alles wie Smartlights oder Smartlocks. Das macht dein Smartphone zwar in der Google Home App schon, aber dennoch könnte dedizierte Hardware viel Boni bieten.
Apropos, das Nest Hub Max hat hinten einen Schalter, das die Stromversorgung zur Kamera und zum Mikrofon unterbricht. Endlich ein Security Feature, das so richtig gut und richtig nötig ist.
So nett das auch klingen mag, Google I/O hat einen grossen Nachteil für uns in Übersee: Alles ist recht US-zentrisch. Ein Beispiel: Google Assistant kann in zig Stimmen ausrollen. Männlich, weiblich, Dialekte und Akzente. Sogar in der Stimme des Sängers John Legend kann dein Gerät mit dir reden. Es fliesst unendlich viel Engineering in die Schaffung einer Stimme, die eigentlich alles aussagen kann, aber kein Wort in der Aufnahme gesagt hat. Zum I/O-Fest wird dann das Feature präsentiert und soll dann irgendwann ausrollen.
In der Schweiz aber sieht das anders aus: Die ganzen glorreichen Features, wie Google Duplex werden noch lange nicht in Schweizerdeutsch erhältlich sein. Denn wir sind immer noch ein paar Millionen Exzentriker, die sich auf keine einheitliche Sprache einigen können. Daher wird sich Google kaum die Mühe machen, Wörter wie «Mond», «Moo» und «Manneschi» zu einem Begriff zu abstrahieren. Und Google Assistant wird kaum in Züridütsch oder Berner Slang daherkommen und mal «foif Tickets» oder «Auä vier Stüu» reservieren. Schade. Müssen wir halt doch noch eine Weile menschlich bleiben.
Journalist. Autor. Hacker. Ich bin Geschichtenerzähler und suche Grenzen, Geheimnisse und Tabus. Ich dokumentiere die Welt, schwarz auf weiss. Nicht, weil ich kann, sondern weil ich nicht anders kann.