Google I/O 2017: Von Mobile first zu AI first

Google I/O 2017: Von Mobile first zu AI first

Ok, man weiß gar nicht wo man anfangen soll. Das Tempo, in dem Google Themen und Technologien vorantreibt, ist gleichermaßen beeindruckend wie beängstigend. Auf der gestrigen Developer-Konferenz Google I/O wurden die neusten Entwicklungen, Features und Updates, an denen die einzelnen Teams in den letzten Monaten saßen, vorgestellt. Nur einige davon sind das neue Android O, der Assistent, die AI-Plattform und wie sie weite Teile der Google-eigenen Anwendungen bereits bereichert, Mobile Web, VR und AR, Fotoerkennung und das visuelle Medium als neuer Interaktionskanal. 

Google O

Android O - Das neue Android

Developer Preview als Beta-Programm geöffnet

Es ist schon zwei Monate her, seitdem Google erstmals Android O angekündigt hat. Gestern wurden erstmals offiziell die nächsten großen Neuerungen des Betriebssystems präsentiert. Laut Google ist das größte Feature in diesem Jahr der Fokus auf die "Vitalität" des mobilen Devices. Darunter versteht der Konzern aus Mountain View Themen wie Akkulaufzeit, Sicherheit, Startzeit und Stabilität.

Android O soll auch eine "fluid experience" auf den kleinen Bildschirmen bieten. Mit dieser kann man problemlos zwei Aufgaben gleichzeitig erledigen, wie z.B. der Blick in den Kalender während eines Videoanrufs. Smart Text Selection verbessert e-n-d-l-i-c-h Copy & Paste von Texten. Man muss sich nicht mehr mit den Markern der Textauswahl abmühen. Stattdessen werden mit Hilfe von Machine Learning zusammenhängende Texteinheiten erkannt, beispielsweise eine komplette Adresse oder ein Hotelname aus mehreren Wörtern. Das System erkennt zusätzlich den Inhalt der Auswahl und bietet neben dem eigentlichen Kopieren und Einfügen einen Link zu Google Maps, weil es gerade passt. 

Android O ist ab heute als Beta verfügbar mit vielen weiteren kleinen und großen neuen Fähigkeiten. Über Android.com/beta kann man sich bei dem Programm anmelden und direkt die ersten Features selbst ausprobieren. 

Google Lens

Google Lens - die intelligente Kamera

Fähigkeiten der Bilderkennung durch AI

Googles CEO Sundar Pichai stellte eine neue Technologie namens Google Lens vor. Die Idee ist es, Google Computer Vision und AI-Technologie zu nutzen, um Intelligenz direkt in die Kamera des Telefons zu bringen. Gemäß der strategischen Ausrichtung von Mobile-first hin zu AI-first, soll die Smartphone-Kamera nicht nur sehen, was man sieht, sondern auch verstehen, was man sieht, um dann mit passenden Infos, Verknüpfungen oder Hinweisen weiterzuhelfen.

Während der Demo zeigte Google, wie man die Kamera auf etwas hält und Lens erkennt, was es ist - beispielsweise die Blume identifiziert, die man gerade fotografieren möchte. Oder man macht ein Foto von einem Geschäft - und Google Lens zeigt den Namen, Bewertung und andere Informationen in einem Layer, der über dem Foto erscheint.

Einige kennen vielleicht noch Google Goggles und haben es früher schon gerne genutzt. Lens ist quasi die Weiterentwicklung davon, mit Hilfe von AI. Die Technologie verwandelt die Kamera so gesehen von einer passiven App, in ein aktives Werkzeug, das die Umgebung erkennt und es ermöglicht, mit dem zu interagieren, was im Sucher zu sehen ist.

Welches Ausmaß diese Aktivität und Interaktivität nehmen kann, sieht man an der Integration von Lens in den Google Assistenten. Durch eine neue Schaltfläche in der Assistant App können Benutzer Lens starten und ein Foto in das Gespräch einfügen, wo der Assistent die Daten verarbeiten kann, die das Foto enthält. Man hält seine Kamera an eine Konzert-Tafel oder ein Poster und Google Assistant zieht sich automatisch Informationen über Ticketverkauf. Sagt man ihm dann noch "Füge dies zu meinem Kalender hinzu", wird der Termin eingetragen. Interaktion mit der Kamera und der realen Welt. Was sich bei Google Glass noch seltsam und futuristisch anfühlte, wird mit Android O bald Realität und Normalität.

Google Photos

Google Photos - das vernetzte Fotoalbum

Sammeln, teilen und ausdrucken aus der neuen Photos App

In nur 2 Jahren hat Google Photos es auf stattliche 500 Mio. monatlich aktive User gebracht. Bei solch einer Wachstumsrate stockt das Unternehmen gerne die Entwickler-Ressourcen auf, um es weiter auszubauen. So wurden nützliche neue Features für das Sharen von Fotos gezeigt und sogar ein physisches Feature: gedruckte Fotobücher, die aus der App heraus erstellt und bestellt werden können. Auch hier wurde sehr stark künstliche Intelligenz injiziert, indem man Bilder von Visitenkarten machen und mit einem Fingertip als Kontakt speichern kann. Oder eben auch Fotos von Sehenswürdigkeiten und Gemälden mit Beschreibungen aus dem Google Knowledge Graph verknüpfen.

Um das Teilen von Fotos und Fotoalben zu stärken, wird Google Photos in Zukunft von sich aus empfehlen, Fotos zu teilen, die man mit Leuten aufgenommen hat. Dabei erkennt die App welche Personen auf den Fotos zu sehen sind und empfiehlt entsprechend, es auch mit diesen Personen zu teilen. Es ist auch die Einführung von Shared Libraries, die es Familien oder Freunden ermöglichen soll, gemeinsam Bilder in einer zentralen Sammlung hinzuzufügen. Google betont auch die Kontrolle, die man dabei behält: man kann die gesamte Fotobibliothek teilen, nur von einem bestimmten Datum oder Fotos, die bestimmte erkannte Dinge, wie die eigenen Kinder, beinhalten.

Das fast beeindruckendste Feature ist die Entfernung von unerwünschten Objekten oder störenden Elementen in einem Bild. 

VPS - Visual Positioning Service

Google zeigt auf der diesjährigen I/O auch ihre Weiterentwicklung von Tango, der 3D Sicht- und Tiefenerkennung. Damit soll ein Service bereitgestellt werden, der detaillierte Indoor-Location-Positionierung ermöglicht, indem die Umgebung per Bilderkennung gescannt und mit Google Maps kombiniert wird. 

Eines, was wir deutlich gesehen haben, ist, dass AR am stärksten ist, wenn es eng mit der realen Welt gekoppelt ist. Je enger, um so genauer. Deshalb haben wir mit dem Google Maps-Team an einem Service gearbeitet, der den Geräten den Zugang zu sehr präzisen Standortinformationen im Innenbereich ermöglicht.
— Clay Bavor, VP Virtual Reality bei Google

Bavor beschrieb das Feature als "eine Art von GPS", aber anstatt mit Satelliten zu sprechen - was bei Innenräumen nicht immer gegeben ist - nutzen die Kameras auf einem Tango-Gerät "deutliche visuelle Merkmale in der Umgebung", um die genau Position im Raum zu triangulieren.

Google Assistent

Google zeigt wie kein anderes Unternehmen wie man sinnvoll, geschickt und innovativ einzelne Features und Dienste miteinander verknüpft. Mit Google Assistant kommt die nächste große Plattform, die vieles vereinen wird. So analysiert der Assistent mit Google Lens die Umgebung und zeigt relevante Informationen aus dem Knowledge Graph auf dem Bildschirm.

Zusätzlich kann man aber auch Konversationen mit Hilfe der Bilderkennung starten. Etwa im Ausland, wo der Assistant Schilder oder z.B. Speisekarten per Bilderkennung direkt übersetzen kann und danach noch weiterführende Informationen zu dem Inhalt oder eben bestimmten Speisen liefert. Und wie Ernst es mit der Ausrichtung des Assistenten ist, zeigt die Ausweitung auf alle Devices, auf denen Google vorhanden ist, wie Uhren, Fernseher oder im Auto. Und seit gestern auch auf iOS. 

Google AI und Machine Learning

Im Moment lebt künstliche Intelligenz in der Cloud, aber Google - und andere große Tech-Unternehmen - wollen AI direkt auf die Geräte bringen. Auf der Google I/O wurde eine neue Initiative angekündigt, um AI dabei zu helfen, diesen Sprung auf die Devices zu schaffen: eine mobil-optimierte Version seines maschinellen Lernframeworks mit dem Namen TensorFlowLite.

Es ist eine Bibliothek für Apps, die schnell und klein ist, aber immer noch modernste Techniken ermöglicht. Wir denken, dass diese neuen Fähigkeiten dazu beitragen, die nächste Generation von On-Device-Sprachverarbeitung, visuelle Suche, erweiterte Realität und vieles mehr zu unterstützen.
— Dave Burke, VP Engineering (Android) bei Google

Aber warum ist es gut, AI auf dem Gerät selbst zu haben? Nun, einfach gesagt, maschinelle Lernanwendungen, die lokal auf dem Gerät laufen, sind schneller, privater (die Daten verlassen nie das Gerät) und erfordern keine funktionierende Internetverbindung. All dies bedeutet eine benutzerfreundliche Experience, für Kunden und Google selbst.

Das Unternehmen hat auch angekündigt, dass irgendwann eine API für das Machine Learning besser mit Telefon-Chips auskommen wird - ein klares Zeichen, dass Google daran denkt (und daran arbeitet), dass bald AI-optimierte Chips verbaut werden.

Google sammelt seine AI-Bemühungen und Teams in Google.ai, ein zentraler Punkt für die Forschung, für Werkzeuge und angewandte AI. Darüber hinaus sagte Pichai, Google arbeitet an AutoML, eine neue Software, die neuronale Netzwerke verwendet, um andere neuronale Netze zu bauen. Totaler Wahnsinn. Das zeigt vor allem auch wie weit wir bereits mit künstlicher Intelligenz sind.

 Google Home

Immer mehr Menschen benutzen den Begriff "Ok Google", um Informationen zu finden, Notizen zu speichern oder Aktionen mit dem Google Assistant durchzuführen. Im vergangenen Herbst gestartet, ist der neue Assistent bereits auf über 100 Millionen Geräten verfügbar und entwickelt sich rasant. Auf der Google I/O sprach sein Schöpfer, Rishi Chandra, über die erweiterten Fähigkeiten.

So wird in den kommenden Monaten Google Home in der Lage sein, freihändig kostenlose VOIP-Anrufe an jedes Telefon in den USA oder Kanada zu ermöglichen. Es gibt kein zusätzliches Setup, Apps zum Installieren oder die Notwendigkeit von Festnetz oder Handytarif. Einfach den Assistenten bitten, den Anruf zu tätigen. Und mit Multi-User-Unterstützung (der Assistent erkennt einzelne Stimmen), ist er schlau genug, um den jeweils entsprechenden Kontakt anzurufen, etwa die eigene "Mutter" und nicht die des Partners. So soll das Gerät zum zentralen Punkt für die ganze Familie werden. In naher Zukunft soll Google Home auch proaktive Benachrichtigungen zu bestimmten Ereignissen aussenden können. Zunächst konzentriert sich der Assistent auf Reisen, die Verfolgung der bevorstehenden Flüge und Termine und dann Warnung auf Flugverspätungen oder Verkehrsmeldungen. Für letztere wird es sogar eine neue Reisezeit berechnen und vorschlagen, früher aufzubrechen, damit man nicht zu spät kommt. Damit hat Google wieder zu Amazon aufgeschlossen und man kann gespannt sein, wie sich die Assistenten in den Wohnzimmern breit machen werden. 

State of Mobile, Progressive Web Apps und WebVR

Laut Google (und Studien u.a. von comscore und quixey) befinden wir uns in einer Umbruchphase des mobile Web. AMP und Progressive Web Apps wachsen in der Nutzung, und die Werkzeuge und Fähigkeiten, die Web-Entwicklern zur Verfügung stehen, werden immer leistungsfähiger und vielfältiger. Auf der Google I/O 2017 wurden einige der jüngsten Transformationen des modernen mobilen Webs hervorgehoben. Beeindruckend sind die Case Studies und Zahlen:

  • weniger als 1 Sekunde Ladezeit von AMP-Seiten
  • 10-fache Verweildauer auf AMP-Seiten
  • bis zu 70% weniger Datenübertragung von PWA
  • 75% mehr Interaktion über PWA (Case: Twitter)
  • 53% mehr Verweildauer auf iOS, trotz limitierter Unterstützung (Case: Lancome)

Über WebVR wurde leider nicht sehr ausführlich gesprochen, aber zumindest erwähnt. Die noch experimentelle API ermöglicht es, VR Inhalte im Browser abzuspielen. Trotz frühem Stadium sind die ersten Beispiele doch sehr vielversprechend. Hinzu kommt, dass Google gemeinsam mit HTC und Lenovo an Headsets arbeitet, die keine zusätzliche Hardware benötigen. Standalone VR Brillen wären ein weiterer wichtiger Schritt für VR, an dem offensichtlich bereits gearbeitet wird. 

Google I/O 2017 Keynote



Indoor Navigation im Londoner Flughafen Gatwick.

Indoor Navigation im Londoner Flughafen Gatwick.

Microsoft Fluent Design System.

Microsoft Fluent Design System.