Google Lens macht die Kamera smarter

Der Dienst setzt die Smartphone-Kamera ein, um Objekte zu erkennen. Dank Lens gewinnen der digitale Helfer Google Assistant und die Fotos-App neue Fähigkeiten. Später sollen alle Google-Produkte davon profitieren.

Google unternimmt einen neuen Anlauf, um Smartphone-Kameras auf intelligente Weise zu nutzen. Der Dienst Google Lens setzt das Fotomodul ein, um Objekte zu erkennen und dem Anwender nützliche Informationen zu ihnen zu liefern. Lens soll sich in der Fotos-App als praktisch erweisen, vor allem aber den digitalen Assistenten Google Assistant noch vielseitiger machen. Später soll es alle Google-Produkte beflügeln.

CEO Sundar Pichai kündigte die neuen Fähigkeiten auf der Entwicklerkonferenz I/O an. Lens ist so etwas wie eine umgekehrte Bildersuche mit künstlicher Intelligenz. Computervision erkennt ein Bild – und Google findet heraus, was es damit auf sich hat. Der Suchvorgang beginnt mit einem Bild statt mit einem Eingabefeld für Text.

Sundar Pichai erläutert Google Lens (Screenshot: ZDNet.de).Sundar Pichai erläutert Google Lens (Screenshot: ZDNet.de).

Kommt etwa eine Blume ins Blickfeld, nennt Google Assistant die botanische Bezeichnung und zeigt auf Wunsch den Weg zum nächsten Floristen. Erfasst die Kamera ein Restaurant, präsentiert er augenblicklich Bewertungen. Wer die Kamera auf ein Konzertplakat richtet, bekommt vom digitalen Assistenten den Kauf von Eintrittskarten oder ein Youtube-Video mit einem Song vorgeschlagen.

In einem weiteren Beispiel nimmt der Assistent dank Google Lens die Mühe ab, selbst Anmeldedaten für einen WLAN-Zugang einzugeben. Es genügt vielmehr, die Kamera auf Barcodes mit den Anmeldedaten an einem Router zu richten, damit sich ein Android-Gerät automatisch mit dem Netz verbindet.

Bewertungen zum Restaurant gegenüber (Screenshot: ZDNet.de)Bewertungen zum Restaurant gegenüber (Screenshot: ZDNet.de)

An einer klugen Fotolinse versucht sich Google schon seit Jahren. Google Translate führte Anfang 2015 das Feature ein, mit der Kamera erfasste Texte automatisch zu übersetzen. Die App konnte dann beispielsweise im Live-Bild den Text eines Verkehrsschilds oder eine Speisekarte ersetzen. Diese Technik basierte auf der Übernahme des US-Unternehmens Quest Visual, dem Entwickler der Übersetzungs-App Word Lens.

Schon 2009 sollte Google Goggles Suchergebnisse zu einem Objekt liefern, das mit der Kamera fokussiert wird. Google glich dabei den Gegenstand mit der Google-Bildersuche ab und versuchte dank GPS-Standortbestimmung auch ortsbezogene Ergebnisse auszugeben. Die Technik der visuellen Suche war aber noch nicht ausgereift und lieferte zu oft unbrauchbare Ergebnisse. Die Goggles-App ist zwar noch immer im Play Store zu finden, wurde aber zuletzt 2014 aktualisiert.

Als Goggles vorgestellt wurde, befand es sich noch im Experimentierstadium in den Google Labs. „Maschinelle Bildbearbeitung“ sei noch in der „Wachstumsphase“ hieß es damals dazu. Deshalb arbeite Goggles nur bei „bestimmten Objekttypen in bestimmten Kategorien gut“. Nach den Fortschritten im Umfeld von künstlicher Intelligenz und maschinellem Lernen ist der Internetkonzern bei Google Lens jetzt offenbar weit zuversichtlicher.

Lens ist eine Sammlung von Technologien für die Bilderkennung, von der Google vielseitige und überraschende Anwendungsmöglichkeiten erwartet. In der Fotos-App soll sie sich etwa nützlich machen, indem sie erkennt, wer alles auf einem Foto zu sehen ist – und automatisch das Teilen der Aufnahme mit den Abgebildeten vorschlägt.

Themenseiten: Apps, Google, Google I/O, Kamera, Künstliche Intelligenz, Smartphone

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen Lesen Sie ZDNet-Artikel in Google Currents ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Google Lens macht die Kamera smarter

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *