Google Awareness API ermöglicht an Aktivitäten angepasste Android-Apps

Anwendungen können damit kontextbezogen auf Standort, Umgebung und Aktivitäten reagieren. So kann eine App etwa eine Playlist vorschlagen, wenn ein Nutzer Kopfhörer anschließt und zu laufen beginnt. Awareness setzt ein Bild zusammen aus sieben Faktoren, die Sensoren im Smartphone übermitteln.

Google hat auf seiner Entwicklermesse I/O eine Awareness API vorgestellt, durch die Android-Apps kontextbezogen auf Standort, Umgebung und Aktivitäten eines Nutzers reagieren können. In Erfahrung zu bringen ist damit etwa, ob ein Anwender gerade joggt oder sich in einem Café entspannt. Awareness ist für Entwickler zunächst in einer Vorschauversion als Google Play Services API verfügbar.

Die Programmierschnittstelle setzt ein Bild aus sieben Faktoren zusammen, die Sensoren im Smartphone übermitteln. Dazu zählen die Ortszeit, die Art der Umgebung, Aktivität, nahe Beacons und gegenwärtige Wetterbedingungen. Eine Rolle spielen kann auch, ob Kopfhörer angeschlossen sind oder nicht. Anhand dieser Kontext-Signale sollen Apps die Aktivität eines Nutzers einschätzen und darauf passend reagieren können – ihm also beispielsweise eine Playlist vorschlagen, wenn er Kopfhörer ansteckt und zu laufen beginnt. Auch könnte die eingestelle Weckzeit automatisch anhand der Zeit angepasst werden, zu der ein Nutzer sich schlafen gelegt hat, oder aufgrund einer im Kalender eingetragenen Besprechung.

Beim Laufen oder im Café - Apps können kontextbezogen reagieren (Bild: Google).Beim Laufen oder im Café – Apps können kontextbezogen reagieren (Bild: Google).

Auch eine Verbindung mit anderen Geräten wie Google Home ist angedacht. In Kombination mit Wetter oder Verkehrsdaten von Apps für Home könnte etwa ein Zeitpunkt zum Verlassen des Hauses vorgeschlagen werden, um ein Meeting nicht zu verpassen.

ANZEIGE

Interview mit Samsungs SSD-Spezialist Marcel Binder

Im Interview mit ZDNet erläutert Marcel Binder, Technical Product Manager Marketing bei Samsung, die Vorteile durch den Einsatz von SSDs. Dabei geht er auch auf aktuelle Schnittstellen, Speicherdichten sowie Samsung V-NAND-Technik ein.

Obwohl als eine einzelne API angekündigt, besteht Awareness tatsächlich aus zwei APIs. Die Snapshot API wertet die Signale zur Umgebung des Nutzers aus. Die Fence API hingegen erlaubt Entwicklern, die Bedingungen für eine Aktion festzulegen – diese kann sogar ausgelöst werden, während die App selbst nicht läuft.

Die Snapshot API wurde mit dem Ziel nur mäßiger Auswirkungen auf Akkulaufzeit und Speicherverbrauch entwickelt, um ein Gerät nicht durch die im Hintergrund laufenden Prozesse zu überlasten. Angesichts der detaillierten Informationen, die eine Anwendung mit Awareness über Nutzer in Erfahrung bringen kann, holt Google Zustimmungen für die einzelnen Datentypen ein, bevor es sie mit Entwicklern teilt.

[mit Material von Liam Tung, ZDNet.com]

Tipp: Wie gut kennen Sie Soziale Netzwerke? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.

Themenseiten: Android, Anwendungsentwicklung, App, Google, Google I/O

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Google Awareness API ermöglicht an Aktivitäten angepasste Android-Apps

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *