Als „Pixel Visual Core“ bezeichnet Google einen Spezialprozessor, der sich neben dem Haupt-SoC vom Typ Qualcomm Snapdragon 835 in den Pixel-2-Smartphones befindet. Den Chip hatte das Unternehmen bei der Vorstellung der Geräte nicht erwähnt, da er bisher nicht von der Software genutzt wird. Nun hat der Android-Hersteller den Baustein aber beschrieben.
Es handelt sich um typischen Coprozessor, wie er seit den Tagen der 16-Bit-Heimcomputer und später den PCs eingesetzt wird, um die CPU von Spezialaufgaben zu entlasten. Im Fall des Pixel-Core hat sich Google für ein Design ähnlich einer GPU entschieden: Ein Host-Prozessor mit ARM-A53-Architektur steuert acht Funktionsblöcke, die als „Image Processing Unit“ (IPU) beschrieben werden. Sie bestehen aus je 512 ALU-Rechenwerken, ganz ähnlich der Cluster einer GPU.
Da die Qualcomm-SoCs aber schon fixe Grafik bieten, setzt Google die IPUs vor allem für Bildverarbeitung ein. Das Ziel ist hohe Leistung bei minimaler Leistungsaufnahme. Laut Herstellerangeben soll der Visual Core Bilder nach HDR+ fünfmal schneller als der Snapdragon bei einem Zehntel des Energiebedarfs erstellen können. Für HDR werden in der Regel mehrere Bilder mit verschiedenen Aufnahmeparametern wie der Blendenöffnung kombiniert, die Berechnungen können sehr aufwendig sein.
Dazu kommt noch, dass die IPUs flexibel programmierbar sein sollen und sich auch für maschinelles Lernen eignen, so Google. Dazu werden die Frameworks Halide und Tensorflow unterstützt. Deren Code optimieren die Android-Compiler, sodass das Custom-SoC voll genutzt werden kann, verspricht Google.
Bisher ist der Visual Core aber noch funktionslos. Erst „in einigen Wochen“, so Google, soll er mit Android 8.1 aktiviert werden. Dann sollen nicht nur die vorinstallierten Apps, vor allem das Kamera-Programm, sondern auch Anwendungen von Drittherstellern den Chip nutzen können. Da er mit verbreiteten Frameworks angesprochen werden kann, sind zahllose andere Anwendungen denkbar. Google erwähnt bisher aber nur Zugriff auf das Kamera-API, was immerhin VR- und AR-Anwendungen sowie Videoeffekte sparsamer und schneller machen könnte.
Google geht mit dem Custom-SoC einen ähnlichen Weg wie Apple, das seit 2008 seine eigenen auf ARM-Technik basierenden Chips für mobile Geräte entwickelt. Erweiterungen, wie beispielsweise schnelle GPUs und große Caches, kann Apple dabei direkt auf dem Haupt-SoC integrieren. Qualcomm, bisher Googles Zulieferer, erlaubt aber keine fremden Designs auf seinen Snapdragons, sodass die Pixelmacher zum externen Zusatzchip greifen mussten. Daher ist der Visual Core über PCI-Express angebunden, er verfügt zudem auch über eine eigene Speicherschnittstelle, wie das auch andere Beschleuniger tun – unter anderem GPUs.
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
SAP S/4HANA trifft ECM: Was Sie für eine erfolgreiche Migrationsstrategie beachten sollten
Ceyoniq beleutet in diesem Whitepaper anhand von sechs Thesen die wichtigsten Aspekte zum Thema und gibt Tipps für eine erfolgreiche Migrationsstrategie.
Neueste Kommentare
Noch keine Kommentare zu Pixel 2: Googles Custom-Chip soll HDR-Bilder verbessern
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.