Big Data

Kosten senken mit Big-Data-Analysen

Big-Data-Analysen sollen Unternehmen umsetzbare Erkenntnisse liefern. Pure Storage zeigt sechs Möglichkeiten, wie Unternehmen mit schnelleren Daten die betriebliche Effizienz steigern und die Kosten senken. weiter

Data Layer Management und Outsourcing

Große Informationsmengen auf dem Data Layer erfordern zuverlässige Betriebsumgebungen. Outsourcing ist dafür eine elegante Lösung. weiter

Ein digitales Datenprodukt löst geschäftliche Herausforderungen durch die Nutzung von Daten

„Wenn dir die erste Version deines Produktes nicht peinlich ist, hast du es zu spät auf den Markt gebracht“. Dieses Zitat des Mitbegründers von LinkedIn drückt perfekt aus, wie wichtig es ist, in der neuen digitalen Wirtschaft agil zu sein. Im Zeitalter der digitalen Transformation, so schnell wie möglich über Benutzerfeedbacks zu verfügen, ermöglicht eine bessere Marktanpassung und eine höhere Wettbewerbsfähigkeit. weiter

Nvidia: Rapids beschleunigt Datenanalyse und maschinelles Lernen

Der Grafikspezialist stellt das Paket von Open-Source-Bibliotheken auf der GPU Technology Conference in München vor. Sie sollen seine CUDA-Plattform mit GPUs nutzen. Benchmarks zeigen die 50-fache Beschleunigung im Vergleich zu Nur-CPU-Systemen. weiter

Intels erster KI-Coprozessor ist fertig

Was einst Nervana war, heißt nun NNP und ist Intels erstes Design für künstliche Intelligenz. Noch im Jahr 2017 soll der Chip mit Terabyte-Bandbreite ausgeliefert werden, unter anderem an Facebook. weiter

USA: Google Assistant fürs iPhone verfügbar

Im Sommer soll der auf künstlicher Intelligenz basierende digitale Helfer auch deutschsprachigen iPhone-Nutzern zur Verfügung stehen. Inzwischen kommt er laut Google bereits auf 100 Millionen Geräten zum Einsatz. weiter

HPE „The Machine“ jetzt mit 160 Terabyte Arbeitsspeicher

Der zweite Prototyp von HPEs Big-Data-Rechner "The Machine" soll damit das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig bearbeiten können. Laut HPE-Chefin Meg Whitman "verstecken sich der nächste große wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien hinter den Datenbergen, die wir täglich produzieren". Diese soll "The Machine" finden. weiter

Here ermöglicht Audi, BMW und Daimler ab 2017 Datenaustausch

Über eine frontale Kamera sollen die Fahrzeuge die Umgebung erfassen und Informationen zu Parkplätzen, Baustellen oder auch Verkehrsschildern sammeln. Geschwindigkeit und Standort, Bremsmanöver und Einsatz von Nebelscheinwerfern gehen ebenfalls in die Open Location Platform ein. weiter

IBM erstellt mit Big Data hyperlokale Wetterberichte

Deep Thunder erstellt alle drei Stunden kurzfristige Vorhersagen mit einer Genauigkeit von 0,2 bis 1,2 Meilen. Dazu berücksichtigt es etwa Vegetation und Bodenbeschaffenheit. Es ist erstes Resultat der Übernahme der B2B-Sparte von The Weather Company durch IBM. weiter

Über ein Drittel der deutschen Unternehmen nutzt Big Data

Laut einer Umfrage von Bitkom Research im Auftrag von KPMG treffen immer mehr Firmen wirtschaftliche Entscheidungen auf Grundlage moderner Datenanalysen. Vor zwei Jahren lag der Anteil noch bei bei 23 Prozent. Die wichtigsten Hindernisse sind derzeit noch Rechts- und Sicherheitsbedenken sowie Ressourcenmangel. weiter

Microsoft weitet Unterstützung von Apache Spark aus

Zum Spark Summit 2016 gibt es eine Reihe Ankündigungen. Spark-Support ist für die Microsoft-Produkte HDInsight, Cortana Intelligence Suite, Power BI und Microsoft R Server in Vorbereitung oder abgeschlossen. weiter

EU-Datenschutz-Grundverordnung: Verarbeitung von personenbezogenen Informationen

Einwilligung, Zweckbindung und Minimalprinzip werden in naher Zukunft die Verarbeitung von personenbezogenen Informationen grundlegend beeinflussen. Die Stärkung der Position des Einzelnen wird schon lange gefordert, mit der Europäischen Datenschutz-Grundverordnung wird dies aber anteilig Realität werden. weiter

Andy Rubin investiert in Connected-Car-Start-up Nauto

Nautos Systeme aus Kameras, Sensoren und Clouddiensten unterstützen den Fahrer und zeichnen eventuelle Unfallursachen auf. Nebenbei lässt sich damit die Welt kartografisch erfassen. Sie werden derzeit weltweit getestet. weiter

Hortonworks kündigt neue Partnerschaften und Releases an

Die Ankündigungen bestätigen das zunehmende Auseinanderdriften der von Hortonworks und Cloudera angebotenen Technologien. Hortonworks will seine Marktstellung mit neuen Partnerschaften verbessern. Pivotal gibt seine eigene Distribution auf und betätigt sich künftig als Reseller von Hortonworks Data Platform (HDP). weiter

Mastercard gibt kleinen Händlern Zugriff auf IBM Watson Analytics

Das Cloud-Analytics-System soll selbsttätig Muster erkennen und somit Entscheidungen auf Basis von Big Data vereinfachen. Händler müssen dazu ein Abonnement eingehen. Sie erhalten Einblicke in Umsätze, Marktanteile, Zusammensetzung ihrer Kundschaft und das Wettbewerbsumfeld. weiter

Google benennt Satelliten-Tochter in Terra Bella um

Ihre Aufgabe ist künftig auch die Analyse der Aufnahmen. Dazu verwendet Terra Bella Googles Geodaten und Algorithmen für Maschinelles Lernen. Zusätzlich baut es weiter Satelliten - ein Dutzend ist aktuell in Arbeit. weiter

IBM startet ResearchKit-Projekt SleepHealth für Schlafforschung

Zunächst können nur Volljährige mit Wohnsitz in den USA teilnehmen. Die Watson Health Cloud wird von iPhone und Apple Watch gesammelte Sensordaten auswerten. So wollen die Forscher herausfinden, wie sich die Schlafqualität auf Aktivitäten, Produktivität und Gesundheit auswirkt. weiter

Hortonworks verkürzt Hadoop-Releasezyklus

Dies bezieht sich auf Dienste wie Spark, Hive, HBase oder Ambari, die Teil häufigerer Updates sein sollen. Kernkomponenten von Apache Hadoop will Hortonworks im Rahmen der Open Data Platform Initiative jährlich aktualisieren. Zudem hat es sich zur Verbesserung von Apache Spark mit HPE zusammengetan. weiter

Yahoo macht KI-Engine quelloffen

CaffeOnSpark kombiniert das Deep-Learning-Framework Caffe der Universität Berkeley mit Apache Spark. Yahoo setzt es selbst für automatisches Tagging von Bildern auf Flickr ein. Sein großer Vorteil: Es können vorhandene Spark-Custer genutzt werden. weiter

Google macht Experten für Künstliche Intelligenz zum Chef seiner Suche

Amit Singhal scheidet Ende Februar aus. Nachfolger John Giannandrea zählte zu den Gründern von Metaweb, dessen Datenbank Googles Knowledge Graph für semantische Suche ermöglichte. Zuletzt leitete er die Entwicklung von RankBrain, das komplexe Suchanfragen mittels eines neuronalen Netzes bewertet. weiter