Categories: ForschungInnovation

Google Nima: Bildbewertung mit Hilfe künstlicher Intelligenz

Google hat mit Nima (Neural Image Assessment) ein künstliches neuronales Netz vorgestellt, das Bilder unter subjektiven und ästhetischen Gesichtspunkten bewertet. Es handelt sich um ein Deep Convolutional Neural Network (CNN) und damit ein von biologischen Prozessen inspiriertes Konzept maschinellen Lernens. Ein Deep CNN fällt dabei außerdem in den Bereich von Deep Learning.

Schon länger ist es möglich, die technische Qualität von Bildern einzuschätzen durch die Messung von Verschlechterungen auf Pixelebene, also etwa verschwommener Wiedergabe oder durch Kompression entstandener Artefakte. Damit blieben aber Eigenschaften außen vor, die mit Gefühlen und Schönheit im Auge des Betrachters verbunden sind – wie beispielsweise bei Landschaftsbildern der Fall.

Von Nima vorhergesagter Score und durchschnittliche Bewertung menschlicher Betrachter (Bild: Google mit AVA-Beispielbildern)

Deshalb kommen auch CNNs zum Einsatz, die mit bereits von Menschen bewerteten Bildern trainiert werden. Bislang wurden diese aber nur mit niedriger oder hoher Qualität kategorisiert. Die Google-Forscher sahen das jedoch als eingeschränkte Herangehensweise und gingen dazu über, mit einer Punktzahl zwischen 1 und 10 bewertete Bilder zu verwenden. Das so trainierte Nima-Modell soll nun in der Lage sein, einem jeden vorliegenden Bild einen wahrscheinlichen Score zuzuweisen, wie ihn auch Menschen vergeben würden.

Als Grundlage dienten Bilder aus einer Datenbank für Aesthetic Visual Analysis (AVA), die im Zusammenhang mit Fotowettbewerben von durchschnittlich 200 Menschen bewertet wurden. Damit trainiert konnte Nima eine ästhetische Einstufung der Bilder vornehmen, die dicht an die von kundigen menschlichen Betrachtern vergebene Punktzahl herankam.

Mit Hilfe von Nima optimierte Fotos und die vergebenen Scores (Bild: Google mit Testfotos von MIT-Adobe FiveK)

Laut Google erzielte Nima auch mit anderen Bildersammlungen vergleichbare Ergebnisse. Die Scores für technische und ästhetische Bildqualität ließen sich nun anwenden, um Bilder in wahrnehmbarer Weise zu verbessern. Das Modell sei so in der Lage, einen Deep-CNN-Filter zu bestimmen, der in ästhetischer Hinsicht fast optimale Einstellungen von Parametern wie Helligkeit, Glanzlichtern und Schatten erlaubt.

Die Google-Forscher hoffen auf eine breite Palette nützlicher Funktionen, die sich daraus ergeben könnten. „Wir könnten Nutzer beispielsweise in die Lage versetzen, auf einfache Weise die besten Bilder unter vielen zu finden“, schreiben sie in einem Blogeintrag. „Oder sogar verbesserte Aufnahmen ermöglichen, zu denen die Nutzer Feedback in Echtzeit erhalten. Bei der Nachbearbeitung könnten diese Modelle zur Bestimmung von Optimierungsparametern dienen, die zu wahrnehmbar besseren Ergebnissen führen.“

ZDNet.de Redaktion

Recent Posts

Alphabet übertrifft die Erwartungen im ersten Quartal

Der Umsatz steigt um 15 Prozent, der Nettogewinn um 57 Prozent. Im nachbörslichen Handel kassiert…

20 Stunden ago

Microsoft steigert Umsatz und Gewinn im dritten Fiskalquartal

Aus 61,9 Milliarden Dollar generiert das Unternehmen einen Nettoprofit von 21,9 Milliarden Dollar. Das größte…

21 Stunden ago

Digitalisierung! Aber wie?

Mehr Digitalisierung wird von den Unternehmen gefordert. Für KMU ist die Umsetzung jedoch nicht trivial,…

21 Stunden ago

Meta meldet Gewinnsprung im ersten Quartal

Der Nettoprofi wächst um 117 Prozent. Auch beim Umsatz erzielt die Facebook-Mutter ein deutliches Plus.…

2 Tagen ago

Maximieren Sie Kundenzufriedenheit mit strategischem, kundenorientiertem Marketing

Vom Standpunkt eines Verbrauchers aus betrachtet, stellt sich die Frage: Wie relevant und persönlich sind…

2 Tagen ago

Chatbot-Dienst checkt Nachrichteninhalte aus WhatsApp-Quellen

Scamio analysiert und bewertet die Gefahren und gibt Anwendern Ratschläge für den Umgang mit einer…

2 Tagen ago