Facebook hat für ein Forschungsprojekt den News Feed von 689.003 seiner Nutzer manipuliert. Das geht aus einem Bericht in der Fachzeitschrift Proceedings of the National Academy of Science hervor, die von der Akademie der Wissenschaften der Vereinigten Staaten herausgegeben wird. Ziel war es herauszufinden, wie sich positive und negative Ereignisse über Soziale Netzwerke verbreiten und auf die Stimmung der Nutzer auswirken.
Den Forschern zufolge werden „persönliche Kontakte und nonverbale Hinweise nicht zwingend benötigt, um Emotionen auszulösen“. Um ihre Hypothese zu belegen, haben sie laut The Verge fast 690.000 englischsprachige Facebook-Nutzer in zwei Gruppen unterteilt. Einige erhielten über einen bestimmten Zeitraum nur Nachrichten im News-Feed, die positive Gefühle auslösen sollen, bei den anderen waren es nur Einträge mit negativen Inhalten.
„Wenn eine Person ihren News Feed geladen hat, lag die Wahrscheinlichkeit, dass ein Eintrag mit einem emotionalen Inhalt ausgelassen wurde, bei 10 bis 90 Prozent“, zitiert The Verge aus dem Forschungsbericht. Die Nachrichten, die durch das Forschungsprojekt den betroffenen Nutzern vorenthalten wurden, seien jedoch weiterhin in der Timeline des jeweiligen Freundes oder nach dem erneuten Laden des News Feed sichtbar gewesen. Die Forscher hätten zudem nach eigenen Angaben keine zwischen Nutzern verschickten Direktnachrichten verändert.
Darüber hinaus betonten die Forscher, dass diese Art der Manipulation durch Facebooks Nutzungsbedingungen gedeckt sei. Bei der Anmeldung bei Facebook bestätigten Nutzer, dass ihre Daten auch für Forschungszwecke benutzt werden dürfen. „Auch wenn nichts über die Veränderung von Dingen wie dem News Feed in den Richtlinien steht, ist es unwahrscheinlich, dass Facebook für die Durchführung des Experiments gegen seine Nutzungsbedingungen verstoßen hat“, kommentiert The Verge.
Einem Bericht von The Atlantic zufolge waren nicht alle an der Studie beteiligten Wissenschaftler von deren Rechtmäßigkeit überzeugt. „Ich war beunruhigt, bis ich mit den Autoren gesprochen habe und sie mir sagten, ihre Ethikkommission habe die Studie genehmigt, weil Facebook den News Feed seiner Nutzer ständig manipuliere“, zitiert die Zeitung Susan Fiske, Psychologieprofessorin an der Princeton University. „Ich verstehe, warum die Menschen beunruhigt sind.“
„Der Grund, warum wir die Studie durchgeführt haben, ist, dass wir die emotionalen Auswirkungen von Facebook und die Menschen, die unser Produkt nutzen, wichtig nehmen“, heißt es in einer Stellungnahme von Adam Kramer, Mitglied von Facebooks Data Science Team und Co-Autor der Studie. „Unsere Ziele haben wir in der Studie nicht deutlich angegeben.“ Facebook habe befürchtet, Nutzer könnten sich schlecht und alleingelassen fühlen, wenn sie positive Nachrichten von Freunden lesen, oder Facebook nicht mehr besuchen, wenn ihre Freunde zu „negativ“ seien, ergänzte Kramer.
[mit Material von Chris Matyszczyk, News.com]
Tipp: Sind Sie ein Facebook-Experte? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Apple baut seinen Vorsprung vor Samsung aus. Auch in diesem Jahr sollen die Verkaufszahlen ansteigen.
Check Point Research wechseln Cyber-Kriminelle verstärkt von ChatGPT zu DeepSeek und Qwen.
Künstliche Intelligenz steigert auch die Produktivität von Cyberkriminellen. Malwarebytes erwartet, dass sich des Wettrüsten zwischen…
Die mutmaßlich koreanischen Hacker suchen unter anderem Softwareentwickler. Ein von ihnen bereitgestelltes Repository enthält Schadsoftware.
Patches sind in der finalen Version von Chrome 133 enthalten. Angreifer können unter Umständen aus…
Sie erlauben unter Umständen eine Remotecodeausführung. Betroffen sind Firefox 134 und Firefox ESR 128.6 für…