Das Facebookexperiment

Facebook benutzt Deinen Newsstream um Deine Gedanken zu manipulieren und Dich aggressiv zu machen. Und es funktioniert, bei mir jedenfalls: das macht mich aggressiv. Lasst den Aluhut im Schrank: ist alles wahr.

Facebook hat die Nutzerfeeds für ein größeres psychologisches Experiment manipuliert. Das geht aus dem Bericht hervor, den Wissenschaftler bei Facebook, in einem wissenschaftlichen Magazin veröffentlicht haben. Facebook hat dies auch schon bestätigt.

Der Ablauf des Experiments war denkbar einfach: der Feed von circa 600.000 Usern wurde so manipuliert, dass dort entweder mehr negative oder mehr positive Beiträge dem Nutzer gezeigt wurden. Die Qualifizierung, ob ein Post eher negativ oder eher positiv ist, übernahm dabei eine Software. Danach wurde überprüft, ob der betroffene Nutzer jeweils selber eher negative, oder eher positive Posts verfasste.

It shows how Facebook data scientists tweaked the algorithm that determines which posts appear on users’ news feeds—specifically, researchers skewed the number of positive or negative terms seen by randomly selected users. Facebook then analyzed the future postings of those users over the course of a week to see if people responded with increased positivity or negativity of their own, thus answering the question of whether emotional states can be transmitted across a social network. Result: They can!

Überraschung: wir sind natürlich alle total manipulierbar und posten, was uns unsere Timeline so vorgibt. Das lässt ja wieder mal tief blicken, und zwar gleich in mehrere Richtungen. Zunächst mal muss man sagen: Danke Facebook, für diese unglaubliche Offenheit, oder war Borniertheit das richtige Wort, derlei Experimente durchzuführen und (was für ein Glück) hinterher auch noch darüber zu berichten. Oder das so etwas im Rahmen der großartigen Privatsphäreregelungen von Facebook möglich ist, darauf ein lautes Hurra! Andererseits, hey!, das demonstriert ja wieder mal, wie intelligent wir Menschen wirklich nicht sind, und stellt nachträglich so manchen Shitstorm in ein anderes Licht.

Darauf wäre ich, man denkt ja dank NSA immer nur an Überwachung, ehrlich gesagt auch gar nicht gekommen: Gedankenmanipulation der Massen.  Das klingt ja doch eher wie Dr. Mabuse. Aber ein prima Feature, das Facebook da in Zukunft hat und sicherlich gewinnbringend bei Wahlen, in der Werbung und ähnlichen Dingen einsetzen kann. Die Zukunft beginnt genau hier…

Ich bin auch gar nicht überrascht. Nein, das ist Facebook, ich habe es geradezu erwartet. Und wer weiss, was da auf Twitter schon läuft. Uns erwartet jedenfalls eine wirklich rosige Zukunft. Oder eine sehr böse Zukunft. Je nachdem, was man uns fühlen lassen wird. Sie liegt wirklich in der Luft, die Weltherrschaft… Aber glücklicherweise gibt es ja eine leichte Lösung, wir brauchen ja nur auszutreten aus Facebook, uns abmelden, aussteigen… um Himmels willen, warum bekomme ich denn jetzt solche Kopfschmerzen?!

11 Gedanken zu „Das Facebookexperiment“

  1. Das kann man deaktivieren. Du musst bei Facebook nur unter „Einstellungen -> Sonstiges -> Weiteres -> Gehen Sie weiter -> Es gibt hier nichts zu sehen -> Absurde Behaviorismusexperimente“ das Häkchen wegmachen.

  2. @Tim: Hahahaaa … DAS ist lustig!

    @Nico: Zur der eigentlichen Tatsache sag ich mal gar nichts. Da haste latürnich völlig Recht. Das darf niemanden überraschen. Was mich hingegen überrascht ist die Grundposition gegenüber dem, was Facebook eigentlich macht, die im Ausdruck „Manipulation der Nutzerfeeds“ mitschwingt. Wenn ich mich nicht irre, ist der Algorythmus, der bestimmt, was in Deinem Feed auftaucht und was nicht eh ein komplexes und intransparentes Stück Software. Und das muss es auch sein, den wenn ich mich nicht schon wieder irre, ist der ja das Kernstück von Facebook und wie sollte etwas so wichtiges etwas ganz einfaches sein? Nein, der enthält ganz sicher jede Menge redaktioneller Entscheidungen, die filtern und priorisieren. Und obendrein dürfte er Gegenstand steter Optimierung durch Facebook sein, einschl. AB-Tests und ähnlichem.

    Oder anders: Der Facebook-Feed ist nicht die Ziehung der Lottozahlen. Die Lottoahlen kann man manipulieren, weil es dort einen transparenten, für alle einleuchtenden und einsehbaren Prozess gibt, weil es dort ein Richtig und ein Falsch gibt. Der Facebook-Newsfeed ist weder ein transparenter noch ein klar definierter Prozess. Die Unterstellung, es gäbe ein „richtig“ und ein „falsch“, die beim Wort „Manipulation“ mitschwingt, trifft auf ihn schlicht nicht zu.

    DAS nicht zu wissen ist meines Erachtens der eigentliche Sündenfall in dieser Nachricht, denn es offenbart, dass die Journalisten, die diese Nachricht weitergetragen haben, eine ebenso naive Vorstellung davon haben, was Facebook ist und tut, wie die Facebook-User, die sich über die „Manipulation“ echauffieren.

    1. Äh… nein. Das Paper der sogenannten Wissenschaftler, befindet eindeutig, dass sie den Feed manipuliert hätten, hinsichtlich der Anzeigen positiver oder negativer Inhalte.

      The experiment manipulated the extent to which people (N = 689,003) were exposed to emotional expressions in their News Feed.

      Darauf bezieht sich die Nutzung in „Manipulation des Feeds“. Diese liegt IMHO vor, wenn man vom normalen Feed, der erstmal keine bestimmten Inhalte zur Gedankensteuerung enthält, bei einer bestimmten Gruppen von Nutzern, zwecks Hervorrufung eines bestimmten Verhaltens verändert wird.

      Das unterscheidet sich meiner Meinung nach noch von allgemeinen Änderungen des Feeds, um bspw. mehr nutzerrelevante Inhalte zu liefern, oder passendere Werbung auszuspielen.

      Am Ende ist es aber egal: Facebook ist eine gigantische Manipulationsmaschine. Und das ist es gar nicht so weil es Facebook ist, sondern allein schon wegen der schieren Menge an Nutzern und dem nach wie vor ungebrochenen Vertrauen, dass es bei seinen Nutzern genießt. Facebook wird langsam gefährlich.

      1. Äh … doch. Nur weil die Wissenschaftler selbst den Begriff verwenden, heißt das ja nicht, dass der Rest nicht greift. Es bleibt ja dabei, dass der Algorithmus, der den Newsfeed steuert, eine komplexe Mechanik hat die (ganz wichtig:) redaktionelle Grundlagen hat und bestimmte Ziele verfolgt. Die einzige Geschichte, die sich in der Nachricht findet, ist, dass Facebook statt seinem eigenen Team mal ein paar Externe (Wissenschaftler) hat daran rumschrauben lassen.

        „Manipulieren“ oder „Optimieren“ sind da nur Nebelgranaten-Verben, die ein Art „Neutralität“ (früher hätte man das wohl Gottgegebenheit) des Algorithmuses implizieren sollen.

      2. Achso, und … ja … Facebook wird in der Tat langsam gefährlich. so gefährlich wie die BILD-Zeitung, Fox-News, die Post und die Telekom schon lange sind. Zeit, Facebook die gleichen Fesseln anzulegen.

        1. Wäre jetzt irgendwie nicht mein Ansatz, irgendetwas regulieren zu wollen, oder danach zu rufen. Wird ja wohl noch jeder selbst den Weg raus aus Fuckbook finden. Kauft ja auch keiner die Bildzeitung.

          1. Du nicht. Aber ich. Und eben weil die Leute ja doch die Bild kaufen, haben wir ja einen Presserat und andere Werkzeuge, um den Schaden zumindest etwas in Grenzen halten zu können.

            Das ist doch das Wesen der Demokratie: Wir überlegen uns Regel, nach denen wir zusammenleben wollen und setzen dann Institutionen ein, die darüber wachen.

Kommentare sind geschlossen.