Facebook- und Instagram-Algorithmen prägten, welche Inhalte die US-Amerikaner*innen bei der Wahl 2020 sahen, beeinflussten aber nicht deren politische Einstellungen

Bild eines Mannes im Anzug, der etwas in sein Smartphone tippt

Wissenschafter*innen erarbeiteten ein Studiendesign, das auch für künftige Forschung in dem Bereich eine verlässliche Grundlage bildet

Ein internationales Team aus Universitätswissenschafter*innen und Meta-Forscher*innen, darunter Drew Dimmery vom Forschungsverbund Data Science der Universität Wien, untersuchte die Art und Weise, wie Algorithmen auf Facebook und Instagram das Verhalten und die Einstellungen der US-Amerikaner*innen in den drei Monaten rund um die US-Wahl 2020 beeinflussten. Die Ergebnisse wurden aktuell in einem Bündel von peer-reviewten Studien in den renommierten Fachzeitschriften Science und Nature veröffentlicht. Die Wissenschafter*innen konnten zeigen, dass die Algorithmen von Facebook und Instagram die Inhalte, die die US-Amerikaner*innen in der Zeit der US-Wahl 2020 sahen, einschließlich Medienbeiträgen zu politischen Themen und Inhalte aus nicht vertrauenswürdigen Quellen, eindeutig beeinflussten. Die für Studienzwecke veränderten Algorithmen änderten jedoch nichts an der politischen Einstellung und dem Verhalten der Nutzer*innen außerhalb der Plattformen. 

Diese neuen Erkenntnisse sind Teil des bisher umfassendsten Forschungsprojekts, das die Rolle sozialer Medien in der US-amerikanischen Demokratie untersucht. Die Wissenschafter*innen erarbeiteten sich in den insgesamt drei Studien eine grundlegend neue Herangehensweise, die es ermöglichte, zuverlässige Ergebnisse zu erzielen. Das wissenschaftliche Team bestimmte dabei spezifische Forschungsfragen und Studiendesigns, wobei ausdrücklich vereinbart wurde, dass Meta (Eigentümer von Facebook und Instagram) solche Designs nur aus rechtlichen, datenschutzrechtlichen oder logistischen Gründen (d. h. aus Gründen der Undurchführbarkeit) ablehnen konnte. Meta konnte die Ergebnisse also nicht einschränken oder zensieren. Außerdem hatten die akademischen Hauptautor*innen das letzte Wort bei Schreib- und Forschungsentscheidungen. Die Studie begann im Jahr 2020.

Mit diesem beispiellosen Ansatz der Zusammenarbeit zwischen Unternehmen und Wissenschaft kam das internationale Team zu den folgenden zentralen Erkenntnissen:

  • Algorithmen haben einen großen Einfluss darauf, was die Menschen in ihrem Social Media Newsfeed sehen und wie sie ihre Erfahrungen auf der Plattform gestalten.
  • Drei Experimente, die während der Wahlperiode 2020 durchgeführt wurden, deuten darauf hin, dass, obwohl verschiedene Änderungen im Algorithmus  das, was die Menschen sahen, und ihre Aktivität auf den Plattformen erheblich veränderten, keine nennenswerten Auswirkungen auf ihre Einstellungen oder ihr Verhalten außerhalb der Plattformen beobachtet wurde.

Drew Dimmery vom Forschungsverbund Data Science der Universität Wien war Teil des Meta-Teams, das untersuchte, wie sich die Auswirkungen der Änderungen im Algorithmus von Person zu Person unterscheiden. "Diese individuellen Unterschiede sind ein entscheidender Aspekt in der gesammelten Betrachtung der Auswirkungen von Änderungen im Algorithmus von Facebook und Instagram und spiegeln die Hauptergebnisse der Studien wider: Während es eine gewisse Heterogenität in der Art und Weise gibt, wie sich durch den veränderten Algorithmus das Verhalten auf der Plattform ändert, ist dies bei den Auswirkungen auf politische Einstellungen und dem Verhalten außerhalb der Plattform nicht der Fall", erklärt Dimmery.

Diese Studien konzentrieren sich zwar auf die Auswirkungen sozialer Medien im US-Wahlkampf 2020, sind aber auch für andere Länder von Bedeutung. "Über die unmittelbaren Ergebnisse der Studien hinaus liefert die Zusammenarbeit als Ganzes ein wissenschaftliches Beispiel dafür, wie man in künftigen Untersuchungen an die Frage, wie sich die Technologie auf die Gesellschaft auswirkt, herangehen kann", sagt Dimmery. Diese Art der engen Zusammenarbeit zwischen internen Forscher*innen großer Plattformen und externen Expert*innen, die das letzte Wort bei Forschungs- und Schreibentscheidungen haben, ist der Schlüssel zur Beantwortung gesellschaftlich wichtiger Fragen darüber, wie bestimmte Teile der Plattform das Verhalten beeinflussen können. "Mit dem Inkrafttreten des Digital Service Act der EU muss unbedingt sichergestellt werden, dass die Regulierung nach gründlichen, wissenschaftlichen Prinzipien geleitet wird", leitet Dimmery aus der aktuellen Forschung ab. 

Unterschiedliche Änderungen des Algorithmus und ihre Auswirkungen

In den drei Experimenten wurden jeweils die Auswirkungen verschiedener Änderungen des Algorithmus untersucht. Eine davon war die Entfernung weiter geteilter Inhalte, sogenannter Resahres, (ein Post einer Seite/Person, der von einer anderen Seite/Person weiter geteilt wird und deshalb im Newsfeed landet) auf Facebook aus dem Newsfeed. Dadurch verringerte sich die Menge an Inhalten aus nicht vertrauenswürdigen Quellen und Medienbeiträgen zu politischen Themen, die die Nutzer*innen in ihren Feeds sahen, erheblich. Auch die Gesamtanzahl der Klicks und Reaktionen und die Anzahl der Klicks auf Beiträge aus parteiischen Nachrichtenquellen ging durch den veränderten Algorithmus zurück. Das Entfernen von weiter geteilten Inhalten auf Facebook führte schließlich zu einer Verringerung des Nachrichtenwissens, hatte aber keinen signifikanten Einfluss auf die politische Polarisierung oder politische Einstellungen auf individueller Ebene.

Ein weiteres Experiment untersuchte die unterschiedliche Wirkung von chronologischen und personalisierten Social Media Feeds. Der chronologisch geordnete Feed verringerte die Zeit, die Nutzer*innen auf Instagram und Facebook verbrachten. Außerdem erhöhte der chronologische Feed die Inhalte von Freund*innen mit nicht-extremen Ansichten, und Quellen mit ideologisch gemischtem Publikum auf Facebook. Gleichzeitig hatte aber auch die Gesamtmenge an politischen, nicht vertrauenswürdigen und unhöflichen Inhalten zugenommen. Trotz dieser beträchtlichen Veränderungen in der Erfahrung der Nutzer*innen auf der Plattform veränderte der chronologische Feed das Niveau der Themenpolarisierung, des politischen Wissens oder politischer Einstellungen während des dreimonatigen Studienzeitraums nicht wesentlich.

Eine dritte Studie untersuchte die Auswirkungen der Depriorisierung von Inhalten aus gleichgesinnten Quellen im Newsfeed auf Facebook. Die Forscher*innen fanden heraus, dass eine Depriorisierung gleichgesinnter Inhalte keine messbaren Auswirkungen auf Einstellungsmaße wie affektive Polarisierung, ideologische Extremität, Kandidatenbewertungen und den Glauben an falsche Behauptungen während der US-Präsidentschaftswahlen 2020 hatte.

"Sozialwissenschafter*innen haben die Auswirkungen sozialer Medien auf die US-Demokratie bisher nur begrenzt untersucht", so Talia Jomini Stroud und Joshua A. Tucker, die wissenschaftlichen Leiter*innen der Studien. "Wir wissen jetzt, wie einflussreich der Algorithmus ist, aber wir wissen auch, dass eine Änderung des Algorithmus, und sei es auch nur für ein paar Monate, die politischen Einstellungen der Menschen wahrscheinlich nicht verändern wird. Was wir nicht wissen, ist warum. Es könnte daran liegen, dass der Zeitraum, in dem die Algorithmen geändert wurden, nicht lang genug war, oder dass es diese Plattformen schon seit Jahrzehnten gibt, oder dass Facebook und Instagram zwar einflussreiche Informationsquellen sind, aber nicht die einzigen Quellen, die Menschen verwenden."

Hintergründe zu den Forschungsteams

Wissenschafter*innen von der Dartmouth University, der Northeastern University, der Princeton University, der Stanford University, der Syracuse University, der University of California, Davis, der University of Pennsylvania, der University of Virginia und der William & Mary University sind die führenden Autor*innen dieser ersten Studien. Die leitenden Forscher*innen des Meta-Teams waren Pablo Barberá für alle vier Studien und Meiqing Zhang für die Studie über ideologische Segregation. Die Meta-Projektleiter*innen sind Annie Franco, Chad Kiewiet de Jonge und Winter Mason.

Originalpublikationen: 

  • Andrew Guess, Neil Malhotra, Jennifer Pan, Pablo Barberá, Hunt Allcott, Taylor Brown, Adriana Crespo-Tenorio, Drew Dimmery, Deen Freelon, Matthew Gentzkow, Sandra González-Bailón, Edward Kennedy, Young Mie Kim, David Lazer, Devra Moehler, Brendan Nyhan, Carlos Velasco Rivera, Jaime Settle, Daniel Thomas, Emily Thorson, Rebekah Tromble, Arjun Wilkins, Magdalena Wojcieszak, Beixian Xiong, Chad Kiewiet de Jonge, Annie Franco, Winter Mason, Natalie Jomini Stroud, and Joshua A. Tucker. "How do social media feed algorithms affect attitudes and behavior in an election campaign?" In press, Science. DOI: 10.1126/science.abp9364
  • Andrew Guess, Neil Malhotra, Jennifer Pan, Pablo Barberá, Hunt Allcott, Taylor Brown, Adriana Crespo-Tenorio, Drew Dimmery, Deen Freelon, Matthew Gentzkow, Sandra González-Bailón, Edward Kennedy, Young Mie Kim, David Lazer, Devra Moehler, Brendan Nyhan, Carlos Velasco Rivera, Jaime Settle, Daniel Thomas, Emily Thorson, Rebekah Tromble, Arjun Wilkins, Magdalena Wojcieszak, Beixian Xiong, Chad Kiewiet de Jonge, Annie Franco, Winter Mason, Natalie Jomini Stroud, and Joshua A. Tucker. "Reshares on social media amplify political news but do not detectably affect beliefs or opinions." In press, Science.
    DOI: 10.1126/science.add8424

  • Nyhan, Brendan, Jaime Settle, Emily Thorson, Magdalena Wojcieszak, Pablo Barberá, Annie Y. Chen, Hunt Allcott, Taylor Brown, Adriana Crespo-Tenorio, Drew Dimmery, Deen Freelon, Matthew Gentzkow, Sandra González-Bailón, Andrew Guess, Edward Kennedy, Young Mie Kim, David Lazer, Neil Malhotra, Devra Moehler, Jennifer Pan, Carlos Velasco Rivera, Daniel Robert Thomas, Rebekah Tromble, Arjun Wilkins, Beixian Xiong, Chad Kiewiet de Jonge, Annie Franco, Winter Mason, Natalie Jomini Stroud, and Joshua A. Tucker. "Like-minded sources on Facebook are prevalent but not polarizing." In press, Nature. DOI: 10.1038/s41586-023-06297-w

Wissenschaftlicher Kontakt

Drew Dimmery, BA Ph.D.

Forschungsverbund Data Science
Universität Wien
1090 - Wien, Kolingasse 14-16
+43-6767309349
drew.dimmery@univie.ac.at

Rückfragehinweis

Theresa Bittermann

Media Relations, Universität Wien
1010 - Wien, Universitätsring 1
+43-1-4277-17541
theresa.bittermann@univie.ac.at