Technik

Vier Suchanfragen rehabilitieren Metas Algorithmen: Sie haben keinen Einfluss auf unsere politischen Überzeugungen

Quattro ricerche riabilitano gli algoritmi di Meta: non influenzano le nostre convinzioni politiche thumbnail

Von Zeit zu Zeit taucht ein Verein, eine Recherche oder eine journalistische Meldung auf, die darauf hinweist, dass dieses oder jenes soziale Netzwerk für einen bestimmten Teil der Bevölkerung (in der Regel junge und sehr junge Menschen) schädlich ist. Ungeachtet der Tatsache, dass keine soziale Plattform gut oder schlecht ist, bergen sie alle enorme Möglichkeiten und gleichermaßen große Risiken. Es hängt davon ab, wie Sie es verwenden.

Und die Nutzung hängt wiederum davon ab, wie kompetent man im Umgang mit sozialen Netzwerken ist. Kennen Eltern beispielsweise wirklich alle geltenden Filter und Einschränkungen? Und haben sie wirklich mit ihren Kindern gesprochen und gemeinsam mit Solo entschieden, welcher Zugang – qualitativ und quantitativ – zum Netz und zu sozialen Netzwerken passt?

Diese Prämisse, das zu sagen Das Problem der sozialen Medien und wie sehr sie unsere Existenz beeinflussen können, ist komplex, aber die Lösung der Angelegenheit durch die Dämonisierung der sozialen Medien selbst ist simpel (abgesehen davon, dass sie geschickt selbstabsolutierend ist).

Wie beeinflussen beispielsweise soziale Netzwerke, oder genauer gesagt die Meta-Algorithmen, unsere politischen Überzeugungen (falls vorhanden)?

Meta

Die vier Durchsuchungen

Untersuchungen zu Metas sozialen Algorithmen im Hinblick auf politische Überzeugungen wurden am Donnerstag, 27. Juli, auf den renommierten Websites Science und Nature veröffentlicht.

Die Titel lauten jeweils: Wie wirken sich Social-Media-Feed-Algorithmen auf Einstellungen und Verhalten im Wahlkampf aus? Wie beeinflussen Social-Media-Feed-Algorithmen Einstellungen und Verhalten im Wahlkampf? ​​Gleichgesinnte Quellen auf Facebook sind weit verbreitet, aber nicht polarisierend, nicht polarisierend.)

An der Recherche war ein einziges Team von 17 Personen beteiligt, und Meta trug auch zu ihrer Erstellung bei. Wer aber über die Unabhängigkeit der Berichte die Nase rümpft, dem sei hinzugefügt, dass sich Zuckerbergs Unternehmen auf die Bereitstellung der Daten beschränkt, aber keine der Studien finanziert hat.

Die im Jahr 2020 im Hinblick auf die amerikanischen Wahlen durchgeführt wurden. Aber sie wurden erst jetzt veröffentlicht, im Hinblick auf die Wahlen im nächsten Jahr und um die Befürchtungen derjenigen zu zerstreuen, die befürchten, dass Metas Algorithmen den Ausgang der Wahlen präzise bestimmen könnten.

Metas Social-Feed-Algorithmen

Die in Science veröffentlichte Studie analysierte Daten von 208 Millionen Nutzern über einen Zeitraum von drei Monaten.

Wir untersuchten die Auswirkungen von Facebook- und Instagram-Feed-Algorithmen während der US-Wahlen 2020. Einer Stichprobe einwilligender Benutzer wurden Feeds in umgekehrter chronologischer Reihenfolge zugewiesen, anstatt auf den Standardalgorithmen zu basieren.

Das auffälligste Ergebnis ist, dass insbesondere Konservative dazu neigen, als Desinformation gekennzeichnete Newsfeeds zu lesen. Allerdings stellen wir in der Forschung fest, „Der Verlaufs-Feed hat das Bias-Niveau nicht wesentlich verändert.“

Die anderen beiden Studien

Zwei weitere der vier Studien zeigen, dass die Algorithmen von Meta die politischen Überzeugungen der Nutzer nicht verändert haben.

Das erste der beiden (veröffentlicht in Nature) stammt aus einem Experiment, das mit 23.377 Facebook- und Instagram-Nutzern durchgeführt wurde: Der Inhalt von Seiten und Nutzern, die ähnliche Ideen wie die untersuchte Stichprobe äußerten, wurde um ein Drittel reduziert. Und an den politischen Tendenzen hat sich jedenfalls nichts geändert.

Eine andere Studie zeigt uns, was passiert ist, als die Möglichkeit zur Verwendung der Schaltfläche zum Teilen von Inhalten entfernt wurde. Die Deaktivierung dieser Funktion hat die Verbreitung von Fehlinformationsbeiträgen sicherlich verringert. An den politischen Ansichten der Beteiligten hat sich dadurch jedoch nichts geändert.

Metaalgorithmen und politische Meinungen

Die letzte der vier Studien untersucht speziell die Meta-Algorithmen hinter den vorgeschlagenen Beiträgen.

Hier wird die Hypothese widerlegt, dass Beiträge, die ähnliche Ideen wie die eigenen zeigen, Blasen erzeugen und den Zugang zu einer Vielzahl von Informationen verhindern würden. Stattdessen zeigt die Untersuchung keine wesentlichen Unterschiede zwischen den vom Algorithmus vorgeschlagenen Beiträgen und denen, die in chronologischer Reihenfolge erscheinen.

Kommentare

David Lazer, Professor an der Northeastern University, der an den vier Untersuchungen beteiligt war, sagte: „Die Algorithmen machen es den Benutzern nur einfacher, das zu tun, wozu sie bereits geneigt sind.“

Auch Nick Clegg, Präsident für Global Affairs bei Meta, äußerte sich zu den Studien. Clegg sagte: „Es gibt keine Beweise dafür, dass Metas Hauptmerkmale allein eine gefährliche Polarisierung verursachen oder den politischen Glauben erheblich beeinflussen.“

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert