Meta-CEO Mark Zuckerberg verkündete die Rückkehr zu den "Wurzeln der freien Meinungsäußerung" und beendete die Zusammenarbeit mit externen Faktenprüfern in den USA. Diese Kehrtwende wird jedoch kritisiert, da Meta gleichzeitig Links zu dezentralen Plattformen wie Mastodon und Pixelfed blockiert und die Entscheidung weltweit Unsicherheit über die Zukunft der Faktenprüfung und den Kampf gegen Desinformation auslöst. Zuckerbergs Begründung, wonach die Faktenprüfung als Zensurinstrument missbraucht wurde, wird zudem als irreführend dargestellt.
Mark Zuckerberg, CEO von Meta, hat kürzlich eine Änderung der Unternehmenspolitik in Bezug auf freie Meinungsäußerung auf seinen Plattformen angekündigt. Laut Cointelegraph erklärte Zuckerberg am 7. Januar, Meta werde „zu seinen Wurzeln der freien Meinungsäußerung zurückkehren“, indem es die Zusammenarbeit mit externen Faktenprüfern in den USA beende und „Einschränkungen“ der Meinungsäußerung aufhebe. Diese Ankündigung erfolgte am vierten Jahrestag der zweijährigen Sperre des damaligen Präsidenten Donald Trump von Facebook und Instagram nach dem Sturm auf das Kapitol im Jahr 2021. Slate berichtet, dass Zuckerberg in einem Video die Bedeutung der freien Meinungsäußerung betonte und "Regierungen und traditionelle Medien" kritisierte, die seiner Ansicht nach aus "eindeutig politischen Gründen" auf zunehmende Zensur drängten.
Die Umsetzung dieser Ankündigung wirft jedoch Fragen auf. Cointelegraph berichtet, dass weniger als eine Woche später deutlich wurde, dass Zuckerbergs Bekenntnis zur freien Meinungsäußerung offenbar nicht für dezentrale Social-Media-Konkurrenten wie Pixelfed und Mastodon gilt. Nutzer, die versuchten, Links zu diesen Plattformen auf Facebook zu teilen, erhielten „Spam“-Benachrichtigungen und ihre Beiträge wurden entfernt. 404 Media bestätigt die aktive Entfernung von Links zu Pixelfed und Mastodon. Nutzer beschwerten sich auf Bluesky über die Löschung ihrer Beiträge, weil diese Links zu den alternativen Plattformen enthielten. Die Löschungen erfolgten nur wenige Tage nach Metas Pressemitteilung, die „mehr Meinungsfreiheit und weniger Fehler“ versprach.
Die Economic Times berichtet, dass Metas Entscheidung, sein US-amerikanisches Faktenprüfungsprogramm einzustellen, weltweit für Unruhe bei Medienorganisationen sorgt, für die das Programm eine wichtige Einnahmequelle darstellte. Metas Schritt, der mit politischer Voreingenommenheit begründet wird, lässt Bedenken hinsichtlich der Zukunft der Faktenprüfung und der Bekämpfung von Desinformation weltweit aufkommen. Kritiker befürchten eine mögliche Verbreitung unkontrollierter Falschinformationen. Die Economic Times führt weiter aus, dass die Faktenprüfung in den Vereinigten Staaten in den frühen 2000er Jahren entstand und sich zu einem eigenen Genre des Journalismus entwickelte. Die Praxis profitierte von der steigenden Internetnutzung und war die Lebensader neuer Medienunternehmen, die die Aussagen von Politikern mit der Realität verglichen.
StartupNews.fyi zitiert einen Bericht von The Verge, der Zuckerbergs Äußerungen in einem Interview mit Joe Rogan als "Lügen" bezeichnet. Der Artikel kritisiert Zuckerbergs Darstellung der Faktenprüfung und argumentiert, dass das Problem nicht die Qualität der Faktenprüfung selbst war, sondern die Tatsache, dass Konservative eher Fehlinformationen teilen und daher häufiger überprüft werden. Der Artikel hebt auch den Druck hervor, den konservative Politiker auf das Unternehmen ausgeübt haben, und argumentiert, dass dieser Druck nun Früchte getragen habe.
In einer Pressemitteilung von Meta vom 7. Januar 2025 erläutert Joel Kaplan, Chief Global Affairs Officer, die Gründe für die Änderungen. Er betont, dass Meta nicht die Schiedsrichter der Wahrheit sein wolle und das ursprüngliche Faktenprüfungsprogramm dazu gedacht war, den Nutzern mehr Informationen zu liefern, damit sie selbst entscheiden können, was sie glauben. Kaplan argumentiert, das Programm sei jedoch zu oft als Zensurinstrument missbraucht worden und Meta werde nun zu einem Community-Notes-Modell übergehen, ähnlich dem von X. In diesem Modell entscheiden Nutzer darüber, ob Beiträge potenziell irreführend sind und zusätzlichen Kontext benötigen.
Quellen: