Inmitten anhaltender Kontroversen über die potentiell schädlichen Auswirkungen auf jugendliche Nutzer:innen, gab Meta kürzlich auf dem eigenen Blog bekannt, dass in den nächsten Monaten zusätzliche Schutzmaßnahmen eingeführt werden. Meta reagiert auf die steigende öffentliche Besorgnis und regulatorischen Druck, indem der Konzern verschiedene Maßnahmen einführt, um den Jugendschutz auf Facebook und Instagram zu stärken. Zu den geplanten Maßnahmen gehören:
Verbergen von sensiblen Inhalten: Unter dem Druck der Regierung wird Meta Inhalte über Selbstmord und Essstörungen vor Jugendlichen verbergen.
Einschränkungen für jugendliche Nutzer:innen: Jugendliche können nun Inhalte über Selbstverletzung, Selbstmord und Essstörungen nicht mehr sehen, selbst wenn sie von ihren Freund:innen geteilt werden.
Automatische restriktive Einstellungen: Meta setzt alle Jugendlichen automatisch in die restriktivsten Inhaltskontrolleinstellungen auf Instagram und Facebook und schränkt zusätzliche Begriffe in der Instagram-Suche ein.
Privatsphäreaktualisierungen: Jugendliche werden mit neuen Benachrichtigungen dazu aufgefordert, ihre Privatsphäreeinstellungen auf Instagram zu aktualisieren.
Instagram CEO Adam Mosseri nutzte seine Neujahresansprache auf Instagram, um auf die neuen Maßnahmen aufmerksam zu machen.
Hintergrund der neuen Maßnahmen
Die Diskussion in den sozialen Netzwerken konzentriert sich derzeit darauf, warum Meta erst jetzt so intensive Regulierungen für die Funktionen der Plattformen für Jugendliche einführt. Matt Navarra, ein Experte im Bereich Social Media, bringt in einem LinkedIn-Beitrag eine spekulative Überlegung dazu zum Ausdruck:
Meta steht in den USA und Europa immer wieder wegen der Toxizität der eigenen Apps für Teenager und Suchtproblematiken in den Schlagzeilen. Im Jahr 2021 wurde Instagram in den sogenannten „Facebook Files“ des Wall Street Journal für die schädlichen Auswirkungen auf Jugendliche kritisiert. In dieser Untersuchung kam heraus, dass Instagram selbst um die toxische Wirkung der App auf Teenager weiß. Daraufhin kündigte die Plattform damals schon an, dass sie für junge User sicherer werden will und dass eine Reihe Sicherheits-Features für Teenager ausgerollt werden soll.
Im Jahr 2022 erweiterte Meta die Sicherheitsmaßnahmen für Nutzer:innen unter 16 Jahren auf Facebook und Instagram. Dies umfasste Hinweise zu restriktiveren Datenschutzeinstellungen sowie die standardisierte Privateinstellung des Kontos. Das Targeting für Werbeanzeigen für Personen unter 18 Jahre wurde bereits 2021 eingeschränkt und bekam im Februar 2023 weitere Regularien, wodurch Werbetreibende nur noch Alter und Standort als Kategorien zum Erreichen von Minderjährigen auswählen können.
Aktuelle Vorwürfe gegen Metas Apps
Im Oktober 2023 reichten Dutzende von US-Bundesstaaten eine Klage ein, in der behauptet wurde, dass Meta die Öffentlichkeit über die Risiken der Nutzung sozialer Medien getäuscht und zur Krise der psychischen Gesundheit von Jugendlichen beigetragen habe. Arturo Bejar, ein ehemaliger Mitarbeiter von Facebook, enthüllte während einer Anhörung im November 2023, dass die obersten Führungskräfte von Meta, darunter CEO Mark Zuckerberg, jahrelang Warnungen über die Gefahren für Jugendliche auf Plattformen wie Instagram ignoriert hätten. Insbesondere äußerte Bejar, der zuletzt als Director of Engineering bei Facebook das „Protect and Care Team“ leitete, Besorgnis über die sexuelle Belästigung von Teenagern durch Fremde auf Instagram und bezeichnete die von Instagram implementierten Tools als unzureichend, bezeichnete sie sogar als „Placebo für Presse und Regulierungsbehörden“, so seine Aussage gegenüber dem Nachrichtenmagazin BBC.
Die kommenden Monate werden zeigen, inwiefern die neuen Maßnahmen in Metas Apps tatsächlich dazu beitragen, die Sicherheit der jungen Nutzer:innen auf Facebook und Instagram zu verbessern.