Depuis au moins 2019, Meta a sciemment refusé de fermer la majorité des comptes appartenant à des enfants de moins de 13 ans tout en collectant leurs informations personnelles sans le consentement de leurs parents, un document judiciaire récemment dévoilé dans le cadre d’un procès fédéral en cours contre le géant des médias sociaux. allègue.
Les procureurs généraux de 33 États ont accusé Meta d’avoir reçu plus d’un million de rapports d’utilisateurs de moins de 13 ans sur Instagram de la part de parents, d’amis et de membres de la communauté en ligne entre début 2019 et mi-2023. Cependant, « Meta n’a désactivé qu’une fraction de ces comptes », indique la plainte.
La plainte fédérale demande des ordonnances du tribunal interdisant à Meta les pratiques qui, selon les procureurs généraux, violent la loi. Les sanctions civiles pourraient s’élever à des centaines de millions de dollars, car Meta hébergerait des millions d’utilisateurs adolescents et enfants. La plupart des États demandent des amendes comprises entre 1 000 et 50 000 dollars par infraction.
Violations de la vie privée
Selon le procès de 54 chefs d’accusation, Meta a violé une série de lois nationales sur la protection des consommateurs ainsi que la règle de protection de la vie privée en ligne des enfants (COPPA), qui interdit aux entreprises de collecter les informations personnelles des enfants de moins de 13 ans sans le consentement d’un parent. Meta n’aurait pas respecté la COPPA en ce qui concerne Facebook et Instagram, même si « les propres dossiers de Meta révèlent que l’audience d’Instagram comprend des millions d’enfants de moins de 13 ans » et que « des centaines de milliers d’utilisateurs adolescents dépensent plus de cinq ans ». heures par jour sur Instagram », indique le document judiciaire.
Un concepteur de produits Meta a écrit dans un e-mail interne que « les jeunes sont les meilleurs », ajoutant que « vous voulez amener les gens à votre service jeunes et tôt », selon le procès.
« Les conditions d’utilisation d’Instagram interdisent les utilisateurs de moins de 13 ans (ou plus dans certains pays) et nous avons mis en place des mesures pour supprimer ces comptes lorsque nous les identifions. Cependant, vérifier l’âge des personnes en ligne est un défi complexe pour l’industrie », a déclaré Meta à CNN dimanche dans un communiqué. « De nombreuses personnes, notamment celles de moins de 13 ans, n’ont pas de pièce d’identité, par exemple. C’est pourquoi Meta soutient la législation fédérale qui oblige les magasins d’applications à obtenir l’approbation des parents chaque fois que leurs adolescents de moins de 16 ans téléchargent des applications. Avec cette approche, les parents et les adolescents n’auront plus besoin de fournir à des centaines d’applications individuelles des informations sensibles telles que des pièces d’identité gouvernementales afin de vérifier leur âge.
Contenu mentalement préjudiciable
La plainte non scellée allègue également que Meta savait que son algorithme pouvait orienter les enfants vers des contenus préjudiciables, nuisant ainsi à leur bien-être. Selon des communications internes de l’entreprise citées dans le document, les employés ont écrit qu’ils étaient préoccupés par « le contenu sur IG déclenchant des émotions négatives chez les préadolescents et ayant un impact sur leur bien-être mental (et) nos algorithmes de classement les entraînant dans des spirales négatives et des boucles de rétroaction qui sont difficiles à quitter. »
Par exemple, les chercheurs de Meta ont mené une étude en juillet 2021 qui a conclu que l’algorithme d’Instagram pourrait amplifier les comparaisons sociales négatives et « le contenu ayant tendance à amener les utilisateurs à se sentir moins bien dans leur corps ou leur apparence », selon la plainte. Dans des e-mails internes de février 2021 cités dans le procès, les employés de Meta auraient reconnu que la comparaison sociale était « associée à plus de temps passé » sur les plateformes de médias sociaux de Meta et auraient expliqué comment ce phénomène est « précieux pour le modèle commercial d’Instagram tout en nuisant simultanément aux adolescentes ». .»
Dans le cadre d’une enquête interne menée en mars 2021 sur le contenu relatif aux troubles de l’alimentation, l’équipe de Meta a suivi les utilisateurs dont les noms de comptes faisaient référence à la famine, à la maigreur et aux troubles de l’alimentation. L’algorithme d’Instagram a alors commencé à générer une liste de comptes recommandés « qui incluaient des comptes liés à l’anorexie », indique le procès.
Cependant, Antigone Davis, responsable mondiale de la sécurité de Meta, a déclaré devant le Congrès en septembre 2021 que Meta ne « dirige pas les gens vers des contenus faisant la promotion des troubles de l’alimentation ». Cela viole en fait nos politiques et nous supprimons ce contenu lorsque nous en avons connaissance. Nous utilisons en fait l’IA pour trouver du contenu comme celui-là et le supprimer.
“Nous voulons que les adolescents vivent des expériences en ligne sûres et adaptées à leur âge, et nous disposons de plus de 30 outils pour les soutenir, eux et leurs parents”, a déclaré Meta à CNN dans un communiqué. « Nous avons passé une décennie à travailler sur ces questions et à embaucher des personnes qui ont consacré leur carrière à assurer la sécurité et le soutien des jeunes en ligne. La plainte dénature notre travail en utilisant des citations sélectives et des documents triés sur le volet.
La haute direction d’Instagram savait également que le contenu problématique était un problème critique pour la plateforme, indique le procès. Adam Mosseri, le patron d’Instagram, aurait écrit dans un e-mail interne que « la comparaison sociale est à Instagram [ce que] l’ingérence électorale est à Facebook ». Le procès ne précise pas quand cet e-mail a été envoyé.
CNN a contacté Meta concernant Davis et Mosse