Ne manquez pas l'actualité de l'industrie du marketing de demain

Publié: 2024-02-02

« Sociable » est le dernier commentaire sur les développements et tendances importants des médias sociaux par l'expert du secteur Andrew Hutchinson de Social Media Today.

Les PDG de Snap, Meta, X et TikTok ont ​​​​tous comparu hier devant la commission judiciaire du Sénat américain pour discuter de leurs efforts respectifs pour lutter contre le contenu d'exploitation des enfants dans leurs applications. Ils ont également répondu aux questions concernant le développement continu de nouvelles initiatives visant à mieux protéger les jeunes utilisateurs et quelques sénateurs n'ont pas hésité à critiquer les plateformes.

L'audience, « Les grandes technologies et la crise de l'exploitation sexuelle des enfants en ligne », est une prolongation d'une session précédente, au cours de laquelle le Sénat a entendu des experts en sécurité des enfants concernant les dommages causés par les applications de médias sociaux. Initialement prévue pour la fin de l'année dernière, l'audience a dû être reportée afin de garantir que tous les PDG puissent être présents.

Les chefs d’entreprise eux-mêmes ont eu l’occasion de présenter leur version des faits et de détailler ce que chacun fait pour lutter contre les matériels pédosexuels (CSAM).

Tout d’abord, chacun des PDG a partagé une déclaration préparée à l’avance, qui donnait un aperçu de ses efforts et de ses plans.

Le PDG de Meta, Mark Zuckerberg, a présenté les systèmes de protection de Meta, qui comptent 40 000 employés dédiés travaillant sur la sûreté et la sécurité, tandis que Zuckerberg a également déclaré que Meta avait investi plus de 20 milliards de dollars dans cet élément depuis 2016.

Zuckerberg a également repoussé les critiques formulées lors de la session précédente concernant les dommages causés par les applications de médias sociaux :

« Un rapport récent des National Academies of Sciences a évalué les résultats de plus de 300 études et a déterminé que la recherche « n'étayait pas la conclusion selon laquelle les médias sociaux provoquent des changements dans la santé mentale des adolescents au niveau de la population ». Elle suggère également que les médias sociaux peuvent apporter des avantages positifs significatifs lorsque les jeunes les utilisent pour s’exprimer, explorer et se connecter avec les autres. »

Zuckerberg a également réitéré la proposition récemment formulée par Meta selon laquelle les magasins d'applications seraient tenus responsables des téléchargements effectués par des mineurs.

"Par exemple, 3 parents sur 4 sont favorables à l'introduction de la vérification de l'âge sur les magasins d'applications, et 4 parents sur 5 souhaitent une législation exigeant que les magasins d'applications obtiennent l'approbation parentale chaque fois que les adolescents téléchargent des applications."

Ainsi, même si Zuckerberg est prêt à prendre sa part de la chaleur, il a également donné le ton dès le début en affirmant qu'il pensait qu'il existait des contrepoints à ceux proposés par les experts en sécurité des enfants.

Linda Yaccarino, PDG de X, a souligné son point de vue en tant que mère elle-même et a décrit les efforts de X pour mettre en œuvre des protections plus larges pour les jeunes utilisateurs.

« Au cours des 14 derniers mois, X a apporté des changements importants pour protéger les mineurs. Notre politique est claire : X a une tolérance zéro à l'égard de tout contenu présentant ou promouvant l'exploitation sexuelle d'enfants. »

Yaccarino a également expliqué qu'en 2023, X a suspendu plus de 12 millions de comptes pour violation de ses politiques CSE, tout en envoyant 850 000 rapports au Centre national pour les enfants disparus et exploités (NCMEC), via un nouveau système de signalement automatisé conçu pour rationaliser le processus. .

Yaccarino a souligné la même chose dans un article récent sur X, bien que l'élément de reporting automatisé, en particulier, puisse entraîner d'autres problèmes en termes de rapports incorrects. Dans le même temps, cela pourrait réduire la charge de travail sur X, et avec 80 % de personnel en moins que l'équipe précédente de Twitter, il doit utiliser des solutions automatisées là où cela est possible.

Yaccarino a également noté que X est en train de constituer une nouvelle équipe de modération de 100 personnes, basée au Texas, qui se concentrera spécifiquement sur le contenu CSAM.

Le PDG de Snapchat, Evan Spiegel, a quant à lui souligné l'approche fondamentale de la plateforme en matière de confidentialité dans sa déclaration :

« Snapchat est privé par défaut, ce qui signifie que les utilisateurs doivent s'inscrire pour ajouter des amis et choisir qui peut les contacter. Lorsque nous avons créé Snapchat, nous avons choisi de supprimer par défaut les images et vidéos envoyées via notre service. Comme les générations précédentes qui ont bénéficié de l'intimité offerte par les appels téléphoniques, qui ne sont pas enregistrés, notre génération a bénéficié de la possibilité de partager via Snapchat des moments qui ne sont peut-être pas parfaits, mais qui transmettent plutôt des émotions sans permanence.

Spiegel a également cité les chiffres des rapports NCMEC de la plateforme, déclarant que Snap a soumis 690 000 rapports NCMEC l'année dernière.

Le chef de TikTok, Shou Zi Chew, a quant à lui présenté les efforts évolutifs de détection des CSAM de TikTok, qui comprendront des investissements importants dans de nouvelles initiatives.

« Nous avons actuellement plus de 40 000 professionnels de la confiance et de la sécurité qui travaillent pour protéger notre communauté, et nous prévoyons d'investir plus de deux milliards de dollars dans les efforts de confiance et de sécurité cette année seulement – ​​avec une part importante de cet investissement dans nos opérations aux États-Unis. »

TikTok est sans doute dans une position plus difficile, étant donné que de nombreux sénateurs cherchent déjà à interdire l'application, en raison de préoccupations concernant ses liens avec le gouvernement chinois. Mais Chew a fait valoir que la plate-forme ouvre la voie en ce qui concerne de nombreux éléments de détection CSAM et cherche à s'appuyer sur eux là où elle le peut.

La séance comprenait une série de questions pointues de la part du Sénat, y compris cette remarque du sénateur Lindsey Graham :

« M. Zuckerberg, vous et les entreprises avant nous, je sais que vous ne voulez pas que ce soit ainsi, mais vous avez du sang sur les mains. Vous avez un produit qui tue des gens."

Zuckerberg était au centre d'une grande partie de l'angoisse, ce qui est logique, étant donné qu'il est en charge des plateformes de médias sociaux les plus utilisées au monde.

Zuckerberg a également été poussé à s'excuser auprès des familles qui ont été lésées par les applications de son entreprise par le sénateur Josh Hawley, ce que, de manière quelque peu inattendue, Zuckerberg a fait, se tournant vers la galerie pour faire une déclaration à un groupe de parents présents :

« Je suis désolé pour tout ce que vous avez tous vécu. Personne ne devrait subir les choses que vos familles ont endurées et c'est pourquoi nous investissons autant et nous allons continuer à déployer des efforts à l'échelle de l'industrie pour nous assurer que personne n'ait à subir les choses que vos familles ont dû endurer. »

Pourtant, dans le même temps, un nouveau rapport indique que Zuckerberg avait précédemment rejeté les appels visant à augmenter les ressources de protection de Meta en 2021, malgré les demandes du personnel.

Comme le rapporte le New York Times :

« Dans 90 pages de courriels internes datant de l'automne 2021, les hauts responsables de Meta, propriétaire d'Instagram et de Facebook, ont débattu de l'ajout de dizaines d'ingénieurs et d'autres employés pour se concentrer sur le bien-être et la sécurité des enfants. Une proposition faite à M. Zuckerberg concernant 45 nouveaux membres du personnel a été refusée.»

Zuckerberg a gardé son sang-froid sous la pression, mais il est clair que de nombreuses inquiétudes subsistent quant aux initiatives de Meta sur ce front.

Plusieurs sénateurs ont également profité de la séance d'aujourd'hui pour réclamer des modifications à la loi, notamment à l'article 230, afin de réduire les protections des plateformes sociales face aux contenus préjudiciables. Jusqu'à présent, les abrogations de l'article 230, qui protège les applications sociales des poursuites judiciaires pour le contenu partagé par les utilisateurs, ont été repoussées, et il sera intéressant de voir si cet angle fait avancer la discussion.

En termes de spécificités de la plateforme, Yaccarino a été interrogé sur la réduction des effectifs de X et son impact sur ses programmes de détection CSAM, tandis que Spiegel a été interrogé sur le rôle joué par Snap dans la facilitation des transactions de drogue, et en particulier du commerce du fentanyl. Tous deux ont fourni des assurances aseptisées selon lesquelles davantage d’efforts étaient déployés pour intensifier leurs efforts.

Ce fut une séance tendue, les sénateurs cherchant à faire valoir que les plateformes sociales doivent faire davantage pour protéger les jeunes utilisateurs. Je ne suis pas sûr qu'aucun des changements législatifs proposés résistera à la discussion d'aujourd'hui, mais il est intéressant de noter les différents éléments en jeu et la manière dont les principales plateformes cherchent à mettre en œuvre des solutions pour répondre aux préoccupations.