Le conseil de surveillance de Meta se penche sur les cas des Deepfakes

Par Rym El-Kechaï Publié le 16/04/2024 à 15:00
Meta Deepfakes
  • Le conseil de surveillance de Meta annonce ce 16 avril la mise en examen de deux affaires liées à l'usage de deepfakes.
  • Plusieurs Deepfakes sont passés dans les mailles du filet de Meta provoquant l'inquiétude du conseil de surveillance.

Mise en examen de deux affaires de deepfakes chez Meta. Le conseil de surveillance inquiet par rapport a l'augmentation du nombre de contenus deepfakes sur la plateforme.

Le conseil de surveillance de Meta, responsable de la supervision des politiques de Facebook et Instagram, a annoncé aujourd'hui,16 avril, son examen de deux affaires liées à l'usage de deepfakes, des images générées par l'intelligence artificielle, impliquant des personnalités publiques féminines. Cette démarche intervient deux mois après le scandale des deepfakes mettant en scène Taylor Swift.

Plusieurs cas de deepfakes signalés chez Meta

Dans le premier cas, une image générée par IA d'une femme nue, ressemblant à une personnalité publique indienne, a été postée sur Instagram. Le conseil de surveillance a indiqué que « Meta a déterminé que sa décision de laisser le contenu affiché était erronée et a supprimé le message pour violation de ses règles sur l’intimidation et le harcèlement ».

Le deuxième cas concerne une image affichée dans un groupe Facebook, « une femme nue avec un homme qui lui tripote les seins ». Cette femme ressemble à une personnalité publique américaine, comme indiqué dans la légende. Meta avait précédemment retiré cette image, l'ajoutant à une banque de contenus pour l'application automatique de ses règles.

Le conseil de surveillance, composé de membres indépendants et financé par Meta, a pour mission d'évaluer si les règles et leur application par Meta sont efficaces pour traiter ce genre de contenu problématique. Bien que le conseil puisse rendre des décisions contraignantes sur le contenu, Meta conserve le dernier mot sur leur mise en œuvre.

Une montée de deepfakes corrélée à l'avancée de l'IA

Face à la montée des deepfakes explicites alimentés par l'avancée de l'IA, le conseil sollicite les commentaires du public sur les stratégies que Meta pourrait adopter pour lutter contre ce phénomène. Il se penche également sur les défis posés par l'utilisation de systèmes automatisés pour la gestion du contenu, notamment la clôture des appels en 48 heures sans examen préalable.

Un exemple illustratif est celui d'un utilisateur en Inde ayant signalé un deepfake explicite. L'appel a été automatiquement clos, car il n'a pas été examiné dans les 48 heures. Même après un nouvel appel de l'utilisateur, le dossier a été à nouveau clôturé, maintenant le contenu actif. L'utilisateur a ensuite fait appel au conseil de surveillance.

Titulaire d'un Master en Biotechnologies aujourd'hui rédactrice. Rédiger, développer des idées et transmettre l'information aux lecteurs est l'une des nombreuses facettes du métier que j'apprécie. Porté par un intérêt profond pour l'actualité française sous toutes ses dimensions, je me dédie actuellement à la rédaction d'articles touchant à des domaines variés tels que l'économie, la politique et les faits divers en France.