Le groupe dirigé par Mark Zuckerberg s’efforce de contrer les éventuels effets néfastes des vidéos produites par l’intelligence artificielle (IA) en informant les utilisateurs lorsqu’ils en visionnent une.
En moins de dix-huit mois, l’IA est passée d’une simple application, comme ChatGPT, déjà remarquable, à une gamme complète d’outils capables de produire des vidéos à partir de simples instructions, comme l’exemple de Sora le montre. Bien que cette technologie offre de nombreuses perspectives, elle soulève également des préoccupations quant à son potentiel à brouiller les frontières entre réalité et fiction. Afin de préserver cette distinction, Meta, dirigé par Mark Zuckerberg, introduit une nouvelle politique.
Plutôt que de supprimer les contenus générés par l’IA,
qui pourraient être sujets à manipulation, Meta va désormais les signaler à ses utilisateurs. À partir de mai prochain, un indicateur “créé par IA” sera apposé sur toutes les images, sons et vidéos générés par cette technologie et partagés sur les plateformes Meta. Cette initiative représente une extension significative d’une pratique antérieure qui concernait uniquement un type spécifique de vidéos manipulées.
Cette politique comprendra également plusieurs catégories de contenus signalés
En particulier ceux présentant un “risque élevé de tromper le public sur des questions importantes”. Meta prend ainsi des mesures préventives face à l’avènement imminent d’outils plus sophistiqués et en vue des élections présidentielles américaines de 2024, qui pourraient être tendues. En février, la société a déjà dû intervenir concernant une vidéo manipulée de Joe Biden, destinée à semer le doute sur son comportement.
Il est à noter que cette nouvelle politique, prévue pour le printemps, sera appliquée uniquement aux réseaux sociaux de Meta, à savoir Facebook, Instagram et Threads. Les réglementations concernant WhatsApp et les casques de réalité virtuelle Quest, seront traitées séparément.