Meta veut identifier toute image générée par l’intelligence artificielle

Le géant Américain Meta veut désormais contrôler sur les réseaux sociaux Facebook, WhatsApp et Instagram « dans les prochains mois » toute image générée par l’intelligence artificielle (IA) qui sera publiée sur ses réseaux sociaux, une décision prise sur fond de lutte contre la désinformation, au début d’une année riche en scrutins électoraux.

Cette annonce survient alors que l’essor de l’IA générative fait craindre que des personnes n’utilisent ces outils pour semer le chaos politique, notamment par le biais de la désinformation ou de la mésinformation, à l’approche de plusieurs élections majeures qui se tiendront cette année dans divers pays où vit presque la moitié de la population mondiale, dont les Etats-Unis.

Au-delà de ces scrutins, le développement de programmes d’IA générative s’accompagne de la production d’un flux de contenus dégradants, selon de nombreux experts et régulateurs, à l’image des fausses images (« deepfakes ») pornographiques de femmes célèbres, phénomène qui vise également des anonymes.

Une fausse image de la superstar américaine Taylor Swift a par exemple été vue 47 millions de fois sur le réseau social X (ex-Twitter) fin janvier avant d’être supprimée. Selon les médias américains, la publication est restée en ligne sur la plateforme pendant environ 17 heures.

La société californienne OpenAI, créatrice de ChatGPT, a également annoncé mi-janvier le lancement d’outils pour combattre la désinformation, affirmant sa volonté de ne pas permettre l’utilisation de ses outils technologiques à des fins politiques.