Les outils de détection de contenu créé avec de l’IA ne sont pas aussi fiables qu’annoncé par TikTok et OpenAI

En l’espace de quelques jours, OpenAI et TikTok ont présenté des systèmes pour signaler des photos et vidéos conçues avec de l’intelligence artificielle. Attention, avertit une experte, ces instruments ne sont pas aussi efficaces que celaLa pression augmente. D’abord sur les éditeurs de solutions permettant de créer de fausses images et vidéos grâce à de l’intelligence artificielle. Mais aussi sur les propriétaires des réseaux sociaux. Toutes ces entreprises sont de plus souvent accusées par les autorités, des ONG ou des victimes de faux contenus de passivité, voire de complaisance, envers ceux qui diffusent photos et vidéos trafiquées. Place désormais à la réaction. En l’espace de quelques jours, OpenAI, puis TikTok ont annoncé de nouveaux outils pour détecter du contenu créé avec de l’intelligence artificielle (IA). Mais attention, leur fiabilité est très loin d’être totale.En fin de semaine passée, TikTok annonçait qu’il allait désormais signaler les vidéos créées avec de l’IA et mises en ligne par ses centaines de millions d’utilisateurs. Le réseau social chinois, détenu par la société ByteDance, apposera l’étiquette «Généré par de l’IA» sur ce contenu. Cela pourra concerner des vidéos fabriquées par les outils d’IA mis directement à disposition par TikTok, ou des films créés avec des outils proposés par des sociétés tierces.Voir plus

Les outils de détection de contenu créé avec de l’IA ne sont pas aussi fiables qu’annoncé par TikTok et OpenAI

En l’espace de quelques jours, OpenAI et TikTok ont présenté des systèmes pour signaler des photos et vidéos conçues avec de l’intelligence artificielle. Attention, avertit une experte, ces instruments ne sont pas aussi efficaces que cela

La pression augmente. D’abord sur les éditeurs de solutions permettant de créer de fausses images et vidéos grâce à de l’intelligence artificielle. Mais aussi sur les propriétaires des réseaux sociaux. Toutes ces entreprises sont de plus souvent accusées par les autorités, des ONG ou des victimes de faux contenus de passivité, voire de complaisance, envers ceux qui diffusent photos et vidéos trafiquées. Place désormais à la réaction. En l’espace de quelques jours, OpenAI, puis TikTok ont annoncé de nouveaux outils pour détecter du contenu créé avec de l’intelligence artificielle (IA). Mais attention, leur fiabilité est très loin d’être totale.

En fin de semaine passée, TikTok annonçait qu’il allait désormais signaler les vidéos créées avec de l’IA et mises en ligne par ses centaines de millions d’utilisateurs. Le réseau social chinois, détenu par la société ByteDance, apposera l’étiquette «Généré par de l’IA» sur ce contenu. Cela pourra concerner des vidéos fabriquées par les outils d’IA mis directement à disposition par TikTok, ou des films créés avec des outils proposés par des sociétés tierces.Voir plus