Le 14 mars 2025, les autorités chinoises ont annoncé de nouvelles réglementations exigeant que tout contenu généré par l'intelligence artificielle (IA) soit clairement étiqueté. Ces mesures, qui entreront en vigueur le 1er septembre 2025, visent à promouvoir le développement sain de l'IA et à aider les internautes à identifier et se protéger contre les fausses informations. Cette réglementation s'inscrit dans une tendance mondiale où de plus en plus de pays cherchent à encadrer l'utilisation de l'intelligence artificielle pour prévenir la désinformation et renforcer la transparence numérique.
Les autorités chinoises, notamment l'Administration du cyberespace de Chine (CAC), ont récemment élaboré ces directives pour répondre aux préoccupations croissantes concernant l'abus de l'IA et la propagation de fausses informations. L’IA ayant progressé rapidement ces dernières années, de grandes quantités de contenu en ligne ont été produites avec l'aide de l'IA, ce qui a suscité la nécessité de mesures d'identification standardisées. L'objectif est de protéger les citoyens contre les manipulations potentielles et le partage de Fake News en favorisant un environnement numérique plus fiable.
De plus, cette mesure vise également à responsabiliser les entreprises et les développeurs d'outils d'IA en leur imposant des normes claires quant à la transparence de leurs contenus. L'encadrement de la création et de la diffusion des contenus générés par l'IA permettrait à la Chine de maintenir un certain contrôle sur le flux d'informations, tout en évitant des crises de confiance à grande échelle.
Les directives stipulent que le contenu généré par l'IA doit être étiqueté tout au long de son processus de production et de distribution. Les fournisseurs sont tenus d'ajouter des marques visibles à des emplacements appropriés, et les règles interdisent à toute organisation ou individu de supprimer, falsifier ou dissimuler ces étiquettes d'identification.
Cette réglementation s'applique à plusieurs types de contenus, y compris les articles, les images, les vidéos et les audios créés à l'aide d'outils d'IA. Ainsi, les plateformes numériques devront mettre en place des systèmes de vérification pour s'assurer que les contenus publiés respectent ces nouvelles directives. L'objectif est de rendre ces contenus identifiables et traçables, limitant ainsi la diffusion de fausses informations.
L'utilisation abusive de l'IA a suscité de nombreuses discussions sur la réglementation. Par exemple, des images générées par l'IA d'un célèbre acteur chinois ont été utilisées l'année dernière pour frauder les membres de sa base de fans. Ces incidents ont renforcé la nécessité de réglementations pour protéger le public contre les abus potentiels de la technologie IA.
En outre, la prolifération des "deepfakes" et d'autres contenus altérés numériquement suscite une inquiétude croissante. Ces contenus peuvent être utilisés à des fins de désinformation, de manipulation politique ou de diffamation. En obligeant les plateformes à signaler de manière explicite les contenus générés par IA, les autorités chinoises cherchent à lutter contre ces dérives.
Les nouvelles réglementations obligent les fournisseurs de services IA à se conformer aux exigences d'étiquetage, sous peine de sanctions. Bien que les détails spécifiques des amendes ou peines n'aient pas encore été dévoilés, la Chine est connue pour appliquer de manière stricte ses régulations, surtout dans le domaine numérique.
Ces exigences pourraient entraîner des coûts supplémentaires pour les entreprises technologiques, qui devront adapter leurs systèmes pour assurer la conformité. Certaines entreprises pourraient être amenées à développer de nouvelles technologies de traçabilité pour identifier automatiquement les contenus produits par l'IA. Cela pourrait aussi ralentir l'innovation dans le domaine de l'IA, car les entreprises devront dédier davantage de ressources à la mise en conformité plutôt qu'au développement de nouvelles fonctionnalités.
La Chine rejoint ainsi l'Union européenne et les États-Unis qui ont, eux aussi, adopté des réglementations afin de contrôler les risques de désinformation en exigeant l'étiquetage des contenus synthétiques en ligne. Cette évolution montre une prise de conscience internationale des dangers potentiels liés à l'utilisation non encadrée de l'intelligence artificielle.
Certains experts estiment que ces régulations pourraient être un prélude à des lois encore plus strictes sur l'IA dans les années à venir. D'autres considèrent que l'étiquetage des contenus IA est une première étape nécessaire pour limiter les abus sans pour autant freiner complètement l'innovation.
Dans un contexte où l’intelligence artificielle ne cesse de transformer les pratiques informationnelles, les nouvelles réglementations en Chine constituent un acte fort en faveur de la transparence mais elles soulèvent des questions : jusqu’où faut-il aller dans le contrôle de l’IA au risque de freiner le progrès ou les biais numériques ? Ces mesures sont-elles suffisantes pour endiguer la désinformation ou ne vont-elles pas favoriser le rétablissement de contraintes sur la liberté d’expression ? À la communauté internationale de choisir de ne pas opposer régulation et innovation en vue d’un avenir numérique plus sûr et plus créatif.