Mise à jour du 11 mars 2026. La Commission européenne a publié le deuxième projet de son Code de Pratique sur la transparence du contenu généré par intelligence artificielle, document technique crucial qui précise les modalités concrètes d'application de l'Article 50 du Règlement européen sur l'IA (AI Act). Ce texte de 36 pages, élaboré par deux groupes de travail dirigés par des experts académiques et réglementaires, établit les standards opérationnels que devront respecter fournisseurs et déployeurs de systèmes d'IA génératifs avant l'entrée en vigueur du règlement le 2 août 2026.
Une architecture réglementaire à deux niveaux
Le Code de Pratique adopte une approche différenciée selon la position des acteurs dans la chaîne de valeur de l'IA.
Section 1 : obligations des fournisseurs de systèmes d'IA génératifs
La première section s'adresse aux fournisseurs (providers) de systèmes d'IA capables de générer du contenu audio, image, vidéo ou texte. Ces obligations techniques visent à garantir que les sorties des systèmes soient marquées de manière lisible par machine et détectables comme artificiellement générées ou manipulées.
L'approche multi-couches obligatoire
Le Code impose une stratégie de marquage à plusieurs niveaux, reconnaissant qu'aucune technique unique ne suffit à satisfaire les quatre exigences de l'Article 50(2) — efficacité, interopérabilité, robustesse et fiabilité. Les fournisseurs doivent implémenter au minimum :
- Métadonnées signées numériquement : informations cryptographiquement sécurisées indiquant l'origine IA du contenu, incluant un identifiant interopérable et l'accès aux outils de détection
- Filigrane imperceptible : marqueur directement intégré au contenu (sauf textes très courts), servant de sauvegarde robuste aux métadonnées
- Empreinte digitale ou journalisation (optionnel) : mécanisme supplémentaire de vérification, avec des garanties strictes de confidentialité et conformité RGPD
Exigences de qualité mesurables
Le Code établit des critères techniques précis :
| Critère | Exigence |
|---|---|
| Fiabilité | Faibles taux de faux positifs et faux négatifs sur du contenu de longueurs et entropies variables |
| Robustesse | Résistance à la compression, recadrage, paraphrase et attaques adversariales |
| Interopérabilité | Standards ouverts, encodage dans le filigrane public, dépôt partagé européen |
| Efficacité | Mécanismes de détection accessibles aux autorités et organismes de vérification |
Mécanismes de détection accessibles
Les fournisseurs doivent mettre gratuitement à disposition une interface (API ou outil web) permettant aux déployeurs, utilisateurs finaux et tiers légitimes de vérifier l'origine IA du contenu. Ces outils doivent être hébergés dans l'UE et conformes au RGPD.
Section 2 : obligations des déployeurs de systèmes d'IA
La seconde section concerne les déployeurs utilisant des systèmes d'IA pour générer ou manipuler des deepfakes ou du texte publié sur des sujets d'intérêt public.
Le projet d'icône "AI" standardisée
Le Code propose le développement d'une icône européenne uniforme affichant l'acronyme "AI" en lettres capitales, potentiellement complété par un court texte ("Generated with AI", "Made by AI", "Manipulated with AI"). Caractéristiques obligatoires :
- Lettres de même dimension verticale
- Ratio de contraste minimum de 4,5:1 avec l'arrière-plan
- Maintien des proportions si redimensionnement
- Clarté et distinguabilité pour tous, y compris les utilisateurs vulnérables
Le Code prévoit également une "seconde couche" interactive optionnelle : en survolant ou cliquant sur l'icône, l'utilisateur accéderait à des informations détaillées sur ce qui a été généré ou manipulé par l'IA.
Exigences de placement par modalité
- Vidéo en temps réel : icône affichée tout au long de l'exposition, ou disclaimer au début et à intervalles réguliers
- Vidéo non temps réel : icône au début et répétée à intervalles réguliers (vidéos longues) ou de manière cohérente (vidéos courtes)
- Image : icône placée dès la première exposition, clairement distinguable de l'image elle-même
- Audio : disclaimer audible en langage naturel au début (contenu court) ou au début, phases intermédiaires et fin (formats longs)
- Texte : icône en position cohérente (au-dessus, près du titre, ou dans le colophon)
Régime proportionné pour les œuvres artistiques
Pour le contenu deepfake faisant partie d'une œuvre artistique, créative, satirique ou fictionnelle évidente, l'obligation de divulgation s'applique de « manière appropriée qui n'entrave pas la jouissance de l'œuvre ». Le Code autorise le placement en coins pendant les crédits ou la divulgation contextuelle.
Impact sur les professions réglementées
Professions juridiques : l'exception éditoriale
Pour les avocats et juristes utilisant des outils d'IA générative, l'obligation de divulgation s'applique aux documents destinés à être publiés ou diffusés. Toutefois, l'exception éditoriale du Commitment 4 permet d'échapper à l'étiquetage en démontrant :
- Une révision humaine effective du contenu généré
- L'exercice d'un contrôle éditorial sur la publication
- L'identification claire d'une personne assumant la responsabilité éditoriale
Cette exception préserve le modèle traditionnel de responsabilité professionnelle tout en reconnaissant le rôle de l'IA comme outil d'assistance.
→ En savoir plus : Le guide du CNB sur l'IA générative pour avocats
Professions médicales
Les courriers, comptes-rendus ou recommandations sanitaires générés par IA devront être clairement identifiés comme tels, sauf révision médicale complète et engagement de la responsabilité professionnelle. Les images médicales manipulées par IA à des fins de présentation publique sont également concernées.
Professions de l'information
Le Code garantit que le marquage et la détection « ne doivent en aucun cas affecter la liberté des médias, l'indépendance éditoriale et la protection des sources journalistiques ». Un contenu assisté par IA mais révisé et validé par la rédaction n'est pas soumis à étiquetage.
→ Analyse complémentaire : L'EU AI Act : ce que les avocats doivent savoir
Calendrier et processus de finalisation
Le Code suit un calendrier serré imposé par l'entrée en vigueur de l'AI Act :
| Date | Étape |
|---|---|
| 30 mars 2026 (22h00 CET) | Date limite pour les retours des parties prenantes via l'EUSurvey |
| Mars 2026 | Réunions de consultation avec les parties prenantes |
| Avant le 2 août 2026 | Publication du Code final |
La Commission sollicite spécifiquement des retours sur les considérations techniques d'implémentation, la clarté des définitions terminologiques, et le développement de l'icône EU et de la seconde couche interactive. Un task force sera établi après publication pour finaliser l'icône européenne standardisée.
Analyse : ambition technique et pragmatisme opérationnel
Points de force
Le Code se distingue par sa granularité technique (ratios de contraste, taux d'erreur, types d'attaques à tester), sa proportionnalité différenciée (PME, œuvres artistiques, médias), son ouverture au future-proofing autorisant des techniques alternatives, et son approche multi-stakeholder intégrant les retours de centaines de participants.
Défis persistants
La complexité d'implémentation de l'approche multi-couches impose des coûts techniques significatifs, particulièrement pour les petits fournisseurs. En l'absence de standards techniques matures, le risque de fragmentation et d'implémentations hétérogènes réduisant l'interopérabilité demeure. La définition d'une « œuvre artistique évidente » reste floue, et les professions réglementées devront développer de nouveaux processus de documentation et compliance pour bénéficier des exceptions.
Conclusion : vers une transparence algorithmique « by design »
Ce deuxième projet de Code de Pratique marque une étape décisive dans la concrétisation de l'ambition européenne d'une IA digne de confiance. En imposant une transparence technique dès la conception des systèmes et une divulgation claire au moment de l'exposition publique, l'UE tente de préserver l'intégrité de l'écosystème informationnel.
Pour les professions réglementées, ce Code transforme fondamentalement les obligations de transparence : là où la déontologie professionnelle imposait historiquement la responsabilité du contenu produit, le règlement européen ajoute désormais une obligation de traçabilité de l'outil utilisé pour le produire. Cette évolution nécessitera adaptation des processus internes, formation des équipes et évolution des contrats de service.
La publication du Code final en juin 2026 donnera le signal définitif de la position européenne sur cet enjeu majeur de gouvernance de l'IA.
Prochaines lectures
- L'EU AI Act : ce que les avocats doivent savoir
- Les 12 points de vigilance RGPD
- Le guide du CNB sur l'IA générative
- Les 5 tendances IA juridique en 2026
Sources :
- Commission européenne — Second Draft Code of Practice on Transparency of AI-Generated Content, mars 2026
- EUR-Lex — Règlement UE 2024/1689 (AI Act), Article 50
- CNIL — RGPD et recommandations IA
- Conseil National des Barreaux — Guide IA générative