Back to blog
    Analyse Stratégique

    Commission européenne : le Code de Pratique sur le marquage du contenu IA qui va transformer les obligations des professions réglementées

    Analyse du deuxième projet de Code de Pratique (mars 2026). Obligations des fournisseurs et déployeurs, icône AI standardisée, exception éditoriale pour les avocats.

    12 mars 202616 min

    Mise à jour du 11 mars 2026. La Commission européenne a publié le deuxième projet de son Code de Pratique sur la transparence du contenu généré par intelligence artificielle, document technique crucial qui précise les modalités concrètes d'application de l'Article 50 du Règlement européen sur l'IA (AI Act). Ce texte de 36 pages, élaboré par deux groupes de travail dirigés par des experts académiques et réglementaires, établit les standards opérationnels que devront respecter fournisseurs et déployeurs de systèmes d'IA génératifs avant l'entrée en vigueur du règlement le 2 août 2026.


    Une architecture réglementaire à deux niveaux

    Le Code de Pratique adopte une approche différenciée selon la position des acteurs dans la chaîne de valeur de l'IA.

    Section 1 : obligations des fournisseurs de systèmes d'IA génératifs

    La première section s'adresse aux fournisseurs (providers) de systèmes d'IA capables de générer du contenu audio, image, vidéo ou texte. Ces obligations techniques visent à garantir que les sorties des systèmes soient marquées de manière lisible par machine et détectables comme artificiellement générées ou manipulées.

    L'approche multi-couches obligatoire

    Le Code impose une stratégie de marquage à plusieurs niveaux, reconnaissant qu'aucune technique unique ne suffit à satisfaire les quatre exigences de l'Article 50(2) — efficacité, interopérabilité, robustesse et fiabilité. Les fournisseurs doivent implémenter au minimum :

    1. Métadonnées signées numériquement : informations cryptographiquement sécurisées indiquant l'origine IA du contenu, incluant un identifiant interopérable et l'accès aux outils de détection
    2. Filigrane imperceptible : marqueur directement intégré au contenu (sauf textes très courts), servant de sauvegarde robuste aux métadonnées
    3. Empreinte digitale ou journalisation (optionnel) : mécanisme supplémentaire de vérification, avec des garanties strictes de confidentialité et conformité RGPD

    Exigences de qualité mesurables

    Le Code établit des critères techniques précis :

    CritèreExigence
    FiabilitéFaibles taux de faux positifs et faux négatifs sur du contenu de longueurs et entropies variables
    RobustesseRésistance à la compression, recadrage, paraphrase et attaques adversariales
    InteropérabilitéStandards ouverts, encodage dans le filigrane public, dépôt partagé européen
    EfficacitéMécanismes de détection accessibles aux autorités et organismes de vérification

    Mécanismes de détection accessibles

    Les fournisseurs doivent mettre gratuitement à disposition une interface (API ou outil web) permettant aux déployeurs, utilisateurs finaux et tiers légitimes de vérifier l'origine IA du contenu. Ces outils doivent être hébergés dans l'UE et conformes au RGPD.


    Section 2 : obligations des déployeurs de systèmes d'IA

    La seconde section concerne les déployeurs utilisant des systèmes d'IA pour générer ou manipuler des deepfakes ou du texte publié sur des sujets d'intérêt public.

    Le projet d'icône "AI" standardisée

    Le Code propose le développement d'une icône européenne uniforme affichant l'acronyme "AI" en lettres capitales, potentiellement complété par un court texte ("Generated with AI", "Made by AI", "Manipulated with AI"). Caractéristiques obligatoires :

    • Lettres de même dimension verticale
    • Ratio de contraste minimum de 4,5:1 avec l'arrière-plan
    • Maintien des proportions si redimensionnement
    • Clarté et distinguabilité pour tous, y compris les utilisateurs vulnérables

    Le Code prévoit également une "seconde couche" interactive optionnelle : en survolant ou cliquant sur l'icône, l'utilisateur accéderait à des informations détaillées sur ce qui a été généré ou manipulé par l'IA.

    Exigences de placement par modalité

    • Vidéo en temps réel : icône affichée tout au long de l'exposition, ou disclaimer au début et à intervalles réguliers
    • Vidéo non temps réel : icône au début et répétée à intervalles réguliers (vidéos longues) ou de manière cohérente (vidéos courtes)
    • Image : icône placée dès la première exposition, clairement distinguable de l'image elle-même
    • Audio : disclaimer audible en langage naturel au début (contenu court) ou au début, phases intermédiaires et fin (formats longs)
    • Texte : icône en position cohérente (au-dessus, près du titre, ou dans le colophon)

    Régime proportionné pour les œuvres artistiques

    Pour le contenu deepfake faisant partie d'une œuvre artistique, créative, satirique ou fictionnelle évidente, l'obligation de divulgation s'applique de « manière appropriée qui n'entrave pas la jouissance de l'œuvre ». Le Code autorise le placement en coins pendant les crédits ou la divulgation contextuelle.


    Impact sur les professions réglementées

    Professions juridiques : l'exception éditoriale

    Pour les avocats et juristes utilisant des outils d'IA générative, l'obligation de divulgation s'applique aux documents destinés à être publiés ou diffusés. Toutefois, l'exception éditoriale du Commitment 4 permet d'échapper à l'étiquetage en démontrant :

    • Une révision humaine effective du contenu généré
    • L'exercice d'un contrôle éditorial sur la publication
    • L'identification claire d'une personne assumant la responsabilité éditoriale

    Cette exception préserve le modèle traditionnel de responsabilité professionnelle tout en reconnaissant le rôle de l'IA comme outil d'assistance.

    → En savoir plus : Le guide du CNB sur l'IA générative pour avocats

    Professions médicales

    Les courriers, comptes-rendus ou recommandations sanitaires générés par IA devront être clairement identifiés comme tels, sauf révision médicale complète et engagement de la responsabilité professionnelle. Les images médicales manipulées par IA à des fins de présentation publique sont également concernées.

    Professions de l'information

    Le Code garantit que le marquage et la détection « ne doivent en aucun cas affecter la liberté des médias, l'indépendance éditoriale et la protection des sources journalistiques ». Un contenu assisté par IA mais révisé et validé par la rédaction n'est pas soumis à étiquetage.

    → Analyse complémentaire : L'EU AI Act : ce que les avocats doivent savoir


    Calendrier et processus de finalisation

    Le Code suit un calendrier serré imposé par l'entrée en vigueur de l'AI Act :

    DateÉtape
    30 mars 2026 (22h00 CET)Date limite pour les retours des parties prenantes via l'EUSurvey
    Mars 2026Réunions de consultation avec les parties prenantes
    Avant le 2 août 2026Publication du Code final

    La Commission sollicite spécifiquement des retours sur les considérations techniques d'implémentation, la clarté des définitions terminologiques, et le développement de l'icône EU et de la seconde couche interactive. Un task force sera établi après publication pour finaliser l'icône européenne standardisée.


    Analyse : ambition technique et pragmatisme opérationnel

    Points de force

    Le Code se distingue par sa granularité technique (ratios de contraste, taux d'erreur, types d'attaques à tester), sa proportionnalité différenciée (PME, œuvres artistiques, médias), son ouverture au future-proofing autorisant des techniques alternatives, et son approche multi-stakeholder intégrant les retours de centaines de participants.

    Défis persistants

    La complexité d'implémentation de l'approche multi-couches impose des coûts techniques significatifs, particulièrement pour les petits fournisseurs. En l'absence de standards techniques matures, le risque de fragmentation et d'implémentations hétérogènes réduisant l'interopérabilité demeure. La définition d'une « œuvre artistique évidente » reste floue, et les professions réglementées devront développer de nouveaux processus de documentation et compliance pour bénéficier des exceptions.


    Conclusion : vers une transparence algorithmique « by design »

    Ce deuxième projet de Code de Pratique marque une étape décisive dans la concrétisation de l'ambition européenne d'une IA digne de confiance. En imposant une transparence technique dès la conception des systèmes et une divulgation claire au moment de l'exposition publique, l'UE tente de préserver l'intégrité de l'écosystème informationnel.

    Pour les professions réglementées, ce Code transforme fondamentalement les obligations de transparence : là où la déontologie professionnelle imposait historiquement la responsabilité du contenu produit, le règlement européen ajoute désormais une obligation de traçabilité de l'outil utilisé pour le produire. Cette évolution nécessitera adaptation des processus internes, formation des équipes et évolution des contrats de service.

    La publication du Code final en juin 2026 donnera le signal définitif de la position européenne sur cet enjeu majeur de gouvernance de l'IA.

    Prochaines lectures


    Sources :

    À propos de Gaius : Notre équipe de formateurs en IA juridique accompagne les avocats et juristes dans leur transformation numérique. Retrouvez nos analyses et formations sur www.gaius-tech.com et sur notre page LinkedIn.