Lettre ouverte — Mars 2026

Marquons ce que l'IA produit.
Maintenant.
Le temps presse.

Une proposition simple, techniquement réalisable, politiquement urgente — adressée aux décideurs industriels, aux législateurs, aux citoyens, et à quiconque croit encore que la vérité a de la valeur.

Vous avez vu une vidéo hier. Vous pensiez qu'elle était vraie.
Peut-être qu'elle ne l'était pas. Et vous ne le saurez probablement jamais.

Ce n'est pas une hypothèse. C'est le quotidien de 2026. Des millions de contenus générés par intelligence artificielle circulent chaque jour — vidéos, voix, images, textes — sans aucun moyen fiable de les distinguer de la réalité. Des élections ont été influencées. Des personnes innocentes ont vu leur réputation détruite. Des crimes financiers se multiplient. Des tensions géopolitiques ont été attisées par des contenus qui n'ont jamais existé.

La technologie qui rend tout cela possible est extraordinaire. Son détournement pour tromper est une catastrophe démocratique en cours.

8M
Deepfakes en circulation
en 2025 — contre 500 000 en 2023
Source : Keepnet / Pindrop, 2025
96–98%
Des deepfakes en ligne sont
des images non consenties
Source : Deeptrace / Security Hero
24,5%
Seulement : taux de détection
humaine des deepfakes vidéo
Source : Keepnet Labs, 2025
$40Mds
Pertes estimées liées à la fraude par IA générative aux États-Unis d'ici 2027 — contre 12,3 milliards en 2023.
Deloitte Center for Financial Services, 2024
+2 137%
Augmentation des tentatives de fraude par deepfake en trois ans. En 2024 : une attaque toutes les 5 minutes.
Signicat / Pindrop, 2025
$25M
Virés en une seule transaction par un employé d'Arup trompé par une conférence vidéo entièrement générée par IA.
Reuters / BBC, février 2024
60%
Des consommateurs déclarent avoir rencontré une vidéo deepfake dans l'année — et 77 % des victimes de clonage vocal perdent de l'argent.
McAfee / SQ Magazine, 2025

Face à cela, on nous propose des solutions qui ressemblent à des sparadraps sur une hémorragie : éduquer les gens au fact-checking, modérer les réseaux sociaux après coup, sensibiliser le public. Ces approches sont nécessaires. Elles sont structurellement insuffisantes. Elles agissent après. Le problème est avant.

« La solution n'est pas de surveiller chaque contenu produit. C'est de rendre impossible de cacher qu'un contenu a été produit par une machine. »

Cette distinction est fondamentale. Nous ne parlons pas de censure. Nous ne parlons pas de limiter ce que l'IA peut créer. Nous parlons d'une étiquette — comme celle qu'on impose sur les médicaments, les aliments, les produits financiers depuis des décennies. Une information simple, vérifiable, incontournable : ceci a été fabriqué par une intelligence artificielle.

L'Union Européenne a fait un premier pas avec l'AI Act, dont les obligations de marquage des contenus IA sont entrées en vigueur en août 2025. C'est insuffisant : ces obligations ne s'appliquent qu'aux acteurs commerciaux opérant dans l'UE, laissent de côté les modèles open source, et ne prévoient aucun mécanisme technique inviolable. Une réglementation logicielle peut toujours être contournée. Un verrou hardware, non.

Le levier existe — voici comment il fonctionne
01
ASML — entreprise néerlandaise, donc soumise au droit européen — est le seul fabricant mondial de machines à lithographie EUV, indispensables à la production de toutes les puces avancées. Sans elle : pas de GPU Nvidia, pas de TPU Google, pas de puce Apple. Aucun concurrent à horizon 10 ans. Une machine coûte 400 millions d'euros. Elles ne peuvent être remplacées.
02
Si les régulateurs européens, américains et japonais imposent à ASML et aux fabricants d'équipements équivalents (Tokyo Electron, Applied Materials) d'intégrer un module de watermarking cryptographique dans leurs machines, toutes les puces produites dans le monde en seront dotées.
03
Tout modèle IA — commercial ou open source — tournant sur ces puces produira automatiquement des contenus marqués. Sans exception possible. Sans contournement logiciel. La Chine, qui ne maîtrise pas encore cette technologie, serait temporairement exclue des puces non marquées de nouvelle génération.
04
Tout outil de vérification — intégré dans les navigateurs, les réseaux sociaux, les applications d'information — pourra instantanément identifier un contenu IA. Partout. Sans effort de la part de l'utilisateur. Comme un code-barres sur un produit alimentaire.
Cas réel — Février 2024

Un employé de la multinationale Arup à Hong Kong participe à une conférence vidéo avec ce qu'il croit être son directeur financier et plusieurs collègues. Il vire 25 millions de dollars sur instruction de ces interlocuteurs. Tous étaient des deepfakes générés en temps réel. Aucun outil accessible au grand public ne lui aurait permis de le détecter. Avec un watermarking hardware, chaque image de cette vidéo aurait porté une signature inviolable. La fraude aurait été détectable en moins d'une seconde.

Ce que nous demandons — maintenant et dans les années à venir
Immédiatement : une charte contraignante sur les plateformes open source. Hugging Face et GitHub hébergent la quasi-totalité des modèles IA téléchargeables librement. Ils peuvent, dès aujourd'hui, imposer une validation d'identité et une acceptation de charte juridiquement engageante avant tout accès à un modèle capable de générer du contenu réaliste. Ce n'est pas de la censure — c'est de la responsabilité. Ce mécanisme existe déjà partiellement avec les licences de Meta pour LLaMA. Il faut l'étendre, le renforcer, le rendre légalement contraignant.
À court terme : un standard de watermarking logiciel universel et interopérable. Google a SynthID. Le consortium C2PA existe. Ces outils ne sont pas utilisés partout, pas de façon cohérente, pas obligatoirement. L'Union Européenne doit imposer un standard commun à tous les modèles commerciaux dépassant un seuil de capacité — avec des sanctions réelles, proportionnelles au chiffre d'affaires, pour les contrevenants.
À moyen terme : la responsabilité juridique des concepteurs. Un fabricant automobile est légalement responsable des défauts de ses véhicules. Un éditeur de modèle IA doit être co-responsable des usages frauduleux rendus possibles par l'absence délibérée de traçabilité. Sans cette responsabilité économique, il n'existe aucune incitation à agir sérieusement.
À long terme : le watermarking hardware via les fabricants d'équipements. L'engagement d'ASML, TSMC et des fabricants de GPU dans un cadre réglementaire négocié entre l'UE, les USA et le Japon. Ces entreprises n'ont aucun intérêt économique à s'y opposer — leurs clients achèteront leurs machines et leurs puces de toute façon. Il leur faut une impulsion politique. C'est aux gouvernements de la donner. Maintenant.

Certains diront que c'est compliqué. Que les modèles open source échappent à tout contrôle. Que la Chine ne respectera pas les règles. Que l'innovation sera freinée. Ces objections sont connues. Elles ont été soulevées mot pour mot lors de l'introduction des ceintures de sécurité obligatoires dans les voitures. Lors de l'étiquetage nutritionnel sur les aliments. Lors de la régulation des médicaments.

Dans chaque cas, les mêmes arguments ont été avancés. Dans chaque cas, la régulation a été adoptée. Dans chaque cas, elle a sauvé des vies.

La liberté d'expression n'a jamais signifié le droit de mentir en se faisant passer pour la réalité. Identifier un contenu IA ne limite pas la créativité — cela restaure la confiance sans laquelle aucune société démocratique ne peut fonctionner. Seulement 0,1 % des personnes testées en 2025 ont été capables d'identifier correctement tous les contenus faux et vrais qui leur étaient présentés. Nous avons perdu la capacité de voir la réalité. Ce n'est pas une métaphore — c'est une donnée mesurée.

Nous n'attendons pas que tout le monde soit d'accord. Nous attendons que ceux qui ont le pouvoir d'agir — législateurs, industriels, dirigeants de plateformes — assument leurs responsabilités. La technologie est prête. La volonté politique manque. C'est cette volonté que nous réclamons.

Sébastien R.
Passionné de science et de futur · France
Mars 2026
Document libre de diffusion
et ouvert à la co-signature
Rejoindre l'initiative

Vous partagez cette préoccupation ? Signez et partagez la pétition.

Signer la pétition →

watermarking.ia.initiative@proton.me

Sources & références
Keepnet Labs — Deepfake Statistics & Trends 2026 — keepnetlabs.com
Pindrop — Voice Intelligence & Security Report 2025 — pindrop.com
Deloitte Center for Financial Services — Generative AI Fraud Projections 2024–2027
Signicat — The Battle Against AI Fraud 2024 — signicat.com
Sumsub — Identity Fraud Report 2024 — sumsub.com
iProov — Biometric Threat Intelligence Report 2025 — iproov.com
McAfee — Artificial Imposters: Cybercriminals Turn to AI Voice Cloning 2024
Reuters / BBC — Arup deepfake video conference fraud — $25M loss — février 2024
Bright Defense — 150+ Deepfake Statistics 2025–2026 — brightdefense.com
TrueMedia.org — Deepfake-Eval-2024 : benchmark in-the-wild — arxiv.org/abs/2503.02857
Parlement Européen — AI Act, obligations de marquage des contenus IA — en vigueur août 2025
SQ Magazine — Global Deepfake Statistics & Impact 2025 — sqmagazine.co.uk
Par où commencer — Guide de diffusion

Priorité absolue

Parlement Européen — Commissions IMCO & LIBE Compétence directe sur l'AI Act. ASML est néerlandaise : c'est leur juridiction. Formulaire de contact public disponible sur europarl.europa.eu.
Institut Montaigne (Paris) & Bruegel (Bruxelles) Think tanks à fort accès aux décideurs. Publient des policy papers qui influencent directement la législation européenne.
Hugging Face Entreprise franco-américaine hébergeant la quasi-totalité des modèles open source. Sensible à la régulation européenne. Contact : huggingface.co

Relais & amplification

MIT Technology Review · Wired · The Economist Lus par les dirigeants d'ASML, Nvidia, TSMC. Un article peut déclencher une dynamique mondiale en quelques jours.
Le Monde · Libération · Le Figaro · Les Échos Pression sur les décideurs politiques français et francophones. Rubrique "Idées" / "Tribune" — format lettre ouverte accepté.
Créateurs tech — YouTube · LinkedIn · X Yannic Kilcher, Linus Tech Tips, influenceurs FR tech — créent la pression populaire que les industriels ne peuvent pas ignorer.