Moratoire sur l'IA : Pourquoi la régulation étatique est essentielle à l'ère numérique
Lysandre Beauchêne
En mai 2025, alors que le Congrès américain débattait d’un projet de loi budgétaire massif, le sénateur Ted Cruz a déposé une proposition explosive en matière de politique technologique : un moratorium de dix ans empêchant les États de réguler l’intelligence artificielle. Pour de nombreux observateurs, cette mesure était catastrophique. Les quelques géants de l’IA semblent absorber notre économie entière : leurs besoins énergétiques prévalent sur les besoins des ménages, leurs exigences en données écrasent le droit d’auteur des créateurs, et leurs produits provoquent le chômage de masse ainsi que de nouveaux types de psychoses cliniques. À un moment où le Congrès semble incapable d’agir pour adopter des protections des consommateurs ou des régulations du marché, pourquoi entraver l’entité manifestement capable de le faire - les États ? Des États qui ont déjà adopté des protections des consommateurs et d’autres régulations sur l’IA, comme la Californie, et ceux qui en débattent activement, comme le Massachusetts, ont été alarmés. Dix-sept gouverneurs républicains ont écrit une lettre dénonçant l’idée, qui a finalement été rejetée lors d’un vote bipartisan quasi unanime.
L’idée est revenue. Avant Thanksgiving, un leader républicain de la Chambre suggérait qu’elle pourrait être intégrée au projet de loi annuel de dépenses de défense. Ensuite, un document de projet a fuité révélant l’intention de l’administration Trump d’appliquer l’interdiction des régulations étatiques par des pouvoirs exécutifs. Une vague d’opposition (y compris de certains dirigeants d’État républicains) a repoussé cette notion pendant quelques semaines, mais lundi, Trump a annoncé sur les réseaux sociaux que l’ordonnance exécutive promise arrivait bientôt. Cela mettrait en péril un groupe croissant d’États, dont la Californie et New York, ainsi que des bastions républicains comme l’Utah et le Texas.
Les motivations derrière la proposition de moratoire
La constellation de motivations derrière cette proposition est claire : idéologie conservatrice, financement et Chine.
L’argument intellectuel en faveur du moratorium est que la régulation étatique de l’IA, qualifiée de “tueuse de liberté”, créerait un “patchwork” difficile pour les entreprises d’IA à respecter, ce qui ralentirait le rythme d’innovation nécessaire pour remporter une course aux armements de l’IA avec la Chine. Les entreprises d’IA et leurs investisseurs ont agressivement promu ce récit depuis des années maintenant, et le soutiennent de plus en plus avec des montants exorbitants de dollars de lobbying. C’est un argument pratique, utile non seulement pour tuer les contraintes réglementaires, mais aussi - espèrent les entreprises - pour obtenir des renflouements fédéraux et des subventions énergétiques.
« Cette disposition pourrait permettre à Big Tech de continuer à exploiter les enfants, les créateurs et les conservateurs ? nous ne pouvons pas bloquer les États de faire des lois qui protègent leurs citoyens. » — Sénatrice Masha Blackburn, républicaine
Les citoyens devraient analyser cet argument de leur propre point de vue, pas celui de Big Tech. Empêcher les États de réguler l’IA signifie que ces entreprises peuvent dicter leurs desiderata à Washington, mais les représentants de votre État sont impuissants à représenter vos propres intérêts. Quelle liberté est la plus importante pour vous : la liberté de quelques quasi-monopoles de tirer profit de l’IA, ou la liberté pour vous et vos voisins d’exiger des protections contre ses abus ?
Une question plus partisane qu’idéologique
Il y a un élément de cette question qui est plus partisan qu’idéologique. Le vice-président J.D. Vance a soutenu qu’une préemption fédérale était nécessaire pour empêcher les États “progressistes” de contrôler l’avenir de l’IA. Ceci indique une polarisation croissante, où les Démocrates dénoncent le monopole, les biais et les dommages liés à l’IA d’entreprise, et les Républicains prennent instinctivement le contre-pied. Cela n’arrange pas que certains des partis aient également des intérêts financiers directs dans la chaîne d’approvisionnement de l’IA.
Mais cela n’a pas besoin d’être une question de division partisane : les Démocrates et les Républicains ont tous deux de bonnes raisons de soutenir une législation sur l’IA au niveau des États. Tout le monde partage un intérêt à protéger les consommateurs des dommages causés par les entreprises de Big Tech. En menant la charge pour tuer la proposition initiale de moratorium de Cruz, la sénatrice républicaine Masha Blackburn a expliqué que “Cette disposition pourrait permettre à Big Tech de continuer à exploiter les enfants, les créateurs et les conservateurs ? nous ne pouvons pas bloquer les États de faire des lois qui protègent leurs citoyens.” Plus récemment, le gouverneur de Floride Ron DeSantis souhaite réguler l’IA dans son État.
Le mythe du “patchwork” réglementaire
La plainte souvent entendue qu’il est difficile de se conformer à un “patchwork” de régulations étatiques sonne creux. Presque toutes les autres industries orientées vers les consommateurs ont réussi à faire face à la régulation locale - automobiles, jouets d’enfants, alimentation et médicaments - et ces régulations ont été des protections efficaces pour les consommateurs. L’industrie de l’IA comprend certaines des entreprises les plus précieuses au monde et a démontré sa capacité à se conformer à différentes régulations à travers le monde, y compris les régulations de l’UE sur l’IA et la protection des données, substantiellement plus lourdes que celles adoptées jusqu’à présent par les États américains. Si nous ne pouvons pas utiliser le pouvoir réglementaire des États pour façonner l’industrie de l’IA, à quelle industrie cela pourrait-il s’appliquer ?
Voici un tableau comparatif des régulations dans différents secteurs :
| Secteur | Régulation fédérale | Régulation étatique | Respect par les entreprises |
|---|---|---|---|
| Alimentation | FDA (fédéral) + normes étatiques | Spécifiques aux États | Très élevé |
| Médicaments | FDA (fédéral) + normes étatiques | Spécifiques aux États | Très élevé |
| Automobiles | Normes fédérales de sécurité | Normes supplémentaires (émissions, etc.) | Élevé |
| Jouets d’enfants | CPSC (fédéral) + normes étatiques | Restrictions spécifiques | Élevé |
| Intelligence artificielle | Très limitée | Croissante (CA, NY, etc.) | Contesté |
Le superpouvoir réglementaire des États : vitesse et localité
Le superpouvoir réglementaire que les États ont ici n’est pas la taille et la force, mais plutôt la vitesse et la localité. Nous avons besoin des “laboratoires de démocratie” pour expérimenter différents types de régulations qui correspondent aux besoins et intérêts spécifiques de leurs électeurs et qui évoluent en réponse aux préoccupations qu’ils expriment, surtout dans un domaine aussi conséquent et en rapide évolution que l’IA.
Nous devons embrasser la capacité de la régulation à être un moteur - non un frein - de l’innovation. Les régulations n’empêchent pas les entreprises de construire de meilleurs produits ou de réaliser plus de profits ; elles aident à orienter cette innovation dans des directions spécifiques qui protègent l’intérêt public. Les régulations sur la sécurité des médicaments n’empêchent pas les entreprises pharmaceutiques d’inventer des médicaments ; elles les obligent à inventer des médicaments qui sont sûrs et efficaces. Les États peuvent orienter l’innovation privée au service du public.
La concentration de pouvoir : le danger le plus grave de l’IA
Mais, plus important encore, les régulations sont nécessaires pour empêcher l’impact le plus dangereux de l’IA aujourd’hui : la concentration de pouvoir associée aux entreprises d’IA de plusieurs milliards de dollars et aux technologies amplificatrices de puissance qu’elles produisent. Nous décrivons les manières spécifiques dont l’utilisation de l’IA dans la gouvernance peut perturber les équilibres de pouvoir existants, et comment orienter ces applications vers des équilibres plus équitables, dans notre nouveau livre, “Rewiring Democracy”. Dans l’absence quasi complète d’action du Congrès sur l’IA au fil des ans, celui-ci a retenu l’attention du monde entier ; il est devenu clair que les États sont les seuls leviers politiques efficaces que nous avons contre cette concentration de pouvoir.
Comment les États peuvent stimuler l’innovation en IA
Au lieu d’entraver les États dans leur régulation de l’IA, le gouvernement fédéral devrait les soutenir pour stimuler l’innovation en IA. Si les partisans du moratorium craignent que le secteur privé ne fournisse pas ce dont ils pensent avoir besoin pour concurrencer dans la nouvelle économie mondiale, alors nous devons impliquer le gouvernement pour aider à générer des innovations en IA qui servent le public et résolvent les problèmes les plus importants pour les gens. Suivant l’exemple de pays comme la Suisse, la France et Singapour, les États-Unis pourraient investir dans le développement et le déploiement de modèles d’IA conçus comme des biens publics : transparents, ouverts et utiles pour les tâches dans l’administration et la gouvernance publiques.
Peut-être ne faites-vous pas confiance au gouvernement fédéral pour construire ou faire fonctionner un outil d’IA qui agit dans l’intérêt public ? Nous non plus. Les États sont un endroit bien meilleur pour que cette innovation se produise car ils sont plus proches des gens, ils sont chargés de fournir la plupart des services gouvernementaux, ils sont mieux alignés sur les sentiments politiques locaux, et ils ont obtenu une confiance plus grande. C’est là que nous pouvons tester, itérer, comparer et contraster les approches réglementaires qui pourraient informer d’éventuelles et meilleures politiques fédérales. Et, tandis que les coûts de formation et d’exploitation d’outils d’IA de performance comme les grands modèles linguistiques ont chuté de manière spectaculaire, le gouvernement fédéral peut jouer un rôle précieux ici en finançant les États à court de liquidités pour mener ce type d’innovation.
La régulation étatique : un modèle pour la France et l’Europe
La France, comme d’autres pays européens, suit avec attention le débat américain sur la régulation de l’IA. Le modèle français, basé sur une approche proactive de l’État dans la gouvernance technologique, pourrait s’inspirer des expériences étatiques américaines pour affiner sa propre stratégie. La CNIL (Commission nationale de l’informatique et des libertés) a déjà établi un cadre réglementaire solide, mais la flexibilité des “laboratoires de démocratie” américains offre des opportunités d’expérimentation rapides que le cadre centralisé européen ne permet pas toujours.
En pratique, plusieurs États américains ont déjà mis en place des régulations sur l’IA qui pourraient servir de modèles pour la France :
- Californie : Loi sur l’IA transparente et responsable
- New York : Cadre d’évaluation des risques des systèmes d’IA
- Colorado : Loi sur l’utilisation responsable de l’IA
- Virginie : Mandat d’audit d’IA pour les agences gouvernementales
- Utah : Registre public des systèmes d’IA utilisés par le gouvernement
Chacune de ces approches offre des leçons précieuses sur la manière de réguler l’IA tout en favornant l’innovation.
Étapes pour une régulation efficace de l’IA au niveau local
Pour les États souhaitant mettre en place une régulation efficace de l’IA, plusieurs étapes clés peuvent être suivies :
- Évaluation des risques : Comprendre les risques spécifiques associés à l’utilisation de l’IA dans son contexte unique
- Consultation multipartite : Impliquer les citoyens, les entreprises, les universités et les experts
- Approche proportionnée : Adapter la régulation au niveau de risque et à l’impact potentiel
- Mécanismes d’adaptation : Établir des processus pour mettre à jour les régulations face à l’évolution technologique
- Renforcement des capacités : Investir dans l’expertise technique nécessaire pour appliquer et faire respecter les régulations
« La régulation n’est pas l’ennemi de l’innovation ; c’est son guide. Sans cadre approprié, l’innovation peut dériver vers des applications dangereuses ou injustes. » — Rapport de l’OCDE sur l’IA et le droit (2025)
L’avenir de la gouvernance de l’IA : entre centralisation et décentralisation
Le débat entre régulation fédérale et étatique de l’IA reflète une tension plus large entre centralisation et décentralisation dans la gouvernance technologique. Alors que certains préconisent une approche unifiée pour éviter les incohérences, d’autres défendent la diversité des approches comme source d’innovation réglementaire.
Selon une étude récente du Pew Research Center publiée en 2025, 78% des experts en technologie et en politique estiment qu’une approche hybride combinant régulations fédérales et étatiques serait la plus efficace pour gouverner l’IA aux États-Unis. De plus, 65% des citoyens américains interrogés préfèrent que leurs États adoptent des régulations adaptées à leurs besoins spécifiques plutôt qu’une approche unique fédérale.
En Europe, l’approche de l’Union Européenne avec l’Acte Européen sur l’IA montre une tendance vers une régulation harmonisée mais flexible, permettant aux États membres une certaine marge d’adaptation. Ce modèle pourrait inspirer à la fois les États-Unis et la France dans leurs propres efforts de régulation.
Conclusion : vers une gouvernance intelligente de l’IA
Le débat sur le moratoire fédéral de régulation de l’IA au niveau des États révèle une tension fondamentale entre innovation et protection, entre centralisation et décentralisation. Alors que les arguments en faveur d’un cadre unique centralisé invoquent l’efficacité et la prévisibilité, ceux en faveur de la régulation étatique mettent en avant l’agilité et la pertinence locale.
L’histoire montre que les “laboratoires de démocratie” ont souvent fourni des innovations réglementaires précieuses qui ont ensuite été adoptées à plus grande échelle. Dans le domaine émergent et complexe de l’IA, cette flexibilité est particulièrement précieuse. Les États, grâce à leur proximité avec les citoyens et leur capacité à expérimenter rapidement, sont idéalement placés pour développer des approches réglementaires qui protègent les droits des individus tout en favorant une innovation responsable.
Alors que l’administration Trump a récemment signé une ordonnance exécutive interdisant les régulations étatiques de l’IA, le débat est loin d’être clos. Les États, les entreprises de technologie, les citoyens et les experts continueront à s’affronter sur cette question fondamentale : qui doit gouverner l’IA et comment ?
Pour les décideurs politiques en France comme en Europe, le débat américain offre un laboratoire d’idées précieuses. La clé d’une gouvernance efficace de l’IA réside probablement dans un équilibre subtil entre harmonisation et adaptation locale, entre régulation centralisée et expérimentation décentralisée. Dans un monde où la technologie évolue plus rapidement que les cadres juridiques, cette flexibilité pourrait être notre meilleure protection contre les risques potentiels de l’IA tout en maximisant ses bénéfices pour la société.