Thomas Regnier : "Il n'y a pas d'arrêt sur image, pas de période de grâce, pas de pause"
L'Union européenne a fermement rejeté vendredi une demande de report de deux ans de son Règlement sur l'Intelligence Artificielle (AI Act) formulée par plus de 45 entreprises technologiques majeures. Dans une déclaration sans équivoque, le porte-parole de la Commission européenne Thomas Regnier a confirmé que le calendrier d'application de cette législation révolutionnaire sera maintenu, marquant un tournant décisif dans la gouvernance mondiale de l'IA.
Une coalition de géants européens et internationaux déboutée
La pression exercée sur la Commission européenne était considérable. Une lettre ouverte signée par des leaders industriels de premier plan, notamment ASML Holding, Airbus, Mistral AI, ainsi que les géants américains Alphabet (Google) et Meta (Facebook), demandait explicitement une suspension de l'application des règles les plus contraignantes de l'AI Act.
Cette coalition hétéroclite, coordonnée par l'initiative EU AI Champions, réunissait des entreprises européennes inquiètes de leur compétitivité face aux acteurs américains et chinois, ainsi que des multinationales américaines préoccupées par les coûts de conformité. Leur argument principal : l'incertitude réglementaire actuelle menace les ambitions européennes en matière d'IA et freine l'innovation.
"Malheureusement, cet équilibre est actuellement perturbé par des réglementations européennes floues, qui se chevauchent et sont de plus en plus complexes", affirmaient les signataires, réclamant une approche réglementaire plus favorable à l'innovation.
La Commission européenne campe sur ses positions
La réponse de Bruxelles ne s'est pas fait attendre. Lors d'une conférence de presse tenue vendredi, Thomas Regnier a balayé d'un revers de main toutes les demandes de report : "J'ai vu, en effet, beaucoup de rapports, beaucoup de lettres et beaucoup de choses dites sur l'AI Act. Permettez-moi d'être aussi clair que possible : il n'y a pas d'arrêt sur image. Il n'y a pas de période de grâce. Il n'y a pas de pause."
Cette position ferme s'appuie sur le caractère juridiquement contraignant du calendrier établi. "Nous avons des échéances légales établies dans un texte juridique", a précisé Regnier, soulignant que les obligations pour les modèles d'IA à usage général entreront en vigueur en août 2025, suivies par les règles pour les systèmes à haut risque en août 2026.
Cette décision marque une victoire pour les défenseurs d'une régulation proactive de l'IA, qui voient dans l'AI Act un modèle à suivre pour encadrer les technologies émergentes sans compromettre les droits fondamentaux.
L'AI Act : Un cadre réglementaire basé sur les risques
L'AI Act, première législation complète au monde sur l'intelligence artificielle, établit une approche graduée basée sur l'évaluation des risques. Cette réglementation révolutionnaire classe les systèmes d'IA en quatre catégories distinctes, chacune soumise à des obligations spécifiques.
Les systèmes présentant un "risque inacceptable", comme la notation sociale ou la manipulation comportementale cognitive, sont purement et simplement interdits. Cette interdiction est déjà entrée en vigueur en février 2025, marquant le début effectif de l'application de l'AI Act.
Les systèmes "à haut risque", incluant la biométrie, la reconnaissance faciale, ou l'IA utilisée dans l'éducation et l'emploi, devront respecter des obligations strictes de conformité, de transparence et de gestion des risques. Les développeurs d'applications devront enregistrer leurs systèmes et répondre à des exigences de qualité pour accéder au marché européen.
Une troisième catégorie, celle des applications à "risque limité" comme les chatbots, est soumise à des obligations de transparence plus légères, notamment l'obligation d'informer les utilisateurs qu'ils interagissent avec une IA.
Les tensions transatlantiques s'intensifient
Le refus européen intervient dans un contexte de frictions croissantes avec les États-Unis sur la gouvernance de l'IA. L'administration Trump a formellement objecté au projet de Code de bonnes pratiques de l'IA en avril 2025, arguant qu'il impose des charges excessives aux entreprises américaines.
Cette opposition américaine illustre une divergence philosophique fondamentale entre les deux rives de l'Atlantique. Alors que les États-Unis privilégient historiquement une approche de libre marché plus souple, l'Union européenne, forte de l'expérience du RGPD, mise sur des garde-fous préventifs pour protéger les droits fondamentaux.
Les géants technologiques américains n'ont pas caché leur mécontentement. Meta a qualifié une version préliminaire du code de "inapplicable", tandis que Google conteste particulièrement les dispositions relatives au respect du droit d'auteur et aux tests indépendants des modèles d'IA.
Cette tension transatlantique soulève des questions cruciales sur la gouvernance mondiale de l'IA et la capacité des différentes juridictions à imposer leurs standards à l'échelle planétaire.
Les défis de mise en œuvre persistent
Malgré cette fermeté affichée, la Commission européenne doit faire face à des retards significatifs dans la publication des documents d'accompagnement essentiels. Le Code de bonnes pratiques pour les modèles d'IA à usage général, initialement prévu pour mai 2025, a été reporté à l'été, créant une incertitude pour les entreprises.
De même, les normes harmonisées développées par le CEN-CENELEC, cruciales pour démontrer la conformité avec l'AI Act, accusent des retards importants. Initialement prévues pour août 2025, elles ne seront disponibles qu'en 2026, laissant peu de temps aux organisations pour implémenter les contrôles recommandés.
Face à ces retards, Thomas Regnier a néanmoins rassuré : "Si nécessaire, pour faire face aux retards et/ou aux lacunes possibles, la Commission pourrait envisager des solutions alternatives temporaires pour fournir des orientations aux fournisseurs et les soutenir dans leurs efforts de conformité."
Il a également précisé que ces normes "ne sont pas obligatoires" et que les fournisseurs peuvent développer des systèmes d'IA à haut risque même sans que les normes soient disponibles.
L'impact sur l'écosystème startup européen
Cette fermeté réglementaire a des implications particulières pour l'écosystème startup européen. D'un côté, elle peut créer un effet dissuasif pour les investisseurs et compliquer le financement de projets d'IA innovants. L'incertitude sur les standards finaux rend difficile l'allocation de ressources pour des projets ciblant le marché européen.
D'un autre côté, cette régulation peut aussi constituer un avantage concurrentiel pour les entreprises européennes capables de naviguer efficacement dans ce cadre réglementaire complexe. L'experience acquise dans la conformité avec l'AI Act pourrait devenir un atout exportable si ces standards s'imposent à l'échelle mondiale.
Les entreprises comme Multiplier révolutionnent déjà des secteurs traditionnels en intégrant l'IA dans des domaines réglementés, prouvant qu'innovation et conformité peuvent coexister.
Les enjeux géopolitiques de l'IA
Cette décision européenne s'inscrit dans une compétition géopolitique plus large pour la domination technologique. L'Europe mise sur l'effet "Brussels Effect", espérant que ses standards élevés en matière de protection des droits fondamentaux s'imposeront comme référence mondiale, à l'instar du RGPD.
La Chine développe parallèlement ses propres standards d'IA, créant un paysage réglementaire fragmenté qui complique les stratégies des entreprises multinationales. Dans ce contexte, la capacité de l'Europe à maintenir ses positions réglementaires tout en préservant sa compétitivité devient cruciale.
Les récents développements concernant les partenariats entre grandes entreprises tech et institutions publiques illustrent la complexité croissante de ces enjeux à l'intersection entre innovation technologique et souveraineté numérique.
Les modèles d'IA générative dans le viseur
L'AI Act accorde une attention particulière aux modèles d'IA générative comme ChatGPT, classés comme systèmes d'IA à usage général. Bien qu'ils ne soient pas considérés comme à haut risque par défaut, ces systèmes devront se conformer à des exigences strictes de transparence et de respect du droit d'auteur.
Les fournisseurs devront notamment indiquer clairement que le contenu a été généré par l'IA, concevoir leurs modèles pour empêcher la génération de contenu illégal, et publier des résumés détaillés des données protégées par le droit d'auteur utilisées pour l'entraînement.
Pour les modèles les plus avancés, comme GPT-4, des évaluations approfondies et le signalement de tout incident grave à la Commission seront obligatoires. Cette approche différenciée reconnaît le potentiel de risque systémique de ces technologies tout en évitant une régulation trop lourde.
Vers une simplification des règles numériques ?
Paradoxalement, cette fermeté sur l'AI Act s'accompagne d'une promesse de simplification des règles numériques européennes. La Commission prévoit de proposer des mesures pour alléger ses réglementations digitales d'ici la fin de l'année, notamment en réduisant les obligations de reporting pour les petites entreprises.
Cette approche dual - fermeté sur les principes, flexibilité sur les modalités - pourrait permettre à l'Europe de maintenir ses ambitions réglementaires tout en répondant aux préoccupations légitimes des entreprises concernant les coûts de conformité.
Les investissements de Nvidia dans l'IA européenne
Parallèlement à ces débats réglementaires, l'écosystème européen de l'IA continue d'attirer des investissements majeurs. Le géant des puces Nvidia a notamment participé à de nombreux tours de financement d'entreprises européennes innovantes.
Parmi les investissements les plus significatifs, Nvidia a notamment soutenu Mistral AI lors de sa levée de fonds de 640 millions de dollars en juin, valorisant la startup française spécialisée dans les grands modèles de langage à 6 milliards de dollars. Cette participation souligne l'intérêt stratégique des acteurs américains pour l'innovation européenne en IA.
Nvidia a également investi dans des startups prometteuses comme Sakana AI au Japon, qui développe des modèles d'IA générative à faible coût, ou encore dans des entreprises spécialisées dans l'IA appliquée comme Waabi pour la conduite autonome de camions.
Un calendrier qui reste inchangé
Malgré toutes les pressions, le calendrier d'application de l'AI Act demeure ferme. Les interdictions pour les systèmes à risque inacceptable sont déjà en vigueur depuis février 2025. Les obligations pour les modèles d'IA à usage général entreront en application en août 2025, suivies par les règles complètes pour les systèmes à haut risque en août 2026.
Cette progression échelonnée permet théoriquement aux entreprises de s'adapter graduellement aux nouvelles exigences, tout en maintenant la pression réglementaire nécessaire pour garantir le développement d'une IA responsable.
Conclusion : L'Europe fait le pari de la régulation proactive
En refusant catégoriquement tout report de l'AI Act, l'Union européenne affirme sa volonté de pionnier dans la gouvernance mondiale de l'intelligence artificielle. Cette position ferme, bien qu'elle suscite des résistances importantes de l'industrie, témoigne d'une approche réglementaire proactive visant à encadrer l'innovation technologique sans sacrifier les droits fondamentaux.
Le succès de cette stratégie dépendra largement de la capacité de l'Europe à maintenir son avantage réglementaire tout en préservant sa compétitivité technologique. L'enjeu dépasse les frontières européennes : il s'agit de déterminer si une approche réglementaire robuste peut coexister avec l'innovation de pointe dans le domaine de l'IA.
Les mois à venir seront cruciaux pour évaluer l'efficacité de cette approche et son impact sur l'écosystème technologique européen. La réaction des marchés et des investisseurs constituera un indicateur clé de la viabilité à long terme de ce modèle réglementaire ambitieux.
🏷️ Tags
✍️ À propos de l'auteur
Sophie Dubois
🎓 Expert IA & Technologie
📅 5+ années d'expérience
✍️ 127+ articles publiés
Journaliste tech spécialisée dans les nouvelles technologies et leur impact business. Ancienne rédactrice chez TechCrunch France.
📅 Article publié le 4 juillet 2025 à 09:52
🔄 Dernière mise à jour le 15 juillet 2025 à 10:48