Le jeudi 6 février 2025, Courtney Lang, représentant l’Information Technology Industry Council (ITI) auprès du Tech7, s’est exprimée lors de la réunion de restitution organisée par Numeum à Paris, en amont de l’AI France Summit 2025.
Dans son intervention, elle a exposé les enjeux et tendances majeures de la réglementation de l’intelligence artificielle à l’échelle mondiale, mettant en lumière les défis que rencontrent les entreprises et les gouvernements pour encadrer les technologies d’IA avancée tout en favorisant l’innovation.
Une vision globale de la réglementation de l’IA
Courtney Lang a débuté son intervention en rappelant que l’ITI représente 80 des entreprises technologiques les plus innovantes au monde. Ces entreprises développent et intègrent des solutions d’IA dans divers secteurs afin d’améliorer leurs processus et leur efficacité. Face à l’essor de l’IA, il devient crucial d’adopter des réglementations adaptées aux défis posés par ces technologies.
Elle a notamment souligné l’importance de l’évaluation des risques associés aux modèles d’IA avancée et les débats qui émergent sur les obligations réglementaires à leur imposer. L’Union européenne a d’ores et déjà statué sur la question avec son AI Act, tandis que d’autres pays hésitent encore sur l’approche à adopter.
Deux approches réglementaires en opposition
Courtney Lang a identifié deux grandes tendances dans les cadres réglementaires émergents :
- Une régulation globale et stricte, à l’image de l’AI Act européen, qui impose des obligations aux fournisseurs de modèles d’IA avancée.
- Une régulation sectorielle, où chaque régulateur existant adapte ses propres règles pour encadrer l’IA dans son domaine d’activité, une approche privilégiée par le Royaume-Uni.
Elle a insisté sur la nécessité d’une harmonisation des standards techniques internationaux pour garantir la conformité des entreprises et assurer une application cohérente des réglementations à travers le monde. Ces standards sont indispensables pour permettre aux entreprises de continuer à innover tout en respectant les exigences de transparence et de tests de résistance (red teaming).
Les autres enjeux clés de la régulation de l’IA
Outre la gouvernance des modèles d’IA avancée, d’autres défis majeurs sont en discussion à l’échelle internationale :
- Droit d’auteur et IA : Trouver un équilibre entre l’accès aux données nécessaire à l’innovation et la protection des droits des créateurs.
- Contenus générés par l’IA et deepfakes : Les risques liés à la désinformation et les moyens d’identifier ces contenus.
- Protection des données personnelles : La tension entre le principe de minimisation des données et le besoin d’en traiter davantage pour réduire les biais algorithmiques.
- Impact énergétique de l’IA : La nécessité de rendre les modèles d’IA plus écoénergétiques.
Les perspectives pour 2025
Courtney Lang a également abordé les stratégies réglementaires en cours d’élaboration dans différents pays :
- Singapour : Approche volontaire pour l’instant.
- Japon : Réflexion sur de nouvelles obligations réglementaires.
- Brésil : Le Sénat examine un projet de loi inspiré de l’AI Act.
- Royaume-Uni : Approche pro-innovation avec des régulateurs sectoriels.
- États-Unis : Une approche encore floue, avec une nouvelle administration Trump qui a annulé le décret IA de Joe Biden dès son arrivée au pouvoir. Faute de réglementation fédérale, certains États comme le Colorado adoptent leurs propres lois sur l’IA.
Les incertitudes liées à l’administration Trump et la législation au niveau des États
L’administration Trump n’a pas encore dévoilé de plan clair sur la régulation de l’IA, créant une incertitude sur l’orientation que prendra le pays. Le décret présidentiel sur l’IA signé par Joe Biden a été immédiatement abrogé par Donald Trump dès son retour au pouvoir, ce qui montre une volonté de rupture avec la stratégie précédente. Cette situation soulève plusieurs questions :
- L’administration mettra-t-elle en place une régulation nationale cohérente, ou laissera-t-elle chaque État agir indépendamment ?
- Les États-Unis risquent-ils un éclatement réglementaire, avec des États adoptant des lois disparates, rendant difficile l’application de standards communs pour les entreprises technologiques ?
Le Colorado a récemment adopté sa propre réglementation sur l’IA, et d’autres États pourraient suivre cet exemple, ce qui créerait une mosaïque législative complexe pour les entreprises opérant à l’échelle nationale. Cette absence de cadre fédéral clair pourrait freiner l’innovation, tout en posant des défis aux développeurs et aux régulateurs.
L’importance de la coopération internationale
Pour conclure, Courtney Lang a insisté sur le besoin urgent de collaboration entre gouvernements et entreprises afin d’uniformiser les concepts et d’établir des normes techniques communes. Elle a notamment souligné le rôle des organismes multilatéraux tels que l’OCDE, le G7 et les Nations Unies, qui doivent coordonner leurs efforts pour éviter une fragmentation réglementaire.
Elle a proposé que la France élabore un plan d’action pour clarifier et relier ces différentes initiatives internationales, permettant ainsi d’harmoniser la gouvernance mondiale de l’IA.
Un débat crucial pour l’avenir de l’IA
L’intervention de Courtney Lang a permis d’esquisser les grandes lignes du débat sur la régulation de l’IA en 2025. Alors que les technologies progressent à une vitesse fulgurante, les législateurs du monde entier doivent concilier protection des droits, transparence et encouragement à l’innovation. L’année à venir s’annonce donc déterminante pour façonner l’avenir de l’intelligence artificielle à l’échelle internationale.
Avec les efforts conjoints des entreprises et des gouvernements, il est possible de bâtir une gouvernance de l’IA qui inspire confiance, sécurité et responsabilité tout en favorisant l’innovation technologique.