Intelligence artificielle : l’Union européenne et les Etats-Unis organisent un cyber-dialogue
La question du développement de la réglementation de l’IA est controversée dans les relations commerciales transatlantiques. En effet, l’Union européenne et les Etats-Unis adoptent des cadres juridiques reposant sur des méthodes et objectifs différents. Néanmoins, la coopération sur la sécurité des systèmes d’IA au sein du Conseil transatlantique technologique se renforce.
La coopération s’intensifie en matière de recherche et développement (R&D) de pré-normalisation de l’IA afin de faire progresser les bases techniques et scientifiques de l’élaboration de normes internationales.
Divergence des approches législatives
L’approche européenne
En mars, le Parlement européen a adopté le règlement sur l’intelligence artificielle, un règlement global qui vise à harmoniser les règles relatives à l’IA dans les 27 États membres. Ce règlement a été salué par certains comme une mesure nécessaire pour empêcher un développement imprudent de l’IA mais critiquée par d’autres comme créant un obstacle interventionniste au libre-échange technologique.
La Commission européenne a immédiatement mis en place l’Office de l’intelligence artificielle dans le cadre de la structure administrative de la direction générale des réseaux de communication, du contenu et des technologies (DG CNECT). Ce Bureau sera le centre d’expertise de référence dans l’ensemble de l’Union européenne. Il jouera un rôle clé dans la mise en œuvre du règlement sur l’IA, en particulier pour les systèmes d’IA à usage général.
L’Office européen de l’intelligence artificielle favorisera le développement et l’utilisation d’une IA fiable ainsi que la coopération internationale. L’action de la Commission européenne s’étend également dans le cadre multilatéral au G7, aux Nations Unies et au Conseil de l’Europe.
L’approche étasunienne
Aux États-Unis, 17 des 50 États américains ont adopté une législation réglementant l’IA depuis ces cinq dernières années (Californie, Colorado, Connecticut, Delaware, Illinois, Indiana, Iowa, Louisiane, Maryland, Montana, New York, Oregon, Tennessee, Texas, Vermont, Virginia et Washington).
Toutefois, avec un Congrès américain politiquement polarisé, l’administration Biden a progressivement avancé une supervision du développement des systèmes d’IA tout d’abord avec un décret établissant de nouvelles normes pour les développeurs et introduisant des mesures pour prévenir l’utilisation de l’IA pour créer des bio-menaces (octobre 2023).
Fin mars 2024, c’est le Bureau de la gestion et du budget qui a annoncé de nouvelles directives à l’intention des ministères et organismes fédéraux. Elles imposent de :
- Désigner un directeur de l’IA et
- Élaborer une stratégie pour faire progresser l’utilisation responsable de l’intelligence artificielle.
Préservation de la collaboration bilatérale pour une IA digne de confiance
La Commission européenne et les États-Unis sont tous deux attachés à une approche de l’IA fondée sur les risques. Ils se rejoignent aussi quant à l’impératif de développer une IA responsable et fiable. Des exemples américains peuvent être vus dans le projet de cadre de gestion des risques de l’IA du National Institute of Standards and Technology (NIST) ainsi que dans le plan directeur du Bureau de la politique scientifique et technologique de la Maison Blanche pour une déclaration des droits de l’IA.
La coopération transatlantique sur les normes et outils techniques internationaux pour une IA fiable et la gestion des risques devrait promouvoir : la sûreté, la sécurité, l’équité, la non-discrimination, l’interopérabilité, l’innovation, la transparence, la diversité des marchés, la compatibilité et l’inclusion.
Sur le plan des relations bilatérales, c’est à l’occasion de sessions du Conseil “Commerce et Technologie” (Trade and Technology Council) que l’Union européenne et les États-Unis déterminent le périmètre de leur collaboration.
En décembre dernier, l’Union européenne et les États-Unis ont discuté leur engagement commun. L’objectif est de construire un partenariat résilient en matière de cybersécurité, d’internet ouvert, interopérable, sûr et fiable, source de stabilité dans le cyberespace.
Renforcer la confiance mutuelle grâce aux tests des systèmes d’IA
Le sixième cycle de dialogue s’est déroulé les 4 et 5 avril 2024 à Louvain, sous l’égide de la présidence belge de l’Union européenne, avec les commissaires de l’Union européenne Margrethe Vestager, Valdis Dombrovskis et Thierry Breton, aux côtés de Gina Raimondo et Antony Blinken, secrétaires d’État américain.
Cette semaine, ce sont les termes de la coopération entre le Bureau de l’IA de l’Union européenne et l’Institut américain de la sécurité d’IA qui ont été fixés.
Ces institutions ont convenu de commencer un dialogue visant à renforcer leur coopération, notamment en facilitant les échanges d’informations scientifiques entre leurs différentes entités. Les sujets abordés incluront les indices de référence, les risques éventuels et les tendances technologiques à venir.
« Cela renforcera notre collaboration, en particulier pour favoriser l’échange d’informations scientifiques entre nos entités sur des sujets tels que les critères de référence, les risques et les tendances technologiques futures », a déclaré le porte-parole.
Feuille de route commune sur les outils d’évaluation et de mesure pour une IA et une gestion des risques dignes de confiance
Réduire au minimum les risques de divergence dans les systèmes de gouvernance et les réglementations est essentiel pour l’Union européenne et les Etats-Unis. Rappelons que les investissements entre les deux blocs dépassent les 5000 milliards de dollars, le commerce de biens et de services dépassant 1 200 milliards de dollars.
À la suite de consultations des parties prenantes, l’Union européenne et les Etats-Unis ont poursuivi l’élaboration d’une liste de termes clés de l’IA assortis de définitions communes mutuellement acceptées et ont publié une version mise à jour de la taxonomie commune.
Les deux parties ont salué la résolution plénière de l’Assemblée générale des Nations unies intitulée « Saisir les possibilités de systèmes d’intelligence artificielle sûrs, sûrs et dignes de confiance pour le développement durable » (voir article).
Enfin, l’Union européenne et les États-Unis visent à servir de modèle aux autres Etats en adhérant aux principes sur les Obstacles Techniques au Commerce de l’Organisation Mondiale du Commerce. Cela inclut le soutien et l’utilisation de normes internationales, le cas échéant, comme base pour les règlements techniques, les évaluations de conformité et les normes régionales.
Dans le même temps et en collaboration avec leurs parties prenantes et mécanismes respectifs, l’Union européenne et les États-Unis visent à identifier les lacunes critiques dans les activités existantes d’élaboration de normes internationales en matière d’IA.
Références
The White House, President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, 30/10/2023.
The Council of States Government, Artificial Intelligence in the States: Emerging Legislation, 06/12/2023.
European Commission, EU and the United States hold Cyber Dialogue in Brussels, Press Release, 07/12/2023.
European Commission, Decision establishing the European Artificial Intelligence Office, C(2024)390 final, 24/01/2024.
Parlement européen, Intelligence artificielle : les députés adoptent une législation historique, Communiqué de Presse, 13/03/2024.
Business Europe, US Chamber f Commerce, U.S. & E.U. Trade & Technology Council: Business Priorities for April 2024, 01/04/2024.
European Commission, EU-U.S. Terminology and Taxonomy for Artificial Intelligence – Second Edition, 05/04/2024 (lien).
European Commission, Joint Statement EU-US Trade and Technology Council, 06/04/2024.
1 commentaire