La Chine et l'Europe sont à la pointe de la réglementation de l'IA - l'une d'entre elles pourrait définir le livre de jeu mondial

Un robot joue du piano à la conférence Apsara, une conférence sur le cloud computing et l’intelligence artificielle, en Chine, le 19 octobre 2021. Alors que la Chine réorganise son règlement sur la technologie, l’Union européenne élabore son propre cadre réglementaire pour freiner l’IA mais n’a pas encore franchi la ligne d’arrivée.

Str | AFP | Getty Images

Alors que la Chine et l’Europe tentent de freiner l’intelligence artificielle, un nouveau front s’ouvre autour de qui établira les normes de la technologie en plein essor.

En mars, la Chine a déployé des réglementations régissant la manière dont les recommandations en ligne sont générées par le biais d’algorithmes, suggérant ce qu’il faut acheter, regarder ou lire.

Il s’agit de la dernière salve dans le resserrement de l’emprise de la Chine sur le secteur technologique et établit un marqueur important dans la manière dont l’IA est réglementée.

“Pour certaines personnes, ce fut une surprise que l’année dernière, la Chine ait commencé à rédiger la réglementation sur l’IA. C’est l’une des premières grandes économies à l’inscrire à l’ordre du jour de la réglementation”, a déclaré à CNBC Xiaomeng Lu, directeur de la pratique géotechnique d’Eurasia Group.

Alors que la Chine réorganise son livre de règles pour la technologie, l’Union européenne élabore son propre cadre réglementaire pour freiner l’IA, mais elle n’a pas encore franchi la ligne d’arrivée.

Avec deux des plus grandes économies du monde présentant des réglementations sur l’IA, le domaine du développement de l’IA et des affaires à l’échelle mondiale pourrait être sur le point de subir un changement significatif.

Un playbook mondial en provenance de Chine ?

Au cœur de la dernière politique chinoise se trouvent les systèmes de recommandation en ligne. Les entreprises doivent informer les utilisateurs si un algorithme est utilisé pour leur afficher certaines informations, et les personnes peuvent choisir de ne pas être ciblées.

Lu a déclaré qu’il s’agissait d’un changement important car il accordait aux gens une plus grande influence sur les services numériques qu’ils utilisent.

Ces règles interviennent dans un environnement changeant en Chine pour leurs plus grandes sociétés Internet. Plusieurs des géants chinois de la technologie – dont Tencent, Alibaba et ByteDance – se sont retrouvés dans l’eau chaude avec les autorités, notamment autour de l’antitrust.

Je vois les réglementations chinoises sur l’IA et le fait qu’elles agissent en premier comme des expériences à grande échelle que le reste du monde peut regarder et potentiellement apprendre quelque chose.

Matt Sheehan

Fondation Carnegie pour la paix internationale

“Je pense que ces tendances ont considérablement modifié l’attitude du gouvernement à ce sujet, dans la mesure où ils commencent à examiner d’autres pratiques de marché et algorithmes douteux faisant la promotion de services et de produits”, a déclaré Lu.

Les mesures prises par la Chine sont remarquables, compte tenu de la rapidité avec laquelle elles ont été mises en œuvre, par rapport aux délais avec lesquels les autres juridictions travaillent généralement en matière de réglementation.

L’approche de la Chine pourrait fournir un livre de jeu qui influence d’autres lois au niveau international, a déclaré Matt Sheehan, membre du programme Asie du Carnegie Endowment for International Peace.

“Je vois les réglementations chinoises sur l’IA et le fait qu’elles avancent en premier comme exécutant essentiellement des expériences à grande échelle que le reste du monde peut regarder et potentiellement apprendre quelque chose”, a-t-il déclaré.

L’approche européenne

L’Union européenne élabore également ses propres règles.

La loi sur l’IA est la prochaine législation technologique majeure à l’ordre du jour au cours de ces quelques années chargées.

Ces dernières semaines, il a clôturé les négociations sur la loi sur les marchés numériques et la loi sur les services numériques, deux réglementations majeures qui limiteront les Big Tech.

La loi sur l’IA cherche désormais à imposer un cadre global basé sur le niveau de risque, qui aura des effets considérables sur les produits qu’une entreprise met sur le marché. Elle définit quatre catégories de risque en IA : minime, limité, élevé et inacceptable.

La France, qui assure la présidence tournante du Conseil de l’UE, a accordé de nouveaux pouvoirs aux autorités nationales pour auditer les produits d’IA avant qu’ils n’arrivent sur le marché.

La définition de ces risques et catégories s’est parfois avérée difficile, des membres du Parlement européen appelant à l’interdiction de la reconnaissance faciale dans les lieux publics pour restreindre son utilisation par les forces de l’ordre. Cependant, la Commission européenne veut s’assurer qu’il peut être utilisé dans les enquêtes tandis que les militants de la vie privée craignent qu’il n’augmente la surveillance et n’érode la vie privée.

Sheehan a déclaré que bien que le système politique et les motivations de la Chine soient “totalement anathèmes” pour les législateurs européens, les objectifs techniques des deux parties présentent de nombreuses similitudes – et l’Occident devrait prêter attention à la manière dont la Chine les met en œuvre.

“Nous ne voulons imiter aucun des contrôles idéologiques ou de la parole qui sont déployés en Chine, mais certains de ces problèmes d’un point de vue plus technique sont similaires dans différentes juridictions. Et je pense que le reste du monde devrait surveiller ce que se passe hors de Chine d’un point de vue technique.”

Les efforts de la Chine sont plus normatifs, a-t-il dit, et ils incluent des règles de recommandation d’algorithmes qui pourraient freiner l’influence des entreprises technologiques sur l’opinion publique. La loi sur l’IA, en revanche, est un effort général qui vise à rassembler toute l’IA sous un même toit réglementaire.

Lu a déclaré que l’approche européenne sera “plus onéreuse” pour les entreprises car elle nécessitera une évaluation préalable à la commercialisation.

“C’est un système très restrictif par rapport à la version chinoise, ils testent essentiellement des produits et services sur le marché, et ne le font pas avant que ces produits ou services ne soient présentés aux consommateurs.”

“Deux univers différents”

Seth Siegel, responsable mondial de l’IA chez Infosys Consulting, a déclaré qu’en raison de ces différences, un schisme pourrait se former dans la manière dont l’IA se développe sur la scène mondiale.

“Si j’essaie de concevoir des modèles mathématiques, l’apprentissage automatique et l’IA, j’adopterai des approches fondamentalement différentes en Chine par rapport à l’UE”, a-t-il déclaré.

À un moment donné, la Chine et l’Europe domineront la façon dont l’IA est contrôlée, créant des piliers “fondamentalement différents” sur lesquels la technologie se développera, a-t-il ajouté.

“Je pense que ce que nous allons voir, c’est que les techniques, les approches et les styles vont commencer à diverger”, a déclaré Siegel.

Sheehan n’est pas d’accord qu’il y aura un éclatement du paysage mondial de l’IA en raison de ces approches différentes.

“Les entreprises s’améliorent beaucoup pour adapter leurs produits aux différents marchés”, a-t-il déclaré.

Le plus grand risque, a-t-il ajouté, est que les chercheurs soient séquestrés dans différentes juridictions.

La recherche et le développement de l’IA traversent les frontières et tous les chercheurs ont beaucoup à apprendre les uns des autres, a déclaré Sheehan.

“Si les deux écosystèmes coupent les liens entre les technologues, si nous interdisons la communication et le dialogue d’un point de vue technique, alors je dirais que cela représente une menace beaucoup plus grande, avoir deux univers différents d’IA qui pourraient finir par être assez dangereux dans la façon dont ils interagissent avec l’un l’autre.”