La Chine va mettre l’accent sur la sécurité liée à l’intelligence artificielle

L’intelligence artificielle (IA) était au centre des débats lors du troisième plénum du 20e Comité central du Parti communiste chinois (PCC), qui s’est tenu à Pékin du 15 au 18 juillet 2024. L’ordre du jour de cette réunion était centré sur la politique économique de la Chine.

Une contribution de Johanna Costigan pour Forbes US – traduit par Flora Lucas

 

À l’issue de ce troisième plénum, les dirigeants chinois ont détaillé comment l’IA devrait être mise au service de la croissance économique, de la coopération avec les pays en développement et de la protection des mineurs en ligne. Cependant, les membres du Comité central du PCC se sont avant tout intéressés à la sécurité de l’IA et aux implications de cette technologie pour la sécurité nationale de la Chine.

Le président chinois Xi Jinping a déclaré à l’issue du troisième plénum que la Chine allait créer un mécanisme de surveillance de la sécurité de l’IA (« établir un système de réglementation de l’IA », pour une traduction plus fidèle à la version originale). En d’autres termes, Xi Jinping appelle la Chine à « mieux tirer parti de la science et de la technologie pour sauvegarder la sécurité nationale ».

 

La sécurité de l’IA au cœur des préoccupations

De nombreux dirigeants dans le monde, qui ont à cœur les questions de gouvernance, estiment de plus en plus qu’il relève de leur responsabilité d’essayer de rendre l’IA « sûre », même si leurs efforts ont un coût pour l’industrie. Néanmoins, ils ne se sont pas encore mis d’accord, et ne le feront peut-être jamais, sur le niveau de coût tolérable ou, plus fondamentalement, sur les détails du concept de « sécurité » de l’IA.

La crainte d’étouffer l’innovation est toujours d’actualité aux États-Unis, mais pas autant qu’à l’époque où les inconvénients de l’IA pour les utilisateurs (et les avantages pour les milliardaires de la technologie comme Mark Zuckerberg, qui a publié un manifeste plaidant en faveur de modèles d’IA à code source ouvert) étaient moins opaques. La couverture médiatique des dangers de l’IA dans des domaines tels que le deepfake porn a mis en lumière le côté obscur de l’IA générative.

Les acteurs de l’industrie commencent peut-être à paniquer. Selon le manifeste de Mark Zuckerberg : « Je pense qu’il serait préférable de vivre dans un monde où l’IA est largement déployée afin que les grands acteurs puissent contrôler le pouvoir des petits mauvais acteurs », écrit-il, imaginant commodément que les bons sont majoritaires.

Son argument est pratique : la norme open-source qu’il envisage pourrait l’exonérer, lui et d’autres PDG de la technologie, des abus de l’IA en aval qui ne sont ni possibles ni probables, alors que ces abus ont déjà lieu. Comme l’a déclaré Arati Prabhakar, directrice du Bureau de la politique scientifique et technologique de la Maison-Blanche, au podcast Decoder au début du mois, « le fait est que des dommages dévastateurs se produisent aujourd’hui, et je pense que nous ne devrions pas prétendre qu’il ne s’agit que d’un problème futur ».

Si Washington a été lent à agir, certaines localités semblent de plus en plus conscientes et inquiètes des dangers d’une IA non maîtrisée. Ainsi, la Californie a adopté la loi SB1047 et la ville de New York a institué une loi sur l’IA pour éviter les biais. Parallèlement, en mars, le Parlement européen a adopté une législation sur l’IA, qui affirme que la sécurité et l’innovation ne sont pas antinomiques.

 

La stratégie chinoise, entre renforcer la sécurité de l’IA et concurrencer les États-Unis sur le marché de l’IA

Dans ce contexte, l’attention portée par le troisième plénum du 20e Comité central du PCC à la sécurité de l’IA suggère que les dirigeants chinois ne se préoccupent pas seulement de gagner la course à l’IA contre les États-Unis : ils sont également très inquiets à l’idée de remporter des batailles internes fondées sur le potentiel de l’IA à perturber la loi et l’ordre (ou, dans la terminologie du parti, la « stabilité sociale »). Ce malaise n’est pas nouveau. L’année dernière, dans la première affaire de ce type, les autorités chinoises ont arrêté un suspect pour avoir utilisé un chatbot (en l’occurrence, ChatGPT d’OpenAI) afin de créer et de diffuser un contenu synthétique dangereux (une histoire d’accident ferroviaire qui n’a jamais eu lieu).

Cependant, à mesure que les applications de l’IA se développent et se diversifient, les appels de la Chine en faveur de garde-fous nationaux et mondiaux suivent le même rythme. Le 1er juillet, l’Assemblée générale des Nations unies a adopté une résolution sur la gouvernance de l’IA proposée par la Chine. Moins de deux semaines plus tard, Wang Hongyu, directeur du bureau de recherche de la commission des affaires juridiques du Congrès national du peuple, a prononcé un discours sur la gouvernance de l’IA lors de la conférence chinoise sur l’État de droit en ligne. Ses remarques ont porté sur la responsabilité juridique et les questions éthiques « profondes » posées par l’IA. Il a mis en garde contre l’exagération des risques, mais a également appelé la Chine à « protéger globalement » les intérêts de la sécurité nationale, le développement industriel, les droits et les intérêts des citoyens et la justice sociale. Le discours de la Chine sur la manière de gouverner, de déployer et d’alimenter l’IA est porteur d’une tension familière à d’autres grandes économies.

En outre, si les experts chinois semblent reconnaître les menaces pour la sécurité nationale inhérentes aux systèmes d’IA actuels et futurs, ils ont également montré qu’ils n’avaient pas l’intention de s’élever au-dessus d’une question de sécurité nationale plus traditionnelle : la concurrence avec les États-Unis. Ni les États-Unis ni la Chine ne semblent particulièrement intéressés par cette tentative.

 


À lire également : Les Jeux olympiques entrent dans l’ère de l’IA

Crédit: Lien source

Les commentaires sont fermés.