Alors que l’IA continue de transformer notre monde, la gouvernance de cette technologie puissante s’impose comme l’un des défis les plus pressants de notre époque.
Nous sommes à un moment charnière dans l’évolution de l’IA. Le rythme de l’innovation s’accélère avec l’arrivée de nouveaux acteurs dans le secteur, comme la start-up chinoise DeepSeek, qui a récemment secoué le monde avec ses modèles de langage massifs et économiques. L’entrée de DeepSeek dans la course à l’IA souligne encore davantage que nous sommes à l’aube d’une nouvelle phase d’innovation – une phase qui devrait entraîner une adoption accrue et, sans doute, une démocratisation de l’IA, à mesure que la technologie devient plus abordable et plus efficace.
Les répercussions de DeepSeek et son influence sur la rivalité technologique entre les États-Unis et la Chine, ainsi que sur des dynamiques géopolitiques plus larges, offrent à l’Union européenne une opportunité stratégique d’affirmer sa propre position. Coïncidant avec ce moment, l’UE a dévoilé sa stratégie Competitive Compass, qui vise à donner la priorité à la réduction du fossé de l’innovation dans le secteur de l’IA. Par des investissements ciblés dans les start-ups et l’ensemble de l’écosystème IA, cette initiative devrait stimuler l’innovation au sein de l’Union.
Trouver l’équilibre entre l’accélération de l’innovation et la gouvernance
Où en sommes-nous en matière de gouvernance après ces avancées récentes ? Les critiques de l’orientation actuelle soutiennent que ces progrès et la pression exercée par les gouvernements du monde entier pourraient accorder plus d’importance à l’innovation qu’à la réglementation, avec un fort accent mis sur le développement de nouveaux modèles, l’exploitation des solutions open source et une compétition agressive dans le secteur de l’IA. Ce point de vue suscite des inquiétudes quant à la possibilité que les mesures de gouvernance soient négligées, alors que la volonté d’innover prend le pas sur la nécessité d’un encadrement, créant un scénario où les considérations éthiques et les cadres réglementaires sont insuffisamment traités. Inversement, certains estiment que cette priorité est essentielle, considérant la régulation comme une contrainte bureaucratique et jugeant que les entreprises peuvent fonctionner de manière autonome. Ils affirment que remporter cette course est crucial pour accroître la productivité et renforcer l’économie.
Bien que la gouvernance de l’IA ait progressé, il est essentiel que les gouvernements, les entreprises, la société civile et le monde académique réfléchissent aux évolutions récentes. Ils doivent analyser comment la démocratisation croissante de l’IA et la réduction des barrières à l’entrée influencent les discussions sur la gouvernance que nous avons engagées jusqu’à présent.
La gouvernance de l’IA vise à garantir que l’intelligence artificielle serve l’humanité plutôt que de la desservir. Cela englobe divers éléments, notamment les réglementations, les normes, les conditions d’utilisation des produits IA, ainsi que les cadres de gouvernance adoptés par les entreprises pour l’utilisation, le développement et le déploiement des technologies d’IA. Les approches en matière de gouvernance varient considérablement : l’UE a introduit l’AI Act, tandis que les réglementations aux États-Unis semblent se structurer au niveau des États. Dans la région Asie-Pacifique, plusieurs directives et documents de politique publique ont déjà été mis en œuvre. Pendant ce temps, des normes sont en train d’être établies, allant des cadres ISO aux initiatives européennes de la CENELEC.
Alors que l’IA devient de plus en plus accessible et que les barrières à l’entrée sont (à juste titre) réduites, nous devons anticiper de nouveaux défis.
Le principal défi réside dans la nature intrinsèquement mondiale de la gouvernance de l’IA – elle nécessite une collaboration internationale pour garantir que les systèmes d’IA soient équitables, inclusifs et résilients. Le danger est que, alors que la course à l’IA s’intensifie, la quête de suprématie technologique prenne le pas sur la responsabilité, freinant la mise en place de stratégies globales pour répondre à des problématiques critiques telles que la désinformation.
Ensuite, l’IA open source offre des opportunités substantielles d’innovation grâce aux initiatives collaboratives. La définition de l’open source dans le contexte de l’IA a fait l’objet de débats permanents, notamment parce que de nombreux outils manquent de transparence sur les données utilisées pour leur entraînement. Cependant, une caractéristique clé de l’IA open source est la publication des model weights. Il est probable que davantage d’entreprises créeront et adopteront ces modèles afin de réduire leurs coûts et d’accélérer l’innovation. Néanmoins, il est essentiel de reconnaître les défis liés à l’open source, notamment en ce qui concerne la propriété intellectuelle, la confidentialité et les risques de cybersécurité. La disponibilité des poids des modèles, de leur architecture et des méthodologies d’entraînement pourrait donner aux acteurs malveillants un levier pour exploiter ces modèles. Bien que les avantages liés à la publication de grands modèles l’emportent généralement sur les inconvénients, les utilisateurs et développeurs doivent rester conscients des risques inhérents aux pratiques open source. En outre, la collaboration entre gouvernements, entreprises et universités est cruciale pour faire avancer la recherche dans ce domaine.
Enfin, nous pouvons nous attendre à des bouleversements significatifs du marché technologique. Les modèles propriétaires et open source devraient coexister, avec des entreprises cherchant à innover et à améliorer l’efficacité de ces outils. Cependant, en fin de compte, aussi bien les organisations que les individus se tourneront vers des produits en lesquels ils ont confiance. La confiance est un facteur essentiel, souvent évoqué dans les discussions sur la gouvernance de l’IA, où nous insistons sur le fait qu’elle est nécessaire pour favoriser la croissance. Bien que ce principe soit vrai, nous n’avons pas encore atteint de consensus sur ce que signifie réellement la confiance.
Ces dernières années, les fondements de notre monde ont été mis à l’épreuve. Les modèles d’IA générative remettent en question des concepts fondamentaux tels que la vie privée – via le web scraping –, le droit d’auteur, qui ne peut plus rester inchangé, et la sécurité – avec la production rapide de deepfakes pouvant compromettre l’intégrité des élections. Ces modèles, qu’ils soient open source ou propriétaires, perpétuent des biais et reflètent la société dans laquelle nous vivons.
Ainsi, une question essentielle émerge : celle de la confiance. Quels principes devons-nous définir pour l’assurer ? Inclusivité, équité, transparence, sécurité, respect de la vie privée et juste répartition des bénéfices de l’IA sont autant de critères fondamentaux. Mais comment parvenir à un consensus sur ces enjeux dans un contexte de compétition acharnée autour de l’IA ? C’est pourquoi il est impératif que l’ensemble de l’écosystème réaffirme son engagement en faveur d’une IA responsable et trace une voie claire pour son développement.
Crédit: Lien source