Selon cette étude, les populations « moins éduquées » adopteraient plus rapidement les outils d’Intelligence Artificielle !

Une récente étude menée par des chercheurs de l’Université de Stanford (Californie, USA) a démontré un phénomène étonnant concernant l’utilisation des LLM (Large language model – Grand modèle de langage) comme celui de ChatGPT. En effet, si l’on pouvait penser que l’adoption d’une telle technologie d’intelligence artificielle pourrait se faire très rapidement dans les zones particulièrement équipées et éduquées à l’utilisation de cette technologie, il semblerait que ça ne soit pas le cas au regard des chiffres. 

Un fait qui se concrétise encore plus par les dires des chercheurs de l’Université de Stanford. “Notre étude montre l’émergence d’une nouvelle réalité dans laquelle les firmes, les consommateurs et même les organisations internationales se reposent sur les IA génératives pour leurs communications” ont-ils déclaré dans des propos rapportés par Ars Technica

En effet, pour en venir à cette conclusion, une analyse approfondie sur l’adoption des LLM dans différents secteurs, entre janvier 2022 et septembre 2024, a été réalisée. 

Et les chiffres donnent un peu le tournis. Au total, 687 241 plaintes consommateurs, 537 413 communiqués de presse d’entreprises, 304,3 millions d’offres d’emploi et 15 919 communiqués de presse des Nations Unies ont été passés au crible. 

En utilisant un système de détection mettant en avant une assistance de l’intelligence artificielle dans la production d’un document les chercheurs ont montré que : 

  • 18% des plaintes consommateurs, 
  • 24% des communiqués de presse des entreprises
  • 15% des offres d’emploi
  • et 14% des communiqués des Nations Unies avaient reçu une assistance de l’intelligence artificielle dans leur rédaction. 

Mais ce ne sont pas ces chiffres qui ont le plus étonné les chercheurs, même s’ils sont impressionnants. En effet, les scientifiques ont été surpris de remarquer que si l’adoption de cette technologie aux États-Unis était, globalement, plus élevée dans les zones dites “éduquées”, la fréquence d’utilisation de ces nouveaux outils, à l’image de ChatGPT, était bien plus élevée dans les zones dites “moins éduquées”. 

Un “outil égalisateur” qui défie les préjugés ?

Même s’il peut paraître étonnant que les Nations Unies utilisent l’intelligence artificielle pour rédiger leurs communiqués de presse, ce n’est pas ce qui a interloqué les chercheurs. 

En effet, en mettant de côté les communiqués de presse et les offres d’emploi, une attention toute particulière a été portée sur les plaintes des consommateurs. 

Permettant d’avoir une visibilité sur la zone d’où est émise un tel document à destination d’un service particulier, les chercheurs ont donc pu mettre en avant que proportionnellement, certains États où la population est considérée comme “moins éduquée” avaient adopté l’intelligence artificielle à un taux plus élevé que dans d’autres États, plus peuplés, mais aussi considérés comme “plus éduqués”. 

Ainsi, en Arkansas, sur 7376 plaintes de consommateurs, 29,2% avaient été écrites avec l’aide de l’IA. Dans le Missouri, sur 16 807 plaintes, 26,9% avaient été rédigées à l’aide de l’intelligence artificielle. Enfin, le Dakota du Nord complète le podium où sur un peu plus de 1000 plaintes, 24,6% avaient été produites, entièrement ou en partie, à l’aide d’un LLM. 

A contrario, des États concentrant une grande population et un accès à la technologie bien plus facile et démocratisé comme la Californie (17,4% des 157 056 plaintes) ou l’État de New York (16,6% des 104 862 plaintes) montraient des taux d’adoption de l’IA bien plus faibles dans la production de ces documents. 

Un constat important qui a permis aux chercheurs d’exprimer la théorie de l’intelligence artificielle comme un outil égalisateur entre les zones rurales et urbaines. 

Alors que la fracture numérique entre les villes et les campagne semble persister, notre constatation que les régions à faible niveau d’instruction affichent des taux d’adoption des LLM légèrement plus élevés dans les plaintes des consommateurs suggère que ces outils peuvent servir d’outils d’égalisation dans la défense des consommateurs.” ont-ils expliqué dans des propos rapportés par Ars Technica

Cependant, même si les chiffres semblent parler d’eux-mêmes, l’étude se limite uniquement aux contenus (plaintes, communiqués, offres d’emploi) écrits en anglais et diffusés en ligne. 

Mais plus important encore, bien que les chercheurs aient pu détecter l’assistance de l’IA dans la production des documents, ils ont expliqué ne pas être dans la capacité de détecter les possibles modifications apportées par un être humain sur un texte généré par une IA, mais aussi de détecter les textes qui ont été spécialement écrits par des IA codées pour imiter parfaitement un style d’écriture humain.  

De fait, de futures études devront être menées pour savoir si oui ou non l’IA est vraiment un outil égalisateur dans la société. 

Source : Ars Technica


Crédit: Lien source

Laisser un commentaire

Votre adresse email ne sera pas publiée.