le gouvernement britannique crée la technologie de Person of Interest

Le gouvernement britannique veut être capable de prédire un crime avant qu’il n’arrive. Il a donc lancé le développement d’une IA en secret depuis deux ans.

programme de prédiction des meurtres

Des livres de Jules Verne à de nombreux films, l’art a souvent été prémonitoire, pour ce qui concerne les avancées technologiques. Bien avant même que l’IA devienne réalité, de nombreux livres et films ont déjà peint certains de ses usages qui pourraient très bientôt devenir réalité. C’est notamment le cas de la série américaine Person of Interest dans laquelle une technologie est employée, surveillant la population au quotidien, et détecte les crimes avant qu’ils ne se produisent. Un agent est ensuite utilisé afin d’éviter que ce crime ne se concrétise. Selon les révélations de The Guardian, le gouvernement britannique s’est lancé dans un tel projet depuis deux ans.

Une technologie qui analyse en permanence les profils des citoyens

Le gouvernement britannique, à travers son ministère de la Justice, développerait depuis deux ans un programme de prédiction des meurtres. D’après l’article du quotidien britannique, le projet est en développement depuis deux ans et porte initialement pour nom « Projet de prédiction des homicides ». Ce n’est que plus tard que l’intitulé change pour devenir « Partage de données pour améliorer l’évaluation des risques ».

Selon l’article, le programme basé sur l’intelligence artificielle est entrainé avec près de 500 000 dossiers de citoyens aux profils bien détaillés. Il aurait par exemple accès à leur nom, prénom, âge, sexe, origines ethniques et plusieurs autres informations extrêmement précisent : handicap, addictions, pensées suicidaires, problèmes de santé, etc. Selon les spécialistes, ces marqueurs précis auraient de grands pouvoirs de prédictions.

En développement, le programme aurait déjà commencé à être utilisé en phase pilote. Néanmoins, à ce jour, aucune des personnes analysées n’aurait été condamnée, car il ne s’agirait que de victimes ou des témoins.

VOIR AUSSI : AlphaFold : l’IA serait capable de prédire la structure presque complète des protéines humaines

Un programme jugé dystopique et effrayant

D’après Sofya Lyall, chercheuse chez Statewatch, organisation qui a mené les enquêtes, un tel programme automatisé serait « une grave erreur », notamment en raison des données qui lui sont fournies. « Ce serait une chose hautement intrusive et alarmante. »

Ce système est conçu pour identifier les menaces potentielles avant qu’elles ne se matérialisent, en traitant des informations provenant de diverses sources, telles que les caméras de surveillance, les communications téléphoniques et les réseaux sociaux. L’utilisation de l’algorithmie avancée permet de classer ces menaces en deux catégories : « pertinentes » et « non pertinentes ». Cependant, cette catégorisation soulève des préoccupations éthiques concernant la vie privée et le consentement.

L’organisation a déjà qualifié le programme de « dystopique », « effrayant » et « intrusif ». Elle pense que son déploiement « ne ferait que participer au renforcement de « la discrimination structurelle du système de justice pénale ».

Cependant, d’après les révélations d’un responsable du ministère de la Justice, le programme en cause n’aurait été développé qu’à des fins de recherche. Le gouvernement n’aurait aucune intention de s’en servir pour de vrai. Un rapport devrait bientôt être publié sur les résultats de recherches menées avec ladite machine.

BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :

Crédit: Lien source

Laisser un commentaire

Votre adresse email ne sera pas publiée.