Technologie. Accord dans l’UE pour bannir les IA qui créent de fausses images sexuelles

Les États membres et le Parlement européen se sont entendus dans la nuit de mercredi à jeudi pour interdire dans l’UE les services d’intelligence artificielle (IA) permettant de « dénuder » des personnes sans leur consentement.

Mardi, la Première ministre italienne Giorgia Meloni a vivement dénoncé des fausses photos d’elle générées par l’intelligence artificielle (IA), qualifiant ces deepfakes d’« outil dangereux ».

Ce contenu est bloqué car vous n’avez pas accepté les cookies et autres traceurs.

En cliquant sur « J’accepte », les cookies et autres traceurs seront déposés et vous pourrez visualiser les contenus (plus d’informations).

En cliquant sur « J’accepte tous les cookies », vous autorisez des dépôts de cookies et autres traceurs pour le stockage de vos données sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.

Vous gardez la possibilité de retirer votre consentement à tout moment en consultant notre politique de protection des données.

Gérer mes choix



De nouvelles mesures de sécurité strictes

Selon le Parlement, la nouvelle interdiction européenne porte sur les systèmes permettant de créer des images, vidéos, et sons à caractère pédopornographique, ou représentant les parties intimes d’une personne identifiable, ou la mettant en scène dans des activités sexuelles, sans son consentement.

La nouvelle réglementation s’appliquera à partir du 2 décembre 2026. A cette date, les IA devront donc être dotées de mesures de sécurité les empêchant de générer de tels contenus. Cette mesure a été adoptée dans le cadre d’une révision de la législation européenne sur l’IA, ou AI Act, une loi pionnière formellement adoptée il y a deux ans.

A cette occasion, les 27 et les eurodéputés ont également accepté, comme le proposait la Commission européenne, de reporter l’entrée en vigueur de nouvelles règles visant à encadrer l’activité des systèmes d’intelligence artificielle dits à hauts risques, c’est-à-dire ceux actifs dans les domaines sensibles de la sécurité, la santé ou encore les droits fondamentaux. Ces règles, censées entrer en vigueur en août, seront finalement appliquées à partir du 2 décembre 2027 pour les systèmes à hauts risques « autonomes », et du 2 août 2028 pour ceux intégrés à d’autres programmes ou produits.

Crédit: Lien source

Laisser un commentaire

Votre adresse email ne sera pas publiée.