Alpha-News.org ➤ L'actualité du monde est ici
L'Espagne va imposer des amendes massives pour défaut de mention de l'origine artificielle des contenus générés par l'intelligence artificielle.

MADRID, 11 mars (Reuters) - Le gouvernement espagnol a approuvé mardi un projet de loi imposant des amendes massives aux entreprises qui utilisent du contenu généré par l'intelligence artificielle (IA) sans le marquer correctement comme tel, dans le but de freiner l'utilisation des "deepfakes".

Le projet de loi adopte des directives de l'Union européenne imposant des obligations de transparence strictes aux systèmes d'IA considérés comme à haut risque, a déclaré le ministre de la Transformation numérique, Oscar López, aux journalistes.

"L'IA est un outil très puissant qui peut être utilisé pour améliorer nos vies ... ou pour propager la désinformation et attaquer la démocratie", a-t-il déclaré.

L'Espagne est l'un des premiers pays de l'UE à mettre en œuvre les règles du bloc, considérées comme plus complètes que le système des États-Unis qui repose largement sur le respect volontaire et un ensemble de ...

López a ajouté que tout le monde était susceptible d'être victime d'attaques de "deepfake" - un terme désignant des vidéos, des photographies ou des enregistrements audio qui ont été modifiés ou générés par des algorithmes d'IA mais qui sont présentés comme réels.

Le projet de loi espagnol, qui doit être approuvé par la chambre basse, classe le non-respect du marquage approprié du contenu généré par l'IA comme une "infraction grave" pouvant entraîner des amendes allant jusqu'à 35 millions d'euros (38,2 millions de dollars) ou 7% de leur chiffre d'affaires annuel mondial.

La garantie que les systèmes d'IA ne nuisent pas à la société est une priorité pour les régulateurs depuis la présentation de ChatGPT par OpenAI fin 2022, qui a impressionné les utilisateurs en engageant avec eux des conversations à la manière d'un être humain et en réalisant d'autres tâches.

Le projet de loi interdit également d'autres pratiques, telles que l'utilisation de techniques subliminales - des sons et des images imperceptibles - pour manipuler des groupes vulnérables. López a cité en exemple des chatbots incitant des personnes aux addictions à jouer de l'argent ou des jouets encourageant les enfants à relever des défis dangereux.

Il empêcherait également des organisations de classer les individus en fonction de leurs données biométriques à l'aide de l'IA, de les évaluer en fonction de leur comportement ou de leurs traits personnels pour leur accorder des avantages ou évaluer leur risque de commettre un crime.

Cependant, les autorités pourraient toujours utiliser la surveillance biométrique en temps réel dans les espaces publics pour des raisons de sécurité nationale.

L'application des nouvelles règles sera de la responsabilité de l'agence de surveillance de l'IA récemment créée, l'AESIA, sauf dans les cas spécifiques impliquant la protection des données, la criminalité, les élections, les notations de crédit, les systèmes d'assurance ou les marchés financiers, qui seront supervisés par leurs autorités de contrôle respectives.

($1 = 0,9163 euros)