Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Naaia, premier AIMS européen est la solution pour garantir la conformité des entreprises à l’AI Act et bloquer les IA interdites

avril 2024 par Patrick LEBRETON

La version finale de l’AI Act a été proposée aux entreprises au sein de l’Union européenne. Son objectif principal est de favoriser l’adoption d’une IA centrée sur l’humain et fiable, tout en assurant une protection robuste des droits fondamentaux, de la sécurité et de la santé. Cette dernière doit être mise en vigueur en 2026, exception faite des SIA à risques inacceptables.

En 2023, un tiers des entreprises européennes ont adopté l’IA, soit un taux de croissance de 32 % depuis l’année précédente. En outre, 68 % des entreprises adoptant l’IA utilisent un grand modèle de langage (LLM) ou l’IA générative*. Avec l’AI Act, cette proposition de règlement tente de ménager l’équilibre entre régulation et innovation, tout en imposant des restrictions et des sanctions.

L’AI Act a développé une section spécifique qui met en avant 8 groupes de pratiques de SIA à risques inacceptables et qui seront interdites au sein de l’UE d’ici la fin de l’année 2024. Parmi elles, nous retrouvons :

 Les techniques subliminales et manipulatrices entraînant des préjudices importants
Cette interdiction vise à protéger les personnes contre les influences qui les amèneraient à perdre leur libre arbitre et à prendre des décisions qu’elles n’auraient pas prises autrement.

 L’exploitation des vulnérabilités entraînant des préjudices importants
Il est interdit d’utiliser un SIA pour exploiter les vulnérabilités de groupes spécifiques de personnes, telles que celles fondées sur l’âge, le handicap ou la situation socio-économique, afin d’altérer leur comportement d’une manière préjudiciable.

 La « notation sociale » par les autorités publiques et privés
Il est interdit d’utiliser un SIA qui évalue ou classe les personnes sur la base de leur comportement social ou de leur caractéristique personnelle dans le but de leur attribuer une note sociale.

 La déduction émotionnelle sur le lieu de travail et dans des établissements d’enseignement
Il est interdit d’utiliser un SIA pour déduire des émotions sur le lieu de travail ou dans un cadre éducatif, sauf pour des raisons médicales ou de sécurité. Cela signifie qu’il est interdit d’inférer des émotions (colère, joie, surprise, ...) à partir des données biométriques des personnes.

 La catégorisation biométrique des attributs sensibles
Il est interdit d’utiliser un SIA pour catégoriser des individus sur la base de données biométriques afin d’en déduire des attributs sensibles (race, opinions politiques, affiliation à une organisation syndicale, convictions religieuses ou philosophiques, vie sexuelle ou orientation sexuelle).

 La collecte non ciblé d’images faciales à partir de l’internet ou des systèmes de vidéosurveillance
Il est interdit d’utiliser un SIA qui favoriserait la surveillance de masse et qui pourrait entraîner des violations du droit au respect de la vie privée dans le but de constituer ou étayer des bases de données.

 Le profilage d’une personne physique pour évaluer ou prédire la commission d’un crime
Il est interdit d’utiliser un SIA pour évaluer ou prédire la probabilité qu’une personne commette un crime, en se fondant uniquement sur le profilage ou sur l’évaluation de ses traits de personnalité ou caractéristiques.

 L’identification biométrique à distance et en temps réel dans des espaces accessibles au public par les forces de l’ordre
Il est interdit d’utiliser un SIA un système d’identification biométrique à distance et en temps réel dans les espaces publics à des fins de maintien de l’ordre (exception pour les cas de menaces spécifiques et importantes).

Les sanctions pour non-respect des règles en vigueur rappellent celles du RGPD : une amende de plusieurs millions d’euros ou un pourcentage des revenus globaux de l’entreprise fautive. De plus, les règles s’appliqueront aux entreprises étrangères à l’UE qui opèrent en son sein.

Naaia, premier AIMS (Artificial Intelligence Management System) européen multi-législations et multi-référentiels, apporte une réponse opérationnelle aux besoins de mise en conformité des organisations avec un outil de gestion des risques de l’IA pour le déploiement d’une IA responsable.

Naaia s’est doté de nouvelles fonctionnalités pour aider ses clients à se conformer à l’AI Act, la nouvelle réglementation européenne sur l’intelligence artificielle. Une forte campagne de dépistage des IA interdites auprès des entreprises qu’elle accompagne va débuter en simultanée. L’intégration de l’AI Act dans la plateforme Naaia permettra de détecter les IA interdites, de mettre en place un plan d’actions et d’utiliser des modèles pour simplifier la démarche de mise en conformité. Naaia propose ainsi une solution complète et efficace pour répondre aux exigences de l’AI Act.


Voir les articles précédents

    

Voir les articles suivants