- Le blog et les actualités de Witik
- Comprendre l’IA Act en 5 minutes, le glossaire indispensable
IA Act : Le glossaire ultime pour tout comprendre en 5 minutes
L’intelligence artificielle n’est plus un concept futuriste : elle transforme déjà nos vies, nos entreprises et nos sociétés. Mais avec cette révolution viennent des défis de taille, comme garantir la transparence, protéger les droits fondamentaux et éviter les dérives éthiques. C’est là qu’intervient l’IA Act, une régulation pionnière de l’Union européenne, conçue pour encadrer l’utilisation de l’IA de manière juste et responsable.
Vous trouvez le sujet complexe ? Vous n’êtes pas seul. C’est pourquoi ce glossaire a été créé : pour vous simplifier la vie et vous permettre de décrypter, en un clin d’œil, les concepts clés de cette législation.
Que vous soyez un professionnel curieux, un entrepreneur engagé ou un passionné d’innovation, ce guide est votre porte d’entrée pour tout comprendre sur l’IA Act.
B
Bac à sable réglementaire de l’IA : Un cadre contrôlé pour tester et développer des systèmes d’IA dans un environnement surveillé, avant leur mise sur le marché.
Biais algorithmique : Distorsions ou préjugés involontaires intégrés dans les systèmes d’IA en raison de données d’entraînement incomplètes, biaisées ou mal conçues. L’IA Act vise à limiter ces biais pour garantir l’équité des systèmes.
C
Consentement éclairé : L’autorisation explicite donnée par une personne pour participer à une activité ou utiliser un système d’IA, après avoir été informée des implications et des risques.
Conformité continue : Obligation pour les fournisseurs et exploitants de systèmes d’IA de garantir que leur conformité avec l’IA Act est maintenue tout au long de la durée de vie du système.
Conformité Ex Ante : Vérification préalable que les systèmes d’IA à haut risque respectent les exigences de l’IA Act avant leur déploiement ou leur commercialisation.
D
Déclaration de conformité : Document officiel attestant qu’un système d’IA à haut risque respecte toutes les exigences du règlement IA Act.
Déployeur : Une personne ou entité utilisant un système d’IA sous son autorité, sauf dans un cadre personnel non professionnel.
Distributeur : Un acteur de la chaîne d’approvisionnement qui rend un système d’IA disponible sur le marché européen, autre que le fournisseur ou l’importateur.
Documentation technique : Rapport détaillé requis pour les systèmes d’IA, décrivant leur architecture, leurs données d’entraînement, leur fonctionnement, et les tests effectués pour garantir leur conformité.
Données d’entraînement : Données utilisées pour former un modèle d’IA. L’IA Act impose des normes strictes pour garantir que ces données sont diversifiées, exemptes de biais et conformes au RGPD.
Données de test : Données indépendantes utilisées pour confirmer la performance attendue d’un système d’IA avant sa mise sur le marché.
Données de validation : Des données permettant d’évaluer la performance d’un système d’IA et d’affiner ses paramètres non entraînables.
E
Évaluation d’impact sur les droits fondamentaux : Analyse systématique pour identifier les impacts potentiels d’un système d’IA sur les droits fondamentaux des utilisateurs ou des personnes concernées.
Évaluation de la conformité : Une procédure visant à démontrer que les exigences réglementaires applicables aux systèmes d’IA à haut risque sont respectées.
Exploitant : Entité ou individu qui met en œuvre un système d’IA dans un contexte spécifique (par exemple, une entreprise qui utilise une IA pour automatiser des tâches RH).
F
Fournisseur : Une personne ou entité (physique ou morale) responsable du développement ou de la mise sur le marché d’un système d’IA sous son propre nom ou marque.
H
Hypertrucage : Un contenu audio, vidéo ou visuel généré ou manipulé par l’IA, pouvant être perçu comme authentique alors qu’il est artificiel.
I
IA Act (Artificial Intelligence Act) : Projet de règlement proposé par la Commission européenne pour encadrer l’utilisation de l’intelligence artificielle dans l’Union européenne, avec l’objectif de garantir une IA éthique, transparente et respectueuse des droits fondamentaux.
Incident grave : Un dysfonctionnement d’un système d’IA entraînant des conséquences graves, comme des atteintes à la santé, des dommages aux infrastructures critiques ou des violations des droits fondamentaux.
Importateur : Toute entité mettant sur le marché un système d’IA provenant d’un pays tiers dans l’Union européenne.
Interdiction de l’IA nuisible : L’IA Act interdit certains usages spécifiques de l’IA jugés contraires aux droits fondamentaux, tels que : La manipulation subliminale (affectant le comportement sans consentement éclairé), L’exploitation des vulnérabilités de groupes spécifiques, Les systèmes de notation sociale par les gouvernements.
Intelligence Artificielle (IA) : Systèmes conçus pour simuler des fonctions cognitives humaines telles que l’apprentissage, le raisonnement ou la résolution de problèmes. Dans le cadre de l’IA Act, cela inclut les systèmes de machine learning, de logique symbolique ou tout autre procédé automatisé.
M
Mandataire : Une personne ou entité située dans l’Union européenne, mandatée pour assurer les obligations réglementaires d’un fournisseur de système d’IA en son nom.
Marquage CE pour l’IA : Un label européen de conformité pour les systèmes d’IA qui respectent les exigences de l’IA Act. Ce marquage est obligatoire pour les systèmes d’IA à haut risque commercialisés dans l’UE.
Mauvaise utilisation raisonnablement prévisible : L’utilisation non conforme à la destination initiale du système d’IA, mais découlant d’un comportement ou d’une interaction humaine prévisible.
Mise en service : La première utilisation d’un système d’IA par un déployeur ou pour un usage propre dans l’Union, en conformité avec la destination prévue.
Mise sur le marché : Le premier moment où un système d’IA ou un modèle d’IA à usage général est disponible sur le marché européen.
Modification substantielle : Tout changement postérieur à la mise sur le marché ou en service d’un système d’IA, ayant un impact sur sa conformité initiale ou sa destination.
Modèle d’IA à usage général : Un modèle d’IA polyvalent capable de réaliser un large éventail de tâches distinctes et intégrable dans divers systèmes ou applications.
O
Organisme d’évaluation de la conformité : Un organisme tiers réalisant des activités telles que la mise à l’essai, la certification et l’inspection pour assurer la conformité.
P
Profilage : L’analyse automatisée de données personnelles pour évaluer certains aspects d’une personne, comme ses préférences, son comportement ou ses intérêts.
Proportionnalité : Principe fondamental selon lequel les exigences réglementaires imposées par l’IA Act doivent être proportionnées au risque posé par le système d’IA.
R
Registre Européen des systèmes d’IA : Base de données centralisée prévue par l’IA Act pour recenser les systèmes d’IA déployés dans l’UE, particulièrement ceux à haut risque, afin d’en assurer une meilleure traçabilité.
Régulateur national (NRA - National Regulatory Authority) : Autorité désignée par chaque État membre de l’UE pour surveiller et appliquer les dispositions de l’IA Act au niveau national.
Risque : La combinaison de la probabilité qu’un préjudice survienne et de la gravité de ce préjudice. Utilisé pour évaluer les impacts potentiels d’un système d’IA.
Risque systémique : Un risque global posé par les modèles d’IA à usage général, impactant la société, la santé publique, la sécurité ou les droits fondamentaux à grande échelle.
S
Système d’identification biométrique à distance : Un système d’IA conçu pour identifier des personnes sans participation active, souvent à distance, en comparant leurs données biométriques à celles d’une base de données.
Système de gouvernance des risques : Processus structuré pour identifier, évaluer, et gérer les risques liés aux systèmes d’IA, incluant des audits réguliers, des contrôles de conformité et des mécanismes d’atténuation.
Système de reconnaissance des émotions : Une technologie d’IA permettant de déduire les émotions ou intentions d’une personne à partir de données biométriques.
Système de surveillance après commercialisation : Un ensemble d’activités pour surveiller et analyser l’utilisation d’un système d’IA après sa mise sur le marché, en vue d’identifier des mesures préventives ou correctives nécessaires.
Système d’IA : Un système automatisé conçu pour fonctionner à différents niveaux d’autonomie et s’adapter après déploiement. Il génère des sorties telles que des prédictions, du contenu, des recommandations ou des décisions influençant les environnements physiques ou virtuels.
Système d’IA à haut risque : Catégories spécifiques d’applications de l’IA identifiées par l’IA Act comme présentant des risques significatifs pour les droits fondamentaux, telles que : La surveillance biométrique, Les systèmes de recrutement automatisés, Les systèmes utilisés dans les infrastructures critiques (santé, transports, etc.).
Pour en savoir plus et découvrir en détail ce sujet, téléchargez notre tableau récapitulatif des systèmes d’IA à haut risque. Nous avons simplifié les 144 pages de l’IA Act en un document clair et concis, rien que pour vous !
T
Transparence : Obligation pour les concepteurs et utilisateurs d’IA de fournir des informations claires sur le fonctionnement des systèmes d’IA, leurs objectifs, et les données utilisées pour leur entraînement.