- Le blog et les actualités de Witik
- IA Act : La FAQ ultime pour comprendre le réglement
FAQ IA Act : On répond à toutes vos questions !
L’IA Act suscite de nombreuses interrogations : Quels systèmes sont concernés ? Quelles obligations pour les entreprises ? Comment garantir la conformité ?
Nous avons rassemblé les questions les plus fréquentes et compilé les réponses dans cette FAQ.
Et si certains termes vous semblent complexes, notre glossaire sur l'IA Act est là pour vous aider à comprendre tous les mots-clés essentiels.
Généralités sur l’IA Act
Qu’est-ce que l’IA Act ?
L’IA Act (Artificial Intelligence Act) est un projet de règlement de l’Union européenne visant à encadrer le développement, la commercialisation et l’utilisation des systèmes d’intelligence artificielle au sein de l’UE.
Pourquoi l’Union européenne a-t-elle créé l’IA Act ?
Pour garantir que l’IA est utilisée de manière éthique, transparente et sécurisée, tout en protégeant les droits fondamentaux des citoyens européens et en évitant les dérives potentielles.
Quels sont les objectifs principaux de l’IA Act ?
Les objectifs incluent :
Réduire les risques liés à l’IA.
Protéger les droits fondamentaux.
Favoriser l’innovation responsable.
Établir un cadre clair pour les entreprises.
Quand l’IA Act entrera-t-elle en vigueur ?
Le règlement européen sur l’intelligence artificielle (IA Act) a été publié au Journal officiel de l’Union européenne le 12 juillet 2024. Il est entré en vigueur le 1ᵉʳ août 2024, soit vingt jours après sa publication. L’application de ses dispositions se fera progressivement jusqu’en 2027.
2 février 2025 : Les chapitres I et II (dispositions générales et interdictions spécifiques) entrent en application.
2 août 2025 : Plusieurs dispositions, dont celles sur la conformité et la surveillance (chapitre III, section 4, chapitres V, VII et XII), deviennent applicables.
2 août 2026 : Application complète du règlement, sauf exceptions.
2 août 2027 : Les obligations liées à l’article 6, paragraphe 1 (concernant certaines restrictions spécifiques), entrent en vigueur.
À qui s’applique l’IA Act : uniquement aux entreprises européennes ou aussi à celles situées en dehors de l’UE ?
L’IA Act s’applique aux entreprises situées dans l’Union européenne, ainsi qu’à celles établies en dehors de l’UE si elles mettent sur le marché ou mettent en service des systèmes d’intelligence artificielle au sein de l’Union. Ainsi, toute entreprise, qu’elle soit européenne ou non, est concernée si ses systèmes d’IA sont destinés aux utilisateurs de l’UE ou ont un impact sur le marché européen.
Champ d’application
Quels types de systèmes d’IA sont concernés par l’IA Act ?
Tous les systèmes utilisant des algorithmes pour automatiser des tâches, de la reconnaissance faciale aux systèmes de recommandation, en passant par les outils de gestion des ressources humaines mis sur le marché, mis en service ou utilisés dans l’Union européenne.
Qu’est-ce qu’un système d’IA à haut risque selon l’IA Act ?
Un système d’IA à haut risque est une application pouvant impacter les droits fondamentaux, comme :
Les systèmes de recrutement automatisés.
La surveillance biométrique.
Les systèmes utilisés dans les infrastructures critiques (transports, santé, etc.).
Comment savoir si mon système d’IA est considéré comme à haut risque ?
Référez-vous aux catégories définies dans l’IA Act ou réalisez une évaluation des risques basée sur les critères précisés dans le règlement.
Vous pouvez télécharger notre tableau récapitulatif pour découvrir en détail ce qu’est un système d’IA à haut risque.
L’IA Act s’applique-t-elle aux systèmes d’IA utilisés dans un cadre personnel ou non professionnel ?
L’IA Act ne s’applique pas aux systèmes d’IA utilisés exclusivement dans un cadre personnel ou non professionnel. Il cible principalement les usages professionnels ou commerciaux ayant un impact sur le marché européen.
Obligations et conformité
Quelles sont les obligations des fournisseurs de systèmes d’IA à haut risque ?
Ils doivent garantir :
Une évaluation de conformité.
Une documentation technique complète.
La transparence sur les données utilisées et les décisions prises.
Une surveillance continue après commercialisation.
En quoi consiste l’évaluation de la conformité pour un système d’IA ?
L’évaluation de la conformité des systèmes d’IA à haut risque, selon l’IA Act, implique :
Contrôle interne : Le fournisseur effectue une auto-évaluation pour s’assurer que le système respecte les exigences réglementaires.
Évaluation par un organisme notifié : Un organisme tiers indépendant vérifie la conformité du système aux normes établies.
Qu’est-ce que le marquage CE pour l’IA ?
Le marquage CE pour l’intelligence artificielle indique qu’un système d’IA est conforme aux exigences de l’IA Act et peut circuler librement au sein de l’Espace économique européen. Il atteste que le système respecte les normes de sécurité, de transparence et de protection des droits fondamentaux établies par l’Union européenne.
Quelles sont les sanctions en cas de non-conformité avec l’IA Act ?
Violation des interdictions de l’article 5 : Amende administrative pouvant aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial de l’entreprise, le montant le plus élevé étant retenu.
Non-conformité avec les obligations spécifiques des opérateurs et des organismes notifiés (articles 16, 22, 23, 24, 26, 31, 33, 34 et 50) : Amende administrative pouvant aller jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial de l’entreprise, le montant le plus élevé étant retenu.
Fourniture d’informations inexactes, incomplètes ou trompeuses aux autorités compétentes ou aux organismes notifiés : Amende administrative pouvant aller jusqu’à 7,5 millions d’euros ou 1 % du chiffre d’affaires annuel mondial de l’entreprise, le montant le plus élevé étant retenu.
Les PME et startups doivent-elles respecter les mêmes exigences que les grandes entreprises ?
Oui, mais l’IA Act prévoit des mécanismes pour simplifier leur conformité et réduire les coûts administratifs.
Données et transparence
Quels sont les critères pour les données d’entraînement et de validation ?
Les données doivent être de haute qualité, pertinentes, représentatives et exemptes de biais afin d’assurer la performance et la fiabilité des systèmes d’IA. De plus, leur utilisation doit respecter les réglementations en vigueur, notamment en matière de protection des données et de respect de la vie privée.
Comment garantir que mon système d’IA est exempt de biais algorithmique ?
En utilisant des jeux de données variés, en testant régulièrement le système, en surveillant ses performances et en intégrant la supervision humaine.
En quoi l’IA Act renforce-t-elle la transparence des systèmes d’IA ?
Il impose aux fournisseurs de documenter et de communiquer clairement les finalités, les risques et les limitations de leurs systèmes.
Faut-il informer les utilisateurs lorsqu’un système d’IA est utilisé ?
Oui, les utilisateurs doivent être informés de manière claire, surtout dans les cas où l’IA peut affecter leurs droits.
Interdictions spécifiques
Quels sont les usages de l’IA interdits par l’IA Act ?
La manipulation subliminale.
Les systèmes de notation sociale.
Certaines utilisations de la reconnaissance biométrique.
Pourquoi les systèmes de notation sociale sont-ils interdits ?
Parce qu’ils peuvent entraîner une discrimination injuste et porter atteinte à la dignité des individus.
L ’utilisation de la reconnaissance biométrique est-elle autorisée ?
Seulement dans des cas strictement encadrés, comme la sécurité publique, et avec une supervision rigoureuse.
Gouvernance et surveillance
Qui est responsable de l’application de l’IA Act dans chaque pays membre ?
Chaque État membre de l’UE désigne une ou plusieurs autorités nationales compétentes pour assurer l’application de l’IA Act. Ces autorités sont responsables de la surveillance du marché et de la protection des droits fondamentaux en lien avec les systèmes d’IA. Par exemple, en France, la CNIL est pressentie pour jouer ce rôle. Au Luxembourg, la CNPD a été désignée comme autorité compétente.
Qu’est-ce que le registre européen des systèmes d’IA ?
Un registre centralisé pour recenser et surveiller les systèmes d’IA déployés dans l’UE, en particulier ceux à haut risque.
Comment les autorités surveillent-elles les systèmes d’IA après leur commercialisation ?
Grâce à des mécanismes de surveillance continue et des audits réguliers.
Opportunités et défis
L’IA Act va-t-elle freiner l’innovation en IA ?
Non, il vise à établir un cadre clair pour favoriser une innovation responsable tout en réduisant les risques.
Quelles opportunités l’IA Act offre-t-elle aux entreprises ?
Un avantage concurrentiel grâce à la conformité.
Une meilleure acceptation des systèmes d’IA par le public.
Comment l’IA Act protège-t-elle les droits des citoyens ?
En garantissant la transparence, en interdisant les pratiques nuisibles et en imposant des obligations aux entreprises.
En pratique pour les entreprises
Comment préparer mon entreprise à l’IA Act ?
Identifier les systèmes d’IA utilisés.
Évaluer les risques et la conformité.
Former les équipes aux nouvelles obligations.
Existe-t-il des aides ou ressources pour se conformer à l’IA Act ?
Oui, des guides officiels, des organismes spécialisés et des experts peuvent accompagner les entreprises.
Quelles sont les étapes à suivre pour évaluer les risques d’un système d’IA ?
Analyse des impacts potentiels.
Vérification des données et des algorithmes.
Tests réguliers.
Dois-je désigner un responsable pour la conformité à l’IA Act, comme pour le DPO pour le RGPD ?
Ce n’est pas obligatoire, mais cela peut faciliter la gestion et la conformité.
Questions spécifiques aux secteurs
Quels secteurs sont les plus impactés par l’IA Act ?
La santé, les transports, la finance, l’éducation et la sécurité publique.
Quels sont les risques pour le secteur de la finance ou des transports ?
Des biais algorithmiques ou des décisions automatisées mal calibrées pouvant entraîner des discriminations ou des accidents.
Perspectives et évolutions
L’IA Act pourrait-il évoluer après son entrée en vigueur ?
Oui, le règlement prévoit des ajustements en fonction des avancées technologiques et des retours d’expérience.
Comment l’IA Act s’intègre-t-il avec d’autres régulations comme le RGPD ?
L’IA Act complète le RGPD en imposant des obligations spécifiques aux systèmes d’IA, notamment en matière de transparence et de gestion des risques, tout en renforçant la protection des données personnelles.
D’autres régions du monde ont-elles des régulations similaires à l’IA Act ?
Pas encore, mais des initiatives émergent en Chine, au Canada et aux États-Unis.