L’IA Act, entré en vigueur en août 2024, impose des obligations spécifiques aux acteurs du marché de l’intelligence artificielle en fonction du niveau de risque de leurs systèmes. Ce cadre réglementaire vise à garantir une IA responsable et respectueuse des droits fondamentaux. Voici un aperçu des principales obligations qui en découlent pour les entreprises.
1. Obligations générales pour toutes les entreprises
Toutes les entreprises impliquées dans le développement ou l’utilisation de systèmes d’IA doivent respecter certaines exigences minimales :
- Littératie en IA : Assurer un niveau suffisant de formation pour les employés en charge de l’utilisation et de l’exploitation des systèmes d’IA.
- Transparence et information : Fournir des explications claires sur les capacités et les limites des systèmes IA utilisés.
- Documentation et suivi : Tenir des registres pour assurer la traçabilité et faciliter les audits réglementaires.
2. Obligations spécifiques aux fournisseurs de systèmes d’IA à haut risque
Les systèmes classés à haut risque doivent respecter un cadre réglementaire renforcé, incluant :
a) Gestion des risques
- Mise en place d’un système de gestion des risques tout au long du cycle de vie du système d’IA.
- Évaluation et atténuation des risques liés à la sécurité, aux biais et aux erreurs de traitement.
b) Qualité des données et gouvernance
- Utilisation de jeux de données d’entraînement, de validation et de test de haute qualité, représentatifs et exempts de biais.
- Documentation des sources et des processus de collecte des données.
c) Documentation technique et traçabilité
- Rédaction d’une documentation technique détaillée, incluant l’architecture du système, les méthodes d’entraînement et les mesures de conformité.
- Conservation des journaux de fonctionnement pour assurer un suivi continu.
d) Supervision humaine
- Mise en place de mécanismes permettant une intervention humaine en cas de défaillance ou d’usage inapproprié du système.
e) Sécurité et robustesse
- Assurer un niveau élevé de cybersécurité et de résilience aux attaques adverses.
- Mise en place de tests rigoureux pour garantir la fiabilité du système.
3. Obligations des déployeurs de systèmes d’IA à haut risque
Les entreprises qui utilisent des systèmes d’IA à haut risque doivent respecter des obligations spécifiques :
- Respect des instructions du fournisseur : Se conformer aux guides d’utilisation et aux mesures de supervision.
- Surveillance et contrôle : Mettre en place un système de suivi pour détecter tout comportement anormal du système.
- Protection des données : Effectuer des évaluations d’impact sur la vie privée lorsque l’IA traite des données sensibles.
- Transparence avec les employés et utilisateurs : Informer les parties prenantes de l’utilisation d’un système d’IA dans les processus décisionnels.
L’IA Act impose un cadre structurant pour les entreprises impliquées dans l’IA. En mettant en place des processus solides de gestion des risques avec des solutions spécifiques à l’IA Act comme AI Sigil, les entreprises peuvent non seulement se conformer à la réglementation, mais aussi renforcer la confiance des utilisateurs et des partenaires. La mise en conformité avec ces obligations doit être anticipée dès maintenant pour éviter des sanctions et garantir une utilisation éthique et responsable de l’IA.