Votre ATS est-il conforme à l'IA Act ? Guide de conformité pour DRH et cabinets de recrutement
Selon Gartner, 61% des entreprises utilisent désormais l'IA générative en RH, contre 19% il y a deux ans. Dans le même temps, 40% des candidatures sont filtrées par des algorithmes avant tout regard humain. Et depuis février 2025, l'IA Act européen est en vigueur.
Le paradoxe est brutal : le secteur qui adopte l'IA le plus rapidement est aussi celui qui sera le plus régulé. La quasi-totalité des outils de recrutement modernes, ATS, entretiens vidéo, plateformes de scoring, tombent sous le coup du règlement européen.
L'échéance est août 2026. Les sanctions peuvent atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial. Et contrairement à ce que beaucoup pensent, ce n'est pas votre éditeur de logiciel qui portera la responsabilité. C'est vous.
Pourquoi les RH sont dans le viseur de l'IA Act
L'IA Act européen n'a pas classé les systèmes d'IA utilisés en ressources humaines dans la catégorie "haut risque" par hasard. Le règlement considère que toute décision algorithmique qui affecte l'accès à l'emploi, l'évolution de carrière ou l'évaluation des performances mérite une attention particulière. Et pour cause : un biais dans un algorithme de tri de CV peut écarter des milliers de candidats qualifiés sans que personne ne s'en aperçoive.
L'Annexe III du règlement est explicite. Sont considérés à haut risque les systèmes d'IA utilisés pour le recrutement et la sélection de candidats, le filtrage et l'évaluation des candidatures, la prise de décisions concernant les conditions de travail, et l'évaluation des performances des salariés. En clair : la quasi-totalité des outils RH modernes.
Le paradoxe est frappant. Le secteur qui adopte l'IA le plus rapidement est aussi celui qui sera le plus régulé. Gartner rapporte que l'adoption de l'IA générative en RH est passée de 19% en juin 2023 à 61% en janvier 2025. McKinsey estime que 37% de la main-d'œuvre sera significativement impactée par l'IA générative dans les deux à cinq prochaines années. Et 44% des responsables RH prévoient de déployer des agents IA semi-autonomes dans les douze prochains mois.
Cette accélération rend l'échéance d'août 2026 d'autant plus critique. C'est à cette date que l'ensemble des obligations pour les systèmes à haut risque entrera en application. Les sanctions peuvent atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial.
Pour comprendre le calendrier complet et les quatre niveaux de risque définis par le règlement, consultez notre guide IA Act pour PME.
Ce que dit la recherche
Les données les plus récentes de Gartner et McKinsey confirment l'accélération et les risques.
L'adoption de l'IA générative en RH est passée de 19% en juin 2023 à 61% en janvier 2025. Cette croissance est trois fois plus rapide que dans les autres fonctions de l'entreprise. 44% des responsables RH prévoient de déployer des agents IA semi-autonomes dans les douze prochains mois, des systèmes qui pourront sourcer, présélectionner et engager des candidats avec une supervision humaine minimale.
Du côté des risques, 40% des candidatures sont aujourd'hui filtrées par l'IA avant tout regard humain. McKinsey estime que 37% de la main-d'œuvre sera significativement impactée par l'IA générative dans les deux à cinq prochaines années. Et seulement 21% des employés européens ont reçu une formation à l'IA, contre 45% aux États-Unis.
Gartner prédit que 50% des tâches RH seront automatisées par des agents IA d'ici 2030. Mais aussi que plus de 40% des projets d'IA agentique seront abandonnés d'ici fin 2027 faute de gouvernance adéquate.
Le message est clair : l'IA en RH n'est plus une option, c'est un standard. Mais sans gouvernance et sans conformité, les projets échouent et les risques juridiques s'accumulent.
Les 7 outils RH qui tombent sous le coup de l'IA Act
La première étape pour se mettre en conformité est de savoir exactement quels outils sont concernés dans votre organisation. Voici une cartographie des systèmes les plus courants.
Les ATS avec scoring ou matching de candidats
Recruitee, Workday, Lever, Greenhouse, Bullhorn, Talentsoft : la plupart des ATS modernes intègrent des fonctionnalités d'intelligence artificielle, parfois sans que vous en ayez conscience. Dès lors qu'un algorithme classe, score ou filtre automatiquement les candidatures, vous déployez un système à haut risque. L'obligation principale est de documenter le fonctionnement du système et d'assurer une supervision humaine effective des décisions.
Le tri automatique de CV
Qu'il soit intégré à votre ATS ou fourni par un outil tiers, tout système qui écarte automatiquement des candidatures sur la base de critères algorithmiques est concerné. Vous devez pouvoir expliquer pourquoi un candidat a été retenu ou écarté, et tracer chaque décision.
L'analyse vidéo d'entretien
C'est le point le plus sensible. Si votre solution d'entretien vidéo analyse les expressions faciales, le ton de voix ou les micro-expressions des candidats pour en déduire des traits de personnalité ou des émotions, vous êtes potentiellement en infraction depuis février 2025. L'IA Act interdit explicitement les systèmes de reconnaissance émotionnelle sur le lieu de travail et dans le cadre du recrutement. Vérifiez les fonctionnalités exactes de HireVue, Pymetrics ou tout autre outil similaire que vous utilisez.
Les générateurs de fiches candidats
Les solutions qui compilent et synthétisent automatiquement les informations candidats relèvent généralement du risque limité, à condition que l'IA assiste le recruteur sans prendre de décision à sa place. L'obligation est alors la transparence : informer que le document a été généré avec l'assistance d'un système d'IA.
Les chatbots candidats
Paradox Olivia, Mya, ou les assistants conversationnels intégrés à votre site carrière doivent simplement informer le candidat qu'il échange avec un système d'intelligence artificielle. C'est une obligation de transparence, pas de documentation complète.
Les plateformes de skills intelligence
Eightfold, Gloat, Phenom, Beamery : ces outils qui cartographient les compétences, prédisent les évolutions de carrière et recommandent des mobilités internes sont des systèmes à haut risque. Ils influencent directement les décisions concernant l'évolution professionnelle des collaborateurs.
Les outils d'évaluation de performance
Lattice, 15Five, ou tout système qui intègre une composante IA dans l'évaluation des collaborateurs est explicitement visé par l'IA Act. Dès lors qu'un algorithme contribue à noter, classer ou évaluer un salarié, la supervision humaine et la documentation sont obligatoires.
Un point essentiel à retenir : la frontière entre "risque limité" et "haut risque" dépend de l'usage que vous faites de l'outil, pas de l'outil lui-même. Un chatbot qui répond aux questions sur le processus de candidature est à risque limité. Le même chatbot qui pré-qualifie les candidats et écarte automatiquement ceux qui ne correspondent pas devient un système à haut risque.
Le piège du "on n'a pas développé l'IA"
La confusion la plus répandue concerne la responsabilité. Beaucoup de DRH pensent que leur éditeur de logiciel est seul responsable de la conformité. Après tout, ce n'est pas vous qui avez conçu l'algorithme.
Le règlement dit exactement le contraire. Le "déployeur", c'est-à-dire l'entreprise qui utilise le système d'IA dans ses opérations, est co-responsable avec le fournisseur. Vous ne pouvez pas vous retrancher derrière votre éditeur. C'est à vous de vérifier que l'outil est conforme, d'exiger la documentation technique, et de mettre en place la supervision humaine requise.
Concrètement, voici ce que vous devez exiger de vos fournisseurs ATS et SIRH avant août 2026.
- Premièrement, une documentation technique sur le fonctionnement de l'algorithme : quelles données sont utilisées, comment les décisions sont prises, quels critères déterminent le scoring ou le classement.
- Deuxièmement, des informations sur les données d'entraînement : sur quelles populations l'algorithme a-t-il été entraîné, quels biais potentiels ont été identifiés et comment sont-ils corrigés.
- Troisièmement, l'accès aux logs des décisions automatisées : vous devez pouvoir retracer pourquoi tel candidat a été classé avant tel autre. Quatrièmement, une attestation de conformité à l'IA Act, que les éditeurs sérieux prépareront pour l'échéance d'août 2026.
Si votre fournisseur ne peut pas répondre clairement à ces questions, c'est un signal d'alerte. Vous portez la responsabilité légale, pas lui.
Quand nous avons déployé le générateur de dossiers candidats pour Ixora Conseil, nous avons conçu l'architecture pour que l'IA soit un assistant, pas un décideur. Le système compile les informations, analyse la correspondance entre le CV et les prérequis du poste, et génère un dossier structuré. Mais c'est le recruteur qui valide chaque dossier avant envoi au client. Cette supervision humaine n'est pas qu'une bonne pratique : c'est une exigence réglementaire. Et elle n'a pas empêché le cabinet de récupérer 16 heures par semaine.
Checklist de conformité pour DRH
La mise en conformité n'est pas un exercice ponctuel mais une démarche structurée. Voici les étapes à suivre d'ici août 2026.
Phase 1 : L'inventaire (à faire maintenant)
Commencez par lister exhaustivement tous les outils RH utilisés dans votre organisation. ATS, SIRH, outils d'entretien vidéo, chatbots carrière, plateformes d'évaluation, solutions de formation. N'oubliez pas les fonctionnalités "intelligentes" parfois activées par défaut dans vos logiciels : le matching automatique de Recruitee, les suggestions de LinkedIn Recruiter, les filtres "pertinence" de Indeed.
Identifiez ensuite les usages "shadow IT". ChatGPT utilisé par vos recruteurs pour rédiger des offres d'emploi ou reformuler des emails de refus. Claude pour synthétiser des entretiens. Des extensions Chrome qui résument automatiquement les profils LinkedIn. Ces usages existent dans la plupart des organisations. Les ignorer ne vous protège pas.
Pour chaque outil identifié, documentez qui l'utilise, pour quoi faire, quelles données il traite, et s'il prend ou influence des décisions concernant des personnes.
Phase 2 : La classification (deuxième trimestre 2026)
Une fois l'inventaire établi, classez chaque outil selon la grille de risque de l'IA Act. Posez-vous trois questions pour chaque système. L'outil prend-il ou influence-t-il des décisions qui affectent des personnes ? Si oui, dans quel domaine : emploi, évolution de carrière, évaluation ? Le système fonctionne-t-il de manière autonome ou avec supervision humaine ?
Identifiez vos systèmes à haut risque prioritaires. Ce sont ceux qui nécessiteront le plus de travail de mise en conformité.
Contactez vos éditeurs pour obtenir la documentation technique. Demandez-leur explicitement leur feuille de route vers la conformité IA Act. Les éditeurs sérieux travaillent déjà sur le sujet. Ceux qui vous répondent qu'ils "regardent le sujet" ou qu'ils "attendent les décrets d'application" n'ont pas pris la mesure de l'enjeu.
Phase 3 : La mise en conformité (avant août 2026)
Documentez vos processus de recrutement et d'évaluation. Pour chaque étape où l'IA intervient, décrivez le flux décisionnel, le rôle exact de l'algorithme, les critères utilisés, et les points de contrôle humain.
Mettez en place une supervision humaine effective. "Effective" est le mot clé. Un bouton "valider" cliqué systématiquement sans regarder ne constitue pas une supervision. Le recruteur doit pouvoir comprendre la recommandation de l'IA, la questionner, et la modifier si nécessaire.
Formez vos équipes. Cette obligation est déjà en vigueur depuis février 2025. Toute personne qui utilise un système d'IA dans le cadre de son travail doit disposer d'un niveau suffisant de "littératie IA". Un recruteur qui utilise un ATS doit comprendre comment l'algorithme classe les candidats, quels biais peuvent exister, et comment interpréter les recommandations.
Préparez votre registre des usages IA. C'est le document qui rassemble l'inventaire de vos systèmes, leur classification, la documentation technique, et les procédures de supervision.
3 quick wins pour démarrer maintenant
Si vous ne savez pas par où commencer, voici trois actions à faible effort et haute valeur que vous pouvez lancer cette semaine.
L'audit flash de votre ATS
Contactez votre éditeur et posez ces trois questions. Votre outil utilise-t-il de l'IA pour trier, scorer ou classer les candidats ? Pouvez-vous fournir une documentation sur le fonctionnement de l'algorithme ? Prévoyez-vous une attestation de conformité IA Act pour août 2026 ?
La réponse vous donnera une première indication du niveau de maturité de votre fournisseur et du travail à prévoir de votre côté.
La mention de transparence
Ajoutez cette phrase à vos annonces et formulaires de candidature : "Votre candidature sera traitée avec l'assistance d'outils numériques. Un recruteur humain examinera personnellement votre dossier."
Cette mention simple vous met en conformité avec l'obligation de transparence pour les systèmes à risque limité, et prépare le terrain pour les obligations plus exigeantes des systèmes à haut risque.
Le point de contrôle humain
Identifiez dans votre processus de recrutement le moment exact où l'IA "décide". C'est généralement l'étape de filtrage initial ou de scoring des candidatures. Assurez-vous qu'un humain valide cette décision avant qu'elle ne devienne définitive.
Concrètement, si votre ATS écarte automatiquement les candidatures qui ne correspondent pas à certains critères, ajoutez une étape de revue humaine avant que ces candidatures ne soient définitivement rejetées. C'est contraignant, mais c'est la loi.
Automatiser ET être conforme : ce n'est pas contradictoire
L'objection la plus fréquente que nous entendons est que la conformité va tuer les gains de productivité de l'automatisation. Si je dois tout documenter et tout valider manuellement, à quoi bon automatiser ?
Cette lecture passe à côté de l'essentiel.
La conformité bien pensée améliore vos processus. Documenter vous oblige à comprendre ce que fait réellement votre outil. Classifier vous force à vous poser les bonnes questions sur l'impact de vos décisions algorithmiques. Former vos équipes les rend plus efficaces dans l'utilisation des outils.
L'exemple d'Ixora Conseil est parlant. Le cabinet a récupéré 16 heures par semaine grâce à l'automatisation de son reporting client et de la génération de dossiers candidats. Et l'architecture a été conçue dès le départ pour être conforme : l'IA assiste, le recruteur décide. Le ROI est de 450% la première année, avec un investissement amorti en trois mois. La conformité n'a rien coûté en productivité parce qu'elle était intégrée dès la conception.
La clé est de concevoir l'automatisation avec la conformité, pas de l'ajouter après coup. Les entreprises qui attendent le dernier moment devront revoir leurs workflows dans l'urgence, avec les coûts et les approximations que cela implique. Celles qui s'y prennent maintenant transforment une obligation en levier de performance.
Comme nous l'écrivions dans notre guide IA Act pour PME : on n'automatise pas le chaos. Un processus inefficace automatisé reste un processus inefficace, il tourne juste plus vite. La démarche de conformité vous oblige à cartographier, questionner, optimiser vos flux avant d'y ajouter de l'intelligence artificielle. C'est exactement ce qu'il faudrait faire de toute façon pour tirer le meilleur de ces technologies.
Ce qu'il faut retenir
Si vous utilisez un ATS avec scoring, une solution d'entretien vidéo, une plateforme de skills intelligence ou un outil d'évaluation de performance, vous déployez probablement un système d'IA à haut risque au sens de l'IA Act.
L'échéance est août 2026. Les sanctions peuvent atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial.
Vous êtes co-responsable avec vos éditeurs. Vous ne pouvez pas vous retrancher derrière eux.
La mise en conformité repose sur quatre piliers : inventorier vos usages IA, classifier vos systèmes par niveau de risque, documenter vos processus et former vos équipes.
Automatisation et conformité ne sont pas contradictoires. Les entreprises qui intègrent la conformité dès la conception de leurs workflows gagnent sur les deux tableaux.
Conformité intégrée, pas ajoutée après coup
Chez Altomia, la conformité n'est pas un service supplémentaire, c'est notre méthode de travail.
Chaque workflow que nous concevons, chaque outil que nous déployons, intègre dès le départ les exigences de l'IA Act : supervision humaine effective, traçabilité des décisions, documentation des algorithmes. Pas parce que c'est obligatoire. Parce qu'un processus bien conçu est un processus qui dure.
C'est ce qui a permis à Ixora Conseil de récupérer 16 heures par semaine tout en étant conforme dès le premier jour. L'automatisation et la conformité ne sont pas des compromis à arbitrer, elles se renforcent mutuellement quand l'architecture est pensée correctement.
Si vous envisagez d'automatiser vos processus RH, échangeons 30 minutes. Nous verrons ensemble comment structurer vos workflows pour qu'ils soient à la fois performants et prêts pour l’échéance d’août 2026.
→ Réserver mon audit RH gratuit
Cet article a été rédigé en février 2026. La réglementation évolue : consultez les sources officielles EUR-Lex pour les mises à jour.
Continuer votre lecture
Prêt à découvrir ce que l'IA peut changer dans votre entreprise ?
Prenons 15 minutes pour identifier vos tâches les plus chronophages et estimer vos gains de productivité.