Comment garantir la protection des données salariés à l’ère de l’IA ?
Après avoir compris qu’avec l’émergence de l’IA, la cybersécurité devient une responsabilité RH stratégique, une question s’impose : comment passer de la prise de conscience à l’action ?
Les experts de la table ronde de Septeo Future Insights HR 2025 « Cybersécurité RH : protéger les données à l’ère de l’IA » livrent plusieurs pistes pour construire une approche responsable et opérationnelle de la protection des données salariés.
En résumé │ 3 leviers pour garantir la protection des données salariés à l’ère de l’IA
- Anticiper la confidentialité dès la conception : appliquer le principe du privacy by design pour intégrer la protection des données salariés avant tout déploiement d’un outil IA RH.
- Évaluer les risques avant d’agir : réaliser une analyse d’impact (DPIA) pour identifier les menaces et documenter les mesures de sécurité, en s’appuyant sur les ressources de la CNIL et les modèles de gouvernance existants.
- Savoir réagir en cas d’incident : déclarer sans délai toute fuite ou faille à la CNIL, documenter les actions correctives et former les équipes RH pour préserver la conformité et la confiance.
Anticiper la protection des données salariés : le « privacy by design »
Comprendre le « privacy by design »
Le « privacy by design », inscrit à l’article 25 du RGPD 1, est l’un des principes fondateurs de la protection des données. Il consiste à intégrer la confidentialité dès la conception d’un outil ou d’un processus, et non à s’en préoccuper une fois le projet déployé.
Concrètement, le privacy by design repose sur sept grands principes2 :
- Anticiper plutôt que corriger : identifier les risques pour la vie privée avant qu’ils ne surviennent.
- Protéger par défaut : garantir de manière automatique un haut niveau de sécurité sans que l’utilisateur ait besoin d’intervenir.
- Traiter les données de manière conforme : penser la protection des données dès la création de l’outil.
- Assurer la sécurité de bout en bout : protéger les données à chaque étape de leur cycle de vie, de la collecte à la suppression.
- Allier performance et sécurité : ne pas opposer innovation et protection, mais faire coexister les deux.
- Rendre les pratiques transparentes : permettre d’auditer et de comprendre comment les données sont utilisées.
- Respecter les droits des personnes : donner aux collaborateurs la maîtrise de leurs données (accès, rectification, suppression).
Appliqué à la sphère RH, le privacy by design n’est donc pas une contrainte technique, mais un cadre de confiance. Il permet de concevoir des projets digitaux et, a fortiori, des systèmes IA alliant respect des données personnelles des salariés et performance RH.
Pourquoi intégrer la protection des données salariés dès le démarrage des projets IA ?
Lors de Septeo Future Insights, Olivier Breillacq, CEO et fondateur d’Octopize, a rappelé combien la protection des données salariés doit être pensée en amont de tout projet IA.
« Le légal est souvent perçu comme un frein à l’innovation, car il intervient trop tard, une fois le projet lancé. Mais si la question de la privacy est intégrée dès le départ, alors le cadre légal devient un levier d’innovation, et non une contrainte. »
Autrement dit, plus la protection des données des salariés est anticipée, plus elle favorise la réussite des projets IA. En intégrant cette dimension au cœur de leur démarche, les directions RH instaurent un climat de confiance : les collaborateurs savent que leurs informations personnelles sont protégées et l’entreprise peut innover sereinement.
Intégrer la confidentialité dès la conception est une première étape vers une IA responsable. Mais pour qu’un projet soit vraiment maîtrisé, les RH doivent aller plus loin : évaluer les risques potentiels liés à son déploiement, afin d’assurer une protection durable et documentée des données salariés.
À noter │ Sécuriser l’entrée des données salariés dans les systèmes RH
La protection des données ne concerne pas uniquement les informations déjà stockées das les outils RH, mais aussi celles qui y entrent.
Comme le souligne Fanny Masson, Chief Revenue Officer chez Yousign, l’intelligence artificielle facilite aujourd’hui les fraudes documentaires : faux diplômes, fausses cartes d’identité, usurpations d’identité lors du recrutement ou de la signature de contrat.
Ces pratiques ne présentent pas seulement un risque juridique, mais aussi un risque cyber majeur, car un individu usurpant une identité peut obtenir un accès direct aux systèmes internes et aux données sensibles de l’entreprise.
Vérifier l’authenticité des documents avant leur intégration dans le système RH constitue donc un premier rempart essentiel pour renforcer la protection des données salariés.
Evaluer les risques : l’analyse d’impact comme levier de protection des données salariés
L’analyse d’impact, une étape clé avant tout déploiement IA
Avant d’intégrer une solution d’intelligence artificielle dans les processus RH, il est essentiel de mesurer les risques qu’elle peut faire peser sur la protection des données salariés. C’est tout l’objet de l’analyse d’impact relative à la protection des données (Data Protection Impact Assessment ou DPIA), une exigence prévue par le RGPD (article 353) et renforcée par l’IA Act européen (article 274). Cette démarche consiste à identifier, évaluer et documenter les risques liés à un traitement automatisé avant sa mise en service.
Caroline Chopinaud, Directrice générale du Hub France IA explique : « Aujourd’hui, de nombreuses entreprises, en particulier les PME, ne se sentent pas concernées par l’IA Act, mais il faut avoir en tête que toute organisation utilisant un système d’IA pour gérer ou évaluer des collaborateurs doit être capable de prouver qu’elle a identifié et anticipé les risques liés à ces traitements. »
Comment conduire une analyse d’impact efficace
Pour réaliser une analyse d’impact dans le cadre d’un projet IA RH et ainsi renforcer la protection des données salariés, les étapes clés sont les suivantes :
- Identifier les données traitées et préciser leur finalité (par exemple : évaluer la performance, automatiser le tri de CV, prédire les besoins en formation).
- Lister les différentes menaces qui pourraient affecter la confidentialité des données des salariés (accès non autorisé au système, erreur technique, erreur humaine…)
- Evaluer la probabilité de chaque menace et le niveau d’impact pour en déduire un niveau de priorité.
- Documenter les mesures envisagées pour réduire ces risques.
Pour accompagner cette démarche, Caroline Chopinaud recommande de s’appuyer sur les ressources et modèles proposés par la CNIL, qui met à disposition un guide complet sur l’analyse d’impact.
Elle invite également les organisations à s’inspirer des bonnes pratiques déjà mises en œuvre dans de grands groupes. C’est le cas du Groupe La Poste, qui a créé un Comité d’éthique et de gouvernance de l’IA5 chargé d’évaluer les usages de l’intelligence artificielle et leurs impacts sur les collaborateurs comme sur les clients.
Ce type d’initiative montre qu’une gouvernance claire et anticipée de l’IA est un levier essentiel pour renforcer la protection des données salariés et bâtir une culture numérique de confiance.
Mais même avec des dispositifs préventifs solides, aucune organisation n’est à l’abri d’un incident. La capacité à réagir rapidement et en conformité en cas de fuite ou de faille de sécurité devient alors le dernier maillon essentiel de la protection des données salariés.
En cas d’incident : savoir réagir pour rester conforme au RGPD
Même avec de bonnes pratiques, le risque zéro n’existe pas. Lorsqu’une violation de données ou un incident de sécurité survient, l’essentiel n’est pas de le dissimuler mais de le déclarer rapidement pour rester conforme et préserver la confiance des collaborateurs.
Quels sont les risques en cas de non-conformité avec le RGPD ?
En cas de contrôle, une entreprise dont la non-conformité avec le RGPD est prouvée s’expose à trois types de risques :
- Administratif : La CNIL peut sanctionner l’entreprise en lui mettant une amende dont le montant peut s’élever jusqu’à 20 millions d’euros ou 4% du chiffre d’affaires annuel mondial, pour les manquements les plus graves.
- Pénal : Le chef d’entreprise engage sa responsabilité pénale. Il peut être condamné à une peine de prison en cas par exemple de négligence grave, de manquement à l’obligation de sécurité ou encore s’il est avéré qu’il a donné son accord pour mettre en place un système IA interdit par l’IA Act ou en cas d’absence d’analyse d’impact pour les IA à haut risque.
- Civil : L’entreprise peut être condamnée à verser des dommages et intérêts aux salariés auxquels elle a causé un préjudice.
La non-conformité peut prendre plusieurs formes, et l’une de celles que les entreprises sous-estiment le plus est l’absence de déclaration d’un incident à la CNIL. En effet, ne pas signaler une fuite de données constitue en soi une violation du règlement et expose l’entreprise à des sanctions ainsi qu’à une perte de crédibilité si l’incident venait à être découvert plus tard.
D’où l’importance de savoir comment réagir concrètement en cas d’incident : au-delà de la déclaration, il faut être capable d’identifier, documenter et corriger rapidement la faille pour limiter son impact.
Protection des données salariés et RGDP : les bons réflexes en cas d’incident
Voici les principales étapes à suivre si les données de vos salariés sont compromises :
- Identifier la faille et contenir l’impact (isoler le système, restreindre les accès).
- Notifier la CNIL sous 72h, conformément à l’article 336 du RGPD et informer les salariés concernés lorsque leurs droits et libertés sont susceptibles d’être affectés. Comme le rappelle Oriana Labruyère, Avocate associée et DPO au sein du cabinet La Robe Numérique Avocat : « En cas d’incident, il est primordial de le déclarer auprès de la CNIL et de ne pas le mettre sous le tapis. En cas de contrôle ultérieur, cela évitera un risque de non-conformité. »
- Documenter l’incident (faits, impacts, actions correctives) pour prouver la diligence en cas de contrôle.
- Mettre à jour les protocoles et mesures de sécurité pour éviter la récidive.
- Former les équipes RH à la gestion des incidents, en coordination avec la DSI et le juridique.
Bien réagir en cas d’incident démontre une véritable maturité organisationnelle en matière de protection des données salariés, et contribue à renforcer la confiance au sein de l’entreprise.
A retenir
La protection des données salariés ne se résume plus à une exigence réglementaire : elle devient un pilier de la stratégie RH à l’ère de l’IA. En intégrant la confidentialité dès la conception des projets, en évaluant rigoureusement les risques et en réagissant avec transparence en cas d’incident, les entreprises construisent une culture numérique responsable. Pour les DRH, mettre la protection des données salariés au cœur des démarches IA, c’est faire le choix d’une innovation durable, où la technologie reste au service de l’humain, et non l’inverse.