La première édition de l'Observatoire de l’IA responsable d’Impact AI analyse la façon dont les salariés perçoivent le déploiement de l’IA dans leur entreprise.
Impact AI, le think & do tank de l’IA responsable, a dévoilé le 14 janvier 2025, en partenariat avec KPMG en France et BNP Paribas, la nouvelle édition de son Observatoire de l’IA Responsable, réalisé par Viavoice et le centre de prospective GCF sur un échantillon représentatif des salariés du secteur privé en France. L’objectif de cet Observatoire est d’analyser la façon dont ces salariés perçoivent le déploiement de l’IA dans leur entreprise, les opportunités et limites de cette technologie, leurs réactions face à l'enjeu de l’IA responsable(1) et ce qu’impliquerait sa mise en oeuvre dans leurs tâches quotidiennes.
À l’examen des résultats de l’Observatoire, un premier constat s’impose : le rôle de l’IA dans le développement et le rayonnement d’un pays est considéré comme important ou très important pour plus d’un salarié sur deux (52 %), mais valorisé encore davantage par ceux qui utilisent l’IA (74 %). À ce jeu, et sans surprise, ce sont les États-Unis qui sont considérés aujourd’hui comme le principal gagnant du développement de l’IA (pour 53 % des salariés qui utilisent l'IA) devant la Chine (42 %), la Corée du Sud (33 %), la France (30 %) et l’Union européenne (29 %), Israël (29 %).
Près de trois quarts des salariés jugent nécessaire de réguler le développement de l’IA, dont 37 % « tout à fait nécessaire », avec une proportion plus importante chez les utilisateurs de l’IA (85 % se prononcent en faveur d’une régulation). Pour autant, 36 % des salariés interrogés, quelle que soit la taille de l’entreprise et le secteur d’activité, estiment qu’il faut trouver un équilibre entre innovation, sécurité et responsabilité dans les projets IA des entreprises, 21 % estiment qu’il faut privilégier le respect des principes éthiques, alors que seuls 10 % font de l’innovation une priorité. Quant à identifier quelle structure ou institution serait la plus à même d’exercer les fonctions de contrôle et de régulation, 30 % des salariés penchent plutôt pour une agence internationale que pour une régulation par l’État (25 %) ou par l’Europe (19 %). Pour autant, l’AI Act européen est jugé plutôt comme une « très bonne ou une bonne chose » par 57 % des salariés interrogés, cette proportion atteignant même 75 % chez les utilisateurs d’IA dans le cadre professionnel.
Les salariés identifient assez clairement les risques liés au déploiement de l’IA dans les entreprises. Ils placent au premier rang l’impact sur les emplois (41 %), devant les risques liés à la confidentialité des données (33 %), une dépendance excessive à l’IA (31 %), la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %).
Face à une définition précise de l’IA responsable, 63 % des salariés interrogés jugent que le développement d’une telle IA est « souhaitable ou indispensable » (25 % l’estiment même indispensable), avec une conviction encore plus fortement ancrée chez les utilisateurs d’IA dans le cadre professionnel (83 %).
À quels domaines doit s’appliquer en priorité la responsabilité de l’IA ? 36 % des salariés citent d’abord la protection des données personnelles et sensibles, devant le respect des droits fondamentaux (27 %), l’amélioration du bien-être humain (25 %), le respect de l’humain et de sa singularité (24 %), le respect des principes éthiques (22 %), la garantie de la transparence (21 %), le respect de la santé humaine (20 %), l’impact environnemental (17 %), l’explicabilité des choix (13 %), la réduction des biais dans les algorithmes (11 %), l’inclusion sociale (9 %). Derrière cette diversité des champs de responsabilité de l’IA, apparaît néanmoins une conviction, forte de près de 8 salariés sur 10, qu’une l’IA responsable doit s’attacher au respect de l’être humain, de sa santé, de son bien-être et de ses droits, quelle que soit la taille de l’entreprise, même si la question des droits fondamentaux est la plus sensible dans les entreprises de plus de 250 salariés, cités par 36 % des personnes interrogées contre une moyenne de 25 % dans les entreprises de taille inférieure. Pour autant, au-delà des valeurs qu’elle porte, l’IA responsable est considérée comme un facteur d’efficacité dans le travail (44 % des opinions), aide à prendre de meilleures décisions (39 %), tout en consommant moins de ressources (32 %) et en étant transparentes (31 %) et éthiques (30 %).
Forts de leurs convictions, les salariés français jugent de façon très disparate la manière dont leurs entreprises s’emparent de ce concept d’IA responsable et le mettent en œuvre. 63% des salariés déclarent ignorer tout des démarches mises en œuvre par leur entreprise pour se mettre en conformité en matière d’IA responsable. Invités à situer, sur une échelle de 1 à 10, sa mise en place dans leur entreprise, 50 % des salariés s’arrêtent à 4. Seuls, 9 % d’entre eux indiquent pouvoir se référer à une charte éthique et/ou à un interlocuteur ou un comité d’éthique concernant l’IA. C’est probablement la raison pour laquelle 44 % des salariés appellent de leurs voeux la mise en place d’une surveillance de l’IA, 42 % souhaitent que l’entreprise garantisse une utilisation de l’IA selon des principes éthiques.
Pour les salariés, les entreprises disposent néanmoins des atouts nécessaires pour réussir en leur sein une acculturation à l’IA responsable, à commencer par ses compétences internes en matière d’IA (28 % des salariés), la sensibilisation aux enjeux liés à l’IA et la politique de formation (22 %), la motivation au changement de la part des salariés (20 %), l’engagement de la direction (16 %), le montant des budgets alloués à l’IA responsable (14 %). Pour accélérer cette acculturation à l’IA responsable, les salariés suggèrent qu’un certain nombre de freins soient levés, comme le manque de compétences internes, cité par 30 % des salariés, la complexité technique de l’IA (26 %), les coûts élevés de sa mise en oeuvre (24 %), la résistance au changement (22 %) ou le manque d’engagement de la direction.
« Les conclusions de cette première édition de l’Observatoire de l’IA responsable montrent la grande sensibilité des Français aux notions d’IA responsable et d’IA éthique et vont donc nourrir les grands travaux que le collectif entend mener en 2025, avec l’impulsion de l’AI Action Summit de février : autour du travail, de la santé, de l’environnement et pour toujours plus de formation et d'appropriation de toutes et tous des outils d’IA responsable. », conclut Christophe Liénard, Président de Impact AI.
Méthodologie
Étude d’opinion auprès d’un échantillon de 1 000 salariés du secteur privé, issu d’un échantillon représentatif de la population salariée résidant en France métropolitaine, âgée de 18 ans et plus. Interviews réalisées en ligne du 15 au 25 novembre 2024. Représentativité de l’échantillon assurée par la méthode des quotas (sexe, âge, catégorie socio-professionnelle, région, secteur et taille de l’entreprise).
Impact AI, le think & do tank de l’IA responsable, a dévoilé le 14 janvier 2025, en partenariat avec KPMG en France et BNP Paribas, la nouvelle édition de son Observatoire de l’IA Responsable, réalisé par Viavoice et le centre de prospective GCF sur un échantillon représentatif des salariés du secteur privé en France. L’objectif de cet Observatoire est d’analyser la façon dont ces salariés perçoivent le déploiement de l’IA dans leur entreprise, les opportunités et limites de cette technologie, leurs réactions face à l'enjeu de l’IA responsable(1) et ce qu’impliquerait sa mise en oeuvre dans leurs tâches quotidiennes.
Le rôle de l’IA dans le rayonnement d’un pays
À l’examen des résultats de l’Observatoire, un premier constat s’impose : le rôle de l’IA dans le développement et le rayonnement d’un pays est considéré comme important ou très important pour plus d’un salarié sur deux (52 %), mais valorisé encore davantage par ceux qui utilisent l’IA (74 %). À ce jeu, et sans surprise, ce sont les États-Unis qui sont considérés aujourd’hui comme le principal gagnant du développement de l’IA (pour 53 % des salariés qui utilisent l'IA) devant la Chine (42 %), la Corée du Sud (33 %), la France (30 %) et l’Union européenne (29 %), Israël (29 %).
Trouver le bon équilibre entre innovation, sécurité et responsabilité
Près de trois quarts des salariés jugent nécessaire de réguler le développement de l’IA, dont 37 % « tout à fait nécessaire », avec une proportion plus importante chez les utilisateurs de l’IA (85 % se prononcent en faveur d’une régulation). Pour autant, 36 % des salariés interrogés, quelle que soit la taille de l’entreprise et le secteur d’activité, estiment qu’il faut trouver un équilibre entre innovation, sécurité et responsabilité dans les projets IA des entreprises, 21 % estiment qu’il faut privilégier le respect des principes éthiques, alors que seuls 10 % font de l’innovation une priorité. Quant à identifier quelle structure ou institution serait la plus à même d’exercer les fonctions de contrôle et de régulation, 30 % des salariés penchent plutôt pour une agence internationale que pour une régulation par l’État (25 %) ou par l’Europe (19 %). Pour autant, l’AI Act européen est jugé plutôt comme une « très bonne ou une bonne chose » par 57 % des salariés interrogés, cette proportion atteignant même 75 % chez les utilisateurs d’IA dans le cadre professionnel.
Quelles conséquences sur l’emploi ?
Les salariés identifient assez clairement les risques liés au déploiement de l’IA dans les entreprises. Ils placent au premier rang l’impact sur les emplois (41 %), devant les risques liés à la confidentialité des données (33 %), une dépendance excessive à l’IA (31 %), la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %).
L’IA responsable, une nécessité éthique et un gage d’efficacité…
Face à une définition précise de l’IA responsable, 63 % des salariés interrogés jugent que le développement d’une telle IA est « souhaitable ou indispensable » (25 % l’estiment même indispensable), avec une conviction encore plus fortement ancrée chez les utilisateurs d’IA dans le cadre professionnel (83 %).
À quels domaines doit s’appliquer en priorité la responsabilité de l’IA ? 36 % des salariés citent d’abord la protection des données personnelles et sensibles, devant le respect des droits fondamentaux (27 %), l’amélioration du bien-être humain (25 %), le respect de l’humain et de sa singularité (24 %), le respect des principes éthiques (22 %), la garantie de la transparence (21 %), le respect de la santé humaine (20 %), l’impact environnemental (17 %), l’explicabilité des choix (13 %), la réduction des biais dans les algorithmes (11 %), l’inclusion sociale (9 %). Derrière cette diversité des champs de responsabilité de l’IA, apparaît néanmoins une conviction, forte de près de 8 salariés sur 10, qu’une l’IA responsable doit s’attacher au respect de l’être humain, de sa santé, de son bien-être et de ses droits, quelle que soit la taille de l’entreprise, même si la question des droits fondamentaux est la plus sensible dans les entreprises de plus de 250 salariés, cités par 36 % des personnes interrogées contre une moyenne de 25 % dans les entreprises de taille inférieure. Pour autant, au-delà des valeurs qu’elle porte, l’IA responsable est considérée comme un facteur d’efficacité dans le travail (44 % des opinions), aide à prendre de meilleures décisions (39 %), tout en consommant moins de ressources (32 %) et en étant transparentes (31 %) et éthiques (30 %).
Une mise en oeuvre encore inégale dans les entreprises, une acculturation à intensifier
Forts de leurs convictions, les salariés français jugent de façon très disparate la manière dont leurs entreprises s’emparent de ce concept d’IA responsable et le mettent en œuvre. 63% des salariés déclarent ignorer tout des démarches mises en œuvre par leur entreprise pour se mettre en conformité en matière d’IA responsable. Invités à situer, sur une échelle de 1 à 10, sa mise en place dans leur entreprise, 50 % des salariés s’arrêtent à 4. Seuls, 9 % d’entre eux indiquent pouvoir se référer à une charte éthique et/ou à un interlocuteur ou un comité d’éthique concernant l’IA. C’est probablement la raison pour laquelle 44 % des salariés appellent de leurs voeux la mise en place d’une surveillance de l’IA, 42 % souhaitent que l’entreprise garantisse une utilisation de l’IA selon des principes éthiques.
Pour les salariés, les entreprises disposent néanmoins des atouts nécessaires pour réussir en leur sein une acculturation à l’IA responsable, à commencer par ses compétences internes en matière d’IA (28 % des salariés), la sensibilisation aux enjeux liés à l’IA et la politique de formation (22 %), la motivation au changement de la part des salariés (20 %), l’engagement de la direction (16 %), le montant des budgets alloués à l’IA responsable (14 %). Pour accélérer cette acculturation à l’IA responsable, les salariés suggèrent qu’un certain nombre de freins soient levés, comme le manque de compétences internes, cité par 30 % des salariés, la complexité technique de l’IA (26 %), les coûts élevés de sa mise en oeuvre (24 %), la résistance au changement (22 %) ou le manque d’engagement de la direction.
« Les conclusions de cette première édition de l’Observatoire de l’IA responsable montrent la grande sensibilité des Français aux notions d’IA responsable et d’IA éthique et vont donc nourrir les grands travaux que le collectif entend mener en 2025, avec l’impulsion de l’AI Action Summit de février : autour du travail, de la santé, de l’environnement et pour toujours plus de formation et d'appropriation de toutes et tous des outils d’IA responsable. », conclut Christophe Liénard, Président de Impact AI.
Méthodologie
Étude d’opinion auprès d’un échantillon de 1 000 salariés du secteur privé, issu d’un échantillon représentatif de la population salariée résidant en France métropolitaine, âgée de 18 ans et plus. Interviews réalisées en ligne du 15 au 25 novembre 2024. Représentativité de l’échantillon assurée par la méthode des quotas (sexe, âge, catégorie socio-professionnelle, région, secteur et taille de l’entreprise).
À propos d'Impact AI
L’association Impact AI, est un collectif de réflexion et d'action constitué d'un écosystème d'acteurs divers, réunis pour favoriser l'adoption de l'IA responsable depuis 2018. Son objectif est de se positionner comme un acteur de référence sur l’utilisation responsable de l’IA en Europe. Impact AI compte aujourd’hui plus de 80 membres, grandes entreprises, ESN, sociétés de conseils, acteurs de l’intelligence artificielle, start ups et écoles.
L’association Impact AI, est un collectif de réflexion et d'action constitué d'un écosystème d'acteurs divers, réunis pour favoriser l'adoption de l'IA responsable depuis 2018. Son objectif est de se positionner comme un acteur de référence sur l’utilisation responsable de l’IA en Europe. Impact AI compte aujourd’hui plus de 80 membres, grandes entreprises, ESN, sociétés de conseils, acteurs de l’intelligence artificielle, start ups et écoles.