Recueil des pratiques exemplaires pour l’adoption centrée sur l’être humain d’une IA sûre, sécurisée et fiable dans le monde du travail

Sur cette page

Formats substituts

Les formats en gros caractères, braille, MP3 (audio), texte électronique, et DAISY sont disponibles sur demande en commandant en ligne ou en composant le 1 800 O-Canada (1-800-622-6232). Si vous utilisez un téléscripteur (ATS), composez le 1-800-926-9105.

Introduction

Le présent recueil de pratiques exemplaires, qui vise à faire progresser la mise en œuvre du Plan d’action du G7 de 2024 pour une adoption centrée sur l’être humain d’une intelligence artificielle (IA) sûre, sécurisée et fiable dans le monde du travail, a vu le jour dans le cadre du groupe de travail du G7 sur l’emploi durant la présidence du Canada au G7 en 2025, avec les contributions des pays du G7 et des groupes de mobilisation. Le recueil appuie la Déclaration des dirigeants du G7 sur l’IA pour la prospérité, adoptée à Kananaskis en juin 2025, qui soulignait la nécessité de bâtir une main-d’œuvre prête pour l’avenir et de préparer les travailleurs aux transitions liées à l’IA.

L'IA est une technologie transformatrice qui a le potentiel de remodeler les emplois, les milieux de travail et la vie des travailleurs. Selon les estimations de l'Organisation internationale du travail (OIT), parmi les pays du G7, 6,5 % des emplois, soit 25 millions, sont fortement exposés à la technologie de l'IA générative, la plupart des tâches présentant un fort potentiel d’automatisation. De plus, 28 % d'emplois supplémentaires (109 millions) sont susceptibles de subir des transformations au fur et à mesure de l'intégration progressive de l'IA dans les tâches quotidiennesFootnote 1. En même temps, l’IA créera de nouveaux emplois et pourra générer des avantages importants tant pour les employeurs que pour les employés. Par exemple, les enquêtes sur l'IA menées auprès des employeurs et des travailleurs par l'Organisation de coopération et de développement économiques (OCDE) montrent qu'environ 80 % des travailleurs qui utilisent l'IA signalent une amélioration du rendement, tandis que seuls 8 % déclarent des effets négatifs (Lane, Williams et Broecke, 2023). Pour pouvoir gérer ce changement, les marchés du travail doivent être prêts pour l'avenir et résilients, et garantir que tous les travailleurs et leur famille tirent profit des possibilités créées par le changement technologique. C'est pourquoi les pays du G7 ont convenu en 2024 d'un Plan d’action pour le développement et l’utilisation centrés sur l’être humain d’une IA sûre, sécurisée et fiable dans le monde du travail (en anglais seulement; ci-après, le « Plan d'action du G7 ») et, en 2025, les dirigeants du G7 ont convenu de faire avancer la mise en œuvre du Plan d’action. Le Plan d'action du G7 met en relief les mesures stratégiques que les pays du G7 peuvent prendre pour gérer ce changement, et couvre les domaines suivants : développement des compétences; automatisation, productivité et équité; protection des renseignements personnels et non-discrimination; santé et sécurité au travail, autonomie, capacité d'agir et dignité; transparence, explicabilité et reddition de comptes; et dialogue social. Dans le Plan d'action du G7, les pays du G7 ont demandé à l'OIT et à l'OCDE de les soutenir et de rendre compte des progrès des pays. Le présent recueil, préparé conjointement par les deux organisations, décrit les mesures stratégiques portant sur l'IA dans le domaine du travail signalées dans les dossiers du Plan d'action du G7Footnote 2 dans le cadre d'un questionnaire visant précisément les points forts des politiques. Il ne représente donc pas une liste exhaustive des initiatives.

1. Tirer pleinement parti du potentiel de l'IA sur le marché du travail grâce au développement des compétences

Pratiques actuelles

  1. Établir des centres spécialisés pour surveiller les tendances des compétences et offrir une formation.
  2. Mettre à jour les cadres de certification et de compétences pour qu'ils tiennent compte de l'IA.
  3. Élargir le soutien financier à la formation liée à l'IA.
  4. Créer des programmes pour doter les travailleurs et chercheurs d'emploi des compétences nécessaires à l'utilisation de l'IA.

L'utilisation de l'IA dans le monde du travail modifie rapidement les tâches de nombreux travailleurs et les types de compétences recherchées. Il est essentiel de doter les travailleurs des compétences adéquates pour tirer parti des avantages de l'IA tant au niveau global qu'au niveau individuel. Même si certains métiers nécessiteront une expertise spécifique en conception, en développement et en maintenance de l'IA, la plupart des travailleurs auront besoin d'améliorer leurs compétences numériques, leurs compétences en résolution de problèmes et leurs compétences relationnelles pour compléter les systèmes d'IA (OIT, à paraître). De récentes données probantes montrent que dans les professions fortement exposées à l'IA, 72 % des postes vacants exigent au moins une compétence de gestion, 67 % au moins une compétence du groupe de compétences des processus administratifs, et plus de 50 % au moins une compétence des groupes des compétences sociales, émotionnelles ou numériques (Green 2024). Le Plan d'action du G7 propose des mesures que les pays peuvent envisager pour s'assurer que les établissements d'enseignement et de formation, ainsi que les programmes d'apprentissage pour adultes, peuvent répondre rapidement à ces changements et offrir des débouchés accessibles et de grande qualité à tous les groupes de travailleurs, y compris ceux des petites et moyennes entreprises (PME), ainsi qu'aux travailleurs âgés et moins qualifiés.

Les pays du G7 ont adopté un large éventail de mesures visant à développer les compétences nécessaires pour tirer parti du potentiel de l'IA sur le marché du travail. Certains ont créé des centres spécialisés qui analysent les tendances des compétences et offrent une formation ou des outils, tels que le Centre des Compétences futures au Canada, l'AI Skills Hub et Skills England au Royaume-Uni, ainsi que les Centres d'excellence en IA et LaborIA en France. Certains pays mettent à jour les cadres de certification et de compétences en tenant compte des répercussions de l'IA. Par exemple, aux termes du Décret no 2025-500 du 6 juin 2025 de la France, l'IA doit être intégrée au cadre de référence des compétences pour les travailleurs; le Royaume-Uni révise son cadre intitulé Essential Digital Skills Framework; l'Union européenne mettra à jour son cadre des compétences numériques à la fin de 2025 pour mieux intégrer les compétences liées à l'IA; et les États-Unis travaillent à définir des voies de formation et de certification en IA de haute qualité.

Le soutien financier est un autre outil auquel certains pays du G7 ont recours pour aider les travailleurs à développer les compétences nécessaires à l'ère de l'IA. Au Japon, par exemple, ils ont accès à des avantages sociaux liés à la formation éducative qui couvrent une partie des coûts des cours désignés (qui comprennent des cours numériques et des cours liés à l'IA). Par ailleurs, et dans le cadre d'un régime différent, les employeurs reçoivent des subventions accrues pour le développement des ressources humaines lorsqu'ils dispensent une formation à leur main-d'œuvre. Un autre exemple est celui du Royaume-Uni, qui offre plusieurs bourses d'études et de recherche pour soutenir les travailleurs qui entrent dans les professions liées à l'IA, comme les bourses de recherche Turing IA Fellowships. De plus, aux États-Unis, des subventions fédérales sont disponibles pour aider les organisations à créer et à élargir des programmes permettant aux travailleurs d’acquérir les compétences nécessaires pour les emplois liés à l’IA

Les pays du G7 ont lancé divers programmes pour doter les travailleurs et les chercheurs d'emploi des compétences nécessaires à l'utilisation efficace de l'IA. Par exemple, les États-Unis ont récemment lancé un plan intitulé America's AI Action Plan, qui met l'accent sur la promotion d'un ensemble de mesures prioritaires visant à développer les connaissances et la littératie en matière d'IA, à former rapidement les travailleurs et à les aider à s'épanouir dans une économie axée sur l'IA. Ce plan est renforcé par l'America's Talent Strategy lancée récemment. La stratégie 2024-26 AI Strategy de l'Italie comprend des formations et des webinaires qui font la promotion de l'utilisation sûre et efficace de l'IA. Certains programmes ciblent tous les travailleurs et chercheurs d'emploi (p. ex. le programme Compétences pour réussir du Canada; et les programmes italiens Digital Literacy for Work et New Skills Fund), tandis que d'autres sont adaptés à des groupes spécifiques, comme les fonctionnaires (École de la fonction publique du Canada) ou les secteurs prioritaires (les Skills Bootcamps du Royaume-Uni). En Italie, plusieurs conventions collectives sectorielles nationales prévoient des formations aux compétences numériques. L'apprentissage en milieu de travail est une autre voie de développement des compétences; les apprentissages et les stages comprennent le Programme d'apprentissage en TI pour les peuples autochtones du Canada; le programme Sector-Based Work Academy Programme du Royaume-Uni; et le plan des États-Unis d'élargir l'accès aux apprentissages et de les renforcer , y compris ceux qui sont liés à l'IA. Les gouvernements réforment également les programmes existants; citons par exemple les réformes japonaises de la formation professionnelle publique, l'intégration croissante de l'IA à tous les niveaux de diplôme par la France, et les projets des centres d'excellence professionnelle de l'Union européenne, soutenus par Erasmus+. Les États-Unis ont l'intention de créer des cheminements de carrière qui mènent directement des études secondaires aux industries technologiques. Les instruments de financement, tels que le programme pour une Europe numérique de l'Union européenne et le financement sous le régime de la Workforce Innovation and Opportunity Act des États-Unis, soutiendront également la conception de nouvelles initiatives de formation. De plus, les gouvernements s'associent au secteur privé, comme en témoignent la collaboration du gouvernement britannique avec 11 grandes entreprises pour former 7,5 millions de travailleurs aux compétences essentielles en IA ainsi que les programmes de formation axés sur l'industrie proposés par les États-Unis pour les emplois prioritaires dans l'infrastructure de l'IA. Les pays du G7 font également appel à l'IA elle-‑même pour donner la formation au public cible. En Allemagne, par exemple, des casques de réalité virtuelle permettent aux employés d'autoévaluer leurs compétences en IA (savoir-faire en matière d'IA et Meta AI Literacy Scale).

2. Gérer l'automatisation, la productivité et l'équité sur le lieu de travail

Pratiques actuelles

  1. Surveiller les répercussions sur le marché du travail.
  2. Cibler le perfectionnement et le recyclage professionnels des chercheurs d'emploi, des travailleurs touchés par les mises à pied massives et de ceux qui sont les plus exposés à l'IA.
  3. Soutenir la recherche et l'expérimentation pour accroître l'adoption de l'IA.
  4. Soutenir les PME dans l'adoption de l'IA.
  5. Établir des lignes directrices sur l'adoption de l'IA dans le lieu de travail, harmonisées avec les normes internationales et les principes centrés sur l'être humain.

L'OIT estime que 6,5 % des emplois au sein du G7 courent un risque élevé d'automatisation due à la technologie de l'IA générativeFootnote 3. De plus, l’OCDE estime que 27 % des emplois dans les pays de l’OCDE appartiennent à des professions qui présentent un risque élevé d’automatisation liée à toutes les technologies d’automatisation (OCDE 2023). SI certaines de ces professions se transforment progressivement pour remplir d’autres fonctions, d’autres déclineront et de nouvelles verront le jour; il est donc essentiel que les pays surveillent l’évolution de la situation et fournissent un soutien à l’emploi. La transformation des professions, ainsi que les nouvelles professions générées, peut donner lieu à des avantages importants, notamment une productivité accrue. Cependant, tous les groupes de travailleurs et d’entreprises ne sont pas bien placés pour profiter de ces avantages. Par exemple, l’adoption de l’IA a été inégale; en 2024, 40 % des entreprises de l’OCDE comptaient 250 employés ou plus qui utilisent l’IA, comparativement à 20 % des entreprises de taille moyenne (de 50 à 249 employés) et à 12 % seulement des petites entreprises (de 10 à 49 employés) (OCDE, 2025). Le Plan d’action du G7 présente des mesures que les pays peuvent prendre pour offrir aux travailleurs et aux employeurs la possibilité de déployer et d’utiliser des outils d’IA centrés sur l’être humain, qui ont le potentiel d’augmenter la productivité et d’atténuer les pénuries de main-d’œuvre, tout en assurant l’équité. Les politiques de développement des compétences susmentionnées sont au cœur de ces efforts.

Pour mieux comprendre les répercussions de l'IA sur le marché du travail, les pays du G7 suivent les développements au moyen d'observatoires spécialisés. Par exemple, l'Allemagne a créé l'Observatory on Artificial Intelligence in Work and Society, l'Italie développe le National Observatory on the Adoption of AI in the World of Work afin d'analyser l'incidence des technologies de l'IA sur l'élaboration des politiques de soutien aux entreprises et aux travailleurs par la recherche et de surveiller leur effet sur le marché du travail. Les États-Unis prévoient de lancer l'AI Workforce Hub. La France a accueilli le Sommet pour l'action sur l'intelligence artificielle à Paris les 10 et 11 février 2025, lancé le Réseau des observatoires sur l'IA et le monde du travail et instauré le Pledge for a Trustworthy AI in the World of Work.

Pour soutenir les travailleurs et chercheurs d'emploi les plus touchés par l'IA et l'automatisation, les pays du G7 prennent des mesures destinées aux chercheurs d'emploi (comme les Jobcentres du Royaume-Uni, les réformes Get Britain Working et les ententes de transition de carrière de l'Italie), qui ciblent le perfectionnement et le recyclage professionnels des travailleurs touchés par les mises à pied massives (comme le programme de financement de l'Initiative canadienne pour le perfectionnement professionnel et les possibilités d'emploi, et les initiatives de requalification de l'IA Action Plan des États-Unis), ainsi que les programmes spécifiques de soutien aux travailleurs des secteurs les plus exposés à l'IA (comme le projet pilote de requalification rapide et de nouveaux modèles de main-d'œuvre pour faire face aux évolutions du marché du travail liées à l'IA des États-Unis). Les services d'emploi publics (SEP) connaissent également une amélioration grâce à l'utilisation d'outils d'IA, comme les outils ChatFT, MatchFT et QualiFT de France Travail, ainsi que le formateur virtuel italien AppLI, qui aide les jeunes ni aux études, ni en emploi, ni en formation à obtenir une formation personnalisée et des offres d'emploi adaptées sur la plateforme virtuelle de jumelage d'emplois SIISL. Dans l'Union européenne, le Réseau des SEP soutient la coopération, l'apprentissage mutuel et l'échange d'expériences dans les domaines clés des responsabilités des SEP, notamment la numérisation des SEP, la transformation numérique des organisations de SEP et, surtout, l'utilisation de l'IA dans les SEP. De plus, le Canada intégrera l'IA à la plateforme Banque nationale d'emplois pour améliorer le jumelage d'emplois, et lancera un outil national pour aider les adultes à trouver des formations courtes et axées sur les compétences selon l'emplacement et le format.

En ce qui concerne les mesures qui favorisent l'utilisation sûre et centrée sur l'être humain de l'IA, les pays du G7 soutiennent la recherche et l'expérimentation pour accroître l'adoption de l'IA. Au Canada, par exemple, le Programme Défi « L'IA au service de la productivité » soutient l'adoption de l'IA dans les secteurs des technologies propres, de l'agriculture et de la fabrication, et collabore avec le secteur privé pour renforcer les capacités du Canada en IA commerciale. L'Allemagne a établi les Regional Competence Centres for Work Research, qui relient le milieu scientifique, l'industrie et les partenaires sociaux pour développer et transférer les connaissances en IA afin de façonner l'avenir du travail. Les États-Unis travaillent à simplifier la réglementation en collaboration avec les entreprises et le grand public afin d'encourager le développement et le déploiement de l'IA. En outre, les pays soutiennent l'adoption dans les entreprises, en particulier les PME. Par exemple, au Canada, le programme Assistance IA, une initiative du Programme d'aide à la recherche industrielle du Conseil national de recherches du Canada, aide les PME à développer des solutions d'IA générative et d'apprentissage profond de manière sûre et éthique. La France a lancé Osez l'IA en juillet 2025 pour accélérer son adoption par les PME. Par l'intermédiaire de LaborIA, la France fournit également un guide et un outil d'autodiagnostic pour le déploiement de l'IA au travail. À l'échelle de l'Union européenne, le train de mesures sur l'innovation en matière d'intelligence artificielle, lancé en 2024, soutient les entreprises en démarrage et les PME en IA et investit dans le renforcement du bassin de talents en IA générative.

Plusieurs pays du G7 ont également publié (ou publieront) des lignes directrices pour l'adoption de l'IA qui s'appliquent au monde du travail. Au Japon, l'Act on Promotion of Research & Development and Utilization of Artificial Intelligence-related Technology (2025) prévoit que le gouvernement doit établir des lignes directrices conformément aux normes internationales, telles que le Code de conduite international du processus d'Hiroshima à l'intention des organisations qui développent des systèmes d'IA de pointe (en anglais seulement). L'Italie a publié pour consultation publique les versions préliminaires des Guidelines on AI in the World of Work et des Guidelines on AI in the Public Administration, entre autres. Au Canada, le Guide sur l'utilisation de l'intelligence artificielle générative offre des conseils aux fonctionnaires sur l'utilisation responsable, efficace et équitable des outils d'IA générative. En Allemagne, l'Observatory on Artificial Intelligence in Work and Society fournit des lignes directrices volontaires pour l'adoption de l'IA centrée sur l'être humain dans les entreprises, des outils pour le perfectionnement professionnel des travailleurs et des logiciels pour la supervision humaine des systèmes d'IA.

3. Protéger les renseignements personnels et promouvoir la non-discrimination dans le monde du travail

Pratiques actuelles

  1. Mettre en place des mesures de protection des données et des renseignements personnels.
  2. Mettre en œuvre des mesures pour améliorer la qualité des données afin d'assurer un déploiement fiable et responsable de l'IA.
  3. Mettre à jour les cadres existants.
  4. Fournir des conseils pratiques sur l'IA fiable au travail.

Comme indiqué dans le Plan d’action du G7, l’augmentation de la collecte et de l’analyse des données sur les travailleurs et les candidats à l’emploi découlant de l’intégration croissante de l’IA dans le monde du travail offre des occasions d’améliorer le rendement et l’équité dans la prise des décisions. Néanmoins, si les systèmes d’IA sont mal conçus, entraînés sur des ensembles de données sélectifs, incomplets ou biaisés, et si la direction comprend mal comment utiliser et interpréter les données, des risques juridiques, éthiques et pratiques peuvent survenir pour les entreprises et leurs employés (Berg et Johnston, 2025). Le Plan d’action du G7 pour une adoption centrée sur l’être humain d’une intelligence artificielle (IA) sûre, sécurisée et fiable dans le monde du travail présente des mesures que les pays peuvent utiliser pour promouvoir la protection de la vie privée et la non-discrimination en milieu de travail.

Les lois sur la protection des données et des renseignements personnels au sein de l'Union européenne, telles que le Règlement général sur la protection des données (RGPD), établissent les exigences pour un traitement légal et équitable des données personnelles. Au Canada, la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) régit l'utilisation des renseignements personnels dans le cadre des activités commerciales, tandis que le Code de conduite volontaire sur l'IA générative engage les signataires à atténuer les risques. En 2025, 46 organisations allant de PME à des multinationales mondiales y ont adhéré. Ces instruments établissent des mesures de protection, telles que la limitation de la collecte, de l'utilisation et de la divulgation des données à des fins légales et clairement définies, l'exigence du consentement et l'imposition de mesures visant à prévenir l'accès non autorisé, la perte ou la mauvaise utilisation des données. De plus, l'Institut canadien de la sécurité de l'intelligence artificielle (ICSIA) a vu le jour pour faire progresser la compréhension scientifique des risques associés à la plupart des systèmes d'IA avancés et pour fournir des outils permettant d'y faire face. L'ICSIA collabore également avec un réseau international d'instituts de la sécurité de l'IA pour faire avancer des projets conjoints sur la sécurité de l'IA. La loi italienne sur l'intelligence artificielle établit la transparence, la proportionnalité, la sécurité, la protection des données personnelles, la protection des renseignements personnels, l'exactitude, la non-discrimination, l'égalité des genres et la durabilité comme principes généraux pour la recherche, l'expérimentation, le développement, l'adoption, l'application et l'utilisation des systèmes et modèles d'IA.

Les mesures visant à améliorer la qualité des données comprennent le projet KITQAR en Allemagne, qui vise à élaborer des normes de qualité pour les données de test et d'entraînement destinées à l'application de l'IA dans les entreprises et organisations. L'Allemagne mène également le projet KIDD - AI in the Service of Diversity, dans lequel le gouvernement, en association avec des partenaires d'affaires, a élaboré un processus normalisé qui permet aux entreprises d'acheter ou de développer et de proposer des applications logicielles équitables.

Certains pays mettent à jour leurs cadres pour traiter de la vie privée et de la non-discrimination liées aux systèmes d'IA dans le monde du travail. Par exemple, l'Allemagne a annoncé un projet de loi à venir sur la protection des données des employés. En France, la Commission Nationale de l'Informatique et des Libertés (CNIL), l'autorité chargée de la protection des données, consulte les parties prenantes afin d'élaborer des recommandations sectorielles qui apportent une plus grande certitude juridique sur les questions liées à la protection des renseignements personnels. Le Royaume-Uni utilise son cadre réglementaire en vigueur, l'Equality Act 2010, pour interdire la discrimination dans l'emploi lorsque l'IA est utilisée pour l'embauche ou la gestion. De plus, l'article 22 du RGPD britannique établit des règles pour les décisions fondées uniquement sur un traitement automatisé ayant des effets juridiques ou des effets similaires : les gens doivent être informés, peuvent obtenir une intervention humaine, contester les décisions et faire des observations. Le Règlement sur l'intelligence artificielle de l'Union européenne adopte une approche fondée sur les risques qui classe les systèmes d'IA dans la gestion de l'emploi et des travailleurs comme présentant un risque élevé et nécessitant des évaluations des risques, des données de qualité, une transparence et une surveillance pour prévenir les résultats discriminatoires.

Plusieurs cadres traitent simultanément de la protection des renseignements personnels et de la non‑discrimination. Par exemple, la LPRPDE canadienne et le RGPD de l'Union européenne accordent aux gens le droit d'accéder à leurs données personnelles, de demander des corrections et, dans certains pays, de demander la suppression ou la restriction du traitement. De plus, ces dispositions législatives exigent des canaux accessibles pour les plaintes ou demandes concernant la gestion des données personnelles, ainsi que pour enquêter et traiter les plaintes fondées. Dans certains contextes, des évaluations de la protection des renseignements personnels et des répercussions sont requises, par exemple en vertu du RGPD de l'UE et de la Directive sur la prise de décisions automatisée et de la Politique sur la protection de la vie privée du Canada.

De plus, les pays du G7 ont publié des directives pratiques sur l'IA fiable au travail. Par exemple, les Guidelines on AI in the World of Work de l'Italie recommandent d'évaluer les répercussions sur l'emploi, la protection des renseignements personnels et les droits des travailleurs. Le guide du Royaume-Uni de 2024, Responsible AI in Recruitment, définit des mécanismes d'assurance pour soutenir des pratiques d'embauche équitables. Les lignes directrices italiennes et britanniques recommandent toutes deux de prendre des mesures pour garantir l'exactitude et la qualité des données, ainsi que pour cerner les biais potentiels ou les répercussions injustes causés par les modèles d'IA et y remédier. Dans leur initiative America’s AI Action Plan lancée récemment, les États-Unis ont réitéré leur engagement à respecter les droits individuels, les libertés civiles, la vie privée et la confidentialité dans la création de jeux de données scientifiques prêts pour l’IA, ainsi que leur engagement à éviter une réglementation trop lourde sur l’IA qui nuirait à la réalisation des avantages de l’IA pour les travailleurs, y compris le potentiel de l’IA de réduire la discrimination en milieu de travail.

4. Renforcer la santé et la sécurité au travail, l'autonomie, la capacité d'agir et la dignité

Pratiques actuelles

  1. Soutenir le développement d'outils d'IA et de robotique pour améliorer la sécurité et la santé au travail.
  2. Intégrer l'IA dans les cadres de travail et de sécurité.
  3. Encourager les employeurs à réaliser des évaluations des risques et des répercussions afin de préserver la santé et la sécurité au travail dans les environnements professionnels utilisant l'IA.
  4. Surveiller et faire connaître les répercussions de l'IA sur la santé et la sécurité au travail.

L’utilisation de l’IA sur le lieu de travail peut renforcer la santé et la sécurité au travail en prévenant les accidents du travail et les maladies professionnelles, notamment grâce à l’automatisation des tâches dangereuses ou au déploiement d’un équipement de sécurité qui surveille la fatigue et d’autres facteurs de risque. Par exemple, dans les enquêtes de l’OCDE sur l’IA, 56 % des travailleurs des services financiers et de la fabrication ont déclaré que l’IA améliorait leur santé physique et leur sécurité au travail, et 63 % ont indiqué apprécier davantage leur travail (Lane, Williams et Broecke 2023). Cela dit, l’intégration de l’IA peut introduire de nouveaux risques pour la sécurité et la santé au travail ou modifier ceux existants.

Les pays du G7 soutiennent le développement d'outils d'IA et de robotique qui améliorent la santé et la sécurité au travail. Par exemple, en Allemagne, le ministère fédéral du Travail et des Affaires sociales a financé le développement d'un système d'IA à BG BAU, l'institution allemande d'assurance accidents pour le secteur de la construction, qui analyse les rapports d'accident, les infractions passées, les dossiers de formation et les données de l'entreprise afin de mieux cibler les inspections. En conséquence, le taux de visites révélant des infractions a augmenté de 29 % pour atteindre 64 %. En Italie, l'Istituto Italiano di Tecnologia développe des robots basés sur l'IA, comme les exosquelettes, afin de réduire les risques pour la santé et la sécurité au travail.

En outre, les pays du G7 intègrent les enjeux liés à l'IA dans les cadres existants de travail et de sécurité tout en publiant des lignes directrices supplémentaires. Par exemple, au Royaume-Uni, le Health and Safety Executive (HSE) de la Grande-Bretagne (G.-B.) a précisé que la nature de l'établissement d'objectifs du régime de la G.-B. signifie que les dispositions législatives en vigueur s'appliquent à l'utilisation de l'IA en milieu de travail (approche réglementaire du HSE en matière d'IA). Les principes généraux de prévention énoncés dans la Directive‑cadre européenne relative à la sécurité et à la santé au travail (1989) de l'UE continuent de s'appliquer aux travailleurs qui utilisent les systèmes d'IA, tandis que le Cadre stratégique de l'Union européenne en matière de santé et de sécurité au travail pour la période 2021-2027 met en lumière les défis naissants liés à la santé et à la sécurité au travail. Les Guidelines on AI in the World of Work de l'Italie recommandent des mesures de protection, telles que les pauses, pour éviter le « stress de l'automatisation ». Au Canada, le Guide sur l'utilisation de l'intelligence artificielle générative aborde les risques pour l'autonomie et la capacité d'agir des fonctionnaires.

La plupart des pays du G7 font appel à des évaluations des risques et des répercussions pour promouvoir la santé et la sécurité au travail lorsque l'IA est utilisée en milieu de travail. Par exemple, au Canada, la Directive sur la prise de décisions automatisée fédérale exige une évaluation de l'incidence algorithmique qui évalue les répercussions pour l'égalité, la dignité, la protection des renseignements personnels et l'autonomie des travailleurs. Au Royaume-Uni, les employeurs doivent effectuer des évaluations des risques liés à l'utilisation de l'IA ayant une incidence sur la santé et la sécurité, et s'assurer que des mesures de contrôle appropriées sont en place (approche réglementaire du HSE concernant l'IA). La France exige des entreprises qu'elles évaluent les risques liés à l'IA, notamment la surcharge mentale, la perte de sens et l'isolement (article L. 4121-1).

De plus, les pays du G7 surveillent et font connaître les répercussions des systèmes d'IA sur la santé et la sécurité au travail. Par exemple, au Royaume-Uni, le HSE de la G.-B. a mené des recherches pour accroître la compréhension de l'utilisation de l'IA dans tous les secteurs, en notant les répercussions sur les systèmes de maintenance, la gestion de la santé et de la sécurité, le contrôle de l'équipement et la surveillance professionnelle (Understanding How AI is Used in HSE Regulated Sectors). À l'échelle de l'Union européenne, l'Agence européenne pour la sécurité et la santé au travail mène des initiatives de relations externes, notamment la campagne de 2023-2025 Lieux de travail sains - La sécurité et la santé au travail à l'ère numérique.

5. Renforcer la transparence, l'explicabilité et la reddition de comptes

Pratiques actuelles

  1. Faire la promotion de la transparence, de la surveillance humaine et des mesures de traçabilité.
  2. Fournir des outils d'autoévaluation pour aider les entreprises à renforcer les pratiques de gouvernance de l'IA.
  3. Promouvoir des cadres de gestion des risques pour cerner, évaluer et atténuer les risques liés à l'IA proportionnellement à leurs répercussions.

Afin de favoriser une adoption fiable de l’IA dans le monde du travail les systèmes d’IA doivent être conçus de manière à soutenir une transparence appropriée et à fournir aux travailleurs des renseignements clairs sur leur utilisation, notamment en leur permettant de donner un consentement éclairé. Les décisions fondées sur l’IA doivent être explicables, et il doit être possible de demander réparation lorsque des erreurs surviennent. Les données probantes montrent que les gestionnaires et les employés ont des inquiétudes quant à leur capacité à comprendre comment les systèmes d’IA prennent leurs décisions et à l’absence de voies de recours claires. Par exemple, dans une étude de l’OCDE, 28 % des gestionnaires ont déclaré un manque de clarté dans la reddition de comptes lorsque les outils de gestion algorithmique prennent de mauvaises décisions, et 27 % ont indiqué que le manque d’explicabilité est une préoccupation (Milanez, Lemmens et Ruggiu 2025). Cela dit, les systèmes d’IA pourraient aussi améliorer la transparence et la reddition de comptes grâce à des fonctionnalités, telles que des dossiers de vérification complets, des registres des décisions cohérents et des outils d’explication a posteriori qui ne sont pas disponibles dans les processus humains. Les défis liés aux systèmes décisionnels humains et de l’IA, notamment le manque de clarté en matière de responsabilité, peuvent compliquer l’application de la réglementation. Le Plan d’action du G7 propose des mesures que les pays peuvent adopter pour promouvoir la transparence, l’explicabilité et la reddition de comptes.

De nombreux pays du G7 ont élaboré des initiatives ciblées pour promouvoir la transparence, l'explicabilité et la reddition de comptes, qui s'appliquent à l'utilisation de l'IA dans le monde du travail. Les AI Guidelines for Business (version 1.1) du Japon mettent l'accent sur la transparence, l'explicabilité et la reddition de comptes. Le Code de conduite volontaire du Canada sur l'IA générative inclut des engagements en matière de transparence et de reddition de comptes, tels qu'une supervision humaine et une gestion des risques adéquates. Le Canada a également établi le Guide sur l'utilisation de l'intelligence artificielle générative et la Directive sur la prise de décisions automatisée pour la fonction publique fédérale. La directive exige que les ministères consignent les décisions et publient de l'information sur le rendement et l'équité des systèmes d'IA, appuyant ainsi la reddition de comptes. Les États-Unis ont révisé leurs politiques sur l'acquisition de l'IA par les agences fédérales en avril 2025. L'Allemagne développe des solutions logicielles pour rendre les fonctions centrales des systèmes d'IA compréhensibles pour les employés et leur permettre de vérifier et d'approuver les décisions ou d'arrêter les systèmes si nécessaire dans le cadre du projet AI Cockpit.

Dans l'Union européenne, le RGPD contient des dispositions sur la prise de décision automatisée, tandis que la Directive relative à l'amélioration des conditions de travail dans le cadre du travail via une plateforme de 2024 établit des règles sur la transparence et la reddition de comptes dans la gestion algorithmique pour les travailleurs des plateformes. Le Règlement sur l'intelligence artificielle de l'Union européenne impose des exigences strictes en matière de transparence, de surveillance humaine et de mesures de traçabilité pour l'audit des opérations d'IA. Des initiatives nationales complètent ces cadres européens, notamment une décision de justice française en février 2025 qui renforce les droits des travailleurs à la transparence en ce qui concerne l'IA en milieu de travail. En Allemagne, 20 administrations ont élaboré les Guidelines for the Use of AI in the Administrative Work of Employment and Social Protection Services. En Italie, les Guidelines on the Use of AI in the Public Administration et les Guidelines on AI in the World of Work spécifiques ont fait l'objet de consultations publiques et sont en cours d'examen. De plus, les conventions collectives italiennes (p. ex. Assogrocery et Everli) établissent des exigences contraignantes de transparence pour les systèmes de gestion algorithmique, et l'entente du centre d'appels Konecta établit des règles éthiques sur l'utilisation des outils d'IA.

De nombreux pays du G7 font la promotion d'approches de gestion des risques, qui comprennent l'établissement de cadres clairs pour cerner, évaluer et atténuer les risques proportionnellement à l'ampleur et aux répercussions des systèmes d'IA, comme le fait, par exemple, le Règlement sur l'intelligence artificielle de l'UE (article 9) et le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d'IA générative du Canada. Des évaluations de l'incidence algorithmique sont également couramment requises pour repérer les préjudices potentiels et s'assurer que des stratégies d'atténuation sont en place. Les évaluations de l'incidence sont, par exemple, exigées par le Règlement sur l'intelligence artificielle de l'UE (article 27) et la Directive sur la prise de décisions automatisée (Outil d'évaluation de l'incidence algorithmique) du Canada, et sont incluses dans le Code de conduite volontaire du Canada. Certains pays ont mis à disposition des outils d'autoévaluation pour fournir des directives et des instruments pratiques qui aident les entreprises, en particulier les PME, à évaluer et à améliorer les pratiques de gouvernance de l'IA, comme l'AI Management Essentials Tool du Royaume-Uni, soumis à une consultation publique en 2025.

6. Mettre à profit le dialogue social

Pratiques actuelles

  1. Mettre en œuvre des stratégies nationales qui intègrent le dialogue social comme principe dans l'adoption et l'utilisation de l'IA.
  2. Encourager la consultation des partenaires sociaux à différents niveaux, des consultations nationales aux pratiques en milieu de travail.

La consultation des partenaires sociaux peut aider à garantir que les technologies d’IA en milieu de travail soient instaurées et utilisées de manière innovante, généralisée et sécurisée. Des lois en la matière et des droits de participation et des lois en la matière rigoureux ont soutenu les avancées dans la consultation et la négociation autour de l’IA (Doellgast et coll., 2025), ce qui, à son tour, favorise des résultats positifs pour la qualité de l’emploi et la confiance sur le lieu de travail. Le Plan d’action du G7 propose des mesures que les pays peuvent prendre pour promouvoir la participation au dialogue social afin de tirer parti du potentiel des nouvelles technologies tout en faisant progresser la qualité des emplois.

De nombreux pays du G7 ont adopté des stratégies nationales qui intègrent le dialogue social comme principe dans l'adoption et l'utilisation de l'IA. Par exemple, la Stratégie en matière d'intelligence artificielle pour la fonction publique fédérale 2025-2027 du Canada engage le gouvernement du Canada à une consultation précoce et constructive du public et des parties prenantes sur les initiatives d'IA importantes pour l'intérêt public. Au Royaume-Uni, le Plan to Make Work Pay du gouvernement présente des propositions visant à renforcer la consultation des travailleurs dans le déploiement de nouvelles technologies. En Italie, les partenaires sociaux participent à l’Observatoire national sur l’adoption de l’IA dans le monde du travail, établi par la loi no 132 du 23 septembre 2025.

En outre, les pays du G7 encouragent la consultation des partenaires sociaux à différents niveaux, des consultations nationales aux pratiques en milieu de travail. Par exemple, le Code du travail français (article L. 2312‑8) impose une consultation obligatoire des représentants des employés (comité social et économique) au niveau de l'entreprise avant d'instaurer toute technologie pouvant avoir des répercussions considérables sur les conditions de travail. En France, l'ANACT - l'Agence nationale pour l'amélioration des conditions de travail - a fait l'essai de méthodes visant à faire participer les travailleurs dès la phase de conception, à anticiper les répercussions organisationnelles et psychosociales, et à protéger l'autonomie des travailleurs. Au Royaume-Uni, le Plan to Make Work Pay propose de soumettre l'instauration des technologies de surveillance en milieu de travail à consultation et à négociation avec les représentants syndicaux ou les représentants des employés. En Allemagne, la Works Constitution Act accorde aux conseils d'entreprise le droit de participer à l'organisation en milieu de travail ainsi qu'à la santé et à la sécurité au travail, notamment par l'intermédiaire de comités de numérisation qui examinent l'instauration ou la modification majeure des technologies (German Federal Office of Justice, 2024). De plus, en Allemagne, l'initiative AI Studios, qui fait partie du projet AI Observatory, vise à expliquer les technologies d'IA et leurs répercussions afin de permettre aux travailleurs, représentants et partenaires sociaux de participer activement à la conception de l'utilisation de l'IA en milieu de travail. Les partenaires sociaux dans de nombreux pays du G7 ont négocié des conventions collectives qui portent sur l'intégration de l'IA au milieu de travail, tant au niveau de l'entreprise qu'au niveau sectoriel.

Conclusion

Ce recueil présente des exemples de mesures stratégiques visant à promouvoir l'IA dans le monde du travail, cadrant avec le Plan d'action du G7, en fonction des réponses des pays à un questionnaire spécialisé. Ce recueil ne présente pas une liste exhaustive de mesures. Cependant, certaines tendances s'en dégagent. Les pays du G7 font activement la promotion de mesures visant à tirer parti des avantages de l'IA dans le monde du travail tout en gérant les risques connexes. Les exemples donnés par les pays du G7 couvrent un large éventail d'interventions, allant de l'investissement dans les outils d'IA à la formation aux compétences, la protection des données, la transparence, la non-discrimination ainsi que la santé et la sécurité au travail. Ces interventions sont menées à la fois par le truchement de mesures stratégiques existantes et nouvelles, souvent avec le soutien des partenaires sociaux. À l'avenir, il sera important de continuer à surveiller les mesures stratégiques harmonisées avec le Plan d'action du G7, afin d'aider les pays du G7 à cerner les approches les plus efficaces dans la pratique. Les évaluations des politiques mises en place par les pays peuvent également fournir des éclairages sur la conception efficace de politiques axées sur l'IA.

Outre les six dossiers du Plan d'action du G7, les pays poursuivent également d'autres initiatives pour façonner l'utilisation de l'IA dans le monde du travail. Par exemple, la France a souligné dans le questionnaire qu'en suivi du Plan d'action du G7, et en contribution au programme du G7 sous la présidence française en 2026, son ministre du Travail a également annoncé la création d'un groupe de travail tripartite composé de chercheurs et d'experts qui a produit une série de webinaires sur les thèmes du Plan d'action visant à échanger avec les partenaires sociaux sur les enjeux clés liés à l'IA en milieu de travail. En septembre 2025, le Parlement italien a approuvé l'« AI Act » (« Provisions and delegations to the Government regarding Artificial Intelligence »), un projet de loi qui couvre de nombreux dossiers du Plan d'action du G7.

Une action politique suivie, ainsi que des évaluations des mesures mises en place par les pays du G7, sera nécessaire pour s'assurer que les avantages de l'IA dans le monde du travail sont pleinement réalisés, tout en gérant efficacement les risques. Un suivi continu des progrès dans le cadre du Plan d'action du G7 aidera à cerner des approches efficaces et à mettre en évidence les domaines où des mesures pourraient être nécessaires.

Références

Berg, Janine et Hannah Johnston. (2025). AI in Human Resource Management: The Limits of Empiricism. Document de travail de l'OIT, no 154.

Doellgast, Virginia, Shruti Appalla, Dina Ginzburg, Jeonghun Kim et Wen Li Thian. 2025. Global Case Studies of Social Dialogue on AI and Algorithmic Management. Document de travail de l'OIT, no 144. https://doi.org/10.54394/VOQE4924.

Gmyrek, Pawel, Janine Berg, Karol Kamiński, Filip Konopczyński, Agnieszka Ładna, Balint Nafradi, Konrad Rosłaniec et Marek Troszyński. 2025. Generative AI and Jobs: A Refined Global Index of Occupational Exposure. Document de travail de l'OIT, no 140. https://doi.org/10.54394/HETP0387.

Green, Andrew. 2024. Artificial Intelligence and the Changing Demand for Skills in the Labour Market. Documents sur l'intelligence artificielle de l'OCDE, no 14, https://doi.org/10.1787/88684e36-en.

Organisation internationale du Travail. 2025 Revolutionizing Health and Safety: The Role of AI and Digitalization at Work. https://doi.org/10.54394/KNZE0733.

Organisation internationale du Travail. (à paraître). World of Work Series: Lifelong Learning and Skills Dynamics.

Lane, Marguerita, Morgan Williams et Stijn Broecke. 2023. The Impact of AI on the Workplace: Main Findings from the OECD AI Surveys of Employers and Workers. Documents de travail de l'OCDE sur les affaires sociales, l'emploi et la migration, no 288. https://doi.org/10.1787/ea0a0fe1-en.

Milanez, Anna, Annikka Lemmens et Carla Ruggiu. 2025. Algorithmic Management in the Workplace: New Evidence from an OECD Employer Survey. Documents sur l'intelligence artificielle de l'OCDE, no 31. https://doi.org/10.1787/287c13c4-en.

Milanez, A. (2023), The impact of AI on the workplace: Evidence from OECD case studies of AI implementation. Documents de travail de l'OCDE sur les affaires sociales, l'emploi et la migration, no 289, Éditions OCDE, Paris, https://doi.org/10.1787/2247ce58-en.

Rani, U., Pesole, A. and Gonzalez Vazquez, I. 2024. Algorithmic Management practices in regular workplaces: case studies in logistics and healthcare. Office des publications de l'Union européenne, Luxembourg, https://op.europa.eu/en/publication-detail/-/publication/bff25994-cfc2-11ee-b9d9-01aa75ed71a1/language-en.

OCDE. 2023. Perspectives de l'emploi de l'OCDE 2023 : Intelligence artificielle et marché du travail. https://www.oecd.org/fr/publications/perspectives-de-l-emploi-de-l-ocde-2023_aae5dba0-fr.html.

OCDE. 2024. Using AI in the Workplace: Opportunities, Risks and Policy Responses. Documents sur l'intelligence artificielle de l'OCDE, no 11. https://doi.org/10.1787/73d417f9-en.

OCDE. (2025). Businesses using artificial intelligence (AI). Consulté en septembre 2025 dans la base de données OECD ICT Access and Usage by Businesses Database : https://goingdigital.oecd.org/datakitchen/#/cover/5/ict/indicator/explore/en.

Notes de bas de page

Détails de la page

2025-12-05