L'Institut professionnel de la fonction publique du Canada

La stratégie du SCT en matière d’intelligence artificielle ne répond pas aux attentes

L'approche disparate actuelle du gouvernement en matière d'IA pour le secteur fédéral ne permet pas de suivre l’évolution rapide des changements technologiques. L'IPFPC demeure déçu par la stratégie du SCT dévoilée en mars 2025.

Nous réclamons depuis longtemps une stratégie fondée sur la transparence et dotée d’un registre d'utilisation de l'IA, un engagement pris par Stephen Burt, dirigeant principal des données du Canada, mais qui n'a pas été tenu. De plus, aucune garantie n'a été donnée contre les suppressions d'emplois dues à l'IA ou contre son utilisation abusive pour surveiller les employé·es fédéraux, ce qui, nous le savons, est déjà le cas.

Plus grave encore, il n'a pas été question d'un organisme indépendant de réglementation de l'IA. Utilisée de manière responsable, l'IA peut autonomiser les travailleurs, améliorer les emplois et accroître l'efficacité. Cependant, son utilisation non réglementée favorise les abus : elle risque de remplacer des employé·es, menace la vie privée et porte atteinte aux normes du secteur public.

L'IPFPC souhaite une mobilisation plus approfondie et une consultation continue sur l'IA. Nous continuons de réclamer la création de comités mixtes patronaux-syndicaux. Les employé·es fédéraux sont en droit de comprendre comment l'IA transformera leurs emplois et leur milieu de travail, et nos membres méritent d'avoir une voix plus forte dans cette transformation. Il est d’une importance cruciale pour l'avenir de la fonction publique que les employé·es ne soient pas mis à l'écart ou que leurs critiques constructives soient ignorées.

Le secteur public fédéral a besoin d'une approche globale et transparente en matière d'IA, appuyée par une réglementation et une surveillance indépendante, des consultations continues et la négociation collective, qui aborde les risques en matière de vie privée, garantit les droits des employé·es et préserve les bons emplois au fédéral.

Plus précisément, l’Institut plaide en faveur d’une stratégie fédérale sur l’IA qui inclurait les protections, garanties et principes suivants :

  • Consultation : Qu’il s’agisse d’introduire une nouvelle IA dans les flux de travail ou d’élaborer une stratégie fédérale, le gouvernement doit consulter les syndicats et les parties concernées à tout moment. Mettre en place des mécanismes de consultation réguliers dans tous les secteurs, y compris avec le Conseil du Trésor, en se réunissant au moins quatre fois par an. Renforcer le Conseil consultatif sur l’IA en y intégrant une représentation syndicale, car nous sommes directement concernés par l’utilisation de l’IA.
  • Réglementation : Mettre en place des organes de surveillance fédéraux pour réglementer l’IA à tous les niveaux du gouvernement, y compris les établissements de sécurité nationale, en garantissant la protection de la vie privée et des droits de la personne. Idéalement, le Canada établira un cadre réglementaire unique qui régit l’IA dans les secteurs privé et public.
  • Transparence : Le Conseil du Trésor, les ministères et les organismes doivent rendre publiques toutes les utilisations de l’IA, en particulier en ce qui concerne le recrutement, la dotation en personnel, la gestion du rendement, le contrôle de la sécurité et l’accès des visiteurs.
  • Équité, diversité et inclusion (EDI) : Les politiques en matière d’IA doivent être élaborées dans l’optique de l’EDI, en veillant à ce qu’aucune pratique discriminatoire, telle que la reconnaissance photographique Clearview, ne soit utilisée. L’IA doit être inclusive dès le départ.
  • Négociations sur l’IA : Imposer l’inclusion de l’utilisation de l’IA dans le processus de négociation collective afin que les employeurs et les syndicats puissent négocier relativement à la manière dont l’IA affecte la vie professionnelle du personnel.
  • Contrôle : Mettre fin à toute surveillance secrète du personnel par l’IA, y compris les outils de surveillance et les robots, comme l’ont souligné de récents rapports des Médias.
  • Examen : Les nouveaux systèmes d’IA doivent faire l’objet d’un examen régulier après leur mise en œuvre afin d’évaluer leur efficacité et de procéder aux ajustements Nécessaires.
  • Protection des dénonciateurs : Protéger le personnel qui signale une utilisation non éthique de l’IA, en suivant des modèles éprouvés comme ceux de l’Australie.
  • Recherche : Les ministères fédéraux devraient diriger la recherche sur l’IA afin d’améliorer les programmes existants ou d’en développer de nouveaux, en veillant à ce que la recherche soit menée par des fonctionnaires, sauf en cas d’exception justifiée.
  • Formation et recyclage : Offrir au personnel une formation ou un recyclage obligatoire et entièrement financé en matière d’IA, en commençant immédiatement lorsque cela s’avère nécessaire.
  • Avis préalable : Prolonger la période d’avis pour les changements d’emploi ou les mises en disponibilité liés à l’IA à au moins un an, ce qui laisse suffisamment de temps pour le recyclage.
  • Garantie d’emploi : Si le recyclage n’est pas possible, garantir de nouvelles occasions d’emploi au personnel touché par la mise en disponibilité due à l’IA.