L’IA se rapprochant rapidement des capacités humaines, elle ne doit être utilisée que lorsque ses avantages sont clairs et ses risques maîtrisés.
Le nouveau gouvernement libéral a promis d’utiliser l’IA pour améliorer l’efficacité du gouvernement. L’IPFPC soutient l’IA qui complète les emplois du secteur public, à condition que les mesures de protection adéquates soient en place. Cependant, nous avons vu ce qui se passe lorsque la technologie remplace hâtivement la surveillance humaine : des systèmes défaillants, de l’argent gaspillé et un préjudice pour le public.
Le gouvernement fédéral avait promis « des plafonds, pas des coupes », mais il a déjà rompu cette promesse en procédant à certaines des plus importantes coupes dans la fonction publique de l’histoire récente. L’IPFPC craint qu’il n’aille encore plus loin, en utilisant l’IA comme couverture pour justifier ces coupes et même des coupes encore plus importantes qui coûteront de bons emplois aux Canadien·nes et nuiront à la qualité des services publics dont les gens dépendent.
Nous avons besoin d’une stratégie pancanadienne en matière d’IA pour protéger l’intérêt public, les bons emplois, les droits des travailleur·ses et la souveraineté numérique. Cette stratégie doit comprendre ce qui suit :
1. Réforme législative, politique et réglementaire en matière d’IA
- Introduire un nouveau projet de loi sur la réglementation de l’IA. Le projet de loi C-27 est maintenant caduc et n’a pas été adopté. Il est urgent d’adopter un nouveau projet de loi qui :
- met en place un régulateur indépendant de l’IA qui ne relève pas d’un·e ministre du gouvernement;
- élargit la réglementation au gouvernement fédéral et aux sociétés d’État, et pas seulement au secteur privé réglementé par le gouvernement fédéral (comme le faisait le projet de loi C-27).
- Renforcer les protections en matière de vie privée et de surveillance. Les Canadien·nes ont besoin de garanties plus solides contre l’utilisation abusive de l’IA, notamment en ce qui concerne la protection de la vie privée, la surveillance et la collecte de données.
- Assurer la transparence publique. Le gouvernement a promis un répertoire public pour toutes les utilisations fédérales de l’IA, mais cela n’a pas été fait. Alors qu’un registre existe avec environ 300 projets, chaque projet doit encore faire l’objet d’une évaluation de l’impact, d’une communication claire avec les travailleur·ses concernés et d’explications publiques pour les communautés potentiellement touchées.
2. Souveraineté et infrastructure canadiennes en matière d’IA
- Investir dans des solutions canadiennes en matière d’IA. Bien que le Canada dispose de talents de premier plan en matière d’IA, le gouvernement continue de s’appuyer fortement sur les technologies de l’IA étrangères, en particulier celles des États-Unis. Cela doit changer.
- Développer des plateformes et des produits d’IA canadiens. Le Canada doit :
- construire ses propres robots conversationnels d’IA et logiciels avancés;
- créer des centres de données canadiens pour le stockage et le traitement sécurisés des données gouvernementales sensibles; des millions de dossiers devraient être stockés en toute sécurité au Canada, et non dans des pays étrangers;
- garantir la participation du gouvernement et la propriété publique de ces infrastructures afin de protéger les données canadiennes et de garantir le contrôle public et la responsabilité.
3. Représentation syndicale et protection des travailleur·ses
- Mener des consultations constructives avec les syndicats. Evan Solomon, ministre de l’IA, Joël Lightbound, ministre de la Transformation du gouvernement, et Shafik Ali, président du Conseil du Trésor, doivent :
- consulter les syndicats fédéraux; et
- mettre en place des mécanismes de consultation réguliers et structurés aux niveaux national, ministériel et local.
- Inclure les syndicats dans la gouvernance de l’IA. Nous devons collaborer avec toutes les parties prenantes pour mettre en œuvre l’IA de manière efficace. Ce que cela signifie ce qui suit :
- Les syndicats et les organisations communautaires doivent obtenir des sièges au sein du Conseil consultatif en matière d’intelligence artificielle du gouvernement, qui ne comprend actuellement que des représentant·es des milieux scientifiques et économiques.
- La création d’un comité mixte permanent fédéral-syndical sur l’IA pour surveiller, conseiller et superviser l’utilisation de l’IA dans le secteur public.
- Protéger les travailleur·ses au moyen de conventions collectives. De nouvelles dispositions sont nécessaires dans les conventions collectives afin de traiter les questions suivantes :
- Protection contre la surveillance et le contrôle fondés sur l’IA;
- Possibilités de formation et de recyclage professionnel pour s’adapter à l’évolution technologique;
- Préavis et alertes lorsque des changements liés à l’IA sont introduits;
- Droits et processus clairs en matière de consultation et de négociation sur l’adoption de l’IA.
- Améliorer la stratégie en matière d’intelligence artificielle du Secrétariat du Conseil du Trésor. En mars 2025, le SCT a publié une stratégie en matière d’IA pour la fonction publique fédérale. Cependant, cette stratégie ne répond pas à plusieurs préoccupations essentielles, dont beaucoup sont soulignées ci-dessus. Pour garantir une utilisation responsable et transparente de l’IA au sein du gouvernement, la stratégie doit :
- garantir la transparence, la protection de l’emploi et le respect de la vie privée;
- assurer la responsabilité en établissant un régulateur indépendant de l’IA pour superviser toutes les utilisations de l’IA par le gouvernement, y compris celles liées aux fonctionnaires fédéraux;
- promouvoir l’innovation en investissant dans des solutions canadiennes en matière d’IA destinées au secteur public;
- favoriser la collaboration par le biais d’un comité mixte réunissant les syndicats fédéraux et le gouvernement pour une consultation continue en matière d’IA.