Au total, 80 experts techniques et directeurs des systèmes d’information (DSI) du CIO Strategy Council ont été invités à participer à une table ronde et à fournir des commentaires sur le troisième examen de la Directive sur la prise de décision automatisée du Secrétariat du Conseil du Trésor du Canada (SCT).
La Directive sur la prise de décision automatisée est entrée en vigueur en avril 2019 afin de garantir que l’utilisation de l’intelligence artificielle (IA) par le gouvernement du Canada pour prendre ou aider à prendre des décisions administratives est compatible avec les valeurs administratives fondamentales telles que la transparence, la responsabilité , la légalité et l’équité procédurale.
La directive est révisée tous les six mois et est supervisée par le SCT, qui est également chargé de fournir des conseils sur les systèmes de décision automatisés, d’accorder des exceptions, d’élaborer et de mettre à jour l’évaluation d’impact algorithmique (EIA) et de rédiger des stratégies éclairées en s’engageant avec le gouvernement, et des partenaires dans d’autres juridictions et secteurs.
Alors que la première révision de la directive cherchait à clarifier et à renforcer les exigences existantes, la transparence et les mesures d’assurance qualité, la seconde a éclairé l’élaboration de lignes directrices à l’appui de l’interprétation de la directive.
Le troisième examen de la Directive sur la prise de décision automatisée vise à réévaluer et à adapter l’état et l’utilisation de la directive en fonction du paysage canadien et mondial actuel de l’IA, ainsi que de l’évolution des risques et des défis liés à l’utilisation de l’IA dans le secteur public fédéral.
Dans le cadre du troisième examen, le SCT recommande les modifications suivantes dans une directive révisée :
-
- Remplacer l’intervalle d’examen de six mois par un examen biennal et permettre à la DSI du Canada, Catherine Luelo, de demander des examens hors cycle.
- Intégrer des critères d’explication et étendre l’EIA pour étudier les raisons de l’automatisation et l’effet sur les personnes handicapées.
- Exiger la publication des examens par les pairs et des EIA avant la production du système.
- Introduire des mesures pour retracer, protéger et éliminer les données utilisées, et imposer des tests de biais sur les modèles, y compris l’analyse comparative entre les sexes plus (GBA+) , pendant le développement du système.
- Clarifier la portée, utiliser un langage plus inclusif et harmoniser les exigences d’urgence avec la terminologie de la politique de sécurité du Conseil du Trésor
La table ronde du CIO Strategy Council a quant à elle fait les recommandations suivantes :
-
- Adapter les délais d’examen au type et à la sensibilité de l’IA déployée.
- Évaluer la publication du code source avec le risque d’exposer des classifications secrètes.
- Tenir compte de la menace de l’IA contradictoire et du risque que des individus jouent et d’autres modèles perturbateurs.
- L’expérience utilisateur doit orienter les politiques, les processus et la conception de l’IA.
- Créer des inventaires de données basés sur les décisions politiques existantes pour éclairer la conception de l’IA.
- Publier les projets d’IA existants utilisés par le gouvernement pour une transparence accrue.
- Faire la lumière sur le processus et le calendrier de surveillance des systèmes d’IA.
- Exiger des évaluations d’impact sur la vie privée pour intégrer la confidentialité dès la conception et par défaut.
La directive révisée devrait être publiée le 23 mars 2023.
Adaptation et traduction française par Renaud Larue-Langlois.