Dans la foulée des directives de cybersécurité pour les systèmes d’IA générative publiées par le gouvernement fédéral, les régulateurs fédéraux, provinciaux et territoriaux de la protection de la vie privée du Canada ont publié leur propre ensemble de lignes directrices liées à la confidentialité.
Annoncés fin novembre ces principes visent à faire progresser le développement et l’utilisation responsable, digne de confiance et respectueuse de la vie privée des technologies d’intelligence artificielle générative au pays.
Alors que le Parlement débat du projet de loi sur l’intelligence artificielle et les données (LIAD), qui imposerait des règles obligatoires autour des systèmes d’IA à haut risque, la loi n’entrera probablement pas en vigueur avant plusieurs années. Les gouvernements et les régulateurs espèrent qu’entre-temps, les lignes directrices donneront aux développeurs d’applications, aux entreprises et aux ministères une idée de jusqu’où ils devraient ou ne devraient pas aller.
Et bien que les lois régissant l’IA ne soient pas encore en vigueur, les régulateurs notent que les organisations développant, fournissant ou utilisant l’IA générative ont respecté les lois et réglementations en vigueur au Canada en matière de protection de la vie privée.
Le même jour, le gouvernement a annoncé que huit autres entreprises avaient signé son code de conduite volontaire en matière d’IA. Parmi elles, AltaML, qui aide les entreprises avec des solutions d’IA ; BlueDot, qui utilise l’IA pour suivre les maladies infectieuses ; le fournisseur de solutions CGI ; Kama.ai, qui utilise l’IA pour créer des applications de marketing et de relation client ; IBM : Protexxa, qui propose une plateforme de cybersécurité SaaS ; Resemble AI, qui permet aux organisations de créer des voix humaines pour répondre aux requêtes dans les centres d’appels et Scale AI, qui aide les entreprises à créer des modèles d’IA. Le code volontaire identifie les mesures que les organisations sont encouragées à appliquer à leurs opérations lorsqu’elles développent et gèrent des systèmes avancés d’IA générative.
Le commissaire fédéral à la protection de la vie privée, Philippe Dufresne, a annoncé le 7 décembre le nouveau document de principes à l’ouverture d’un symposium international sur la protection de la vie privée et l’IA organisé par son bureau.
Le document explique comment les principes clés de confidentialité s’appliquent lors du développement, de la fourniture ou de l’utilisation de modèles, d’outils, de produits et de services d’IA générative. Ceux-ci incluent :
- Établir une autorité légale pour la collecte et l’utilisation des informations personnelles utilisées dans les systèmes d’IA et, lorsque l’on s’appuie sur le consentement, garantir qu’il est valide et significatif.
- Être ouvert et transparent sur la manière dont les informations sont utilisées par les systèmes d’IA et sur les risques encourus en matière de confidentialité.
- Créer des outils d’IA explicables aux utilisateurs.
- Développer des garanties pour le droit à la vie privée.
- Limiter le partage d’informations personnelles, sensibles ou confidentielles.
Les développeurs sont également invités à prendre en considération l’impact unique que ces outils pourraient avoir sur les groupes vulnérables, notamment les enfants.
Le document fournit des exemples de bonnes pratiques, notamment la mise en œuvre de la « confidentialité dès la conception » dans le développement des outils et l’étiquetage du contenu créé par l’IA générative.
Adaptation et traduction française par Renaud Larue-Langlois.