La ferveur autour de l’intelligence artificielle (IA) générative entraînée par l’omniprésent ChatGPT a pris d’assaut le monde de la technologie, tant pour ses capacités sensationnelles que pour ses limites.
Mais les entreprises canadiennes ont été lentes à sauter dans le train en marche, contrairement à celles des États-Unis, révèle un nouveau sondage de KPMG.
Pour cette étude, KPMG a sondé les opinions de 250 entreprises, 90 au Canada et 160 aux États-Unis, chacune déclarant un revenu annuel brut se situant entre 500 millions et 1 milliard de dollars américains.
L’enquête a révélé que seulement 35 % des organisations canadiennes utilisent actuellement l’IA dans leurs opérations, contre 72 % aux États-Unis.
« Les organisations canadiennes sont à la traîne par rapport à leurs homologues américaines en ce qui concerne l’adoption de l’IA, et cela survient à un moment où les développements dans le domaine évoluent rapidement, en particulier dans le domaine de l’IA générative », a déclaré Benjie Thomas, directeur associé canadien, Services-conseils, chez KPMG au Canada.
Plus de 50 % des répondants canadiens admettent qu’ils pourraient utiliser l’IA plus efficacement. Actuellement, seuls 30 % environ expérimentent avec ChatGPT ou utilisent l’IA dans leurs centres d’appels. Aux États-Unis, c’est le double.
L’un des principaux obstacles auxquels les organisations canadiennes sont confrontées est le manque de talents. Près de la moitié déclarent ne pas disposer de l’expertise interne pour vérifier l’exactitude de leurs algorithmes d’IA.
Une autre enquête de KPMG, publiée en février, démontre que plus de 50 % des employés ne font pas confiance à l’IA au travail, ce qui peut également expliquer sa lente adoption.
De plus, beaucoup affirment que les ensembles de données utilisés pour former les algorithmes d’IA sont soit trop petits, soit trop volumineux, manquent d’informations, sont incorrects ou ne sont pas correctement formatés.
« La première étape pour toute organisation qui envisage d’adopter l’IA est de “préparer ses données” », a déclaré Zoe Willis, partenaire et responsable nationale des données et du numérique chez KPMG au Canada.
Selon Mme Willis, cela implique de compiler un inventaire complet des données, de cartographier leur emplacement, d’évaluer leur exactitude, leur actualité et leur pertinence, d’identifier les lacunes actuelles et potentielles dans les données et de déterminer qui a accès à ces données et s’ils sont bien outillé pour l’analyser.
« Sans données de qualité, les algorithmes d’IA sont susceptibles de produire des résultats biaisés, incorrects, trompeurs et peu fiables, et les conséquences pour les entreprises incluent des erreurs qui conduisent à de mauvaises décisions commerciales », a-t-elle ajouté.
Mais bien que plus de 50 % des répondants canadiens reconnaissent les risques de prendre des décisions basées sur des données de mauvaise qualité, seulement 44 % font régulièrement appel à des experts tiers indépendants pour évaluer leurs algorithmes d’IA afin d’y déceler les erreurs et les biais, contre 75 % aux États-Unis.
Un cadre de gouvernance de l’IA robuste qui garantit l’intégrité des données, la confidentialité, la responsabilité, la sécurité et d’autres considérations est également essentiel à l’adoption de l’IA, mais seulement 43 % des organisations canadiennes en ont un.
Le besoin est encore plus critique maintenant, alors que les régulateurs du monde entier commencent à réprimer des outils comme ChatGPT pour des raisons de confidentialité et de sécurité nationale.
Le gouvernement canadien, par exemple, a déposé le projet de loi C-27 en juin de l’année dernière, dans une toute première tentative globale de réglementation de l’IA. Le projet de loi doit encore faire l’objet de débats parlementaires.
De plus, le commissaire à la protection de la vie privée du Canada a annoncé plus tôt ce mois-ci qu’il enquêterait sur ChatGPT pour avoir éventuellement utilisé des informations personnelles sans autorisation. La semaine dernière, l’administration du président américain Biden a également appelé à des commentaires publics sur les mesures de responsabilité potentielles pour les systèmes d’IA.
L’enquête de KPMG révèle que 72 % des organisations américaines disposent d’un cadre d’IA responsable, mais comme la technologie évolue rapidement, la nécessité de s’adapter et de placer davantage de garde-fous est essentielle.
« Les organisations doivent disposer de modèles d’IA efficaces, durables, mais également suffisamment agiles pour s’adapter au monde qui les entoure », a déclaré Kareem Sadek, partenaire, conseiller et responsable des risques informatiques et des technologies émergentes, chez KPMG. « Les organisations qui ne le font pas seront moins compétitives et dignes de confiance et finiront par prendre du retard. »
Adaptation et traduction française par Renaud Larue-Langlois.