Les chiffres racontent souvent une histoire, c’est pourquoi ce qui suit est si important : il a fallu deux ans à Twitter pour atteindre un million d’utilisateurs, environ 10 mois pour Facebook, plus de deux mois et demi pour Spotify, un mois pour Instagram et pour ChatGPT d’OpenAI, ça s’est produit cinq jours après son lancement fin novembre.
Ces statistiques ont été évoquées la semaine dernière lors d’une présentation réservée à la presse diffusée en direct du sommet Gartner Data & Analytics à Orlando, en Floride, qui traitait de la question de savoir si des outils de génération de contenu basés sur l’intelligence artificielle (Generative AI ou Gen AI, en anglais) tels que ChatGPT et Bard de Google aideront les organisations ou leur nuiront.
Parmi les thèmes principaux : remplaceront-ils les emplois et comment seront-ils intégrés aux technologies que les organisations utilisent au quotidien ?
Ces offres, a noté Gartner, ont généré un battage médiatique important avec leur potentiel pour permettre des fonctionnalités innovantes et utiles, mais il y a également eu de nombreuses discussions autour des problèmes que cette technologie peut créer.
Les conférenciers de la session de questions-réponses étaient Frances Karamouzis, analyste distinguée de Gartner et Svetlana Sicular, analyste de Gartner, qui se concentrent toutes deux sur les questions liées à l’IA et à l’entreprise.
Selon la firme d’études, le service ChatGPT « évoluera rapidement en 2023, et sera complété par d’autres offres. Les clients de Gartner ont posé une multitude de questions concernant ChatGPT. Leurs questions les plus fréquemment posées couvrent des domaines aussi divers que la valeur commerciale, l’impact sur la main-d’œuvre, les préoccupations éthiques et juridiques, la technologie, les paysages des fournisseurs, la sécurité et les expériences. »
Mme Karamouzis a souligné que la trajectoire de mise à disposition de ChatGPT aux masses est l’une des raisons pour lesquelles il est sous les projecteurs, une autre est la facilité d’utilisation et, enfin et surtout, le facteur d’accessibilité, dans la mesure où « n’importe qui peut simplement jouer avec ».
Interrogé par Meghan Rimol DeLisi, responsable senior des relations publiques chez Gartner qui a animé le panel : Quel impact aura ChatGPT sur la main-d’œuvre humaine dans son ensemble, Karamouzis a répondu que Gartner prédit que d’ici 2026, plus de 100 millions de personnes « auront ce que nous appelons un collègue-robot – un collègue virtuel synthétique – et l’utiliseront ».
« Mais pour répondre à votre question directe, cela remplacera-t-il des emplois ? Nous ne pensons pas qu’il y aura cet énorme remplacement d’emplois. »
Elle a comparé cela à l’époque où les étudiants étaient autorisés à apporter une calculatrice avec eux lorsqu’ils passaient un examen. Des outils comme ChatGPT, « permettront l’automatisation, mais remplaceront-ils certains emplois ? Non, mais je pense qu’il y aura des outils incroyables qui aideront à recalibrer et à redéfinir notre façon de travailler ».
Un document de recherche Gartner décrivant les questions fréquemment posées sur l’outil Gen AI indique qu’« il y aura de nouveaux emplois créés, tandis que d’autres seront redéfinis. Le changement net de la main-d’œuvre variera considérablement en fonction de facteurs tels que l’industrie, l’emplacement, la taille et les offres (produits ou services) de l’entreprise ».
« Cependant, il est clair que l’utilisation d’outils tels que ChatGPT (ou ses concurrents), l’hyper automatisation et les innovations de l’IA se concentreront sur des tâches répétitives et à volume élevé, en mettant l’accent sur l’efficacité, comme la réduction du temps de cycle, l’augmentation de la productivité et l’amélioration du contrôle de la qualité (réduire les taux d’erreur), entre autres. »
Mme Sicular, qui a été la pionnière de l’IA responsable, de la gouvernance de l’IA, de l’intelligence augmentée et de la recherche sur les mégadonnées chez Gartner, a été invitée à définir certaines des considérations éthiques les plus importantes lorsqu’il s’agit d’explorer l’utilisation de l’IA dans l’entreprise.
Elle a répondu qu’il ne s’agit pas seulement pour une organisation d’être éthique, mais d’être consciente d’une multitude de réglementations légales existantes ou à venir.
« Un type est la réglementation existante que vous devez suivre. Et l’autre type de réglementation et la réglementation à venir sur l’IA qui est, dans la plupart des cas, à l’état de projet, elles ne sont pas en vigueur mais à venir, et nous savons dans quelle direction elles iront. Et les législateurs parlent partout de nouvelles capacités d’IA.
En décrivant le côté éthique de l’équation, elle a évoqué l’expérience de sa fille de 13 ans : « Elle fait partie d’un groupe qui écrit des fanfictions et ils ont une personne très populaire qu’ils suivent tous. Et un jour, elle m’a demandé : “Maman, as-tu entendu parler de l’éthique de l’IA ?” J’ai répondu, oui, en quelque sorte. Et elle a dit que dans leur groupe, quelqu’un avait contourné le rédacteur et utilisé ChatGPT pour terminer l’histoire. »
« Que fais-tu à propos de ça ? C’est une question d’éthique. Il s’agit de savoir comment vous décidez vraiment de ce qui est bien et ce qui ne va pas dans ce tout nouveau monde ? Ce sont les questions éthiques dont il faut être conscient, il n’y a pas de noir et blanc. Il s’agit de poser les bonnes questions et d’y répondre. Par exemple, nous voyons le débat – ChatGPT n’est pas un auteur. Devrait-il l’être ? x
« Il y a de nombreuses zones grises auxquelles nous devons nous attaquer et nous devons y réfléchir. »
Lors de la période de questions et réponses, les deux panélistes ont été interrogés sur la chose la plus mal comprise par les hauts dirigeants d’entreprise en matière d’IA générative.
Mme Karamouzis a répondu en disant que c’est le concept qu’il n’existe pas d’entreprise sans IA. L’IA, a-t-elle dit, est partout – intégrée dans les offres de tous les grands fournisseurs de suites et contenue dans tout, des plates-formes qui effectuent des tâches administratives spécifiques aux systèmes de détection de fraude.
Le plus grand risque pour une organisation, a-t-elle dit, est simplement de « rester immobile » et de ne rien faire lorsqu’il s’agit de mettre en œuvre une stratégie d’IA.
Adaptation et traduction française par Renaud Larue-Langlois.