Blake Lemoine, un ingénieur principal de logiciel au sein de l’organisation Responsible AI de Google, est en mise à pied administrative au cœur d’une vague de controverses. Il a exprimé sa pensée selon laquelle le LaMDA AI de l’entreprise est, selon ses propres termes, « une personne », avec laquelle il a eu une conversation dans laquelle elle aurait expliqué pourquoi elle devrait être considérée comme « douée de sentiments ».
Google ne partage pas son opinion. Mais selon le Washington Post, Lemoine aurait été mis à pied non pas pour ses opinions, mais pour avoir violé la politique de confidentialité de la société en travaillant avec des gens de l’extérieur de l’entreprise pour confirmer sa théorie. La veille de sa mise à pied, Lemoine avait remis des documents au bureau d’un sénateur américain en affirmant qu’ils montraient les technologies de l’entreprise faisant de la discrimination religieuse.
Lemoine a expliqué dans son blog personnel qu’il avait volontairement fourni une liste de noms de personnes avec lesquelles il avait discuté du sujet, dont plusieurs travaillaient pour le gouvernement américain et avaient exprimé leur intérêt pour la surveillance fédérale du projet. Google a insisté sur le fait qu’une telle surveillance n’était aucunement nécessaire.
De plus, Lemoine avait invité un avocat pour représenter LaMDA et avait parlé à un représentant du comité judiciaire de la Chambre au sujet d’activités présumées contraires à l’éthique chez Google, a rapporté le Post.
La controverse entoure LaMDA, un acronyme de Language Model for Dialogue Applications. Lancé en 2021, LaMDA est un système d’intelligence artificielle (IA) de traitement du langage naturel (NLP) qui imite les conversations humaines en raison de sa capacité avancée à comprendre les sous-entendus. Contrairement aux chatbots couramment utilisés aujourd’hui dans le secteur du service à la clientèle, LaMDA peut tenir des conversations fluides sur une variété de sujets.
Lors de l’annonce, Google a déclaré que LaMDA adhère à ses principes d’IA et que son équipe de développement s’efforce de minimiser les risques. Les systèmes de PNL de formation peuvent être délicats en raison de la discrimination et du discours de haine intégrés dans les données de formation, qui sont difficiles à filtrer.
Dans une déclaration au Washington Post, Google a déclaré que même si ses systèmes imitent les conversations, ils n’ont pas de conscience. Google a également déclaré que LaMDA avait été examiné par son équipe et qu’il avait été démontré qu’il adhérait aux principes d’IA de l’entreprise.
Lire aussi :
Google I/O 2022 : De nouvelles fonctionnalités dans Google Workspace
Nouveau laboratoire d’intelligence artificielle à Montréal
Québec lance un appel de projets en matière d’intelligence artificielle
Traduction et adaptation française par Renaud Larue-Langlois