Des centaines de signataires réclament une interruption de l’entraînement des systèmes d’IA plus puissants que GPT-4 

Plus d’un millier d’acteurs clés du domaine de l’intelligence artificielle (IA) et des technologies, dont Yoshua Bengio, fondateur et directeur scientifique de Mila – Institut québécois d’intelligence artificielle co-signent aujourd’hui une lettre ouverte initiée par le Future of Life Institute afin de demander aux laboratoires d’IA d’interrompre immédiatement, pour une durée d’au moins six mois, l’entraînement de systèmes d’IA plus puissants que GPT-4.  

Les signataires s’inquiètent que « les systèmes d’IA dotés d’une intelligence humaine compétitive puissent poser de graves risques pour la société et l’humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d’IA ».  

Intitulée Pause Giant AI Experiments: An Open Letter, la lettre cite des principes largement approuvés selon lesquels « l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec des soins et des ressources proportionnés. Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d’IA enfermés dans une course effrénée pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ». 

La lettre appelle par conséquent tous les laboratoires d’IA à « suspendre immédiatement pendant au moins 6 mois la formation des systèmes d’IA plus puissants que GPT-4. Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés ». « Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire », poursuit le document. 

La requête exhorte les laboratoires d’IA et les experts indépendants à « profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants ». « Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable. » 

En parallèle, le document suggère que « les développeurs d’IA devraient travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance de l’IA robustes ». 

Outre Yoshua Bengio, on retrouve parmi les signataires de la lettre : 

  • Yuval Noah Harari, Auteur et professeur, Université hébraïque de Jérusalem 
  • Stuart Russell, Berkeley, Professeur d’informatique, directeur du Centre des systèmes intelligents et co-auteur de l’ouvrage « Artificial Intelligence: a Modern Approach » 
  • Elon Musk, PDG de SpaceX, Tesla et Twitter 
  • Steve Wozniak, Co-fondateur d’Apple 
  • Evan Sharp, Co-fondateur de Pinterest 
  • Rachel Bronson, Présidente du « Bulletin of the Atomic Scientists » 

Le texte de la lettre ouverte (en anglais) est disponible sur le site Web de l’organisme Future of Life. 

Renaud Larue Langlois
Renaud Larue Langlois
Un peu journaliste, un peu gestionnaire TI, totalement passionné de technologie. Après plus de 25 ans dans le domaine des TI, devenir rédacteur était tout naturel pour Renaud. C'est réellement une affaire de famille. Ses champs d'intérêt sont… tout, en autant que ça concerne la technologie. On peut le joindre à rlaruelanglois@directioninformatique.com.

Articles connexes

Le monde selon Hinton: Ralentir l’IA n’est pas la solution

Y a huit mois, Geoffrey Hinton, professeur émérite à...

Intel se lance dans l’aventure avec de nouvelles offres centrées sur l’IA

Le lancement d'un produit majeur par Intel Corp. jeudi dernier a prouvé que l'organisation est clairement en plein essor, affirme Denis Gaudreault, directeur national d'Intel Canada, ajoutant qu'il espère que dans quelques années, « les gens écriront des livres sur notre redressement ».

Les protecteurs canadiens de la vie privée publient des principes pour le développement responsable de l’IA

Dans la foulée des directives de cybersécurité pour les systèmes d’IA générative publiées par le gouvernement fédéral, les régulateurs fédéraux, provinciaux et territoriaux de la protection de la vie privée du Canada ont publié leur propre ensemble de lignes directrices liées à la confidentialité.

Lancement de Coveo Relevance Generative Answering

Coveo, un fournisseur montréalais de plateformes d'IA d'entreprise, lance Coveo Relevance Generative Answering, une solution basée sur l’IA qui peut générer des réponses aux requêtes complexes des utilisateurs en tirant parti des grands modèles de langage (GML).

Un accord politique européen ouvre la voie à une loi sur l’IA

L'Union européenne est parvenue à un accord sur la première loi globale sur l'intelligence artificielle au monde. Selon l'Associated Press, les négociateurs du Parlement européen et des 27 pays membres de l’union ont signé vendredi un accord politique provisoire qui facilitera l'adoption de la loi sur l'intelligence artificielle.

Emplois en vedette

Les offres d'emplois proviennent directement des employeurs actifs. Les détails de certaines offres peuvent être soit en français, en anglais ou bilinguqes.