Le monde selon Hinton: Ralentir l’IA n’est pas la solution

0
7090
Le monde selon Hinton
Le monde selon Hinton

Y a huit mois, Geoffrey Hinton, professeur émérite à l’Université de Toronto, a démissionné de son poste chez Google en raison de ses inquiétudes face aux avancements de l’intelligence artificielle (IA). Lors d’un discours à Collision 2023, il a déclaré que le monde « entre dans une période de grande incertitude ».

Ses paroles ont du poids, car Hinton, aux côtés de Yoshua Bengio et Yann Andre LeCun, a remporté le prestigieux prix Turing en 2018, les consacrant « parrains de l’IA ».

L’Association for Computing Machinery (ACM), qui remet ce prix annuel, a souligné lors de la remise : « Travaillant indépendamment et ensemble, Hinton, LeCun et Bengio ont développé les bases conceptuelles du domaine, identifié des phénomènes surprenants par des expériences et contribué à des avancées techniques qui ont démontré les avantages pratiques des réseaux neuronaux profonds. »

« Ces dernières années, les méthodes d’apprentissage profond ont permis des percées étonnantes dans la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel et la robotique, entre autres applications. »

À Collision, Hinton a souligné que « les gens dont je respecte l’opinion ont des croyances très différentes des miennes ».

« Yann LeCun pense que tout ira bien. Les robots conversationnels vont nous aider, tout sera merveilleux. Mais nous devons sérieusement considérer la possibilité que, s’ils deviennent plus intelligents que nous, ce qui semble assez probable, et qu’ils ont leurs propres objectifs, ce qui semble probable également, ils pourraient bien développer le but de prendre le contrôle. Et si c’est le cas, on est dans de beaux draps. »

« L’IA formée par de bonnes personnes aura un biais vers le bien, l’IA formée par des gens mauvais comme Poutine ou quelqu’un comme ça aura un biais vers le mal. On sait qu’ils vont fabriquer des robots de combat. Ils sont occupés à le faire dans de nombreux ministères de la Défense. Ils ne seront pas forcément bons, puisque leur objectif principal sera de tuer des gens. »

Étant donné ces préoccupations, il était surprenant de constater qu’en mars dernier, Hinton ne faisait pas partie des dirigeants technologiques qui ont signé une lettre ouverte demandant un moratoire de six mois sur le développement, déclarant que les outils d’IA « présentent des risques profonds pour la société et l’humanité ».

La raison est devenue plus claire ce mois-ci, lors d’un événement à Toronto organisé par le Vector Institute, un organisme à but non lucratif qui se concentre sur la recherche en IA et où Hinton est conseiller scientifique en chef.

Lors d’une séance de questions-réponses, on lui a demandé si la vitesse de l’IA était « trop rapide ». Il a répondu que oui, mais « je ne pense pas qu’on va résoudre ça en ralentissant », ajoutant que c’est la principale raison pour laquelle il n’a pas signé la lettre.

« Je ne pense pas que la bonne façon de formuler le problème soit de savoir si on doit aller vite ou lentement. En partie parce que je ne pense pas qu’on puisse ralentir les choses. Il y a trop d’avantages économiques à aller vite. On a vu ce qui se passe quand les gens essaient de ralentir les choses dans une situation entièrement orientée vers la sécurité, et les profits ont quand même gagné. C’est ce que je pense qui s’est passé chez OpenAI. »

« Ralentir les choses, A) n’est pas faisable, et B) n’est pas le point principal. Le point important est qu’il est possible, on peut trouver comment rendre ces choses bienveillantes pour faire face à la menace existentielle de leur prise de contrôle. C’est un problème différent de celui de trouver comment empêcher les gens mauvais de les utiliser pour faire le mal, ce qui est plus urgent. À mon avis, on devrait mettre un effort énorme à essayer de trouver la solution. »

Hinton a déclaré que cela ne résoudrait pas tous les problèmes, et en particulier pas celui des mauvaises personnes qui s’en servent à mauvais escient.

« Si vous voulez des réglementations, la plus importante devrait être de ne pas mettre en sources ouvertes les grands modèles. C’est comme pouvoir acheter des armes nucléaires chez Radio Shack. C’est fou d’ouvrir ces grands modèles en sources ouvertes, car les mauvais joueurs peuvent ensuite les peaufiner pour toutes sortes de mauvaises choses. En termes de réglementations, je pense que c’est probablement la chose la plus importante qu’on puisse faire en ce moment. »

Sa présentation portait sur la question de savoir si l’intelligence numérique finira par remplacer l’intelligence biologique. On retrouve aujourd’hui, disait-il, des systèmes de deep learning qui « sont incroyablement puissants et comprennent à peu près de la même façon que les humains. »

« Quand les gens disent « ces modèles sont différents de nous, » demandez-leur, « bon, OK, comment fonctionnons-nous nous-mêmes? Qu’est-ce qui est différent chez eux? » Et ils ne peuvent pas répondre à cette question, à part Gary Marcus. Gary Marcus peut répondre à cette question. Et il dit, « on fonctionne avec des chaînes de symboles et des règles, mais on devrait quand même s’inquiéter. Parce que même si ça ne comprend rien, c’est extrêmement dangereux. J’appelle ça vouloir le beurre et l’argent du beurre. »

L’article original (en anglais) est disponible sur IT World Canada, une publication sœur de Direction informatique.

Adaptation et traduction française par Kevin Plourde.