Sept grandes sociétés américaines d’intelligence artificielle, dont Google et Microsoft, ont promis que les nouveaux systèmes d’IA subiraient des tests externes avant d’être rendus publics et qu’ils étiquetteraient clairement le contenu généré par l’IA, a annoncé vendredi le président américain Joe Biden.
« Ces engagements, que les entreprises mettront en œuvre immédiatement, soulignent trois principes fondamentaux : sûreté, sécurité et confiance », a déclaré le président Biden aux journalistes.
– Les entreprises ont l’obligation de s’assurer que leur technologie est sûre avant de la rendre publique, a déclaré Joe Biden. « Cela signifie tester les capacités de leurs systèmes, évaluer leur risque potentiel et rendre publics les résultats de ces évaluations. »
– Les entreprises ont promis de donner la priorité à la sécurité de leurs systèmes en protégeant leurs modèles contre les cybermenaces et en gérant les risques pour la sécurité nationale des États-Unis, et en partageant également les meilleures pratiques et les normes de l’industrie.
– Les entreprises ont convenu qu’elles avaient le devoir de gagner la confiance des gens et de donner aux utilisateurs les moyens de prendre des décisions éclairées – en étiquetant le contenu qui a été modifié ou généré par l’IA, en éliminant les préjugés et la discrimination, en renforçant la protection de la vie privée et en protégeant les enfants contre les préjudices.
– Les entreprises ont convenu de trouver des moyens pour que l’IA aide à relever les plus grands défis de la société – du cancer au changements climatiques – et d’investir dans l’éducation et de nouveaux emplois pour aider les étudiants et les travailleurs à profiter des énormes opportunités de l’IA.
Ces entreprises comprennent également Amazon, Meta, OpenAI, Anthropic et Inflection.
Ces engagements volontaires ne sont qu’une première étape dans l’élaboration et l’application d’obligations contraignantes devant être adoptées par le Congrès américain. La réalisation de la promesse et la minimisation du risque d’IA nécessiteront de nouvelles lois, règles, surveillance et application, selon un document d’information de la Maison Blanche. L’administration continuera de prendre des mesures exécutives et de poursuivre une législation bipartite pour aider l’Amérique à montrer la voie en matière d’innovation et de protection responsables.
« Alors que nous ferons avancer ce programme chez nous, nous travaillerons avec des alliés et des partenaires sur un code de conduite international solide pour régir le développement et l’utilisation de l’IA dans le monde », ajoute le communiqué.
L’accord indique que les entreprises qui prennent cet engagement reconnaissent que les systèmes d’IA peuvent continuer à présenter des faiblesses et des vulnérabilités même après des tests rigoureux. Ils s’engagent à établir des systèmes de primes, des concours ou des prix pour inciter à la divulgation responsable des faiblesses, telles que les comportements dangereux, pour les systèmes concernés, ou à inclure les systèmes d’IA dans leurs programmes de primes de bogues existants.
Il y avait un certain scepticisme après l’annonce. PBS a cité James Steyer, fondateur et PDG de l’association à but non lucratif Common Sense Media, qui a déclaré : « L’histoire indique que de nombreuses entreprises technologiques ne tiennent pas réellement leur promesse volontaire d’agir de manière responsable et de soutenir une réglementation stricte. »
Adaptation et traduction française par Renaud Larue-Langlois.