Un nouveau groupe industriel a émergé en promettant de promouvoir les meilleures pratiques pour les applications d’intelligence artificielle (IA) à un moment où les gouvernements du monde entier envisagent de la réglementer.
Google, Microsoft, OpenAI et Anthropic ont déclaré aujourd’hui avoir formé une association pour assurer un développement sûr et responsable des modèles d’IA émergents.
Le Frontier Model Forum s’appuiera volontairement sur l’expertise technique et opérationnelle de ses entreprises membres au profit de l’ensemble de l’écosystème de l’IA, par exemple en faisant progresser les évaluations techniques et les références, et en développant une bibliothèque publique de solutions pour soutenir les meilleures pratiques et normes de l’industrie, ont déclaré les partenaires dans un communiqué.
Les modèles « Frontier » sont définis comme des modèles d’apprentissage automatique à grande échelle qui dépassent les capacités actuellement présentes dans les modèles existants les plus avancés et peuvent effectuer une grande variété de tâches.
« Les gouvernements et l’industrie conviennent que, bien que l’IA offre d’énormes promesses au profit du monde, des garde-corps appropriés sont nécessaires pour atténuer les risques », a déclaré Google dans un article de blog. « Des contributions importantes à ces efforts ont déjà été apportées par les gouvernements américain et britannique, l’Union européenne, l’OCDE, le G7 (via le processus d’IA d’Hiroshima) et d’autres. »
« Pour tirer parti de ces efforts, des travaux supplémentaires sont nécessaires sur les normes de sécurité et les évaluations afin de garantir que les modèles d’IA de pointe sont développés et déployés de manière responsable. Le Forum sera un vecteur de discussions et d’actions inter organisationnelles sur la sécurité et la responsabilité de l’IA. »
La création du groupe intervient après que sept grandes sociétés américaines d’intelligence artificielle, dont Google et Microsoft, aient promis à la Maison Blanche la semaine dernière que leurs nouveaux systèmes d’IA subiraient des tests externes avant d’être rendus publics.
Au cours des prochains mois, le Frontier Model Forum établira un conseil consultatif pour l’aider à orienter sa stratégie et ses priorités. Les sociétés fondatrices établiront également des arrangements institutionnels clés, notamment une charte, une gouvernance et un financement avec un groupe de travail et un conseil d’administration. « Nous prévoyons consulter la société civile et les gouvernements dans les semaines à venir sur la conception du Forum et sur des moyens significatifs de collaborer », a déclaré Google.
D’autres associations de l’industrie de l’IA incluent le Partnership on AI, dont les membres incluent Apple, Amazon, Google, Meta, Microsoft, IBM et des universitaires.
En plus des législateurs européens, américains et canadiens qui examinent la réglementation de l’IA, les pays du G7 ont créé cette année le processus d’Hiroshima AI pour harmoniser la surveillance de l’IA, et l’Organisation de coopération et de développement économiques (OCDE) a un groupe de travail sur la gouvernance de l’IA.
L’Association pour l’avancement de l’intelligence artificielle (AAIA) travaille sur le côté scientifique de l’IA. Elle tiendra sa prochaine conférence annuelle sur l’IA et l’éthique à Montréal à partir du 8 août.
Adaptation et traduction française par Renaud Larue-Langlois.