Google a mis au point un algorithme pour faciliter la compréhension de la langue des signes.
L’équipe de recherche en intelligence artificielle (IA) de Google a conçu un système de suivi des doigts capable d’interpréter les mouvements des mains en temps réel à partir de la caméra d’un téléphone multifonction, rapportent BBC News et The Telegraph.
Selon le géant du Web, cet algorithme peut aider à traduire rapidement la langue des signes.
Le système utilise notamment l’apprentissage machine pour produire une image détaillée des mains qu’il suit. Il localise 21 points de référence disposés sur la paume et les jointures afin de repérer des signes précis. Une fois que l’IA capte un signe, elle le compare à tous les autres mouvements connus de la base de données créée par l’équipe.
Dans un article publié sur le blogue de Google, les chercheurs Valentin Bazarevsky et Fan Zhang indiquent qu’il est particulièrement difficile de maîtriser le suivi précis des mouvements des mains et des doigts. Cela s’explique entre autres par le fait que la taille des mains ainsi que la vitesse et l’agilité des gestes varient beaucoup d’un individu à l’autre.
Bazarevsky et Zhang précisent que l’équipe a dû ajouter manuellement les 21 points de référence sur environ 30 000 images de mains dans différentes positions et sous divers éclairages pour que l’IA apprenne à bien les placer.
Beaucoup de représentants de la communauté malentendante accueillent favorablement l’initiative de Google. Plusieurs rappellent cependant que ce système ne peut interpréter pleinement la langue des signes, notamment parce qu’il ne tient pas compte des expressions faciales, qui modifient souvent le sens des conversations.
L’équipe de recherche reconnaît que l’algorithme ne représente pour l’instant qu’une « base à la compréhension de la langue des signes ».
Google met donc le code source de cette technologie à la disposition de la communauté scientifique, afin que le plus de gens possible puissent contribuer à son amélioration.
« Nous souhaitons fournir cette fonctionnalité de perception de la main à la communauté de recherche et développement pour permettre l’émergence de cas d’usage créatifs, de nouvelles applications et de nouvelles voies de recherche », indique le géant du Web sur son blogue.
Lire aussi :
Google Traduction : 60 nouvelles langues sur l’appareil photo
Près d’une entreprise sur quatre dans le monde aurait intégré de l’IA
Le CRIM participe à un projet technologique sur les langues autochtones
L’OQLF propose un vocabulaire de l’intelligence artificielle