Balado Hashtag Tendances, 16 novembre 2023 — Samsung et l’IA, plus de données pour OpenAI, le Nvidia HGX H200 et l’IA et la météo

Balado Hashtag Tendances, 16 novembre 2023 — Cette semaine : Samsung se lance dans l’intelligence artificielle, OpenAI veut plus de données pour former ses modèles d’IA, le nouveau GPU Nvidia HGX H200 Tensor Core et l’IA pour les prévisions météo.

Samsung se lance dans l’intelligence artificielle

L’intelligence artificielle devient de plus en plus omniprésente et on apprenait ses derniers jours que c’est au tour du géant coréen Samsung de s’y lancer. La société a en effet dévoilé son modèle d’IA générative appelé Samsung Gauss qui se compose de modèles de langage, de code et d’image et qui sera appliqué à ses différents produits.

Samsung a déclaré que le modèle, développé par sa filiale de recherche Samsung Research, était présentement utilisé pour améliorer la productivité des employés au sein de l’entreprise, mais qu’il serait étendu aux applications de produits à l’avenir.

Selon la société, le module Language est un modèle de langage génératif conçu pour améliorer l’efficacité du travail en facilitant des tâches telles que la rédaction de courriels, la synthèse de documents et la traduction, et il peut également améliorer l’expérience du consommateur en fournissant un contrôle plus intelligent des appareils lorsqu’il est appliqué aux produits.

Le module code et l’assistant de codage sont conçus pour le développement de logiciels internes des entreprises. Il permet aux développeurs de coder facilement et rapidement et, via une interface interactive, prend en charge des fonctions telles que la description du code et la génération de scénarios de test, a déclaré Samsung.

OpenAI veut plus de données pour former ses modèles d’IA

TechCrunch nous apprenait cette semaine qu’OpenAI souhaite travailler avec les organisations pour créer de nouveaux ensembles de données de formation à l’IA.

Les ensembles de données actuellement utilisés pour entraîner les modèles d’IA sont profondément défectueux. Les corpus d’images ont tendance à être centrés sur les États-Unis et l’Occident, en partie parce que les images occidentales dominaient Internet lors de la compilation des ensembles de données. Et comme l’a récemment souligné une étude de l’Allen Institute for AI, les données utilisées pour former de grands modèles de langage comme Llama 2 de Meta contiennent un langage toxique et des préjugés.

OpenAI affirme vouloir les combattre en s’associant à des institutions externes pour créer de nouveaux ensembles de données améliorés.

La société a ainsi annoncé des partenariats de données, un effort de collaboration avec des organisations tierces pour créer des ensembles de données publiques et privées pour la formation des modèles d’IA. Dans un article de blog, OpenAI affirme que les partenariats de données visent à « permettre à davantage d’organisations de contribuer à orienter l’avenir de l’IA » et à « bénéficier de modèles plus utiles ».

Dans le cadre du programme Data Partnerships, OpenAI affirme qu’elle collectera des ensembles de données « à grande échelle » qui « reflètent la société humaine » et qui ne sont pas facilement accessibles en ligne aujourd’hui.

OpenAI cherche d’abord à créer deux types d’ensembles de données : un ensemble de données open source qui serait public et accessible à tous pour la formation de modèles d’IA, et un ensemble d’ensembles de données privés pour la formation de modèles d’IA propriétaires. Les ensembles privés sont destinés aux organisations qui souhaitent garder leurs données privées mais souhaitent que les modèles d’OpenAI aient une meilleure compréhension de leur domaine, explique la société.

Le nouveau GPU Nvidia HGX H200 Tensor Core

Nvidia a dévoilé en début de semaine son GPU HGX H200 Tensor Core, qui utilise l’architecture Hopper pour accélérer les applications d’IA. Il s’agit d’un descendant du GPU H100, lancé l’année dernière et auparavant la puce GPU d’IA la plus puissante de Nvidia. S’il est largement déployé, le nouveau GPU pourrait conduire à des modèles d’IA beaucoup plus puissants – et à des temps de réponse plus rapides pour ceux existants comme ChatGPT – dans un avenir proche.

Selon des experts, le manque de puissance de calcul a constitué un goulot d’étranglement majeur dans les progrès de l’IA l’année dernière, entravant le déploiement des modèles d’IA existants et ralentissant le développement de nouveaux. La pénurie de GPU puissants, qui accélèrent les modèles d’IA, en est en grande partie responsable. Une façon d’atténuer le goulot d’étranglement du calcul consiste à fabriquer davantage de puces, mais il est également possible de rendre les puces d’IA plus puissantes. Cette deuxième approche pourrait faire du H200 un produit attractif pour les fournisseurs d’infonuagique.

Malgré le « G » dans leur nom, les GPU des centres de données comme celui-ci ne sont généralement pas destinés aux graphiques. Les GPU sont idéaux pour les applications d’IA car ils effectuent un grand nombre de multiplications matricielles parallèles, nécessaires au fonctionnement des réseaux neuronaux. Ils sont essentiels dans la partie formation de la construction d’un modèle d’IA et dans la partie « inférence », où les gens alimentent un modèle d’IA et celui-ci renvoie des résultats.

L’IA pour les prévisions météo

Mardi, la revue Science a publié une étude qui montre comment un modèle météorologique d’IA de Google DeepMind appelé GraphCast a largement surpassé les méthodes de prévision météorologique conventionnelles en prévoyant les conditions météorologiques mondiales jusqu’à 10 jours à l’avance. Cette réussite suggère que les prévisions météorologiques futures pourraient devenir beaucoup plus précises, rapportent le Washington Post et le Financial Times.

Dans l’étude, GraphCast a démontré des performances supérieures à celles du système conventionnel leader au monde, exploité par le Centre européen pour les prévisions météorologiques à moyen terme. Dans une évaluation complète, GraphCast a surpassé le système du Centre dans 90 % des 1 380 paramètres, notamment la température, la pression atmosphérique, la vitesse et la direction du vent, ainsi que l’humidité à différents niveaux atmosphériques.

Non seulement GraphCast est-il précis mais il est aussi rapide. « Il prédit des centaines de variables météorologiques, sur 10 jours à une résolution globale de 0,25°, en moins d’une minute », écrivent les auteurs de l’article.

Cela marque une avancée importante en termes de vitesse et de précision pour l’IA en météorologie. Matthew Chantry, coordonnateur de l’apprentissage automatique au Centre européen, a reconnu les progrès rapides dans une interview avec le Financial Times, affirmant qu’un système d’IA en météorologie avait progressé « bien plus tôt et de manière plus impressionnante que ce à quoi nous nous attendions il y a à peine deux ans ».


Écoutez également :

Hashtag Tendances, 9 novembre 2023 — xAI, une puce contre la cécité, une nouveauté YouTube et un robot aspirateur

Hashtag Tendances, 2 novembre 2023 — OpenAI Preparedness, Google et Anthropic, débâcle de X et faillite de WeWork

Hashtag Tendances, 26 octobre 2023 — L’IA détecte le diabète, l’iPhone et l’IA, des CPU Nvidia et Rowe c. Google


Hashtag Tendances fait partie du réseau de balados d’IT World. Visitez le site ITWorldCanada.com pour y écouter de pertinents balados d’actualités technologiques en anglais, ainsi que le site DirectionInformatique.com pour les balados en français.

De plus, ne manquez pas de vous abonner à notre infolettre au DirectionInformatique.com, afin de recevoir par courriel les nouvelles du secteur des technologies en français.

Renaud Larue Langlois
Renaud Larue Langlois
Un peu journaliste, un peu gestionnaire TI, totalement passionné de technologie. Après plus de 25 ans dans le domaine des TI, devenir rédacteur était tout naturel pour Renaud. C'est réellement une affaire de famille. Ses champs d'intérêt sont… tout, en autant que ça concerne la technologie. On peut le joindre à rlaruelanglois@directioninformatique.com.

#Hashtag Tendencies