Balado Hashtag Tendances, 31 août 2023 — Cette semaine : Un hébergeur danois victime d’un rançongiciel, TikTok veut bannir les liens de commerce électronique, Meta lance Code Llama et une puce d’intelligence artificielle moins énergivore signée IBM.
Un hébergeur danois victime d’un rançongiciel
CloudNordic, une société danoise d’hébergement en nuage a récemment été victime d’une attaque de rançongiciel qui a entraîné la perte de toutes les données hébergées par la majorité de ses clients.
Sur son site Web, l’hébergeur explique que l’attaque l’a « complètement paralysé » et que les assaillants – non identifiés à ce jour – ont arrêté tous les systèmes, y compris les sites Web de l’hébergeur, les systèmes de messagerie, les serveurs, les systèmes des clients, les sites Web des clients et plus encore.
La société a par ailleurs déclaré : « Comme nous ne pouvons pas et ne voulons pas répondre aux demandes financières des cybercriminels en matière de rançon, l’équipe informatique de CloudNordic et les experts externes ont travaillé dur pour obtenir un aperçu des dommages et de ce qui était possible à recréer. Malheureusement, il s’est avéré impossible de recréer plus de données, et la majorité de nos clients ont donc perdu toutes les données hébergées chez nous. »
Selon CloudNordic, l’attaque s’est produite lorsque des serveurs étaient migrés entre des centres de calcul et que les systèmes déjà infectés étaient câblés pour accéder au réseau interne de l’entreprise pendant cette période. Cela a permis aux attaquants d’accéder aux systèmes centraux d’administration ainsi qu’aux sauvegardes.
AzeroCloud, un autre hébergeur appartenant à la même société mère a également été touché et affiche une notification identique sur son site Web.
TikTok veut bannir les liens de commerce électronique
TikTok envisage d’interdire les liens vers des sites de commerce électronique externes, selon un rapport de The Information, mais TikTok nie cette affirmation. Le rapport indique que cette décision serait un moyen pour l’entreprise de forcer les gens à utiliser TikTok Shop s’ils souhaitent acheter un article qu’ils voient sur l’application.
Le rapport indique également que TikTok Shop pourrait perdre plus de 500 millions de dollars aux États-Unis cette année, une perte qui reflète l’investissement considérable de l’entreprise dans l’embauche, la création d’un réseau de livraison et le subventionnement des commerçants qui offrent des réductions et la livraison gratuite.
Aux États-Unis, les consommateurs dépensent actuellement entre 3 et 4 millions de dollars par jour sur TikTok Shop, contre environ un demi-million à 1 million de dollars par jour en juin, selon le rapport. Les employés de TikTok s’attendent à ce que ce chiffre dépasse les 10 millions de dollars d’ici la fin de l’année.
TikTok Shop connaît beaucoup plus de succès en Asie du Sud-Est, où il est disponible depuis 2021. Dans cette région, le volume brut quotidien des marchandises de TikTok Shop est d’environ 50 à 60 millions de dollars. TikTok espère porter ce chiffre à environ 90 millions de dollars d’ici la fin de l’année.
Meta lance Code Llama
Meta a lancé un outil appelé Code Llama, construit sur son grand modèle de langage Llama 2, pour générer du nouveau code et déboguer le code existant, a indiqué la société.
Code Llama utilisera la même licence communautaire que Llama 2 et il est gratuit pour la recherche et l’utilisation commerciale.
Code Llama, a déclaré Meta, peut créer des chaînes de code à partir d’invites ou compléter et déboguer du code lorsqu’il est pointé vers une chaîne de code spécifique. En plus du modèle de base Code Llama, Meta a publié une version spécialisée dans le langage Python appelée Code Llama-Python et une autre version appelée Code Llama-Instrct, qui peut comprendre les instructions en langage naturel. Selon Meta, chaque version spécifique de Code Llama n’est pas interchangeable et la société ne recommande pas la base Code Llama ou Code Llama-Python pour les instructions en langage naturel.
« Les programmeurs utilisent déjà les grands modèles de langage pour les aider dans diverses tâches, allant de l’écriture de nouveaux logiciels au débogage du code existant “, a déclaré Meta dans un article de blog. « L’objectif est de rendre les flux de travail des développeurs plus efficaces afin qu’ils puissent se concentrer sur les aspects les plus centrés sur l’humain de leur travail. »
Meta affirme que Code Llama a obtenu de meilleurs résultats que les grands modèles de langage accessibles au public sur la base de tests de référence, mais n’a pas spécifiquement nommé les modèles contre lesquels il a été testé. La société a déclaré que Code Llama avait obtenu un score de 53,7 % au test de référence HumanEval et était capable d’écrire avec précision du code basé sur une description textuelle.
Une puce d’intelligence artificielle moins énergivore signée IBM
Une puce d’intelligence artificielle d’IBM est plus d’une douzaine de fois plus économe en énergie que les micropuces classiques en matière de reconnaissance vocale. De nombreux systèmes d’intelligence artificielle controversés, notamment ChatGPT et d’autres grands modèles de langage, ainsi que l’intelligence artificielle générative désormais utilisée pour créer des vidéos et des images, pourraient bénéficier de l’appareil.
La précision de la transcription automatisée s’est considérablement améliorée au cours de la dernière décennie grâce à l’intelligence artificielle, note IBM. Cependant, le matériel utilisé pour aider à former et à faire fonctionner ces systèmes et d’autres systèmes d’intelligence artificielle devient de plus en plus coûteux et gourmand en énergie. Pour entraîner son intelligence artificielle de pointe, GPT-3, OpenAI a dépensé 4,6 millions de dollars pour faire fonctionner 9 200 GPU pendant deux semaines.
L’un des principaux obstacles réside dans l’énergie et le temps perdus lors du déplacement de grandes quantités de données entre les processeurs et la mémoire. L’énergie dissipée de cette manière peut être entre trois et 10 000 fois supérieure à celle du calcul réel, note Hechen Wang, un chercheur scientifique aux laboratoires Intel à Hillsboro, en Oregon.
Le matériel neuromorphique imitant le cerveau cherche souvent à imiter la façon dont les neurones biologiques calculent et stockent les données. Par exemple, les micropuces de calcul en mémoire ou « intelligence artificielle analogique » effectuent des calculs directement dans la mémoire.
Des simulations précédentes d’IBM suggéraient que l’intelligence artificielle analogique pourrait s’avérer 40 à 140 fois plus économe en énergie que les meilleurs GPU pour les applications d’intelligence artificielle.
Écoutez également :
Hashtag Tendances fait partie du réseau de balados d’IT World. Visitez le site ITWorldCanada.com pour y écouter de pertinents balados d’actualités technologiques en anglais, ainsi que le site DirectionInformatique.com pour les balados en français.
De plus, ne manquez pas de vous abonner à notre infolettre au DirectionInformatique.com, afin de recevoir par courriel les nouvelles du secteur des technologies en français.