Des responsables des technologies, des dirigeants d’entreprises de l’industrie des TIC et des observateurs répondent à trois questions liées à la thématique de notre dossier.
1 : Quelle est la prochaine vague de fond de la virtualisation?
HUGO BOUTET, PDG, Oriso Solutions : En plus d’une tendance soutenue depuis dix ans des projets de virtualisation de serveurs, on observe une croissance au niveau des applications non-web et des postes de travail. La maturité et l’accessibilité des technologies, les économies financières en infrastructures et en coûts de gestion, ainsi que des avantages de rapidité sont des facteurs qui ont grandement contribué à cette croissance.
Tout récemment, l’ère de l’informatique en nuage à fait exploser les déploiements de projets de virtualisation de serveurs. Cette vague se poursuit, exponentiellement, et ne semble pas prêt de s’essouffler.
JEAN-FRANÇOIS MAURICE, président, Groupe Égomédia: La prochaine vague viendra du stockage des données volumineuses, ce que les experts nomment communément, le big data. Ces services visent surtout les sites qui possèdent de très imposantes bases de données.
L’avantage du service est de pouvoir améliorer l’indexation et la récupération des données en un temps record et d’unifier les bases de données.
Auparavant, il fallait séparer les bases de données en plusieurs unités de stockage en raison des limites physiques. À présent, grâce à la virtualisation, ces limites n’existent plus.
ALLAN TRAMBOUZE, spécialiste en solutions de virtualisation, Loran Technologies: D’un côté, il y a les postes de travail. De l’autre, les serveurs. Du côté des postes de travail, la prochaine vague va arriver très rapidement avec Windows 8 et la fin prochaine du support de Windows XP (en avril 2014).
L’émergence des technologies VDI (Virtualization Desktop Infrastructure), de VMware, Citrix ou autre, va permettre de commencer à mettre l’infrastructure en mode infonuagique. Pour les serveurs, la vague viendra de la popularité croissance du logiciel service (Software as a Service, ou SaaS) et de l’infrastructure service (Infrastructure as a Service, ou IaaS).
2 : Quelle est la règle d’or d’une migration réussie vers des ressources virtualisées?
HB : Une excellente analyse et une excellente planification. Simple comme concept, mais très puissant. L’analyse comprend quelques étapes, comme établir l’inventaire des serveurs, services et applications à virtualiser.
Il faut également définir les avantages et bénéfices recherchés : efficacité, économies financières, rapidité, continuité d’affaires, ou consolidation de ressources. Une bonne planification doit prévoir une transition progressive avec un minimum d’impact sur les opérations.
JFM : Ne rien laisser au hasard et s’assurer d’effectuer la migration en parallèle avec l’environnement de production. Tous les systèmes de Microsoft permettent de faire une duplication des données tout en travaillant en même temps. Dans le cas de SharePoint/Exchange, il est important de gérer le système de noms de domaine (Domain Name System, ou DNS) et de le faire pointer sur les nouveaux serveurs.
AT : Il est important d’avoir dans sa stratégie de conversion au virtuel les éléments suivants : Une architecture solide répondant au besoin actuel et futur; Réviser les outils utilisés en TI (méthode de sauvegarde, sécurité…) à la suite de l’introduction de la virtualisation, afin d’aller chercher un rendement maximum.
Enfin, il faut réviser les processus TI afin de les mettre en phase avec les besoins d’affaires, car la virtualisation amène de l’agilité en entreprise.
3 : Dans quelle mesure la virtualisation permet-elle de réduire son empreinte environnementale?
HB : Économies d’énergie et réduction de déchets informatiques. Les grands fournisseurs de technologies de virtualisation prétendent réduire les coûts d’énergie de 80 % à 85 %.
Même une économie de 25 % à 50 % est substantielle au niveau mondial. Le nombre moyen de serveurs virtuels dans un serveur physique est de dix. Imaginez s’il fallait dix fois plus de serveurs physique pour répondre en ce moment à la demande mondiale… Avec une durée de vie moyenne de 4 à 6 ans par serveur physique, on ne saurait imaginer le nombre de sites d’enfouissement… Heureusement, dans certains cas, on recycle.
JFM : Il y a deux ans, un serveur gérait une application. À présent, avec la virtualisation, un serveur gère plusieurs virtuels ou instances. S’il est possible de remplacer six serveurs physiques par un serveur virtuel, il sera alors possible de générer des économies d’espace et de réduire la facture liée au refroidissement des équipements, et donc en électricité. On parle d’économies d’au moins 25 %. Sans oublier que certaines PME n’ont pas les ressources pour s’assurer que leurs serveurs physiques sont hébergés dans des conditions optimales, ce qui peut contribuer à nuire à leur bilan environnemental.
AT : Avec l’avènement de la virtualisation, on a réduit de beaucoup le nombre de serveurs. Avant, un serveur pouvait fonctionner à 2 % ou 3 % de sa puissance, alors qu’aujourd’hui on est à 60 % – 70 %. Sur une machine physique, un serveur égale un service. À présent, on peut en compter 30 sur un seul serveur virtuel. La consommation électrique est moindre, la climatisation et la production de chaleur également. De plus, lorsqu’un serveur virtuel n’a plus assez de charge, on est capable l’éteindre et de transférer automatiquement sa charge sur un autre serveur.