Les analystes s’accordent pour dire que la virtualisation est l’un des secteurs les plus dynamiques de l’industrie des TI. Par contre, ils sont nombreux également à mettre en garde contre les cahots que rencontrent inévitablement les entreprises qui choisissent cette route.
Continuant à montrer des signes de vigueur certains, le marché de la virtualisation conserve son élan des dernières années. Ainsi, la firme IDC prédit que les dépenses en virtualisation à l’échelle mondiale atteindront 15 milliards de dollars en 2011, comparativement à 6,5 milliards en 2006.
Il n’y a pas si longtemps, cette technologie était considérée comme un outil de développement ou de test. Aujourd’hui, 75 % des entreprises l’utilisent dans des environnements de production, révèle une étude publiée en avril dernier par la firme d’analyse Enterprise Management Associates (EMA).
La virtualisation continue de progresser dans différents secteurs : serveurs, PC de bureau, applications, réseaux, stockage… De tous ces domaines, ce sont les ordinateurs de bureau qui contribueront le plus à sa croissance au cours des deux prochaines années, selon EMA.
Par ailleurs, une enquête réalisée par Chadwick Martin Bailey indique que les responsables des TI font appel à la virtualisation pour les raisons prioritaires suivantes (en ordre d’importance) : réduire les coûts des centres informatiques, améliorer les sauvegardes et la reprise sur sinistre, créer un environnement plus efficace pour le développement de logiciels et réduire les coûts d’administration des TI.
Tout n’est pas rose
D’aucuns estiment que, malgré son éclatante poussée, le concept de virtualisation est surestimé. Certes, il confère des avantages indéniables. Par contre, les gestionnaires croient à tort que les solutions offertes sont de nature « prêt à l’emploi ». En cela, la mise en marché qu’en font les principaux fournisseurs y est sûrement pour quelque chose, comme le souligne le site CIO update.
En réalité, la virtualisation revêt un caractère complexe. Elle comprend souvent de multiples plateformes, qui englobent diverses technologies provenant de différents fournisseurs. Selon EMA, elle continuera d’exister parallèlement aux architectures traditionnelles au moins jusqu’en 2010, ce qui n’aidera en rien à en atténuer la complexité. En attendant, celle-ci exerce un impact sur les performances, en raison notamment de l’incompatibilité dont peuvent souffrir les applications et les dispositifs d’entrée-sortie.
Les entreprises doivent aussi composer avec les réactions négatives du personnel devant des changements comme le partage des ressources informatiques, les échanges de responsabilités entre services et employés, et la modification des modes d’accès aux applications, aux systèmes de stockage et aux réseaux.
La sécurité constitue un autre défi de taille; jusqu’en 2009, 60 % des machines virtuelles utilisées dans les environnements de production n’auront pas un niveau de sécurité aussi élevé que les machines physiques, estime un spécialiste de Gartner. Dans ces conditions, il devient très tentant pour une personne mal intentionnée de forcer l’accès à un environnement englobant dix charges de travail en une seule. À cet effet, l’hyperviseur, ce gestionnaire de la virtualisation, représente une cible de choix.
Toutefois, le principal problème réside sans doute dans les outils. Qu’il s’agisse d’assurer la sécurité ou de gérer les environnements virtuels dans leur globalité, les outils offerts sont loin d’avoir atteint le niveau d’évolution des technologies de virtualisation. Ils ne permettent pas une gestion efficace de la complexité inhérente au regroupement d’une variété de plateformes et de technologies, croit EMA.
Que doivent faire les entreprises?
Selon cette firme, la clé du succès pour les organisations consiste à aborder la virtualisation comme une stratégie, et non comme une série de projets. D’autres analystes croient que la patience peut être salutaire; au moment où de nouvelles solutions matérielles et logicielles sont développées en tenant compte de la réalité qu’est devenue la virtualisation, rien ne sert de courir. Selon un vice-président du Burton Group, les entreprises devraient attendre d’avoir à procéder à une mise à niveau matérielle pour lancer leurs initiatives de virtualisation.
Un spécialiste d’IDC prévoit que le concept changera la nature même des relations entre clients et fournisseurs TI. Une fois qu’une organisation est en mesure de déplacer elle-même ses applications d’un serveur à un autre, elle n’a plus besoin d’un fournisseur de serveurs, croit-il. Elle voudra plutôt chercher à savoir si ses applications cruciales sont optimisées à la grandeur de ses différentes plateformes.
En rétrospective, les avantages de la virtualisation sont trop importants pour qu’on les ignore. Par contre, l’adoption de cette technologie s’avère beaucoup plus complexe qu’il n’y paraît de prime abord. Les obstacles et les difficultés sont réels, et doivent faire l’objet d’une attention rigoureuse.