Cent trente-et-un milliards de dollars américains… C’est le chiffre d’affaires du marché mondial des services infonuagiques publics qui auront été fournis en 2013.
Selon un rapport de la firme américaine Gartner, l’infrastructure service (Infrastructure as a Service ou IaaS en anglais) représenterait le segment le plus dynamique, avec une croissance de 47,3 % d’année en année.
C’est le segment de la publicité fondée sur l’infonuagique qui aurait constitué la portion la plus importante du marché des services publics d’informatique en nuage en 2012 (48 %). Le service de processus en nuage (Business Process as a Service ou BPaaS en anglais) serait le deuxième segment le plus important du marché total (28%), suivi par le logiciel service (Software as a Service ou SaaS en anglais) (14,7 %), l’infrastructure service (Infrastructure as a Service ou IaaS en anglais) (5,5 %), les services infonuagiques de gestion et de sécurité (2,8 %) et enfin la plateforme service (Plateforme as a Service ou PaaS en anglais) (1 %).
Ce n’est plus un secret pour personne, l’infonuagique offre de nombreuses possibilités pour la gestion des TI, mais encore faut-il comprendre et identifier le bénéfice qui est lié à chacune.
Mettez-vous en situation : vous travaillez dans le domaine des technologies de l’information et votre patron vous confie la mission de trouver la formule idéale pour la gestion des TI de l’organisation en mode service. Par manque de chance, vous n’avez pas ouvert un magazine spécialisé depuis quelques années et jusque-là, l’opportunité ne s’est pas présentée de vous intéresser au cloud… Virtualisation, SaaS, PaaS, IaaS, comment vous y retrouver?
Voici un survol des formes de « services », que nous avons décliné en deux volets.
La virtualisation, genèse du cloud
Pour comprendre le nuage, il faut remonter à son origine : la virtualisation.
Historiquement, les systèmes informatiques étaient installés sur des serveurs, sorte d’ordinateurs superpuissants qui étaient fabriqués pour être installés dans des centres d’hébergement spécialisés.
Au début était le serveur physique selon une sacro-sainte règle : une application, un système d’exploitation, un serveur.
Mais voilà, les spécialistes se sont aperçus qu’un serveur physique, en moyenne, n’était utilisé qu’à 15 % ou 20 % de sa capacité totale. Donc, de 80 % à 85 % des capacités d’une machine étaient jetées aux oubliettes !
Pendant ce temps, le serveur continuait à coûter 100 % en frais d’entretien et en énergie consommée. À cela, il fallait ajouter la lourdeur des interventions : le moindre ajout de mémoire ou d’espace disque nécessitait une intervention directement sur le matériel, qui cessait de fonctionner pendant ce temps.
Ce n’était ni optimisé, ni écologique. Dans certains cas, choisir un serveur physique c’était un peu comme voler seul à bord d’un avion de plus de 200 places!
Et si on pouvait optimiser l’utilisation des ressources d’une machine (processeur, mémoire, stockage, réseau) afin de rentabiliser l’investissement, en ne déployant qu’un seul système d’exploitation et plus d’une application ? Vous saisissez tout de suite le besoin et l’intérêt premier de la virtualisation, bons gestionnaires que vous êtes !
Et la virtualisation fût!
Le terme « virtualisation » est assez explicite : cette technique consiste à dématérialiser ou rendre virtuel ce qui se présente sous forme physique. On ne parle pas ici de faire disparaître totalement l’élément physique, mais plutôt de s’en servir comme socle afin de le démultiplier.
C’est passer de l’utilisation d’un scooter, (vous êtes seul à profiter de la machine pour vous déplacer) à celle d’un VUS à huit places, dans lequel tout le monde profite de sa puissance. Ainsi, vous travaillez huit fois plus fort!
Cette transformation est réalisée au moyen d’une couche logicielle installée sur la machine physique qu’on appelle « hyperviseur ». Grâce à cet hyperviseur, il est possible de créer plusieurs serveurs virtuels au sein d’une même serveur physique. Ces serveurs qu’on appelle « machines virtuelles » (Virtual Machines ou VM en anglais) partagent simultanément les capacités du serveur physique – ou de la machine physique – sur laquelle ils sont installés.
La « VM » créée est ainsi alimentée, tout comme un serveur physique, en puissance de traitement, en mémoire, en espace de stockage et en réseau partagés. En fonction du besoin, vous pouvez ajouter ou diminuer ces ressources dans la limite de la capacité de la machine physique hôte.
Les technologies de virtualisation se sont ensuite améliorées afin de fournir plus de disponibilité, de tolérance aux pannes et de capacité d’exploitation au quotidien. Par exemple, une avancée majeure a été de poser les données d’une application non pas sur les disques locaux des serveurs, mais sur un matériel de stockage centralisé. Quel en est l’intérêt? Cela a permis d’effectuer toutes les opérations d’entretien des serveurs physiques sans interrompre les services qui fonctionnent dessus, d’améliorer la performance d’accès aux données et la disponibilité des applications sur les VM.
Cela équivaut à passer de mon VUS à huit places à un service de cueillette collectif d’une entreprise de location de véhicule. Si une mini-fourgonnette ne fonctionne pas, on en prend un autre pour venir vous chercher et vous ne vous apercevez de rien, tout roule. Et si le serveur physique crashe, alors les VM peuvent rapidement repartir sur un autre serveur physique, puisque les données sont toujours disponibles et indépendantes. Magique!
Voilà comment les infrastructures virtuelles se sont répandues. Consolidation, performance et flexibilité sont les mots clés qui sont devenus les fers de lance de l’infonuagie.
Depuis le milieu des années 2000, l’engouement pour les infrastructures virtuelles est très fort, surtout en Europe où sont nés les premiers projets de « direction des systèmes d’information ». Bien que les concepts de virtualisation et d’informatique en nuage partagent un socle commun – l’optimisation des ressources informatiques – ils sont différents.
L’informatique en nuage, c’est l’accès et l’exploitation via Internet des différentes ressources virtualisés (serveur virtuel, espace disque, réseau, logiciels…). L’infonuagique (ou Cloud Computing en anglais) est donc la couche de service qui est fournie par un spécialiste en s’appuyant sur les techniques et les technologies de la virtualisation. En schématisant, la virtualisation est un moyen, alors que l’informatique en nuage est la couche de service supplémentaire qui est appliquée pour exploiter et gérer cet technique.
Naturellement, la multiplication et l’évolution des besoins en ressources informatiques ont conduit les fournisseurs à proposer divers prestations de service à la demande. C’est ainsi que sont nés le logiciel service, la plateforme service, l’infrastructure service, etc. Ils permettent aux entreprises d’accéder, sous forme de service à la demande, à des ressources informatiques sans en assumer la complexité ni le coût. Avec cette offre pléthorique il peut être difficile de trouver la bonne offre et le bon partenaire.
Dans le prochain article, nous verrons ce qui différencie concrètement ces services à la demande.