La virtualisaton

La virtualisation consiste à faire fonctionner un ou plusieurs systèmes d’exploitation / applications, sur un ou plusieurs ordinateurs – serveurs / système d’exploitation, au lieu de ne pouvoir en installer qu’un seul par machine.
Ces ordinateurs virtuels sont appelés serveur privé virtuel (Virtual Private Server ou VPS) ou encore environnement virtuel (Virtual Environment ou VE).

Chaque outil de virtualisation met en œuvre une ou plusieurs de ces notions :

  • couche d’abstraction matérielle et/ou logicielle
  • système d’exploitation hôte (installé directement sur le matériel)
  • systèmes d’exploitation (ou applications, ou encore ensemble d’applications) « virtualisé(s) » ou « invité(s) »
  • partitionnement, isolation et/ou partage des ressources physiques et/ou logicielles
  • images manipulables : démarrage, arrêt, gel, clonage, sauvegarde et restauration, sauvegarde de contexte, migration d’une machine physique à une autre
  • réseau virtuel : réseau purement logiciel, interne à la machine hôte, entre hôte et/ou invités

 

Les intérêts sont :

  • utilisation optimale des ressources d’un parc de machines (répartition des machines virtuelles sur les machines physiques en fonction des charges respectives),
  • installation, déploiement et migration facile des machines virtuelles d’une machine physique à une autre, notamment dans le contexte d’une mise en production à partir d’un environnement de qualification ou de pré-production, livraison facilitée,
  • économie sur le matériel par mutualisation (consommation électrique, entretien physique, surveillance, support, compatibilité matérielle, etc.)
  • installation, tests, développements, cassage et possibilité de recommencer sans casser le système d’exploitation hôte
  • sécurisation et/ou isolation d’un réseau (cassage des systèmes d’exploitation virtuels, mais pas des systèmes d’exploitation hôtes qui sont invisibles pour l’attaquant, tests d’architectures applicatives et réseau)
  • isolation des différents utilisateurs simultanés d’une même machine (utilisation de type site central)
  • allocation dynamique de la puissance de calcul en fonction des besoins de chaque application à un instant donné,
  • diminution des risques liés au dimensionnement des serveurs lors de la définition de l’architecture d’une application, l’ajout de puissance (nouveau serveur etc) étant alors transparent.

L’infogérance

L’infogérance (cas particulier d’externalisation) est un service défini comme le résultat d’une intégration d’un ensemble de services élémentaires, visant à confier à un prestataire informatique tout ou une partie du système d’information (SI) d’un client, dans le cadre d’un contrat pluriannuel, à base forfaitaire, avec un niveau de services et une durée définie (définition de l’AFNOR). En d’autres termes, c’est l’externalisation de tout ou partie de la gestion et de l’exploitation du SI à un prestataire informatique tiers (SSII). Cette mission doit s’effectuer dans la durée et non de manière ponctuelle.

L’externalisation informatique est la démarche qui conduit à l’infogérance. Son objectif est donc, historiquement, de réduire les coûts. Cependant les entreprises l’utilisent de plus en plus comme vecteur de transformation de leur système d’information et de leurs processus afin d’améliorer leurs performances, ainsi que pour pouvoir se recentrer sur leur métier de base.

Actuellement, ce terme correspond aussi bien à la maintenance du parc, qu’à la gestion de projets, qu’à la sécurité informatique et même aux formations.