Etude de dimensionnement 
Une solution unique de modélisation nécéssaire à l’optimisation d’un projet de virtualisation et de réduction des coûts d’infrastructure
Arum Etude de dimensionnement est une solution complète d’aide à la décision prenant en compte les informations techniques et financières nécéssaires à l’optimisation d’un projet de virtualisation. Cette offre vous garantit un dimensionnement au plus juste de votre infrastructure serveurs et stockage pour un ROI optimisé. Arum étude de dimensionnement est déstinée aux clients désireux de déployer la virtualisation en définissant de façon précise et rigoureuse quels sont les serveurs éligibles à la virtualisation et la façon la plus adéquate de les consolider.
METHODOLOGIE
RESSOURCES
IMPRIMER

Phase 1 : Collecter

Collecte des informations client

 

Cette étape consiste à établir une liste des serveurs dans le périmètre d’étude, à définir les objectifs et les contraintes.

 

  • Inventaire et catégorisation des serveurs
  • Relevé des niveaux de service associés
  • Politique de sauvegarde et de sécurité

 

Collecte des informations statiques, financières et techniques

 

Il s’agit ici, grâce à des outils de collecte automatique, de collecter les informations des caractéristiques des serveurs physiques du périmètre d’étude :

 

  • Type de serveurs
  • Caractéristiques techniques de chaque serveur
  • Système d'exploitation installé
  • Espace et taux d'occupation des disques
  • Informations financières de l’infrastructure et de l’environnement IT
  • Informations décrivant le Datacenter (réseaux, stockage, sauvegarde)

 

Collecte des données dynamiques

 

Il s’agit de collecter, grâce à des outils automatiques, les informations d’utilisation des serveurs physiques du périmètre pendant une période caractéristique suffisamment longue (typiquement au moins 3 semaines) :

 

  • Relevé significatif des indicateurs clés (CPU, RAM, I/O, bande passante disque, bande passante réseau) avec prise en compte des pics occasionnés par les traitements nocturnes et de fin de mois ainsi que les caractéristiques de certaines applications
  • Homogénéisation des métriques pour tenir compte des différences de puissance entre génération de serveurs

 

Phase 2 : Analyser

 

Cette étape consiste à identifier les contraintes inter serveurs et définir les besoins de puissance en fonction des consommations réelles :

 

  • Analyse statistique poussée des minima, maxima, fréquences de consommation des ressources
  • Regroupement selon les indicateurs relevés lors des collectes, et répartitions de charges par éléments pour garantir le bon fonctionnement de la somme des serveurs consolidés
  • Prise en compte des aspects fonctionnels ou organisationnels propres à l’entreprise (regroupement par type d’OS, par type de serveurs, par service, etc…)
  • Prise en compte des contraintes de production et de sécurité (regroupement selon les priorités de service, selon les contraintes de disponibilité, etc.)
  • Prise en compte des contraintes d’architecture (intégration des contraintes de type haute disponibilité, réseau, etc)

 

Phase 3 : Simuler / Concevoir

 

Il s’agit de construire une ou plusieurs matrice de consolidation à partir des critères d’éligibilité arrêtés précédemment. La matrice de consolidation permet de :

 

  • Définir le besoin de puissance « normalisé » des machines
  • Définir le statut vis-à-vis de la virtualisation (en fonction du niveau de service souhaité)
  • Déterminer les impacts et les risques
  • Etablir les différents scénarios d'architecture cible
  • New ! Dimensionner l’infrastructure de stockage (Choix du protocole d’accès, volumes des baies, classes de stockage, etc.)
  • New ! Prendre en compte le nombre de machines virtuelles restantes à créer selon le scénario cible défini (flux) et simuler l’augmentation de ce flux permettant d’impacter ce scénario.
  • Déterminer le Retour sur Investissement (ROI) du projet en fonction des niveaux de SLA définis
Fig.1 Bénéfices outils de collecte|
Fig.2 Méthodologie collecte|
|
|
|