DÉVERROUILLEZ LE MONDE DE L'IT

Apprentissage Sans Frontières

Accédez gratuitement à nos supports de cours et élargissez vos horizons en IT

Cours Offert (50min) : Boostez votre Carrière IT en 6 Étapes Simples !

La virtualisation en technologie et ses impacts

La virtualisation en technologie et ses impacts

Damien.SO Damien.SO
9 minutes de lecture

Écouter l'article
Audio generated by DropInBlog's Blog Voice AI™ may have slight pronunciation nuances. Learn more

Le cloud computing qui se traduit en français par « L’informatique en nuage », et repose sur la virtualisation, consiste à utiliser des serveurs informatiques en tant que service par des fournisseurs de cloud.

Alors, le mot « cloud » est souvent utilisé comme un mot marketing un peu à la mode.

Dans ce cours, nous allons parler de serveur physique, de virtualisation des serveurs, et à quoi ressemble une topologie réseau gérée dans le cloud.

SERVEURS PHYSIQUES

Avant la virtualisation des serveurs, il n’y avait que des serveurs physiques qui exécutaient un seul système d'exploitation comme Microsoft Windows Server ou bien Linux.

Cela date d'une époque où les processeurs n'avaient que 1 ou 2 cœurs et n’avait pas non plus beaucoup de RAM.

Un serveur est très similaire à son propre ordinateur personnel, sauf qu’il est conçu pour fonctionner 24h / 24 et 7j / 7.

Généralement, les serveurs disposent d’un matériel plus fiable et sont même équipés de plusieurs blocs d’alimentation et de disques durs, pour assurer une redondance parfaite.

Il existe différentes formes de serveur.

Les trois qui sont représentés ici sont des serveurs utilisés principalement dans les bureaux.

Ce type de serveur possède un seul système d'exploitation et peut être utilisé pour une ou plusieurs applications.

Par exemple, pour les petites entreprises, le produit « Microsoft Small Business Server » a toujours été une solution bureautique très populaire.

Car il permet d’offrir plusieurs services sur 1 ou 2 serveurs physiques.

Ces services peuvent être :

  • 1 Service d'annuaire
  • 1 Serveur dns
  • 1 Serveur de messagerie
  • 1 serveur Web
  • Ou même 1 Serveur de fichiers

Et tout ça, regroupé dans un seul et même serveur.

Alors en principe, il est plus courant tout de même de voir dans les entreprises qu’un serveur physique est utilisé pour chacun des rôles :

  • 1 serveur pour le Web
  • 1 serveur pour le DNS
  • Etc.

Dans les data center, comme l'espace physique est devenu très cher, il est donc plus courant d'y voir des serveurs en rack comme celui-ci :

Et les serveurs en rack sont placés dans des armoires de serveur.

Voici à quoi ressemble un serveur Rack qu’on installe dans une armoire de serveur :

Par la suite, sont arrivés des serveurs « Blade » qui permettent d’offrir plus de puissance de calcul et mémoire, tout en utilisant beaucoup moins d’espace :

Sur l’image, on peut voir plusieurs emplacements « Blade » qui tiennent dans un rack de serveur.

Les serveurs « Blade » ont des processeurs, de la mémoire, ainsi que du stockage, et s’insèrent directement dans les boîtiers « Blade ».

VIRTUALISATION DE SERVEUR

Au cours de la dernière décennie, le nombre de cœurs dans un seul processeur a augmenté très rapidement.

Nous sommes passés de processeurs simples cœur à des processeurs double cœur, puis à quatre cœurs et maintenant il existe même des processeurs avec plus de 10 à 20 cœurs.

Il y a même une technique qui porte le nom de « hyperthreading » où nous avons deux cœurs virtuels pour chaque cœur physique.

Cela permet au système d'exploitation d’utiliser les ressources du processeur de façon plus efficace.

Voici un exemple du processeur de mon PC qui est un Intel core I7 :

On peut voir les 6 cœurs physiques et les 12 cœurs virtuels, qu’on peut aussi appeler cœur logique.

Pour 1 cœur physique, nous avons donc 2 cœurs logiques.

Aujourd’hui, la quantité de RAM a également beaucoup augmenté.

Un serveur physique qui fait tourner un seul système d’exploitation a généralement beaucoup plus de ressources CPU et RAM, qu’il n'en consomme.

C’est pourquoi la virtualisation de serveurs est beaucoup utilisée.

C’est un procédé qui permet d’exécuter plusieurs machines virtuelles sur un seul serveur physique.

Tout le matériel de la VM (Machine Virtuelle) est virtualisé. C’est-à-dire, ses CPU, RAM, disques durs, carte réseau, etc.

Pour chaque machine virtuelle que l’on crée, on peut décider du nombre de CPU ou de RAM à attribuer.

Le logiciel de virtualisation de serveur qui est exécuté sur le serveur physique est appelé : « L’Hyperviseur ».

L'hyperviseur est ce qui gère le serveur virtualisé et permet de configurer la quantité de RAM/ CPU/ et espace disque, que l’on souhaite attribuer pour chaque machine virtuelle (VM : Virtual Machine).

Voici à quoi ressemblerait un serveur physique qui exécuterait un seul système d’exploitation :

Ici, le serveur exécute un seul système d’exploitation et une seule application.

Et voici à quoi ressemblerait une structure de machine virtuelle :

Ici, nous avons en plus l’Hyperviseur qui permet de gérer l’ensemble des machines virtuelles qui font tourner leurs propres systèmes d’exploitation.

Parmi les quelques sociétés qui proposent des solutions de virtualisation de serveur, nous avons :

  • VMware
  • Microsoft HyperV
  • Citrix Xenserver
  • et Red Hat KVM

L’ensemble de ces sociétés qui permettent de faire de la virtualisation proposent la possibilité de créer et déplacer automatiquement des machines virtuelles d’un hyperviseur à un autre.

Alors, ce qui faut savoir avec ce type de système, c’est que si la machine physique qui héberge les VM’s tombe en panne eh bien c’est toutes les machines virtuelles qui tombent en même temps.

CARTE D'INTERFACE RÉSEAU VIRTUELLE

Les serveurs physiques ont une ou plusieurs cartes réseau (NIC : Network Interface Card) qui sont toutes connectées à un switch.

Alors, on pourrait se demander : qu’en est-il des serveurs virtuels ?

Eh bien les machines virtuelles ont du matériel virtualisé et cela inclut même leurs cartes réseau, que l’on appelle des cartes réseau virtuelles (vNIC : virtual Network Interface Card).

D'une manière ou d'une autre, il faut de toute façon connecter ces cartes réseau virtuelles sur son propre réseau.

Eh bien cela se fait avec un switch virtuel.

Vu de l’intérieur, voici à quoi ça ressemble :

Sur ce schéma, on peut voir que les machines virtuelles ont chacune une carte réseau virtuelle (vNIC) connectée à un commutateur virtuel qui, lui, est connecté à un commutateur physique par le biais de la carte réseau physique du serveur, sur lequel est exécuté l’hyperviseur.

Il n'y a donc qu'une seule carte réseau physique.

Mais en principe, sur des réseaux en production, vous pourrez retrouver plusieurs cartes physiques, dans le but d’assurer une redondance et d’augmenter la bande passante de toutes les cartes réseau virtuelles.

Le commutateur virtuel est fourni par le fournisseur de l'hyperviseur.

Il est possible aussi d’utiliser un commutateur virtuel externe, comme le Cisco Nexus 1000v :

Ce qui permet d’utiliser les mêmes fonctionnalités que les switches physiques de son propre réseau.

RÉSEAU DATA CENTER PHYSIQUE

Nous venons de parler de la manière dont les machines virtuelles sont connectées à un commutateur physique au travers d’un commutateur virtuel.

On va maintenant voir à quoi ça ressemble dans un vrai « data center » où il y a plein de serveurs rackés.

Nous allons étudier les 2 conceptions de rack le plus courant.

TOR (TOP OF RACK)

Le concept Top of Rack (ToR), qui signifie en haut du rack, comporte des commutateurs réseau en haut de chaque armoire, ou en haut de chaque rack de serveur.

Les serveurs sont situés sous les commutateurs du concept Top of Rack, et pour des raisons de redondance, ils sont même raccordés aux deux commutateurs ToR.

Les commutateurs ToR sont ensuite connectés aux commutateurs de la couche de distribution.

L'un des avantages de cette configuration est que la plupart des câbles restent dans le même rack.

Les seuls câbles réseau qui quittent le rack sont ceux qui vont des commutateurs ToR aux commutateurs de la couche de distribution.

Et l’inconvénient à ce concept, c’est que vous avez besoin de plusieurs commutateurs ToR et selon la quantité de serveurs qu’il y a dans le rack, il se peut que les ports des switchs ToR ne soient pas tous utilisés…

EOR (END OF ROW)

Et dans une conception End of Row, qui signifie en fin de ligne, ou en fin de rang, il n’y a plus de commutateurs dans les racks. Tous les serveurs sont directement connectés aux commutateurs End of Row (EoR) qui sont situés dans un rack séparé.

L’avantage de cette configuration est que vous n'avez pas besoin d'autant de commutateurs, donc il y a moins de ports inutilisés.

Et l'un des inconvénients est que vous avez besoin de beaucoup de câblages entre les racks de votre serveur et les racks où se trouvent les commutateurs « EoR ».

Retrouver de nombreuses vidéos de cours sur la chaîne Youtube Formip.

« Retour au blog

DÉVERROUILLEZ LE MONDE DE L'IT

Apprentissage Sans Frontières

Accédez gratuitement à nos supports de cours et élargissez vos horizons en IT

Cours Offert (50min) : Boostez votre Carrière IT en 6 Étapes Simples !