Essayer, tester, échanger les bonnes pratiques, partager les retours d'expériences, ...
toutes nos formations sont disponibles à distance (classes virtuelles) et en centre de formation (présentiel), au choix.
Vous pouvez même changer de modalité en cours de formation, si vous avez des contraintes : par exemple, commencer en présentiel et continuer les jours suivants à distance.
Les outils pédagogiques et l'infrastructure de travaux pratiques mis à disposition sont accessibles depuis nos locaux, ou depuis votre entreprise ou votre lieu de télétravail, à volonté
N'hésitez pas à tester nos formations et nos serious games !
Les capacités des matériels actuels (en puissance de calcul, mémoire, espace disque) ont permis l'essor des techniques de virtualisation. Qu'il s'agisse de créer des machines virtuelles, ou des conteneurs d'applications, ou des hyperviseurs, les systèmes d'exploitation permettent aujourd'hui de choisir la solution la plus appropriée au besoin : mutualisation de ressources, isolation des environnements pour des travaux critiques, ... Les architectes et chefs de projet auront pour mission de valider les produits en fonction de leur architecture, et caractéristiques techniques.
Nos stages permettent de faire le point sur les technologies de virtualisation de serveurs avec les notions d'hyperviseurs, de machines virtuelles, d'ordonnanceur, etc ... Le comparatif des différentes architectures de produits avec le micro-partitionnement, les zones, l'isolation applicative donnera les éléments de choix en fonction des contraintes applicatives. Les aspects de mise en production, d'exploitation intégrant les contraintes des datacenters, par exemple, sont également abordés avec les consoles d'administration, les socles de virtualisation. Les travaux pratiques se déroulent sur Solaris avec la mise en oeuvre des zones, sur AIX avec la console HMC, sur Linux avec qemu/kvm, par exemple.
Un conteneur est un environnement isolé à l'intérieur d'une machine hôte. L'étanchéité est assurée par le noyau Linux. Comme l'isolation est faite à partir du noyau, les logiciels isolés sont indépendants de la plateforme matérielle.
Par rapport aux machines virtuelles, les conteneurs ont une empreinte mémoire fortement réduite. Comme ils partagent le même noyau, le processus de lancement est fortement accéléré. La virtualisation implique une consommation forte des ressources systèmes de l'hôte
Produits implémentant la gestion de conteneurs : LXC, rkt-coreos, docker, openVz,
Une application n'a pas besoin de la totalité des outils mis à disposition par une distribution. Pour exécuter une application, un conteneur n'aura besoin que des outils nécessaires.
Micro-services Il est donc possible de créer des conteneurs très légers :
Le produit docker est un mécanisme permettant de gérer des conteneurs en mode micro-services.
Dans de nombreux cas, un seul service par conteneur docker ne suffit pas. Même si docker dispose de mécanismes permettant de lancer plusieurs applications dans un même conteneur, il est souvent plus facile de créer une mini-distribution Linux dans le conteneur : LXC LXC est un mécanisme de gestion de conteneurs qui permet d'executer un Linux de manière standard : Ubuntu, Debian, RedHat, CentOS ou autre. Par rapport à Docker, LXC permet d'exécuter des applications plus riches, où certains services résident dans le même conteneur, et surtout, se gèrent de manière standard. Par exemple, un conteneur LXC qui embarque un serveur applicatif, un agent icinga ou nagios, un agent snmp, un serveur ssh et un serveur http.
La virtualisation du poste de travail est un des éléments de l'architecture qui se met en place dans l'évolution vers le cloud computing. Ce stage propose de faire le point sur les technologies de virtualisation, plus particulièrement orientées vers le poste de travail : solutions de travail à distance, depuis le déport d'écrans avec une virtualisation centralisée, fourniture d'applications hébergées avec accès Web, outils de virtualisation du poste en local. Les caractéristiques techniques, les impacts sur l'architecture du système d'information, et les contraintes d'exploitation seront étudiées sur des cas pratiques.
Une architecture de type distribué devient vite tentaculaire et difficile à maintenir. L'architecture centralisée du système d'information est de nouveau mise à l'ordre du jour.
Pour gérer des parcs de machines physiques, virtuelles, conteneurs, il est donc nécessaire de disposer d'outils de provisionnement et de mécanismes de virtualisation de réseaux.