VMware ESXi
- 1. Installation ESXi
- 2. vSphere Client
- 3. Gestion des machines virtuelles
- 4. Gestion du stockage
- 5. Configuration réseau
- 6. vCenter Server
- 7. Haute disponibilité (HA)
- 8. vMotion et Storage vMotion
- 9. Sauvegardes et restauration
- 10. Gestion des ressources
- 11. Templates et clonage
- 12. Mise à jour et patches
- 13. Monitoring et logs
- 14. Sécurité
- 15. Dépannage
1. Installation ESXi
1.1 Téléchargement de l'ISO
Rendez-vous sur le portail VMware Customer Connect (anciennement My VMware) pour télécharger l'image ISO de VMware vSphere Hypervisor (ESXi). Vous devez créer un compte gratuit pour accéder au téléchargement.
- ESXi gratuit : La licence vSphere Hypervisor (Free) permet d'utiliser un hôte unique sans vCenter.
- ESXi avec licence : Les licences Essentials, Standard, Enterprise Plus débloquent vCenter, HA, DRS, etc.
| Édition | vCenter | vMotion | HA | DRS |
|---|---|---|---|---|
| Free (vSphere Hypervisor) | Non | Non | Non | Non |
| Essentials | Oui (limité) | Non | Non | Non |
| Essentials Plus | Oui | Oui | Oui | Non |
| Standard | Oui | Oui | Oui | Partiel |
| Enterprise Plus | Oui | Oui | Oui | Oui |
1.2 Création de la clé USB bootable
Préparez un support d'installation bootable :
- Rufus (Windows) : Sélectionnez l'ISO ESXi, schéma de partition MBR ou GPT selon votre matériel, système cible BIOS ou UEFI.
- Etcher (Windows/Mac/Linux) : Sélectionnez l'ISO, la clé USB, puis lancez le flash.
- Linux CLI :
# Identifier la clé USB
lsblk
# Écrire l'ISO sur la clé (remplacer sdX par le bon device)
dd if=VMware-VMvisor-Installer-8.0-*.x86_64.iso of=/dev/sdX bs=4M status=progress
sync
1.3 Configuration du BIOS/UEFI
Avant de démarrer l'installation, vérifiez les paramètres BIOS/UEFI suivants :
- Activer la virtualisation matérielle (Intel VT-x / AMD-V)
- Activer VT-d (Intel) ou AMD-Vi (IOMMU) pour le passthrough PCI
- Configurer l'ordre de boot : USB en premier
- Désactiver le Secure Boot si l'installation échoue (peut être réactivé après)
1.4 Installation pas à pas
- Bootez sur la clé USB ou le média d'installation
- L'écran de chargement VMware ESXi apparaît, attendez le chargement complet
- Appuyez sur Entrée pour lancer l'installateur
- Acceptez le contrat de licence avec F11
- Sélectionnez le disque d'installation (SSD recommandé, minimum 32 Go pour ESXi 8.x)
- Choisissez la disposition du clavier
- Définissez le mot de passe root (minimum 7 caractères, complexité requise)
- Confirmez l'installation avec F11
- Retirez le média d'installation au reboot
ks=http://server/ks.cfg au boot pour une installation sans intervention.
1.5 Configuration initiale (DCUI)
Après le premier démarrage, la console directe (DCUI - Direct Console User Interface) s'affiche. Appuyez sur F2 et connectez-vous avec le compte root pour configurer :
| Paramètre | Description | Exemple |
|---|---|---|
| Configure Management Network | IP statique, masque, passerelle | 192.168.1.50 / 255.255.255.0 / 192.168.1.1 |
| DNS Configuration | Serveurs DNS et hostname | DNS: 192.168.1.1 / Hostname: esxi01.local |
| IPv6 Configuration | Activer/désactiver IPv6 | Désactivé si non utilisé |
| Custom DNS Suffixes | Suffixe de recherche DNS | local, mondomaine.fr |
1.6 Premier accès vSphere Client
Une fois la configuration réseau terminée, accédez à l'interface web :
https://192.168.1.50
Connectez-vous avec l'utilisateur root et le mot de passe défini lors de l'installation. Le certificat SSL est auto-signé : acceptez l'exception de sécurité dans votre navigateur.
2. vSphere Client
2.1 Interface web (Host Client)
Le vSphere Host Client est l'interface web intégrée à chaque hôte ESXi. Accédez-y via https://<IP_ESXi>. Fonctionnalités principales :
- Création et gestion des VM
- Gestion du stockage et du réseau
- Monitoring en temps réel (CPU, RAM, disque, réseau)
- Gestion des snapshots
- Accès console VM (VMRC intégré)
2.2 vSphere Client (vCenter)
Si vous disposez d'un vCenter Server, le vSphere Client (HTML5) offre une gestion centralisée de tous les hôtes :
https://<IP_vCenter>/ui
Le vSphere Client vCenter permet en plus : la gestion des clusters, vMotion, DRS, HA, les permissions granulaires, les alarmes avancées et le déploiement de templates.
2.3 VMware Remote Console (VMRC)
Pour un accès console avancé (support USB passthrough, périphériques locaux), installez VMRC :
- Téléchargez depuis le portail VMware Customer Connect
- Disponible pour Windows, macOS et Linux
- Lancé automatiquement depuis le vSphere Client
3. Gestion des machines virtuelles
3.1 Création d'une VM
Via le vSphere Client : Actions > New Virtual Machine. Paramètres clés :
- Compatibilité : choisir la version hardware (VM version 20 pour ESXi 8.0)
- Guest OS : sélectionner le système d'exploitation cible
- CPU : nombre de sockets et cœurs par socket
- RAM : mémoire allouée (réservation optionnelle)
- Disque : taille, type (thin/thick provisioning)
- Réseau : adapter type (VMXNET3 recommandé) et port group
3.2 VMware Tools
Les VMware Tools sont essentiels pour les performances et la gestion des VM :
- Pilotes paravirtualisés (VMXNET3, PVSCSI)
- Synchronisation de l'horloge
- Copier-coller entre hôte et VM
- Quiescing pour les snapshots cohérents
- Arrêt propre de la VM depuis vSphere
# Installation VMware Tools sur Linux (via package manager)
apt install open-vm-tools # Debian/Ubuntu
yum install open-vm-tools # RHEL/CentOS
# Vérifier le statut
systemctl status vmtoolsd
3.3 Snapshots
Les snapshots capturent l'état d'une VM à un instant T (disque, mémoire, configuration) :
- Créer : clic droit sur la VM > Snapshots > Take Snapshot
- Restaurer : Revert to snapshot
- Supprimer : consolide les fichiers delta dans le disque principal
3.4 Import/Export OVF/OVA
# Exporter une VM en OVF (via ovftool en ligne de commande)
ovftool vi://root@192.168.1.50/MaVM ./MaVM.ova
# Importer un OVA
ovftool --name="NouvelleVM" ./MaVM.ova vi://root@192.168.1.50
# Exporter avec les options de disque
ovftool --diskMode=thin vi://root@192.168.1.50/MaVM ./MaVM_thin.ova
4. Gestion du stockage
4.1 Types de datastores
| Type | Description | Cas d'usage |
|---|---|---|
| VMFS | Système de fichiers VMware sur disque local ou SAN | Usage général, SAN iSCSI/FC |
| NFS | Partage réseau NFS (v3 ou v4.1) | NAS, stockage partagé |
| vSAN | Stockage distribué hyper-convergé | Clusters HCI |
| vVol | Virtual Volumes (intégration baie SAN) | Baies Dell, NetApp, HPE |
4.2 Thin vs Thick Provisioning
- Thin Provisioning : l'espace disque est alloué à la demande. Un disque de 100 Go n'occupe que l'espace réellement utilisé.
- Thick Provisioning Lazy Zeroed : l'espace total est réservé mais les blocs sont mis à zéro à la première écriture.
- Thick Provisioning Eager Zeroed : l'espace total est réservé et mis à zéro immédiatement. Meilleures performances, requis pour FT.
4.3 Datastore VMFS
# Lister les datastores via esxcli
esxcli storage filesystem list
# Créer un datastore VMFS 6 (via ligne de commande)
# D'abord identifier le device
esxcli storage core device list
# Créer la partition et le datastore
partedUtil setptbl /vmfs/devices/disks/naa.xxx gpt \
"1 2048 0 AA31E02A400F11DB9590000C2911D1B8 0"
4.4 Datastore NFS
# Ajouter un datastore NFS via esxcli
esxcli storage nfs add --host=192.168.1.100 --share=/volume1/vmware --volume-name=NFS_Datastore
# Lister les datastores NFS
esxcli storage nfs list
# Supprimer un datastore NFS
esxcli storage nfs remove --volume-name=NFS_Datastore
4.5 iSCSI
# Activer l'adaptateur iSCSI logiciel
esxcli iscsi software set --enabled=true
# Ajouter une cible iSCSI (discovery)
esxcli iscsi adapter discovery sendtarget add --adapter=vmhba65 --address=192.168.1.200
# Lister les sessions iSCSI actives
esxcli iscsi session list
# Rescan après ajout de LUN
esxcli storage core adapter rescan --adapter=vmhba65
5. Configuration réseau
5.1 vSwitch Standard (vSS)
Un vSwitch standard est un switch virtuel local à l'hôte ESXi :
# Lister les vSwitch
esxcli network vswitch standard list
# Créer un vSwitch
esxcli network vswitch standard add --vswitch-name=vSwitch1
# Ajouter un uplink (NIC physique)
esxcli network vswitch standard uplink add --uplink-name=vmnic1 --vswitch-name=vSwitch1
# Configurer le MTU (Jumbo Frames)
esxcli network vswitch standard set --vswitch-name=vSwitch1 --mtu=9000
5.2 Port Groups
# Créer un port group avec VLAN
esxcli network vswitch standard portgroup add --portgroup-name="VLAN_100" --vswitch-name=vSwitch0
# Assigner un VLAN ID
esxcli network vswitch standard portgroup set --portgroup-name="VLAN_100" --vlan-id=100
# Lister les port groups
esxcli network vswitch standard portgroup list
| VLAN ID | Comportement |
|---|---|
| 0 | Pas de VLAN tagging (accès natif) |
| 1-4094 | VLAN spécifique (trunk depuis le switch physique) |
| 4095 | Mode trunk (la VM gère elle-même le tagging) |
5.3 VMkernel Adapters
Les VMkernel adapters sont des interfaces réseau utilisées par ESXi lui-même :
- Management : administration de l'hôte (vmk0)
- vMotion : migration live des VM
- iSCSI / NFS : trafic stockage
- vSAN : trafic vSAN
- Fault Tolerance : journalisation FT
# Créer un VMkernel pour vMotion
esxcli network ip interface add --interface-name=vmk1 --portgroup-name="vMotion_PG"
esxcli network ip interface ipv4 set --interface-name=vmk1 --ipv4=10.0.1.50 --netmask=255.255.255.0 --type=static
# Activer vMotion sur vmk1
esxcli network ip interface tag add --interface-name=vmk1 --tagname=VMotion
5.4 NIC Teaming
Le NIC teaming permet la redondance et la répartition de charge réseau :
- Route based on originating port ID : par défaut, simple
- Route based on IP hash : répartition par IP (nécessite EtherChannel/LACP côté switch)
- Route based on source MAC hash : répartition par adresse MAC
- Explicit failover order : actif/passif
5.5 vSwitch Distribué (VDS)
Un vDistributed Switch (VDS) est géré au niveau vCenter et offre des fonctionnalités avancées :
- Configuration centralisée pour tous les hôtes
- LACP support
- Port mirroring
- Network I/O Control (NIOC)
- NetFlow / IPFIX
6. vCenter Server
6.1 Rôle de vCenter
vCenter Server est le composant de gestion centralisée de vSphere. Il permet :
- Gestion multi-hôtes depuis une interface unique
- Clusters, Resource Pools, Folders
- vMotion, Storage vMotion, DRS, HA
- Permissions et rôles granulaires
- Alarmes, statistiques, rapports de performance
- Content Library (templates, ISO)
6.2 Déploiement vCSA (vCenter Server Appliance)
Le vCSA est une appliance Linux préconfigurée déployée en OVA. Tailles recommandées :
| Taille | Hôtes | VM | vCPU | RAM |
|---|---|---|---|---|
| Tiny | ≤ 10 | ≤ 100 | 2 | 14 Go |
| Small | ≤ 100 | ≤ 1 000 | 4 | 21 Go |
| Medium | ≤ 400 | ≤ 4 000 | 8 | 30 Go |
| Large | ≤ 1 000 | ≤ 10 000 | 16 | 40 Go |
6.3 Gestion VAMI
L'interface d'administration de l'appliance vCSA est accessible sur le port 5480 :
https://<IP_vCenter>:5480
Permet de gérer : sauvegardes de la base, certificats, NTP, syslog, mise à jour du vCSA, monitoring système.
6.4 Content Library
La Content Library permet de stocker et distribuer des templates, ISO et scripts :
- Local library : stockage local sur un datastore
- Subscribed library : synchronisée depuis une library distante
7. Haute disponibilité (HA)
7.1 Principe
vSphere HA redémarre automatiquement les VM sur d'autres hôtes du cluster en cas de défaillance d'un hôte. Prérequis :
- Minimum 2 hôtes dans un cluster vCenter
- Stockage partagé (SAN, NFS, vSAN)
- Réseau de management commun
7.2 Configuration
Dans vSphere Client : Cluster > Configure > vSphere Availability > Edit
- Host Monitoring : activer la surveillance des hôtes
- Admission Control : réserver de la capacité pour le failover (ex: 25% = 1 hôte sur 4)
- VM Restart Priority : High, Medium, Low, Disabled
- Host Isolation Response : Power off, Shut down, Leave powered on
7.3 Heartbeat Datastores
HA utilise des datastores comme mécanisme de heartbeat secondaire (en plus du réseau). Au moins 2 heartbeat datastores sont recommandés.
7.4 VM Monitoring
En plus du monitoring des hôtes, HA peut surveiller les VM individuellement via les VMware Tools heartbeats. Si une VM ne répond plus, elle est redémarrée automatiquement.
8. vMotion et Storage vMotion
8.1 vMotion (Live Migration)
vMotion permet de migrer une VM allumée d'un hôte à un autre sans interruption. Prérequis :
- Licence vSphere Standard ou supérieure
- vCenter Server
- VMkernel vMotion configuré sur chaque hôte (même sous-réseau)
- Stockage partagé (sauf Cross-vSwitch vMotion)
- CPU compatibles entre les hôtes (ou EVC activé)
8.2 EVC (Enhanced vMotion Compatibility)
EVC masque les différences de fonctionnalités CPU entre les hôtes d'un cluster pour permettre vMotion :
- Activé au niveau du cluster
- Tous les hôtes doivent être du même fabricant (Intel ou AMD)
- Le niveau EVC est défini sur la génération CPU la plus ancienne du cluster
8.3 Storage vMotion
Storage vMotion migre les fichiers d'une VM d'un datastore à un autre à chaud :
- Pas besoin de stockage partagé
- Permet de changer le type de provisioning (thin → thick)
- Utile pour équilibrer les datastores ou migrer vers un nouveau stockage
8.4 Cross-vCenter vMotion
À partir de vSphere 6.0+, il est possible de migrer des VM entre différents vCenter Server (même domaine SSO ou pas). Cela combine vMotion + Storage vMotion + changement de vCenter.
9. Sauvegardes et restauration
9.1 VADP (vStorage APIs for Data Protection)
VADP est l'API VMware utilisée par les solutions de backup tierces (Veeam, Nakivo, Commvault...) :
- Backup à chaud via snapshots
- CBT (Changed Block Tracking) : sauvegarde incrémentale au niveau bloc
- Pas d'agent nécessaire dans la VM
9.2 Activer CBT
Le CBT doit être activé sur chaque VM pour les sauvegardes incrémentales :
# Via PowerCLI
Get-VM "MaVM" | Get-View | ForEach-Object {
$spec = New-Object VMware.Vim.VirtualMachineConfigSpec
$spec.changeTrackingEnabled = $true
$_.ReconfigVM($spec)
}
# Vérifier le statut CBT
(Get-VM "MaVM").ExtensionData.Config.ChangeTrackingEnabled
9.3 Export OVF / Backup de la configuration ESXi
# Sauvegarder la configuration de l'hôte ESXi
vim-cmd hostsvc/firmware/sync_config
vim-cmd hostsvc/firmware/backup_config
# Le fichier .tgz est disponible via HTTP :
# https://<ESXi_IP>/downloads/configBundle-<hostname>.tgz
# Restaurer la configuration
vim-cmd hostsvc/firmware/restore_config /tmp/configBundle.tgz
9.4 ghettoVCB (outil gratuit)
ghettoVCB est un script shell gratuit pour sauvegarder les VM ESXi sans vCenter :
# Cloner le repo
git clone https://github.com/lamw/ghettoVCB.git
# Copier sur l'ESXi
scp ghettoVCB.sh root@192.168.1.50:/vmfs/volumes/datastore1/
# Lancer une sauvegarde
/vmfs/volumes/datastore1/ghettoVCB.sh -m MaVM -d thin
10. Gestion des ressources
10.1 CPU et RAM
- Shares : priorité relative entre VM en cas de contention (Low=500, Normal=1000, High=2000)
- Reservation : quantité minimale garantie (en MHz ou Mo)
- Limit : quantité maximale utilisable
10.2 Resource Pools
Les Resource Pools regroupent des VM pour appliquer des politiques de ressources collectives :
- Création : Cluster > clic droit > New Resource Pool
- Définir Shares, Reservation, Limit pour le pool
- Les VM dans le pool se partagent les ressources allouées
10.3 DRS (Distributed Resource Scheduler)
DRS équilibre automatiquement la charge entre les hôtes d'un cluster :
- Fully Automated : DRS migre les VM automatiquement
- Partially Automated : DRS place les VM au démarrage, suggère les migrations
- Manual : DRS suggère uniquement
Le Migration Threshold (1-5) définit l'agressivité du DRS. 1 = conservateur, 5 = agressif.
10.4 Affinité / Anti-affinité
- VM-VM Affinity : forcer des VM à rester sur le même hôte (ex: app + base de données)
- VM-VM Anti-affinity : empêcher des VM d'être sur le même hôte (ex: 2 DC, 2 nœuds cluster)
- VM-Host rules : forcer/préférer un hôte spécifique
11. Templates et clonage
11.1 Créer un template
- Préparer la VM (installer l'OS, les outils, les mises à jour, sysprep si Windows)
- Clic droit sur la VM > Template > Convert to Template
- La VM devient non-démarrable et apparaît dans l'inventaire Templates
11.2 Déployer depuis un template
Template > clic droit > New VM from this Template. Options :
- Nom, dossier, cluster/hôte, datastore
- Customization Spec : personnalise automatiquement (hostname, IP, domaine, SID Windows)
11.3 Clonage de VM
# Via PowerCLI - Clone une VM
New-VM -Name "VM-Clone" -VM "VM-Source" -VMHost "esxi01.local" -Datastore "datastore1"
# Clone avec customization spec
$spec = Get-OSCustomizationSpec "Linux_Spec"
New-VM -Name "VM-Clone" -VM "VM-Source" -VMHost "esxi01.local" -OSCustomizationSpec $spec
11.4 Instant Clone
L'Instant Clone crée une copie d'une VM en cours d'exécution en quelques secondes (partage de mémoire et disque). Utilisé principalement pour les environnements VDI (Horizon).
12. Mise à jour et patches
12.1 vSphere Lifecycle Manager (vLCM)
vLCM (anciennement Update Manager) gère les mises à jour des hôtes ESXi depuis vCenter :
- Baselines : définir les patches/versions à appliquer
- Images : définir une image ESXi complète (nouveau mode vLCM)
- Remediate : appliquer les mises à jour (met l'hôte en maintenance mode automatiquement)
12.2 Mise à jour via esxcli (hôte standalone)
# Télécharger le bundle ZIP du patch depuis VMware
# Copier sur un datastore
scp VMware-ESXi-8.0U2-*.zip root@192.168.1.50:/vmfs/volumes/datastore1/
# Mettre l'hôte en maintenance mode
esxcli system maintenanceMode set --enable=true
# Lister les profils disponibles dans le bundle
esxcli software sources profile list --depot=/vmfs/volumes/datastore1/VMware-ESXi-8.0U2-*.zip
# Appliquer le patch
esxcli software profile update --depot=/vmfs/volumes/datastore1/VMware-ESXi-8.0U2-*.zip --profile=ESXi-8.0U2-standard
# Reboot
reboot
12.3 Mise à jour en ligne
# Mettre à jour depuis le dépôt VMware en ligne
esxcli network firewall ruleset set -e true -r httpClient
esxcli software profile update --depot=https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml --profile=ESXi-8.0U2-standard
13. Monitoring et logs
13.1 esxtop
esxtop est l'outil de monitoring en temps réel intégré à ESXi (similaire à top sur Linux) :
# Lancer esxtop (via SSH)
esxtop
# Raccourcis clavier dans esxtop :
# c = CPU
# m = Mémoire
# n = Réseau
# d = Disque
# v = VM
# q = Quitter
13.2 Indicateurs clés
| Métrique | Description | Seuil d'alerte |
|---|---|---|
| %READY | Temps d'attente CPU (contention) | > 10% = problème |
| %CSTP | Co-stop (SMP VM) | > 3% = réduire les vCPU |
| SWCUR | Swap mémoire actif | > 0 = manque de RAM |
| KAVG | Latence disque kernel (ms) | > 2ms = problème stockage |
| DAVG | Latence disque device (ms) | > 25ms = problème SAN/disque |
| %DRPTX/%DRPRX | Paquets réseau perdus | > 0 = problème réseau |
13.3 Fichiers de logs
| Fichier | Description |
|---|---|
/var/log/vmkernel.log | Messages du noyau VMkernel (stockage, réseau, drivers) |
/var/log/hostd.log | Agent de gestion de l'hôte (API, opérations VM) |
/var/log/vpxa.log | Agent vCenter sur l'hôte |
/var/log/vobd.log | Événements et alarmes VMware |
/var/log/fdm.log | Logs vSphere HA (Fault Domain Manager) |
/var/log/shell.log | Historique des commandes shell/SSH |
13.4 Syslog distant
# Configurer l'envoi des logs vers un syslog distant
esxcli system syslog config set --loghost=udp://192.168.1.200:514
# Recharger la configuration syslog
esxcli system syslog reload
# Vérifier la configuration
esxcli system syslog config get
13.5 Alarmes vCenter
vCenter permet de créer des alarmes personnalisées avec actions automatiques (email, SNMP, script) :
- CPU host > 90% pendant 5 min
- Datastore free space < 15%
- VM CPU Ready > 10%
- Host connection lost
14. Sécurité
14.1 Lockdown Mode
Le Lockdown Mode restreint l'accès direct à l'hôte ESXi. Toutes les opérations passent par vCenter :
- Normal : seul vCenter et les utilisateurs exception peuvent se connecter
- Strict : même le DCUI est verrouillé (accès physique uniquement pour le désactiver)
# Activer le lockdown mode via esxcli
vim-cmd vimsvc/auth/lockdown_mode_enter
# Désactiver
vim-cmd vimsvc/auth/lockdown_mode_exit
14.2 Firewall ESXi
# Lister les règles de firewall
esxcli network firewall ruleset list
# Activer/Désactiver une règle
esxcli network firewall ruleset set --enabled=true --ruleset-id=sshServer
esxcli network firewall ruleset set --enabled=false --ruleset-id=sshServer
# Restreindre par IP
esxcli network firewall ruleset allowedip add --ruleset-id=sshServer --ip-address=192.168.1.0/24
# Vérifier le statut du firewall
esxcli network firewall get
14.3 SSH
# Activer/Désactiver SSH
vim-cmd hostsvc/enable_ssh
vim-cmd hostsvc/disable_ssh
# Ou via esxcli
/etc/init.d/SSH start
/etc/init.d/SSH stop
# Définir le timeout SSH (en secondes, 0 = pas de timeout)
esxcli system settings advanced set -o /UserVars/ESXiShellInteractiveTimeOut -i 900
14.4 Certificats
ESXi et vCenter utilisent des certificats auto-signés par défaut. vCenter intègre un VMware Certificate Authority (VMCA) qui peut être configuré en mode :
- VMCA comme CA racine (par défaut)
- VMCA comme CA intermédiaire (subordonné à votre CA d'entreprise)
- Certificats personnalisés (remplacement complet)
14.5 Rôles et permissions
vCenter offre un modèle RBAC (Role-Based Access Control) :
| Rôle | Description |
|---|---|
| Administrator | Tous les privilèges |
| Read-Only | Consultation uniquement |
| VM Power User | Gestion VM (création, modification, alimentation) |
| VM User | Interaction VM (console, alimentation) |
| No Access | Aucun accès |
15. Dépannage
15.1 Purple Screen of Death (PSOD)
Un PSOD est un crash complet de l'hôte ESXi :
- Vérifier le matériel (RAM, CPU, carte réseau)
- Vérifier les drivers (HCL VMware)
- Analyser le core dump :
/var/core/ - Ouvrir un ticket VMware Support avec le fichier de diagnostic
# Générer un bundle de support (diagnostic)
vm-support
# Le fichier .tgz est généré dans /var/tmp/
15.2 VM inaccessible / Invalid
# Lister les VM et leur statut
vim-cmd vmsvc/getallvms
# Si une VM est "invalid", la re-enregistrer
vim-cmd solo/registervm /vmfs/volumes/datastore1/MaVM/MaVM.vmx
# Forcer l'arrêt d'une VM bloquée
# Trouver le World ID
esxcli vm process list
# Forcer l'arrêt
esxcli vm process kill --type=force --world-id=12345
15.3 Problèmes de stockage
# Vérifier l'état des devices SCSI
esxcli storage core device list
# Vérifier les chemins multipath
esxcli storage core path list
# Rescan des adaptateurs
esxcli storage core adapter rescan --all
# Vérifier l'espace datastore
esxcli storage filesystem list
# Supprimer un fichier verrouillé (attention !)
vmkfstools -D /vmfs/volumes/datastore1/MaVM/MaVM-flat.vmdk
15.4 Problèmes réseau
# Tester la connectivité
vmkping 192.168.1.1
vmkping -I vmk1 10.0.1.1 # Ping depuis un VMkernel spécifique
# Vérifier les interfaces
esxcli network ip interface list
esxcli network nic list
# Capturer du trafic réseau
pktcap-uw --uplink vmnic0 --dir 0 -o /tmp/capture.pcap # RX
pktcap-uw --uplink vmnic0 --dir 1 -o /tmp/capture_tx.pcap # TX
# Vérifier les CDP/LLDP (info du switch physique)
esxcli network vswitch standard portgroup get
15.5 Commandes de diagnostic essentielles
# Informations système
esxcli system version get # Version ESXi
esxcli system hostname get # Hostname
esxcli hardware cpu global get # CPU
esxcli hardware memory get # RAM
esxcli system time get # Heure système
# Services
/etc/init.d/hostd restart # Redémarrer hostd
/etc/init.d/vpxa restart # Redémarrer l'agent vCenter
services.sh restart # Redémarrer tous les services
# NTP
esxcli system ntp get
esxcli system ntp set --server=0.pool.ntp.org --server=1.pool.ntp.org
esxcli system ntp set --enabled=true