🛠 Outils IT
🛠 78 outils 📚 32 docs
🤖 Assistant

VMware ESXi

1. Installation ESXi

1.1 Téléchargement de l'ISO

Rendez-vous sur le portail VMware Customer Connect (anciennement My VMware) pour télécharger l'image ISO de VMware vSphere Hypervisor (ESXi). Vous devez créer un compte gratuit pour accéder au téléchargement.

  • ESXi gratuit : La licence vSphere Hypervisor (Free) permet d'utiliser un hôte unique sans vCenter.
  • ESXi avec licence : Les licences Essentials, Standard, Enterprise Plus débloquent vCenter, HA, DRS, etc.
Édition vCenter vMotion HA DRS
Free (vSphere Hypervisor) Non Non Non Non
Essentials Oui (limité) Non Non Non
Essentials Plus Oui Oui Oui Non
Standard Oui Oui Oui Partiel
Enterprise Plus Oui Oui Oui Oui

1.2 Création de la clé USB bootable

Préparez un support d'installation bootable :

  • Rufus (Windows) : Sélectionnez l'ISO ESXi, schéma de partition MBR ou GPT selon votre matériel, système cible BIOS ou UEFI.
  • Etcher (Windows/Mac/Linux) : Sélectionnez l'ISO, la clé USB, puis lancez le flash.
  • Linux CLI :
# Identifier la clé USB
lsblk

# Écrire l'ISO sur la clé (remplacer sdX par le bon device)
dd if=VMware-VMvisor-Installer-8.0-*.x86_64.iso of=/dev/sdX bs=4M status=progress
sync
Attention : Vérifiez que votre matériel figure sur la VMware Hardware Compatibility List (HCL) avant l'installation. Un matériel non certifié peut causer des instabilités ou des pilotes manquants.

1.3 Configuration du BIOS/UEFI

Avant de démarrer l'installation, vérifiez les paramètres BIOS/UEFI suivants :

  • Activer la virtualisation matérielle (Intel VT-x / AMD-V)
  • Activer VT-d (Intel) ou AMD-Vi (IOMMU) pour le passthrough PCI
  • Configurer l'ordre de boot : USB en premier
  • Désactiver le Secure Boot si l'installation échoue (peut être réactivé après)

1.4 Installation pas à pas

  1. Bootez sur la clé USB ou le média d'installation
  2. L'écran de chargement VMware ESXi apparaît, attendez le chargement complet
  3. Appuyez sur Entrée pour lancer l'installateur
  4. Acceptez le contrat de licence avec F11
  5. Sélectionnez le disque d'installation (SSD recommandé, minimum 32 Go pour ESXi 8.x)
  6. Choisissez la disposition du clavier
  7. Définissez le mot de passe root (minimum 7 caractères, complexité requise)
  8. Confirmez l'installation avec F11
  9. Retirez le média d'installation au reboot
Astuce : Pour les installations automatisées, utilisez un fichier kickstart (ks.cfg). Ajoutez le paramètre ks=http://server/ks.cfg au boot pour une installation sans intervention.

1.5 Configuration initiale (DCUI)

Après le premier démarrage, la console directe (DCUI - Direct Console User Interface) s'affiche. Appuyez sur F2 et connectez-vous avec le compte root pour configurer :

Paramètre Description Exemple
Configure Management Network IP statique, masque, passerelle 192.168.1.50 / 255.255.255.0 / 192.168.1.1
DNS Configuration Serveurs DNS et hostname DNS: 192.168.1.1 / Hostname: esxi01.local
IPv6 Configuration Activer/désactiver IPv6 Désactivé si non utilisé
Custom DNS Suffixes Suffixe de recherche DNS local, mondomaine.fr

1.6 Premier accès vSphere Client

Une fois la configuration réseau terminée, accédez à l'interface web :

https://192.168.1.50

Connectez-vous avec l'utilisateur root et le mot de passe défini lors de l'installation. Le certificat SSL est auto-signé : acceptez l'exception de sécurité dans votre navigateur.

Astuce : Vous pouvez également activer SSH depuis le DCUI via Troubleshooting Options > Enable SSH pour un accès en ligne de commande.

2. vSphere Client

2.1 Interface web (Host Client)

Le vSphere Host Client est l'interface web intégrée à chaque hôte ESXi. Accédez-y via https://<IP_ESXi>. Fonctionnalités principales :

  • Création et gestion des VM
  • Gestion du stockage et du réseau
  • Monitoring en temps réel (CPU, RAM, disque, réseau)
  • Gestion des snapshots
  • Accès console VM (VMRC intégré)

2.2 vSphere Client (vCenter)

Si vous disposez d'un vCenter Server, le vSphere Client (HTML5) offre une gestion centralisée de tous les hôtes :

https://<IP_vCenter>/ui

Le vSphere Client vCenter permet en plus : la gestion des clusters, vMotion, DRS, HA, les permissions granulaires, les alarmes avancées et le déploiement de templates.

2.3 VMware Remote Console (VMRC)

Pour un accès console avancé (support USB passthrough, périphériques locaux), installez VMRC :

  • Téléchargez depuis le portail VMware Customer Connect
  • Disponible pour Windows, macOS et Linux
  • Lancé automatiquement depuis le vSphere Client

3. Gestion des machines virtuelles

3.1 Création d'une VM

Via le vSphere Client : Actions > New Virtual Machine. Paramètres clés :

  • Compatibilité : choisir la version hardware (VM version 20 pour ESXi 8.0)
  • Guest OS : sélectionner le système d'exploitation cible
  • CPU : nombre de sockets et cœurs par socket
  • RAM : mémoire allouée (réservation optionnelle)
  • Disque : taille, type (thin/thick provisioning)
  • Réseau : adapter type (VMXNET3 recommandé) et port group
Astuce : Utilisez toujours l'adaptateur réseau VMXNET3 (paravirtualisé) pour de meilleures performances. L'adaptateur E1000e est à réserver pour les OS qui ne supportent pas VMXNET3.

3.2 VMware Tools

Les VMware Tools sont essentiels pour les performances et la gestion des VM :

  • Pilotes paravirtualisés (VMXNET3, PVSCSI)
  • Synchronisation de l'horloge
  • Copier-coller entre hôte et VM
  • Quiescing pour les snapshots cohérents
  • Arrêt propre de la VM depuis vSphere
# Installation VMware Tools sur Linux (via package manager)
apt install open-vm-tools          # Debian/Ubuntu
yum install open-vm-tools          # RHEL/CentOS

# Vérifier le statut
systemctl status vmtoolsd

3.3 Snapshots

Les snapshots capturent l'état d'une VM à un instant T (disque, mémoire, configuration) :

  • Créer : clic droit sur la VM > Snapshots > Take Snapshot
  • Restaurer : Revert to snapshot
  • Supprimer : consolide les fichiers delta dans le disque principal
Attention : Les snapshots ne sont PAS des sauvegardes. Ne gardez jamais un snapshot plus de 24-72h. Les fichiers delta grossissent et dégradent les performances. Utilisez un outil de backup dédié (Veeam, Nakivo, etc.).

3.4 Import/Export OVF/OVA

# Exporter une VM en OVF (via ovftool en ligne de commande)
ovftool vi://root@192.168.1.50/MaVM ./MaVM.ova

# Importer un OVA
ovftool --name="NouvelleVM" ./MaVM.ova vi://root@192.168.1.50

# Exporter avec les options de disque
ovftool --diskMode=thin vi://root@192.168.1.50/MaVM ./MaVM_thin.ova

4. Gestion du stockage

4.1 Types de datastores

TypeDescriptionCas d'usage
VMFSSystème de fichiers VMware sur disque local ou SANUsage général, SAN iSCSI/FC
NFSPartage réseau NFS (v3 ou v4.1)NAS, stockage partagé
vSANStockage distribué hyper-convergéClusters HCI
vVolVirtual Volumes (intégration baie SAN)Baies Dell, NetApp, HPE

4.2 Thin vs Thick Provisioning

  • Thin Provisioning : l'espace disque est alloué à la demande. Un disque de 100 Go n'occupe que l'espace réellement utilisé.
  • Thick Provisioning Lazy Zeroed : l'espace total est réservé mais les blocs sont mis à zéro à la première écriture.
  • Thick Provisioning Eager Zeroed : l'espace total est réservé et mis à zéro immédiatement. Meilleures performances, requis pour FT.

4.3 Datastore VMFS

# Lister les datastores via esxcli
esxcli storage filesystem list

# Créer un datastore VMFS 6 (via ligne de commande)
# D'abord identifier le device
esxcli storage core device list

# Créer la partition et le datastore
partedUtil setptbl /vmfs/devices/disks/naa.xxx gpt \
  "1 2048 0 AA31E02A400F11DB9590000C2911D1B8 0"

4.4 Datastore NFS

# Ajouter un datastore NFS via esxcli
esxcli storage nfs add --host=192.168.1.100 --share=/volume1/vmware --volume-name=NFS_Datastore

# Lister les datastores NFS
esxcli storage nfs list

# Supprimer un datastore NFS
esxcli storage nfs remove --volume-name=NFS_Datastore

4.5 iSCSI

# Activer l'adaptateur iSCSI logiciel
esxcli iscsi software set --enabled=true

# Ajouter une cible iSCSI (discovery)
esxcli iscsi adapter discovery sendtarget add --adapter=vmhba65 --address=192.168.1.200

# Lister les sessions iSCSI actives
esxcli iscsi session list

# Rescan après ajout de LUN
esxcli storage core adapter rescan --adapter=vmhba65
Info : Pour les performances iSCSI, utilisez un VMkernel dédié sur un réseau séparé (VLAN dédié, Jumbo Frames 9000 MTU).

5. Configuration réseau

5.1 vSwitch Standard (vSS)

Un vSwitch standard est un switch virtuel local à l'hôte ESXi :

# Lister les vSwitch
esxcli network vswitch standard list

# Créer un vSwitch
esxcli network vswitch standard add --vswitch-name=vSwitch1

# Ajouter un uplink (NIC physique)
esxcli network vswitch standard uplink add --uplink-name=vmnic1 --vswitch-name=vSwitch1

# Configurer le MTU (Jumbo Frames)
esxcli network vswitch standard set --vswitch-name=vSwitch1 --mtu=9000

5.2 Port Groups

# Créer un port group avec VLAN
esxcli network vswitch standard portgroup add --portgroup-name="VLAN_100" --vswitch-name=vSwitch0

# Assigner un VLAN ID
esxcli network vswitch standard portgroup set --portgroup-name="VLAN_100" --vlan-id=100

# Lister les port groups
esxcli network vswitch standard portgroup list
VLAN IDComportement
0Pas de VLAN tagging (accès natif)
1-4094VLAN spécifique (trunk depuis le switch physique)
4095Mode trunk (la VM gère elle-même le tagging)

5.3 VMkernel Adapters

Les VMkernel adapters sont des interfaces réseau utilisées par ESXi lui-même :

  • Management : administration de l'hôte (vmk0)
  • vMotion : migration live des VM
  • iSCSI / NFS : trafic stockage
  • vSAN : trafic vSAN
  • Fault Tolerance : journalisation FT
# Créer un VMkernel pour vMotion
esxcli network ip interface add --interface-name=vmk1 --portgroup-name="vMotion_PG"
esxcli network ip interface ipv4 set --interface-name=vmk1 --ipv4=10.0.1.50 --netmask=255.255.255.0 --type=static

# Activer vMotion sur vmk1
esxcli network ip interface tag add --interface-name=vmk1 --tagname=VMotion

5.4 NIC Teaming

Le NIC teaming permet la redondance et la répartition de charge réseau :

  • Route based on originating port ID : par défaut, simple
  • Route based on IP hash : répartition par IP (nécessite EtherChannel/LACP côté switch)
  • Route based on source MAC hash : répartition par adresse MAC
  • Explicit failover order : actif/passif

5.5 vSwitch Distribué (VDS)

Un vDistributed Switch (VDS) est géré au niveau vCenter et offre des fonctionnalités avancées :

  • Configuration centralisée pour tous les hôtes
  • LACP support
  • Port mirroring
  • Network I/O Control (NIOC)
  • NetFlow / IPFIX
Astuce : Gardez toujours un vSwitch standard avec un VMkernel de management sur chaque hôte. Si le VDS est mal configuré, vous conservez l'accès à l'hôte.

6. vCenter Server

6.1 Rôle de vCenter

vCenter Server est le composant de gestion centralisée de vSphere. Il permet :

  • Gestion multi-hôtes depuis une interface unique
  • Clusters, Resource Pools, Folders
  • vMotion, Storage vMotion, DRS, HA
  • Permissions et rôles granulaires
  • Alarmes, statistiques, rapports de performance
  • Content Library (templates, ISO)

6.2 Déploiement vCSA (vCenter Server Appliance)

Le vCSA est une appliance Linux préconfigurée déployée en OVA. Tailles recommandées :

TailleHôtesVMvCPURAM
Tiny≤ 10≤ 100214 Go
Small≤ 100≤ 1 000421 Go
Medium≤ 400≤ 4 000830 Go
Large≤ 1 000≤ 10 0001640 Go

6.3 Gestion VAMI

L'interface d'administration de l'appliance vCSA est accessible sur le port 5480 :

https://<IP_vCenter>:5480

Permet de gérer : sauvegardes de la base, certificats, NTP, syslog, mise à jour du vCSA, monitoring système.

6.4 Content Library

La Content Library permet de stocker et distribuer des templates, ISO et scripts :

  • Local library : stockage local sur un datastore
  • Subscribed library : synchronisée depuis une library distante

7. Haute disponibilité (HA)

7.1 Principe

vSphere HA redémarre automatiquement les VM sur d'autres hôtes du cluster en cas de défaillance d'un hôte. Prérequis :

  • Minimum 2 hôtes dans un cluster vCenter
  • Stockage partagé (SAN, NFS, vSAN)
  • Réseau de management commun

7.2 Configuration

Dans vSphere Client : Cluster > Configure > vSphere Availability > Edit

  • Host Monitoring : activer la surveillance des hôtes
  • Admission Control : réserver de la capacité pour le failover (ex: 25% = 1 hôte sur 4)
  • VM Restart Priority : High, Medium, Low, Disabled
  • Host Isolation Response : Power off, Shut down, Leave powered on

7.3 Heartbeat Datastores

HA utilise des datastores comme mécanisme de heartbeat secondaire (en plus du réseau). Au moins 2 heartbeat datastores sont recommandés.

7.4 VM Monitoring

En plus du monitoring des hôtes, HA peut surveiller les VM individuellement via les VMware Tools heartbeats. Si une VM ne répond plus, elle est redémarrée automatiquement.

Attention : L'Admission Control doit toujours être activé. Le désactiver permet de démarrer plus de VM mais supprime la garantie de redémarrage en cas de panne.

8. vMotion et Storage vMotion

8.1 vMotion (Live Migration)

vMotion permet de migrer une VM allumée d'un hôte à un autre sans interruption. Prérequis :

  • Licence vSphere Standard ou supérieure
  • vCenter Server
  • VMkernel vMotion configuré sur chaque hôte (même sous-réseau)
  • Stockage partagé (sauf Cross-vSwitch vMotion)
  • CPU compatibles entre les hôtes (ou EVC activé)

8.2 EVC (Enhanced vMotion Compatibility)

EVC masque les différences de fonctionnalités CPU entre les hôtes d'un cluster pour permettre vMotion :

  • Activé au niveau du cluster
  • Tous les hôtes doivent être du même fabricant (Intel ou AMD)
  • Le niveau EVC est défini sur la génération CPU la plus ancienne du cluster

8.3 Storage vMotion

Storage vMotion migre les fichiers d'une VM d'un datastore à un autre à chaud :

  • Pas besoin de stockage partagé
  • Permet de changer le type de provisioning (thin → thick)
  • Utile pour équilibrer les datastores ou migrer vers un nouveau stockage

8.4 Cross-vCenter vMotion

À partir de vSphere 6.0+, il est possible de migrer des VM entre différents vCenter Server (même domaine SSO ou pas). Cela combine vMotion + Storage vMotion + changement de vCenter.

9. Sauvegardes et restauration

9.1 VADP (vStorage APIs for Data Protection)

VADP est l'API VMware utilisée par les solutions de backup tierces (Veeam, Nakivo, Commvault...) :

  • Backup à chaud via snapshots
  • CBT (Changed Block Tracking) : sauvegarde incrémentale au niveau bloc
  • Pas d'agent nécessaire dans la VM

9.2 Activer CBT

Le CBT doit être activé sur chaque VM pour les sauvegardes incrémentales :

# Via PowerCLI
Get-VM "MaVM" | Get-View | ForEach-Object {
    $spec = New-Object VMware.Vim.VirtualMachineConfigSpec
    $spec.changeTrackingEnabled = $true
    $_.ReconfigVM($spec)
}

# Vérifier le statut CBT
(Get-VM "MaVM").ExtensionData.Config.ChangeTrackingEnabled

9.3 Export OVF / Backup de la configuration ESXi

# Sauvegarder la configuration de l'hôte ESXi
vim-cmd hostsvc/firmware/sync_config
vim-cmd hostsvc/firmware/backup_config
# Le fichier .tgz est disponible via HTTP :
# https://<ESXi_IP>/downloads/configBundle-<hostname>.tgz

# Restaurer la configuration
vim-cmd hostsvc/firmware/restore_config /tmp/configBundle.tgz

9.4 ghettoVCB (outil gratuit)

ghettoVCB est un script shell gratuit pour sauvegarder les VM ESXi sans vCenter :

# Cloner le repo
git clone https://github.com/lamw/ghettoVCB.git

# Copier sur l'ESXi
scp ghettoVCB.sh root@192.168.1.50:/vmfs/volumes/datastore1/

# Lancer une sauvegarde
/vmfs/volumes/datastore1/ghettoVCB.sh -m MaVM -d thin
Astuce : Pour la production, préférez toujours une solution de backup professionnelle (Veeam, Nakivo) qui gère la rotation, la compression, la déduplication et la restauration granulaire.

10. Gestion des ressources

10.1 CPU et RAM

  • Shares : priorité relative entre VM en cas de contention (Low=500, Normal=1000, High=2000)
  • Reservation : quantité minimale garantie (en MHz ou Mo)
  • Limit : quantité maximale utilisable

10.2 Resource Pools

Les Resource Pools regroupent des VM pour appliquer des politiques de ressources collectives :

  • Création : Cluster > clic droit > New Resource Pool
  • Définir Shares, Reservation, Limit pour le pool
  • Les VM dans le pool se partagent les ressources allouées
Attention : N'utilisez pas les Resource Pools comme des dossiers organisationnels. Chaque pool sans réservation peut créer un déséquilibre de ressources entre les VM.

10.3 DRS (Distributed Resource Scheduler)

DRS équilibre automatiquement la charge entre les hôtes d'un cluster :

  • Fully Automated : DRS migre les VM automatiquement
  • Partially Automated : DRS place les VM au démarrage, suggère les migrations
  • Manual : DRS suggère uniquement

Le Migration Threshold (1-5) définit l'agressivité du DRS. 1 = conservateur, 5 = agressif.

10.4 Affinité / Anti-affinité

  • VM-VM Affinity : forcer des VM à rester sur le même hôte (ex: app + base de données)
  • VM-VM Anti-affinity : empêcher des VM d'être sur le même hôte (ex: 2 DC, 2 nœuds cluster)
  • VM-Host rules : forcer/préférer un hôte spécifique

11. Templates et clonage

11.1 Créer un template

  1. Préparer la VM (installer l'OS, les outils, les mises à jour, sysprep si Windows)
  2. Clic droit sur la VM > Template > Convert to Template
  3. La VM devient non-démarrable et apparaît dans l'inventaire Templates

11.2 Déployer depuis un template

Template > clic droit > New VM from this Template. Options :

  • Nom, dossier, cluster/hôte, datastore
  • Customization Spec : personnalise automatiquement (hostname, IP, domaine, SID Windows)

11.3 Clonage de VM

# Via PowerCLI - Clone une VM
New-VM -Name "VM-Clone" -VM "VM-Source" -VMHost "esxi01.local" -Datastore "datastore1"

# Clone avec customization spec
$spec = Get-OSCustomizationSpec "Linux_Spec"
New-VM -Name "VM-Clone" -VM "VM-Source" -VMHost "esxi01.local" -OSCustomizationSpec $spec

11.4 Instant Clone

L'Instant Clone crée une copie d'une VM en cours d'exécution en quelques secondes (partage de mémoire et disque). Utilisé principalement pour les environnements VDI (Horizon).

12. Mise à jour et patches

12.1 vSphere Lifecycle Manager (vLCM)

vLCM (anciennement Update Manager) gère les mises à jour des hôtes ESXi depuis vCenter :

  • Baselines : définir les patches/versions à appliquer
  • Images : définir une image ESXi complète (nouveau mode vLCM)
  • Remediate : appliquer les mises à jour (met l'hôte en maintenance mode automatiquement)

12.2 Mise à jour via esxcli (hôte standalone)

# Télécharger le bundle ZIP du patch depuis VMware

# Copier sur un datastore
scp VMware-ESXi-8.0U2-*.zip root@192.168.1.50:/vmfs/volumes/datastore1/

# Mettre l'hôte en maintenance mode
esxcli system maintenanceMode set --enable=true

# Lister les profils disponibles dans le bundle
esxcli software sources profile list --depot=/vmfs/volumes/datastore1/VMware-ESXi-8.0U2-*.zip

# Appliquer le patch
esxcli software profile update --depot=/vmfs/volumes/datastore1/VMware-ESXi-8.0U2-*.zip --profile=ESXi-8.0U2-standard

# Reboot
reboot

12.3 Mise à jour en ligne

# Mettre à jour depuis le dépôt VMware en ligne
esxcli network firewall ruleset set -e true -r httpClient
esxcli software profile update --depot=https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml --profile=ESXi-8.0U2-standard
Attention : Toujours sauvegarder la configuration de l'hôte avant une mise à jour. Vérifiez la compatibilité des pilotes matériels avec la nouvelle version sur la HCL VMware.

13. Monitoring et logs

13.1 esxtop

esxtop est l'outil de monitoring en temps réel intégré à ESXi (similaire à top sur Linux) :

# Lancer esxtop (via SSH)
esxtop

# Raccourcis clavier dans esxtop :
# c = CPU
# m = Mémoire
# n = Réseau
# d = Disque
# v = VM
# q = Quitter

13.2 Indicateurs clés

MétriqueDescriptionSeuil d'alerte
%READYTemps d'attente CPU (contention)> 10% = problème
%CSTPCo-stop (SMP VM)> 3% = réduire les vCPU
SWCURSwap mémoire actif> 0 = manque de RAM
KAVGLatence disque kernel (ms)> 2ms = problème stockage
DAVGLatence disque device (ms)> 25ms = problème SAN/disque
%DRPTX/%DRPRXPaquets réseau perdus> 0 = problème réseau

13.3 Fichiers de logs

FichierDescription
/var/log/vmkernel.logMessages du noyau VMkernel (stockage, réseau, drivers)
/var/log/hostd.logAgent de gestion de l'hôte (API, opérations VM)
/var/log/vpxa.logAgent vCenter sur l'hôte
/var/log/vobd.logÉvénements et alarmes VMware
/var/log/fdm.logLogs vSphere HA (Fault Domain Manager)
/var/log/shell.logHistorique des commandes shell/SSH

13.4 Syslog distant

# Configurer l'envoi des logs vers un syslog distant
esxcli system syslog config set --loghost=udp://192.168.1.200:514

# Recharger la configuration syslog
esxcli system syslog reload

# Vérifier la configuration
esxcli system syslog config get

13.5 Alarmes vCenter

vCenter permet de créer des alarmes personnalisées avec actions automatiques (email, SNMP, script) :

  • CPU host > 90% pendant 5 min
  • Datastore free space < 15%
  • VM CPU Ready > 10%
  • Host connection lost

14. Sécurité

14.1 Lockdown Mode

Le Lockdown Mode restreint l'accès direct à l'hôte ESXi. Toutes les opérations passent par vCenter :

  • Normal : seul vCenter et les utilisateurs exception peuvent se connecter
  • Strict : même le DCUI est verrouillé (accès physique uniquement pour le désactiver)
# Activer le lockdown mode via esxcli
vim-cmd vimsvc/auth/lockdown_mode_enter

# Désactiver
vim-cmd vimsvc/auth/lockdown_mode_exit

14.2 Firewall ESXi

# Lister les règles de firewall
esxcli network firewall ruleset list

# Activer/Désactiver une règle
esxcli network firewall ruleset set --enabled=true --ruleset-id=sshServer
esxcli network firewall ruleset set --enabled=false --ruleset-id=sshServer

# Restreindre par IP
esxcli network firewall ruleset allowedip add --ruleset-id=sshServer --ip-address=192.168.1.0/24

# Vérifier le statut du firewall
esxcli network firewall get

14.3 SSH

# Activer/Désactiver SSH
vim-cmd hostsvc/enable_ssh
vim-cmd hostsvc/disable_ssh

# Ou via esxcli
/etc/init.d/SSH start
/etc/init.d/SSH stop

# Définir le timeout SSH (en secondes, 0 = pas de timeout)
esxcli system settings advanced set -o /UserVars/ESXiShellInteractiveTimeOut -i 900
Astuce : En production, désactivez SSH et ne l'activez que pour le dépannage. Configurez une alarme vCenter pour être notifié quand SSH est activé.

14.4 Certificats

ESXi et vCenter utilisent des certificats auto-signés par défaut. vCenter intègre un VMware Certificate Authority (VMCA) qui peut être configuré en mode :

  • VMCA comme CA racine (par défaut)
  • VMCA comme CA intermédiaire (subordonné à votre CA d'entreprise)
  • Certificats personnalisés (remplacement complet)

14.5 Rôles et permissions

vCenter offre un modèle RBAC (Role-Based Access Control) :

RôleDescription
AdministratorTous les privilèges
Read-OnlyConsultation uniquement
VM Power UserGestion VM (création, modification, alimentation)
VM UserInteraction VM (console, alimentation)
No AccessAucun accès

15. Dépannage

15.1 Purple Screen of Death (PSOD)

Un PSOD est un crash complet de l'hôte ESXi :

  • Vérifier le matériel (RAM, CPU, carte réseau)
  • Vérifier les drivers (HCL VMware)
  • Analyser le core dump : /var/core/
  • Ouvrir un ticket VMware Support avec le fichier de diagnostic
# Générer un bundle de support (diagnostic)
vm-support
# Le fichier .tgz est généré dans /var/tmp/

15.2 VM inaccessible / Invalid

# Lister les VM et leur statut
vim-cmd vmsvc/getallvms

# Si une VM est "invalid", la re-enregistrer
vim-cmd solo/registervm /vmfs/volumes/datastore1/MaVM/MaVM.vmx

# Forcer l'arrêt d'une VM bloquée
# Trouver le World ID
esxcli vm process list
# Forcer l'arrêt
esxcli vm process kill --type=force --world-id=12345

15.3 Problèmes de stockage

# Vérifier l'état des devices SCSI
esxcli storage core device list

# Vérifier les chemins multipath
esxcli storage core path list

# Rescan des adaptateurs
esxcli storage core adapter rescan --all

# Vérifier l'espace datastore
esxcli storage filesystem list

# Supprimer un fichier verrouillé (attention !)
vmkfstools -D /vmfs/volumes/datastore1/MaVM/MaVM-flat.vmdk

15.4 Problèmes réseau

# Tester la connectivité
vmkping 192.168.1.1
vmkping -I vmk1 10.0.1.1    # Ping depuis un VMkernel spécifique

# Vérifier les interfaces
esxcli network ip interface list
esxcli network nic list

# Capturer du trafic réseau
pktcap-uw --uplink vmnic0 --dir 0 -o /tmp/capture.pcap    # RX
pktcap-uw --uplink vmnic0 --dir 1 -o /tmp/capture_tx.pcap  # TX

# Vérifier les CDP/LLDP (info du switch physique)
esxcli network vswitch standard portgroup get

15.5 Commandes de diagnostic essentielles

# Informations système
esxcli system version get              # Version ESXi
esxcli system hostname get             # Hostname
esxcli hardware cpu global get         # CPU
esxcli hardware memory get             # RAM
esxcli system time get                 # Heure système

# Services
/etc/init.d/hostd restart              # Redémarrer hostd
/etc/init.d/vpxa restart               # Redémarrer l'agent vCenter
services.sh restart                    # Redémarrer tous les services

# NTP
esxcli system ntp get
esxcli system ntp set --server=0.pool.ntp.org --server=1.pool.ntp.org
esxcli system ntp set --enabled=true
Astuce : Avant toute opération de dépannage majeure, exportez un vm-support bundle et sauvegardez la configuration de l'hôte. Cela facilite la restauration et l'analyse post-incident.