Alors que les upgrades AHV sont habituellement beaucoup plus calmes que les upgrades ESXi sur la plateforme Nutanix, je me retrouve ce matin avec une mise à jour figée vers 5.5.2. Les détails de tâches indiquent que l’opération est en cours, mais elle traîne vraiment depuis un long moment.

Le détail de la tâche en cours correspond à la mise en maintenance de l’hôte afin de déplacer les VMs qu’il héberge pour le redémarrer sans impact :

En vérifiant l’état des hôtes sur le cluster, je m’aperçois qu’il y a bien un nœud en maintenance (schedulable à False), mais ce n’est pas celui dont la mise à jour est en cours. Je le sort de maintenance, puis je rajoute celui qui est censé y être.

acli
host.list
host.exit_maintenance_mode fqdn.server
host.list #verifier l'etat de l'hôte
host.enter_maintenance_mode fqdn.server

Après cette opération, les VMs ont été déplacés automatiquement à chaud et le nœud AHV est passé en maintenance, ce qui a débloqué le reste du processus de patching.

Les nouveaux nœuds Nutanix ont été réceptionnés. Ils sont maintenant rackés, câblés en datacenter, prêts à être ajoutés aux clusters existants.

Afin de réaliser l’opération d’installation, le réseau est configuré en « access » sur le même VLAN que mes autres CVM. Je modifierai la configuration après l’ajout du noeud.

Autre prérequis l’iDrac (oui, ce sont des serveurs Dell) est sur le même plan d’adressage que les autres IPMI, déjà en place dans le cluster.

J’ai déjà eu le problème avec un iDrac sur un autre VLAN et on obtient une erreur : « Failed to perform network validation ! »

Je prépare mes adresses IP et je suis enfin prêt pour l’Expand Cluster.

Comme le réseau est correctement configuré, le nouveau nœud est disponible.

Je renseigne les champs pour les adresses IP qui permettent aisément la configuration de plusieurs nœuds à la fois, si les adresses se suivent.

Concernant la détection automatique des masques de sous-réseau, je pense qu’il y a un souci comme vous pouvez le voir sur la capture. Ils ne sont jamais corrects, mais l’installation se poursuit sans encombre.

La deuxième étape consiste à ré-imager l’hôte avec le même hyperviseur que les autres membres du cluster, dans mon cas ESXi.

Ici, on constate que la version n’est pas tout à fait la même. Je procéderai avec VMware Update Manager pour l’application des derniers correctifs et venir au même niveau que le cluster. Je procède à la phase de vérification en cliquant sur « Run Checks ».

 

 

SI la vérification est concluante…

 

…il est temps de cliquer sur « Expend Cluster ».

 

L’opération est assez longue, elle contient une multitude de sous-tâches.

L’ajout du nœud a pris une heure et s’est terminé correctement. Il me reste maintenant à configurer l’hyperviseur et le cluster profitera rapidement d’une ressource supplémentaire pour repartir la charge.

Encore une fonctionnalité de Prism très pratique. L’important est de bien respecter les prérequis et l’extension du cluster sera réalisée en quelques clics seulement.

Dans la série « One Click » sur Nutanix, je vais tester aujourd’hui l’extension de RAM des CVM.

Je n’avais jamais eu l’opportunité de tester cette option relativement récente de Prism « Configure CVM » :

Un menu déroulant permet de choisir la quantité de RAM allouée aux CVM :

Une fois la sélection effectuée, toutes les CVM impactées sont listées :

On valide en cliquant sur « Apply », puis un dernier avertissement nous prévient que Prism pourrait être temporairement indisponible :

On valide sur « Yes », puis l’opération débute :

La tâche se déroule avec succès, sans encombre…

Les CVM sont maintenant à 32GB de RAM.

Encore une option qui simplifie la vie. Je vais bientôt recevoir de nouveau nœud donc prochainement « OneClick ExpandCluster ».