Si comme moi vous avez des appliances ZIA Virtual Service Edges à déployer sur des clusters VMware, vous aurez peut être un paramètre bien particulier à configurer pour éviter de recevoir les paquets réseau en double lorsque vous avez plusieurs interfaces physique sur votre vSwitch mais pas de LCAP pour le teaming.

Cette problématique est décrite dans la kb : Duplicate Multicast or Broadcast Packets are Received by a Virtual Machine When the Interface is Operating in Promiscuous Mode (59235) (vmware.com)

et dans la doc zscaler : Zscaler Help

Pour configurer la valeur

Get-VMHost votrenomESXici | Set-VMHostAdvancedConfiguration -Name "Net.ReversePathFwdCheckPromisc" -Value 1

Pour vérifier la valeur

Get-VMHost votrenomESXici | Get-VMHostAdvancedConfiguration -Name "Net.ReversePathFwdCheckPromisc"

Pour faire la modification sur tout un cluster par exemple

Get-Cluster votrenomCluster | Get-VMHost |Get-VMHostAdvancedConfiguration -Name "Net.ReversePathFwdCheckPromisc"

Après une installation des plus classiques, j’avais besoin de personnaliser les certificats d’un nouveau vCenter.

Après avoir lancé certificate-manager la procédure s’arrêtait sur le message : Certificate Manager tool do not support vCenter HA systems

Je n’utilise pas vCenter HA donc j’étais très surpris du message, mais après une rapide recherche un post sur le forum VMware m’a apporté la solution -> Cert Manager Tool Not Working / VCSA Web UI Not Ac… – VMware Technology Network VMTN

Je n’ai eu qu’a créer le répertoire manquant avec mkdir /var/tmp/vmware et l’opération se poursuit sans erreur.

Post-install

CVM

  • Ajout vlan tag : change_cvm_vlan 50
  • enlever vlan tag : change_cvm_vlan 0
  • change rf d’un container : ncli container edit rf=3 name=container_name
  • check du br0 : allssh manage_ovs show_uplinks
  • 10G uniquement dans le br0 : allssh manage_ovs --interfaces 10g update_uplinks
  • ncli cluster set-timezone timezone=Europe/Paris
  • cluster -s 192.168.0.110,192.168.0. 111,192.168.0.112 create
  • /etc/sysconfig/network-scripts/ifcfg-eth0

AHV

  • Changer le vlan d’AHV: ovs-vsctl set port br0 tag=50
  • retirer le vlan: ovs-vsctl set port br0 tag=0
  • chemin des fichiers conf réseaux : /etc/sysconfig/network-scripts/ifcfg-br0 puis Sudo systemctl restart network.service
  • Renommage AHV : /etc/sysconfig/network et /etc/hostname puis reboot du noeud
  • acli vm.list power_state=on
  • acli vm.shutdown
  • acli vm.off
  • Changement de vlan pour VM : acli vm.nic_get VMNAME -> acli vm.nic_update VMNAME MACADDRESS network=NETWORKDESTINATION
  • éteindre AFS : afs > infra.stop * puis infra.start *
  • changement d’interface active : ovs-appctl bond/set-active-passive br0-up eth3
  • Fallback vers active-backup : ovs-vsctl set port br0-up other_config:lacp-fallback- ab=true
  • En fonction du switch OVS LACP timer : ovs-vsctl set port br0-up other_config:lacp-time=fast
  • ncli cluster set-timezone timezone=Europe/Paris
  • ovs-vsctl show
  • ethtool eth0
  • ifup eth0 – ifdown eth0

ESX

  • Création portgroup : esxcli network vswitch standard portgroup add --portgroup-name=VM_VLAN_50 --vswitch-name=vSwitch0
  • Changement vlan portgroup : esxcfg-vswitch -p « VM_VLAN_50 » -v 50 vSwitch0
  • Assigner VM : Get-VM toto| Get-NetworkAdapter | Set-NetworkAdapter -StartConnected $true -NetworkName « $DRNetWorkLabel » -Confirm:$false -RunAsync

Prism Central

  • Application Deployement Error -> cluster --cluster_function_list="multicluster" -s [ip_address_PrismCentralVM] create
  • Reset Admin password : ncli user reset-password user-name="admin" password="Enter_New_Password" (c’est étrange mais parfois un peu long a prendre en compte)
  • add DNS parfois manuel obligatoire ncli cluster add-to-name-servers servers="192.168.0.50"
  • allssh sudo faillock --user admin --reset
  • ncli cluster set-timezone timezone=Europe/Paris

Diagnostique

CVM

  • passer une commande sur toutes les CVM : allssh
  • passer une commande sur tous les hôtes depuis une cvm : hostssh
  • verifier le vlan des cvm : hostssh « ovs-vsctl show | grep vnet[0-1] -A2 »
  • cluster status | grep -v UP
  • ncli -v
  • nodetool -h 0 ring
  • ncli cluster get-domain-fault-tolerance-status type=node
  • allssh df -h
  • Verif latence entre les CVMs : tailf ~nutanix/data/logs/sysstats/ping_cvm_hosts.INFO
  • connexion à l’hôte depuis la CVM : ssh [email protected]
  • hostssh ipmitool lan print | grep « ==\|IP Address\|MAC Address »
  • conf matériel : ncc hardware_info show_hardware_info

AHV

  • Change Buffer RX size AHV : si ethtool -S eth0 | grep -i error donne des rx_missed_errors ethtool -g eth0, voir le max possible puis ethtool -G eth0 rx 4096 ce n’est plus la recommandation du support
  • pb de disque : df -h voir cd data/logs tail hades.out voir cat hades.out | grep -C enfin restart hades pour voir le nouveau disque
  • verif latence entre les hotes : tailf ~nutanix/data/logs/sysstats/ping_hosts.INFO
  • connexion à la CVM depuis l’hôte ssh [email protected]
  • virsh list – virsh start
  • conf dhcp iDrac : ipmitool lan set 1 ipsrc dhcp
  • reset impi : ipmitool mc reset cold

LCM

  • url par defaut : http://download.nutanix.com/lcm/2.0

cmd > tasklist
cmd > netstat -nabo
cmd > netstat -nabo | findstr PID

cmd > tasklist | findstr 2308

source : https://www3.trustwave.com/support/kb/article.aspx?id=12702

 

 

test TCP :

netcat -zv IP PORT

 

test UDP:

netcat -u HOST PORT