Hi, ich habe gerade gemerkt, dass meine aktuelle Cluster Konfiguration noch diverse Schwächen hat:
Das funktioniert bisher ganz gut. Nur wenn jetzt Domains dazu kommen (KVM), dann starten die VMs nicht wenn die Gruppe g_storage auf _beiden_ Knoten hoch kommt. Ist also zB ein Knoten nicht da (weil zB kaputt) kommen die VMs garnicht.
Meine Vorstellung wäre, dass die VMs zeitlich gesehen nach dem Storage starten, aber dann halt einfach dort, wo der Storage Stack wirklich funktioniert - egal wo das ist.
Wie kann ich das umsetzen? Zwischen Order, Collocation, Location und anderen Objekten sehe ich den Wald nicht mehr
Grüße
serow
Code:
node kvm00
node kvm01
property expected-quorum-votes="2"
property stonith-enabled="false"
property no-quorum-policy="ignore"
property cluster-infrastructure="corosync"
rsc_defaults resource-stickiness="100"
op_defaults interval="0"
primitive p_openiscsi lsb:open-iscsi \
op monitor interval="120" timeout="30"
primitive p_iscsi ocf:heartbeat:iscsi \
params portal="172.16.20.20:3260" target="iqn.2004-04.com.qnap:ts-421u:iscsi.qnap00.d66cae" \
op monitor interval="120" timeout="30" depth="0"
primitive p_dlm_controld ocf:pacemaker:controld \
params daemon="dlm_controld.pcmk" \
op start interval="0" timeout="90" \
op stop interval="0" timeout="100" \
op monitor interval="10"
primitive p_gfs_controld ocf:pacemaker:controld \
params daemon="gfs_controld.pcmk" \
op start interval="0" timeout="90" \
op stop interval="0" timeout="100" \
op monitor interval="10"
primitive p_clvm ocf:lvm2:clvmd \
params daemon_timeout="30" daemon_options="-I corosync" \
op monitor interval="60" timeout="30" \
op start interval="0" timeout="90" \
op stop interval="0" timeout="100"
primitive p_vg0 ocf:heartbeat:LVM \
params volgrpname="vg0" \
op monitor interval="60" timeout="60"
primitive p_shared_gfs2 ocf:heartbeat:Filesystem \
params device="/dev/vg0/shared-gfs2" directory="/shared00" fstype="gfs2" \
op monitor interval="120s" \
meta target-role="Started"
primitive p_libvirt lsb:libvirt-bin \
op monitor interval="120" timeout="30"
group g_storage p_openiscsi p_iscsi p_dlm_controld p_gfs_controld p_clvm p_vg0 p_shared_gfs2 p_libvirt
clone c_storage g_storage \
params cluster-node-max="1" \
meta target-role="Started"
Das funktioniert bisher ganz gut. Nur wenn jetzt Domains dazu kommen (KVM), dann starten die VMs nicht wenn die Gruppe g_storage auf _beiden_ Knoten hoch kommt. Ist also zB ein Knoten nicht da (weil zB kaputt) kommen die VMs garnicht.
Code:
primitive p_vm_test1 ocf:heartbeat:VirtualDomain \
params \
config="/shared00/test1.xml" \
hypervisor="qemu:///system" \
meta allow-migrate="true" \
op start timeout="120s" \
op stop timeout="120s" \
op monitor depth="0" timeout="30" interval="10"
group g_vm p_vm_test1
order storage-before-vms inf: g_storage p_vm
Meine Vorstellung wäre, dass die VMs zeitlich gesehen nach dem Storage starten, aber dann halt einfach dort, wo der Storage Stack wirklich funktioniert - egal wo das ist.
Wie kann ich das umsetzen? Zwischen Order, Collocation, Location und anderen Objekten sehe ich den Wald nicht mehr
Grüße
serow