1,在一个节点格式化这个lv做成gfs2格式,另一个节点partx -a /dev/webdata/webdata_gfs刷新就可以了
--我这是在node1上做格式化,然后node2上只做下partx -a /dev/webdata/webdata_gfs就行(最好是做一下)
# mkfs.gfs2 -p lock_dlm -t web_ha:webdata_gfs -j 2 /dev/webdata/webdata_gfs
--指定锁为dlm,-t后接 集群名:设备名 -j 2是指定两个节点
--集群名是/etc/cluster/cluster.conf里最早创建集群时的名字;我这里昨天创建时的名字为web_ha,和我现在对应
--设备名可以任取,我这里设备名取成webdata_gfs和lvm的设备名一致
This will destroy any data on /dev/webdata/webdata_gfs.
It appears to contain: symbolic link to `../dm-0'
Are you sure you want to proceed? [y/n] y --输入y确认
第六步:
1,回到conga集群的图形配置界面,点resource再点add,选择gfs2资源名
name : 随便取
mount point : 挂载点就是你的httpd的家目录,我这里是默认的/var/www/html
device : 设备名 就是格式化了gfs2的lvm设备名,我这里是/dev/webdata/webdata_gfs
force umount: 表示资源切换到其它机器,会自动umount。这里可勾可不勾
填完后,提交
--见图rhcs14.png
有仲裁磁盘RHCS集群的工作机制:
三节点:一人1票,挂掉2个,还有1票,1<3/2,所以整个集群挂掉;
我们可以加一个qdisk让它也投2票,那么总票数为5票,挂2个节点,还有3票,3>5/2,所有可以保证集群继续正常运行
node1 node2 node3 qdisk
状态 X X
票数 1 1 1 2
四节点:一人1票,挂掉3个,还有1票,1<4/2,所以整个集群挂掉
我们可以加一个qdisk让它也投3票,那么总票数为7票,挂3个节点,还有4票,4>7/2,所有可以保证集群继续正常运行
node1 node2 node3 node4 qdisk
状态 X X X
票数 1 1 1 1 3
五节点:一人1票,挂掉4个,还有1票,1<5/2,所以整个集群挂掉
我们可以加一个qdisk让它也投4票,那么总票数为9票,挂4个节点,还有5票,5>9/2,所有可以保证集群继续正常运行
node1 node2 node3 node4 node5 qdisk
状态 X X X X
票数 1 1 1 1 1 4
接着上面成功的双节点架构,尝试一下仲裁磁盘的配置
前面有一个10M大小的磁盘还一直没有使用
1,在其中一个node节点上格式化qdisk
# mkqdisk -c /dev/iscsi/rhcs-cluster\:qdisk/part -l qdisk
mkqdisk v3.0.12.1
Writing new quorum disk label 'qdisk' to /dev/iscsi/rhcs-cluster:qdisk/part.
WARNING: About to destroy all data on /dev/iscsi/rhcs-cluster:qdisk/part; proceed [N/y] ? y
Initializing status block for node 1...
Initializing status block for node 2...
Initializing status block for node 3...
Initializing status block for node 4...
Initializing status block for node 5...
Initializing status block for node 6...
Initializing status block for node 7...
Initializing status block for node 8...
Initializing status block for node 9...
Initializing status block for node 10...
Initializing status block for node 11...
Initializing status block for node 12...
Initializing status block for node 13...
Initializing status block for node 14...
Initializing status block for node 15...
Initializing status block for node 16...
Member Status: Quorate
Member Name ID Status
------ ---- ---- ------
node1.cluster.com 1 Offline
node2.cluster.com 2 Online, Local, rgmanager
node3.cluster.com 3 Offline
/dev/block/8:16 0 Online, Quorum Disk
Service Name Owner (Last) State
------- ---- ----- ------ -----
service:apache_service node2.cluster.com started
service:mysql_service node2.cluster.com started