29. list list RA for a class (and provider) ##查看指定类型(或提供商)的RA
30. meta,info show meta data for a RA ##查看RA详细信息
31. providers show providers for a RA and a class ##查看指定资源的提供商和类型
32. help,? show help (help topics for list of topics)
33. end,cd,up go back one level
34. quit,bye,exit exit the program
35.crm(live)ra# cd
36.crm(live)# status //查看集群状态
2.stonith参数的调整
禁用stonith功能,corosync默认是启用stonith功能的,没有stonith设备,若直接去配置资源的话,verif会报错,无法commit。
1.[root@node1 corosync]# crm configure #进入crm命令行模式配置资源等
2.crm(live)configure# property #切换到property目录下,可以用两次tab键进行补全和查看
3.usage: property [$id=<set_id>] <option>=<value> # property的用法和格式
4.crm(live)configure# property stonith-enabled=false #禁用stonith-enabled
5.crm(live)configure# verify #检查设置的属性是否正确
6.crm(live)configure# commit #提交
7.crm(live)configure# show #查看当前集群的所有配置信息
3.配置web集群
a).定义VIP
1.crm(live)configure# primitive webip ocf:heartbeat:IPaddr params ip=172.18.109.238
2.crm(live)configure# verify
3.crm(live)configure# commit
4.crm(live)configure# cd
5.crm(live)# status
验证
1.[root@node1 ~]# ifconfig
2.发现:eth0:0有IP172.18.109.238,如果没有eth0:0,可以用ip a命令查看vip是否生效。
转移资源
而后我们到node2上通过如下命令停止node1上的corosync服务:
# ssh node1 '/etc/init.d/corosync stop'
查看集群工作状态:
# crm status
============
Last updated: Tue Jun 14 19:37:23 2011
Stack: openais
Current DC:node2.test.com - partition WITHOUT quorum
Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87
2 Nodes configured, 2 expected votes
1 Resources configured.
============
Online: [node2.test.com ]
OFFLINE: [node1.test.com ]
上面的信息显示node1.test.com已经离线,但资源WebIP却没能在node2.test.com上启动。这是因为此时的集群状态为"WITHOUT quorum",即已经失去了quorum,此时集群服务本身已经不满足正常运行的条件,这对于只有两节点的集群来讲是不合理的。因此,我们可以通过如下的命令来修改忽略quorum不能满足的集群状态检查:
# crm configure property no-quorum-policy=ignore
片刻之后,集群就会在目前仍在运行中的节点node2上启动此资源了,如下所示:
# crm status
============
Last updated: Tue Jun 14 19:43:42 2011
Stack: openais
Current DC:node2.test.com - partition WITHOUT quorum
Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87
2 Nodes configured, 2 expected votes
1 Resources configured.
============
Online: [node2.test.com ]
OFFLINE: [node1.test.com ]
WebIP (ocf::heartbeat:IPaddr): Startednode2.test.com
好了,验正完成后,我们正常启动node1.test.com:
# ssh node1 -- /etc/init.d/corosync start
正常启动node1.test.com后,集群资源WebIP很可能会重新从node2.test.com转移回node1.test.com。资源的这种在节点间每一次的来回流动都会造成那段时间内其无法正常被访问,所以,我们有时候需要在资源因为节点故障转移到其它节点后,即便原来的节点恢复正常也禁止资源再次流转回来。这可以通过定义资源的黏性(stickiness)来实现。在创建资源时或在创建资源后,都可以指定指定资源黏性。
(责任编辑:liangzh) |