环境:redhat6.5
节点: 172.25.12.4 server4 luci ricci (既是server 又是client)
172.25.12.5 server5 ricci ( client )
yum源配置
(所有节点都要写成如下配置,我的yum源地址是 172.25.12.250/rhel6.5 )
[root@server4 ~]# cat /etc/yum.repos.d/rhel-source.repo
[Server]
name=Red Hat Enterprise Linux $releasever - $basearch - Source
baseurl=http://172.25.12.250/rhel6.5/Server
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release[HighAvailability]
name=HighAvailability
baseurl=http://172.25.12.250/rhel6.5/HighAvailability
gpgcheck=0[LoadBalancer]
name=LoadBalancer
baseurl=http://172.25.12.250/rhel6.5/LoadBalancer
gpgcheck=0[ResilientStorage]
name=ResilientStorage
baseurl=http://172.25.12.250/rhel6.5/ResilientStorage
gpgcheck=0[ScalableFileSystem]
name=ScalableFileSystem
baseurl=http://172.25.12.250/rhel6.5/ScalableFileSystem
gpgcheck=0
所有的节点都要有域名解析(这块没有配置dns,所以就直接把解析加在了本地 /etc/hosts 下)
配置server4:
yum install luci ricci -y
chkconfig ricci on ##开机自启
chkconfig luci on
/etc/init.d/ricci start
/etc/init.d/luci start
passwd ricci ##设置server4的ricci密码
配置server5:
安装ricci:
yum install ricci -y
设置开机自启:
chkconfig ricci on
启动服务:
/etc/init.d/ricci start
设置server5的ricci密码
passwd ricci
检测:
在浏览器里输入 https://172.25.12.4:8084 (服务端ip ,即装有luci的机器ip),登陆用的是那台机器的超户,luci开放8084端口
添加安全证书
选择Manage Clusters,之后点击Create创建集群
建立集群,添加节点.
在结点上执行clustat 就能够查看集群信息.
集群建好之后,会在各个节点建立 /etc/cluster 目录,以及相关配置文件
物理机配置:
安装fence及相关模块:
yum install -y fence-virtd-libvirt.x86_64 fence-virtd-multicast.x86_64 fence-virtd.x86_64
fence是跳电机制,为防止发生脑裂,采用跳电机制
配置fence:
fence_virtd -c
Module search path [/usr/lib64/fence-virt]:
Listener module [multicast]:
Multicast IP Address [225.0.0.12]:
Multicast IP Port [1229]:
Interface [br0]:
Key File [/etc/cluster/fence_xvm.key]:
Backend module [libvirt]:
Replace /etc/fence_virt.conf with the above [y/N]? y
mkdir /etc/cluster/
cd /etc/cluster/用随机数生成key:
dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=128 count=1将生成的key发放到各个节点:
scp fence_xvm.key root@172.25.12.5:/etc/cluster/
scp fence_xvm.key root@172.25.12.4:/etc/cluster/启动fence:
systemctl start fence_virtd.service fence占用的是1229端口:
netstat -anulp | grep :1229
之后配置:
在集群添加fence设备:
在各个节点添加fence方法:
failover配置:
resources配置:
vip:
apache自动启动:
配置组:
测试:
各个节点要安装httpd服务,但是不用启动,设置了脚本自动启动
在浏览器里输入先前创立的vip (172.25.12.100),这个ip是整个网段里没有人用的
会登陆上去
在结点上使用 clustat 查看集群信息,就能看到设置的 apache配置组 在哪个结点上运行
在那个结点上使用 ip addr show 就能看到 vip 就在这个机器上
当这台机器被 down 掉之后,服务会自动转移到其他节点自动工作,这就是高可用
注意:
先启动cman 再启动资源组 rgmanager关闭时先关闭资源组 再关闭cman
clustat 查看集群状态
所有集群结点上配置文件完全一致 要重新加入节点 就把配置文件删掉 其他不变
集群所能忍受最大坏掉的节点数 (n-1)/2 这样整个系统才不会崩溃