LVS+DR模式集群配置

单网络模式的DR工作模式

LVS+DR模式集群配置

LVS+DR模式集群配置

一些会用到的命令

LVS+DR模式集群配置


网络环境配置

CIP:
/etc/sysconfig/network-scripts/ifcfg-eth0
service network restart
LVS+DR模式集群配置

路由器
eth0:
LVS+DR模式集群配置

新生成一张网卡 eth1

LVS+DR模式集群配置

LVS+DR模式集群配置

service NetworkManager restart

发现出现 eth2

LVS+DR模式集群配置
LVS+DR模式集群配置

删除第一张eth1 eth2改为eth1 ,reboot
LVS+DR模式集群配置

开启核心转发功能

LVS+DR模式集群配置

sysctl -p生效
LVS+DR模式集群配置

LVS:
LVS+DR模式集群配置
service network restart

LVS+DR模式集群配置

测试lvs ping cip

LVS+DR模式集群配置

客户端往里ping

LVS+DR模式集群配置

配RS1 192.168.30.17
LVS+DR模式集群配置
LVS+DR模式集群配置

配RS1 192.168.30.27

LVS+DR模式集群配置

LVS+DR模式集群配置

配置完毕 ,客户端ping RS

LVS+DR模式集群配置
网络配置服务完毕


配置lvs-dr模式

LVS+DR模式集群配置

在两台RS 上配置虚拟ip
LVS+DR模式集群配置
由于我们在回环网卡上绑定虚拟ip
LVS+DR模式集群配置

绑定虚拟ip

LVS+DR模式集群配置

查看

LVS+DR模式集群配置


到lvs上配置调度规则
先安装ipvsadm工具
yum install ipvsadm
-r rr轮询
不支持端口映射
-g DR模式 默认 -m nat模式

LVS+DR模式集群配置

完成 即可测试

到17和27上做抓包测试
LVS+DR模式集群配置
当客户端访问虚拟ip时,可看到RS上已收到包

LVS+DR模式集群配置

但是客户端这边无响应

先在27上测试
检查,先删除绑定的虚拟ip

LVS+DR模式集群配置

绑定到eth0上试一试
LVS+DR模式集群配置

绑定到了eth0网卡上,所以之前的地址冲突问题重新解决下,开始加了 all参数,这里应该也可不配置

LVS+DR模式集群配置

增加一个DIP
将LVS上的eth0由原来虚拟ip的地址更改为DIP 192.168.30.100

LVS+DR模式集群配置

systenctl network restart 地址生效

然后再到上面绑定一个VIP,相当于一张网卡上有了两个ip地址

LVS+DR模式集群配置

LVS+DR模式集群配置

原因是因为开始少配了一个DIP
后端RS绑定虚拟IP绑定到回环网卡和eth0上都没有问题

现在讨论要不要在LVS上配置网关的问题,假设删掉该网关,发现客户端访问就停了,网关还是要配置
LVS+DR模式集群配置

另外,虚拟ip还是绑定到回环网卡上比较好

LVS+DR模式集群配置

还有一个结论是lvs的网关必须配置,但是可以随便配,只要在一个网段内即可

LVS+DR模式集群配置

重启后vip消失,重新加上

LVS+DR模式集群配置


添加ip的方法

  1. 临时生效的方法
    为网卡添加/删除多个IP地址
    sudo ip address add 192.168.1.254/24 dev eth0
    sudo ip address del 192.168.1.254/24 dev eth0
    2.永久生效的方法
    修改/etc/network/interfaces文件
    为本地连接网卡添加一个静态的IP地址
    iface eth0 inet static
    address 192.168.1.254/24
    重启网卡
    sudo ifdown eth0 && ifup eth0