群集之lvs-dr模型

群集之lvs-dr模型

原理:

如图所示:(此过程不存在地址转换)

客户端首先向director发送请求,此时director会对该数据包处理,把帧头部的目标mac换成后方realservermac。因为realserver是直接把信息传送到客户端,所以为了客户端能够接收,我们还需要在每个realserver上配置一个VIP。然而这样就产生一个问题,当客户端的arp请求过来的时候,因为在director和后方的realserver上都有VIP,所以都会相应用户的arp请求,那么客户端选择与谁的mac通信呢,这就是个问题。这就需要我们的 

realserver在接收arp的请求时,不能进响应

针对这个问题有两种方式解决方式

1、用一种叫arptable arp防火墙

2、使用内核参数arp-announcearp-ignore,这样一来也解决了后方realserver地址冲突的问题,这也是一种较好的方案


特点

1.必须处于同一个物理网络中(连在同一个交换机上)

2.RIP不能使用私有地址,因为这个地址是直接与用户通信的

3.Director只转发请求,而realserver直接响应请求而不转发

4.集群节点的网关,不能指向DIP

5.不能做端口转换(不支持)

6.绝大多数的操作系统都可以实现realserver,realserver需要同一个网卡配置多个Ip地址

7.DR模式的DirectorNAT模式能够带动更多的节点


实训:

群集之lvs-dr模型

拓扑

(注意:图中俩个NODEloopback接口首先不要配置地址,不然会冲突,应该用两个内核参数做一下控制)


一、Director的配置

1、首先配置ip地址

群集之lvs-dr模型


群集之lvs-dr模型


重启服务

service network restart


2、安装工具

mkdir /mnt/cdrom

mount /dev/cdrom /mnt/cdrom (挂载光盘)

cd /mnt/cdrom/Cluster

rpm -ivh ipvsadm-1.24-10.i386.rpm


二、节点node的配置

1Node1

为了地址冲突,首先应该修改两个内核参数

echo "net.ipv4.conf.all.arp_announce = 2" >>/etc/sysctl.conf

echo "net.ipv4.conf.all.arp_ignore = 1" >>/etc/sysctl.conf

为了这两个参数立即生效执行下面命令

sysctl -p


配置ip地址

群集之lvs-dr模型


群集之lvs-dr模型


重启网络服务


因为2.100的网络地址被看做一个点的地址,所以应该为node1增加一台路由

route add -host 192.168.2.100/32 dev lo:0


安装web服务

mount /dev/cdrom /mnt/cdrom

rpm -ivh /mnt/cdrom/Server/httpd-2.2.3-31.el5.i386.rpm

启动服务并加入开机启动项

service httpd start

chkconfig httpd on

建设网页

echo "node1" >/var/www/html/index.html


2Node2

为了防止地址冲突,这里方便起见,直接拷贝node1上边的配置文件

scp 192.168.2.10:/etc/sysctl.conf /etc/

sysctl -p


配置ip地址

群集之lvs-dr模型


群集之lvs-dr模型


重启网络服务


同样的做静态路由

route add -host 192.168.2.100/32 dev lo:0


安装web服务

mount /dev/cdrom /mnt/cdrom

rpm -ivh /mnt/cdrom/Server/httpd-2.2.3-31.el5.i386.rpm

启动服务并加入开机启动项

service httpd start

chkconfig httpd on

建设网页

echo "node2" >/var/www/html/index.html


三、访问并测试

1、在Director上定义虚拟服务器

ipvsadm -A -t 192.168.2.100:80 -s rr


指向后方的realserver

ipvsadm -a -t 192.168.2.100:80 -r 192.168.2.10 -g

ipvsadm -a -t 192.168.2.100:80 -r 192.168.2.20 -g


为了下次启动规则任然存在,保存一下

service ipvsadm save

重启服务

service ipvsadm restart


安装文本浏览器进行测试

rpm -ivh /mnt/cdrom/Server/lynx-2.8.5-28.1.el5_2.1.i386.rpm

lynx http://192.168.2.10

群集之lvs-dr模型


lynx http://192.168.2.20

群集之lvs-dr模型


在宿主机*问director

群集之lvs-dr模型


刷新

群集之lvs-dr模型

接着刷新的话会发现访问了后方轮训的realserver


2、访问一致性

实现这种群集是为了实现访问后方的realserver得到一致的结果,那么怎样实现呢?对于静态页面还好说,只要两个web页面做成相同的就行了,如果是动态页面的。这时候后方必须要有共享存储,而能够基于网络实现共享存储的方法有两种,一种是NAS( network attached storage网络附加存储),实现文件级别的共享;另一种是SANstorage area network 块级别共享 )。

这里我们用NAS来实现这种效果,实现NAS的方式有好几种。如果再生产环境中应用的话,有专门的硬件产品来实现,或者利用一种叫freenas的软件来实现,不过在实验环境下我们可以用samba或者NFS来实现。具体实现的过程就是NFS设备把用户要访问页面放到共享文件夹里,前面的realserver只需在本地把后方的共享文件夹挂载到本地就行了。


实现NAS

首先为NAS配置相应的IP地址

经查看已经安装了nfs

群集之lvs-dr模型


建立共享文件夹

群集之lvs-dr模型


编辑共享清单

vim /etc/exportsr

如果是动态页面的话用户则具有写的权限(像是论坛等等)

群集之lvs-dr模型


启动服务

service nfs start

把服务加入开机启动项

群集之lvs-dr模型


分别为两个节点添加网卡

因为实验环境是在虚拟机里实现的,把两块网卡放在vmnet2区域里,当然后方的NAS也应该在vmnet2区域

分别为两块网卡添加地址

重启服务


挂载共享文件夹

查看后方的共享

群集之lvs-dr模型


分别在两个节点上挂载后方的共享文件

mount 192.168.3.100/webroot /var/www/html

再次访问的话就会得到相同的页面了


这种方式有一定缺陷,就是效率太低,不过它也有它的优点,那就是锁机制(两个人不能同时做写操作)和推送机制(在一个节点上边提交的信息可以在另一个节点上看到)。另外一个缺陷就是在director上定义的轮训规则是静态的,不根据实际情况进行调整,即使后方的线路down掉,规则依旧存在,这就需要在每个节点上增加健康探测机制,来时刻监听线路的健康状况。