一、实验环境
主机名 | 角色 |
server1 | 调度器 (VS) |
server2 | 真实服务器 (RS) |
server3 | 真实服务器 (RS) |
server4 | 测试机 |
二、集群和分布式简介
2.1 系统性能扩展方式
- ScaleUP:向上扩展,增强:
- ScaleOut:向外扩展,增加设备,调度分配问题,Cluster
2.2 集群Cluster
Cluster:集群是为了解决某个特定问题将多台计算机组合起来形成的单个系统
Cluster常见的三种类型:
- LB:LoadBalancing(负载均衡)由多个主机组成,每个主机只承担一部分访问。
- HA:High Availiablity(高可用)SPOF(single Point Offailure)
MTBF:MeanTime BetweenFailure 平均无故障时间,正常时间
MTTR:MeanTimeTo Restoration(repair)平均恢复前时间,故障时间
A=\mathsf { A } =A= MTBF/(MTBF +^ ++ MTTR)(0,1): 99%9 9 \%99% 99.5%9 9 . 5 \%99.5% 99.9%9 9 . 9 \%99.9% 99.99%9 9 . 9 9 \%99.99% 99.999%9 9 . 9 9 9 \%99.999%
SLA:Service levelagreement(服务等级协议)是在一定开销下为保障服务的性能和可用性,服务提供商与用户间定义的一种双方认可的协定。通常这个开销是驱动提供服务质量的主要因素。在常规的领域中,总是设定所谓的三个9,四个9来进行表示,当没有达到这种水平的时候,就会有一些列的惩罚措施,而运维,最主要的目标就是达成这种服务水平。
停机时间又分为两种,一种是计划内停机时间,一种是计划外停机时间,而运维则主要关注计划外停机时间 - HPC:High-performancecomputing(高性能计算,国家战略资源)
2.3 分布式
分布式存储:Ceph,GlusterFs,FastDFS,MogileFs
分布式计算:hadoop,Spark
分布式常见应用
- 分布式应用:服务按照功能拆分,使用微服务。
- 分布式静态资源:静态资源放在不同的存储集群上。
- 分布式数据和存储:使用key-value缓存系统。
- 分布式计算:对特殊业务使用分布式计算,比如Hadoop集群。
2.4 集群和分布式
- 集群:同一个业务系统,部署在多台服务器上,集群中,每一台服务器实现的功能没有差别,数据和代码都是一样的。
- 分布式:一个业务被拆成多个子业务,或者本身就是不同的业务,部署在多台服务器上。分布式中,每一台服务器实现的功能是有差别的,数据和代码也是不一样的,分布式每台服务器功能加起来,才是完整的业务。
- 分布式是以缩短单个任务的执行时间来提升效率的,而集群则是通过提高单位时间内执行的任务数来提升效率。
- 对于大型网站,访问用户很多,实现一个群集,在前面部署一个负载均衡服务器,后面几台服务器完成同一业务。如果有用户进行相应业务访问时,负载均衡器根据后端哪台服务器的负载情况,决定由给哪一台去完成响应,并且台服务器垮了,其它的服务器可以顶上来。分布式的每一个节点,都完成不同的业务,如果一个节点垮了,那这个业务可能就会失败。
三、lvs(Linuxvirtual server)运行原理
3.1 lvs 简介
LVS:Linux Virtual Server,负载调度器,内核集成,章文嵩,阿里的四层SLB(Server LoadBalance)是基 于LVS+keepalived实现。
LVS 官网: http://www.linuxvirtualserver.org/
LVS 相关术语
- VS:Virtual Server,负责调度。
- RS:RealServer,负责真正提供服务。
3.2 lvs集群体系结构
工作原理:
VS根据请求报文的目标IP和目标协议及端口将其调度转发至某RS,根据调度算法来挑选RS。
3.3 LVS概念
- VS:Virtual Server
- RS:Real Server
- CIP:Client IP
- VIP:Virtual serve IPVS外网的IP
- DIP:Director IPVS内网的IP
- RIP:Real server IP
访问流程: ClP<…>VlP==DlP<…>{ \mathsf { C l P } } < \ldots > { \mathsf { V l P } } = = { \mathsf { D l P } } < \ldots >ClP<…>VlP==DlP<…> RIP
3.4 lvs集群的类型
- lvs-nat: 修改请求报文的目标IP,多目标IP的DNAT 。
- lvs-dr: 操纵封装新的MAC地址 。
- lvs-tun :在原请求IP报文之外新加一个IP首部 。
- lvs-fullnat: 修改请求报文的源和目标IP。
3.4.1 nat模式
lvs-nat:
- 本质是多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为某挑出的RS的RIP和PORT实现转发。
- RIP和DIP应在同一个IP网络,且应使用私网地址;RS的网关要指向DIP
- 请求报文和响应报文都必须经由Director转发,Director易于成为系统瓶颈
- 支持端口映射,可修改请求报文的目标PORT
- VS必须是Linux系统,RS可以是任意OS系统
3.4.2 nat模式数据逻辑
1、客户端发送访问请求,请求数据包中含有请求来源(cip),访问目标地址(VIP)访问目标端口(9000port)。
2、VS服务器接收到访问请求做DNAT把请求数据包中的目的地由VIP换成RS的RIP和相应端口
3、RS1相应请求,发送响应数据包,包中的相应保温为数据来源(RIP1)响应目标(CIP)相应端口(9000port)。
4、VS服务器接收到响应数据包,改变包中的数据来源(RIP1->VIP),响应目标端口(9000-> 80)。
5、VS服务器把修改过报文的响应数据包回传给客户端。
6、lvs的NAT模式接收和返回客户端数据包时都要经过lvs的调度机,所以lvs的调度机容易阻塞。
客户请求到达vip后进入PREROUTING,在没有ipvs的时候因该进入本机INPUT,当IPVS存在后访问请求在通过PREROUTING后被ipvs结果并作nat转发。
因为ipvs的作用点是在PREROUTING和INPUT链之间,所以如果在prerouting中设定规则会干扰ipvs的工作。所以在做lvs时要把iptables的火墙策略全清理掉。
3.4.3 DR模式
DR:Direct Routing,直接路由,LVS默认模式,应用最广泛,通过为请求报文重新封装一个MAC首部进行转发,源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;源IP/PORT,以及目标IP/PORT均保持不变。
3.4.4 DR模式数逻辑
在DR模式中,RS接收到访问请求后不需要回传给VS调度器,直接把回传数据发送给client,所以RS和vs上都要有vip。
3.4.5 DR模式数据传输过程
1.客户端发送数据帧给VS调度主机帧中内容为客户端IP+客户端的MAC+VIP+VIP的MAC。
2.VS调度主机接收到数据帧后把帧中的VIP的MAC该为RS1的MAC,此时帧中的数据为客户端IP+客户端的MAC+VIP+RS1的MAC。
3.RS1得到2中的数据包做出响应回传数据包,数据包中的内容为VIP+RS1的MAC+客户端IP+客户端IP的MAC。
3.4.6 DR模式的特点
1.Director和各RS都配置有VIP;
2.确保前端路由器将目标IP为VIP的请求报文发往Director;
3.在前端网关做静态绑定VIP和Director的MAC地址
- 在RS上使用arptables工具
arptables -A IN -d \$VIP -j DROP
arptables -A OuT -s \$vIP -j mangle --mangle-ip-s \$RIP
- 在RS上修改内核参数以限制arp通告及应答级别
/proc/sys/net/ipv4/conf/all/arp_ignore
/proc/sys/net/ipv4/conf/all/arp_announce
4.RS的RIP可以使用私网地址,也可以是公网地址;RIP与DIP在同一IP网络;
5.RIP的网关不能指向DIP,以确保响应报文不会经由Director;
6.RS和Director要在同一个物理网络;
7.请求报文要经由Director,但响应报文不经由Director,而由RS直接发往Client;
8.不支持端口映射 (端口不能修败);
9.RS可使用大多数OS系统;
3.4.7 TUN模式(了解)
转发方式:不修改请求报文的IP首部(源IP为CIP,目标IP为VIP),而在原IP报文之外再封装一个IP首部(源IP是DIP,目标IP是RIP),将报文发往挑选出的目标RS;RS直接响应给客户端(源IP是VIP,目标IP是CIP)。
3.4.8 TUN模式数据传输过程
1.客户端发送请求数据包,包内有源IP+vip+dport。
2.到达vs调度器后对客户端发送过来的数据包重新封装添加IP报文头,新添加的IP报文头中包含TUNSRCIP(DIP)+TUNDESTIP(RSIP1)并发送到RS1。
3.RS收到VS调度器发送过来的数据包做出响应,生成的响应报文中包含SRCIP(VIP)+DSTIP(CIP)+port,响应数据包通过网络直接回传给client。
3.4.9 TUN模式特点
1.DIP,VIP,RIP都应该是公网地址;
2.RS的网关一般不能指向DIP;
3.请求报文要经由Director,但响应不能经由Director;
4.不支持端口映射;
5.RS的OS须支持隧道功能;
3.4.10 fullnet模式(了解)
fullnat:通过同时修改请求报文的源IP地址和目标IP地址进行转发
CIP --> DIP
VIP --> RIP
1.VIP是公网地址,RIP和DIP是私网地址,且通常不在同一IP网络;因此,RIP的网关一般不会指向DIP。
2.RS收到的请求报文源地址是DIP,因此,只需响应给DIP;但Director还要将其发往Client。
3.请求和响应报文都经由Director。
4.支持端口映射。
注意:此类型kernel默认不支持
3.4.11 LVS工作模式总结
NAT模式 | TUN模式 | DR模式 | |
RS操作系统 | 不限 | 支持隧道 | 禁用arp |
调度器和服务器网络 | 可跨网络 | 可跨网络 | 不可跨网络 |
调度服务器数量服务器数量 | 少 | 多 | 多 |
RS服务器网关 | 指向到调度器DIP | 指向到路由 | 指向到路由 |
- lvs-nat与lvs-fullnat:请求和响应报文都经由Director;
- lvs-nat:RIP的网关要指向DIP;
- lvs-fuIInat:RIP和DIP未必在同一IP网络,但要能通信;
- lvs-dr与lvs-tun:请求报文要经由Director,但响应报文由RS直接发往Client;
- lvs-dr:通过封装新的MAC首部实现,通过MAC网络转发;
- lvs-tun:通过在原IP报文外封装新IP头实现转发,支持远距离通信;
3.5 lvs的调度算法
3.5.1 lvs调度算法类型
ipvs scheduler:根据其调度时是否考虑各RS当前的负载状态被分为两种:静态方法和动态方法
静态方法:仅根据算法本身进行调度,不考虑RS的负载情况
动态方法:主要根据每RS当前的负载状态及调度算法进行调度Overhead=value较小的RS将被调度
3.5.2 lvs静态调度算法
1、RR:roundrobin轮询RS分别被调度,当RS配置有差别时不推荐。
2、WRR:Weighted RR,加权轮询根据RS的配置进行加权调度,性能差的RS被调度的次数少。
3、SH:Source Hashing,实现session sticky,源IP地址hash;将来自于同一个IP地址的请求始终发往第一次挑中的RS,从而实现会话绑定。
4、DH:Destination Hashing;目标地址哈希,第一次轮询调度至RS,后续将发往同一个目标地址的请求始终转发至第一次挑中的RS,典型使用场景是正向代理缓存场景中的负载均衡,如:宽带运营商。
3.5.2 lvs动态调度算法
主要根据RS当前的负载状态及调度算法进行调度Overhead=value较小的RS会被调度
1、LC:least connections (最少链接发)
适用于长连接应用Overhead(负载值) Σ=Σ\mathbf { \Sigma } = \mathbf { \Sigma }Σ=Σ activeconns(活动链接数) ×256+\times 2 5 6 +×256+ inactiveconns(非活 动链接数)
2、WLC:Weighted LC (权重最少链接)
默认调度方法Overhead === (activeconns x256+inactiveconns)/weight
3、SED: Shortest Expection Delay,
初始连接高权重优先Overhead c=\ c = c= (activeconns+1+inactiveconns) x 256/weight
但是,当node1的权重为1,node2的权重为10,经过运算前几次的调度都会被node2承接
4、NQ:NeverQueue,第一轮均匀分配,后续SED
5、LBLC:Locality-Based LC,动态的DH算法,使用场景:根据负载状态实现正向代理
6、LBLCR:LBLCwith Replication,带复制功能的LBLC,解决LBLC负载不均衡问题,从负载重的复制到负载轻的RS
3.5.3 在4.15版本内核以后新增调度算法
1、FO(WeightedFai Over)调度算法:常用作灰度发布
在此FO算法中,遍历虚拟服务所关联的真实服务器链表,找到还未过载(未设置IP_VS_DEST_FOVERLOAD标志)的且权重最高的真实服务器,进行调度。
当服务器承接大量链接,我们可以对此服务器进行过载标记(IP_VS_DEST_FOVERLOAD),那么vs调度器就不会把链接调度到有过载标记的主机中。
2、OVF(Overflow-connection)调度算法
基于真实服务器的活动连接数量和权重值实现。将新连接调度到权重值最高的真实服务器,直到其活动连接数量超过权重值,之后调度到下一个权重值最高的真实服务器,在此OVF算法中,遍历虚拟服务相关联的真实服务器链表,找到权重值最高的可用真实服务器。一个可用的真实服务器需要同时满足以下条件:
- 未过载(未设置IP_VS_DEST_FOVERLOAD标志))
- 真实服务器当前的活动连接数量小于其权重值
- 其权重值不为零
四、lvs部署命令介绍
4.1 lvs软件相关信息
- 程序包:ipvsadm
- Unit File: ipvsadm.service
- 主程序:/usr/sbin/ipvsadm
- 规则保存工具:/usr/sbin/ipvsadm-save
- 规则重载工具:/usr/sbin/ipvsadm-restore
- 配置文件:/etc/sysconfig/ipvsadm-config
- ipvs调度规则文件:/etc/sysconfig/ipvsadm
4.2 ipvsadm命令
核心功能:
- 集群服务管理:增、删、改
- 集群服务的RS管理:增、删、改
- 查看
命令参数:
# 管理集群服务
ipvsadm -AlE -t(tcp)|u(udp)|f(防护墙标签)
service-address(集群地址)\
[-sscheduler(调度算法)]\
[-p[timeout]]\
[-M netmask]\
[--pepersistence_engine]\
[-b sched-flags]
ipvsadm -D -t|ulf service-address 删除
ipvsadm -C 清空
ipvsadm -R 重载
ipvsadm -S [-n] 保存
# 管理集群中的real server
ipvsadm -ale -t|ulf service-address -r server-address [-g丨 -il -m](工作模式)[-w
weight](权重)
ipvsadm -d -t|u|f service-address -r server-address 删除RS
ipvsadm -L|1 [options] 查看rs
ipvsadm -Z [-t|u|f service-address] 清楚计数器
4.3 lvs集群中的增删改
1.管理集群服务中的增删改
ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]
-A #添加
-E #修改
-t #tcp服务
-u #udp服务
-s #指定调度算法,默认为WLC
-p #设置持久连接超时,持久连接可以理解为在同一个时间段同一个来源的请求调度到同一Realserver
-f #firewall mask 火墙标记,是一个数字
#增加
[root@DR-server ~]# ipvsadm -A -t 172.25.254.100:80 -s rr
[root@DR-server ~]# ipvsadm -A -f 66 -p 3000
#修改
[root@DR-server ~]# ipvsadm -E -t 172.25.254.100:80 -s wrr -p 3000
#删除
[root@DR-server ~]# ipvsadm -D -t 172.25.254.100:80
[root@DR-server ~]# ipvsadm -D -f 66
2.管理集群中RealServer的增删改
ipvsadm-ale -t|u|f service-address-r realserver-address [-gli|m] [-w weight]
-a #添加realserver
-e #更改realserver
-t #tcp协议
-u #udp协议
-f #火墙 标签
-r #realserver地址
-g #直连路由模式
-i #ipip隧道模式
-m #nat模式
-W #设定权重
-Z #清空计数器
-C #清空1vs策略
-L #查看1vs策略
-n #不做解析
--rate:输出速率信息
#添加
[root@DR-server \~]# ipvsadm -a -t 172.25.254.100:80 -r 192.168.0.30 -m [root@DR-server \~]# ipvsadm -a -t 172.25.254.100:80 -r 192.168.0.40 -m -w 2
#更改
[root@DR-server \~]# ipvsadm -e -t 172.25.254.100:80 -r 192.168.0.30 -m -w 1
[root@DR-server \~]# ipvsadm -e -t 172.25.254.100:80 -r 192.168.0.30 -i -w 1
#删除
[root@DR-server \~]# ipvsadm -d -t 172.25.254.100:80 -r 192.168.0.30
pvs规则:/proc/net/ip_vs
ipvs连接:/proc/net/ip_vs_conn
五、LVS实战案例
5.1 部署NAT模式集群案例
1.Director服务器采用双网卡,一个是桥接网卡连接外网,一个是仅主机网卡与后端Web服务器相连。
2.Web服务器采用仅主机网卡与director相连。
3.Web服务器网关指向192.168.0.100。
4.后端web服务器不需要连接外网。
5.1.1 实验环境
主机名 | ip | vip | 角色 |
node1 | 192.168.0.100 | 172.25.254.100 | 调度器 (VS) |
node2 | 192.168.0.101,GW 192.168.0.100 | null | 真实服务器 (RS) |
node3 | 192.168.0.102,GW192.168.0.100 | null | 真实服务器 (RS) |
node4 | 172.25.254.104 | 测试机 |
5.1.2 配置命令
1.在node1中启用内核路由功能
echo "net.ipv4.ip_forward=1" $>$ /etc/sysctl.d/ip_forward.conf
sysctl --system
2.在node1中安装ipvsadm
yum install ipvsadm -y
3.在node1中添加调度策略
ipvsadm -A -t 172.25.254.100:80 -s rr
ipvsadm -a -t 172.25.254.100:80 -r 192.168.0.101:80
ipvsadm -a -t 172.25.254.100:80 -r 192.168.0.101:80 -m
ipvsadm -a -t 172.25.254.100:80 -r 192.168.0.102:80 -m
4.查看策略
5.保存规则
# ipvsadm -Sn
-A -t 172.25.254.100:80 -s rr
-a -t 172.25.254.100:80 -r 192.168.0.101:80 -m -w 1
-a -t 172.25.254.100:80 -r 192.168.0.102:80 -m -w 1
# ipvsadm -Sn $>$ /etc/sysconfig/ipvsadm-config
6.删除所有规则
# ipvsadm -C
# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size $\scriptstyle : = 4 0 9 6$ )
Prot LocalAddress:Port Scheduler Flags $\mathrel { - } >$ RemoteAddress:Port Forward Weight ActiveConn InActConn
7.重新加载规则
8.以上操作均为临时,如果想开机启动
systemctl enable --now ipvsadm.service
9.测试:
[Administrator.WIN-20240602BIS]> for N in {1..6};do curl 172.25.254.100;done
RS2 server - 192.168.0.102
RS1 server - 192.168.0.101
RS2 server - 192.168.0.102
RS1 server - 192.168.0.101
RS2 server - 192.168.0.102
RS1 server - 192.168.0.101
10.修改为权重调用算法
ipvsadm -E -t 172.25.254.100:80 -S wrr
ipvsadm -e -t 172.25.254.100:80 -r 192.168.0.101:80 -m -w 2
ipvsadm -e -t 172.25.254.100:80 -r 192.168.0.102:80 -m -w 1
#测试效果
[Administrator.WIN-20240602BIS]> for N in {1..6};do curl 172.25.254.100;done
RS2 server - 192.168.0.102
RS1 server - 192.168.0.101
RS1 server - 192.168.0.101
RS2 server - 192.168.0.102
RSl server - 192.168.0.101
RS1 server - 192.168.0.101
5.2 部署DR模式集群案例
5.2.1 实验环境
主机 名 | ip | vip | 角色 |
client | 172.25.254.10 vmware NAT | null | 测试主机 |
router | NAT-eth0:172.25.254.100,仅主机- eth1:192.168.0.10 | null | 路由器 |
lvs | 192.168.0.200,GW192.168.0.10仅主机 | lo:192.168.0.100 | 调度器 |
RS1 | 192.168.0.101,GW192.168.0.10仅主机 | lo:192.168.0.100 | web服务 器1 |
RS2 | 192.168.0.102,GW192.168.0.10仅主机 | lo:192.168.0.100 | web服务 器2 |
配置实验环境
[root@client \~]# vim/etc/NetworkManager/system-connections/etho.nmconnection
[connection]
id=eth0
type=ethernet
interface-name=eth0
[ipv4]
method=manual
address1=172.25.254.10/24,172.25.254.100
[root@client \~]# route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 172.25.254.100 0.0.0.0 UG 100 0 O eth0
172.25.254.0 0.0.0.0 255.255.255.0 U 100 0 O eth0
###############################################################################
#######
#################################################################################
#######
#在路由主机中设定双网卡,eth0为nat网卡,eth1为仅主机网卡
#对于eth0的设定
[root@DR-server ~]# vim /etc/NetworkManager/system-connections/eth0.nmconnection
[connection]
id=eth0
type=ethernet
interface-name=eth0
[ipv4]
method=manual
address1=172.25.254.100/24
#对于eth1的设定
[root@DR-server ~]# vim /etc/NetworkManager/system-connections/eth1.nmconnection
[connection]
id=eth1
type=ethernet
interface-name=eth1
[ipv4]
method=manual
address1=192.168.0.10/24
#################################################################################
#######
#################################################################################
#######
#对于dr调度器设定网卡为仅主机模式
[root@dr-server ~]# vim /etc/NetworkManager/system-connections/eth0.nmconnection
[connection]
id=eth0
type=ethernet
interface-name=eth0
[ipv4]
method=manual
address1=192.168.0.200/24,192.168.0.10
[root@dr-server ~]# route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 192.168.0.10 0.0.0.0 UG 100 0 0 eth0
192.168.0.0 0.0.0.0 255.255.255.0 U 100 0 0 eth0
#################################################################################
#######
#################################################################################
#######
#对于RS1的设定网卡为仅主机模式
[root@webserver1 ~]# cat /etc/NetworkManager/system-connections/eth0.nmconnection
[connection]
id=eth0
type=ethernet
interface-name=eth0
[ipv4]
method=manual
address1=192.168.0.101/24,192.168.0.10
[root@webserver1 ~]# route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 192.168.0.10 0.0.0.0 UG 100 0 0 eth0
192.168.0.0 0.0.0.0 255.255.255.0 U 100 0 0 eth0
#进入用apr相应
#################################################################################
#######
#################################################################################
#######
#对于RS2中的网络设定
[root@webserver2 ~]# cat /etc/NetworkManager/system-connections/eth0.nmconnection
[connection]
id=eth0
type=ethernet
interface-name=eth0
[ipv4]
method=manual
address1=192.168.0.102/24,192.168.0.10
[root@webserver2 ~]# route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 192.168.0.10 0.0.0.0 UG 100 0 0 eth0
192.168.0.0 0.0.0.0 255.255.255.0 U 100 0 0 eth0
#################################################################################
#######
5.2.2 解决vip响应问题
DR模型中各主机上均需要配置VIP,解决地址冲突的方式有三种:
(1)在前端网关做静态绑定
(2)在各RS使用arptables
(3)在各RS修改内核参数,来限制arp响应和通告的级别
限制响应级别:arp_ignore
- 0:默认值,表示可使用本地任意接口上配置的任意地址进行响应
- 1:仅在请求的目标IP配置在本地主机的接收到请求报文的接口上时,才给予响应
限制通告级别:arp_announce
- 0:默认值,把本机所有接口的所有信息向每个接口的网络进行通告
- 1:尽量避免将接口信息向非直接连接网络进行通告
- 2:必须避免将接口信息向非本网络进行通告
5.2.3 配置详情
配置要点
1.Director服务器采用双IP桥接网络,一个是VPP,一个DIP
2.Web服务器采用和DIP相同的网段和Director连接
3.每个Web服务器配置VIP
4.每个web服务器可以出外网
配置内容如下:
# 在lvs 和 rs 中设定vip
[root@lvs ~]# ip addr add dev lo 192.168.0.100/32
[root@rs1 ~]# ip addr add dev lo 192.168.0.100/32
[root@rs2 ~]# ip addr add dev lo 192.168.0.100/32
# 在RS1和RS2中解决响应问题
[root@rs1 ~]# echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
[root@rs1 ~]# echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore
[root@rs1 ~]# echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
[root@rs1 ~]# echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
[root@rs2 ~]# echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
[root@rs2 ~]# echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore
[root@rs2 ~]# echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
[root@rs2 ~]# echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
# 在lvs中配置策略
[root@lvs ~]# ipvsadm -A -t 192.168.0.100:80 -s wrr
[root@lvs ~]# ipvsadm -a -t 192.168.0.100:80 -r 192.168.0.101:80 -g
[root@lvs ~]# ipvsadm -a -t 192.168.0.100:80 -r 192.168.0.102:80 -g
测试效果:
[root@node10 \~]# for N in {1..6};do curl 192.168.0.100;done
RS2 server - 192.168.0.102
RS1 server - 192.168.0.101
RS2 server - 192.168.0.102
RS1 server - 192.168.0.101
RS2 server - 192.168.0.102
RS1 server - 192.168.0.101
5.3 防火墙标签解决轮询错误
5.3.1 轮询规则中可能会遇到的错误
以http和https为例,当我们在RS中同时开放80和443端口,那么默认控制是分开轮询的,这样我们就出现了一个轮询错乱的问题:
当我第一次访问80被轮询到RS1后下次访问443仍然可能会被轮询到RS1上。
问题呈现:
# 在RS1和RS2中安装mod_ssl并重启apache
yum install mod_ssl -y
systemctl restart httpd
#在lvs中设置调度,因为我们要调度80和443两个端口所以我们需要设定两组策略
ipvsadm -C
ipvsadm -A -t 192.168.0.100:80 -s rr
ipvsadm -A -t 192.168.0.100:443 -s rr
ipvsadm -a -t 192.168.0.100:80 -r 192.168.0.101:80 -g
ipvsadm -a -t 192.168.0.100:80 -r 192.168.0.102:80 -g
ipvsadm -a -t 192.168.0.100:443 -r 192.168.0.102:80 -g
ipvsadm -a -t 192.168.0.100:443 -r 192.168.0.101:80 -g
测试问题:
[root@node10 \~]# curl http://192.168.0.100;curl -k https://192.168.0.100
RS1 server - 192.168.0.101
RS1 server - 192.168.0.101
# 当访问vip时两次调度都到了101
5.3.2.防火墙标记解决轮询调度问题
FWM:FireWallMark
MARKtarget可用于给特定的报文打标记,–set-markvalue
其中:value可为0xfff格式,表示十六进制数字借助于防火墙标记来分类报文,而后基于标记定义集群服务:可将多个不同的应用使用同一个集群服务进行调度。
实现方法:
# 在Director主机打标记:
iptables -t mangle -A PREROUTING -d $vip -p $proto -m multiport --dports
$portl,$port2,..-i MARK --set-mark NUMBER
# 在Director主机基于标记定义集群服务:
ipvsadm -A -f NUMBER [options]
# 示例如下:
# 在vs调度器中设定端口标签,人为80和443是一个整体
iptables -t mangle -A PREROUTING -d 192.168.0.100 -p tcp -m multiport --dports
80,443 -j MARK --set-mark 6666
# 设定调度规则
ipvsadm -A -f 6666 -s rr
ipvsadm -a -f 6666 -r 192.168.0.101 -g
ipvsadm -a -f 6666 -r 192.168.0.102 -g
# 测试结果
[root@node10 ~]# curl -k https://192.168.0.100
RS2 server - 192.168.0.102
[root@node10 ~]# curl -k https://192.168.0.100;curl 192.168.0.100
RS1 server - 192.168.0.101
RS2 server - 192.168.0.102
5.4 lvs持久链接
在我们客户上网过程中有很多情况下需要和服务器进行交互,客户需要提交响应信息给服务器,如果单纯的进行调度会导致客户填写的表单丢失,为了解决这个问题我们可以用sh算法,但是sh算法比较简单粗暴,可能会导致调度失衡。
解决方案
在进行调度时,不管用什么算法,只要相同源过来的数据包我们就把他的访问记录在内存中,也就是把这个源的主机调度到了那个RS上
如果在短期(默认360S)内同源再来访问我仍然按照内存中记录的调度信息,把这个源的访问还调度到同一台RS上。
如果过了比较长的时间(默认最长时间360s)同源访问再次来访,那么就会被调度到其他的RS上
ipvsadm -AlE -tlulf service-address [-s scheduler] [-p [timeout]]默认360秒
# 在lvs调度器中设定
[root@lvs \~]# ipvsadm -E -f 6666 -s rr -p [3000]
[root@lvs \~]# ipvsadm -LnC