一、负载均衡
LB由多个主机组成,每个主机只承担一部分访问
为什么使用负载均衡?
- Web服务器的动态水平扩展-->对用户无感知
- 增加业务并发访问及处理能力-->解决单服务器瓶颈问题·
- 节约公网IP地址-->降低IT支出成本
- 隐藏内部服务器IP-->提高内部服务器安全性
- 配置简单-->固定格式的配置文件
- 功能丰富-->支持四层和七层,支持动态下线主机
- 性能较强-->并发数万甚至数十万
四层负载均衡
- 通过ip+port决定负载均衡的去向
- 对流量请求进行NAT处理,转发至后台服务器
- 记录tcp、udp流量分别是由哪台服务器处理,后续该请求连接的流量都通过该服务器处理
支持四层的软件:lvs 重量级四层负载均衡器(LVS只做流量传输)
客户端和RS之间也是有网络连接的
七层负载均衡
- 通过虚拟ur|或主机ip进行流量识别,根据应用层信息进行解析,决定是否需要进行负载均衡。
- 代理后台服务器与客户端建立连接,如nginx可代理前后端,与前端客户端tcp连接,与后端服务器建立tcp连接
支持7层代理的软件:
Nginx:基于http协议(nginx七层是通过proxy_pass).
Haproxy:七层代理,会话保持、标记、路径转移等。
Nginx:轻量级四层负载均衡器,可缓存(nginx四层是通过upstream模块)
Haproxy:模拟四层转发
四层和七层的区别
主要的区别就是在对后台的服务器进行负载均衡的时候,依据四层的信息还是七层的信息来决定怎么转发流量
四层:通过发布三层的IP地址(MIP),然后加四层的端口号,来决定哪些流量需要做负载均衡,对需要处理的流量进行NAT处理,转发至后台服务器,并记录下这个TCP或者UDP的流量是由哪台服务器处理的,后续这个连接的所有流量都同样转发到同一台服务器处理
七层:就是在四层的基础上(没有四层是绝对不可能有七层的),再考虑应用层的特征,比如同一个Web服务器的负载均衡,除了根据VIP加80端口辨别是否需要处理的流量,还可根据七层的URL、浏览器类别、语言来决定是否要进行负载均衡
- 分层位置:四层负载均衡在传输层及以下,七层负载均衡在应用层及以下
- 性能:四层负载均衡架构无需解析报文消息内容,在网络吞吐量与处理能力上较高;七层可支持解析应用层报文消息内容,识别URL、Cookie、HTTP header等信息。
- 原理:四层负载均衡是基于ip+port;七层是基于虚拟的URL或主机IP等。
- 功能类比:四层负载均衡类似于路由器;七层类似于代理服务器。
- 安全性:四层负载均衡无法识别DDoS攻击;七层可防御SYN Cookie/Flood攻击
二、haproxy
haproxy基础文件
实验
环境:1台haproxy,2台RS
所有的主机都要是NAT模式;如果是仅主机就要都是仅主机,要实现调度,需要都在一个网段中
RS1和RS2一样配置
启动nginx
确保可以正常访问
haproxy设置
不是最新的就是最好的
可以吧文件写入这个目录里,名字任意
文件中都有序号查看
用前端来联通后端
它和客户端之间的是直连的,一定需要80端口
在配置文件里写可以访问到的RS的IP地址
此时后端的是不可以知道是谁访问的,显示的都是100来访问
haproxy的基本配置信息
haproxy.cfg
global:全局配置段
- 进程及安全配置相关的参数
- 性能调整相关参数
- Debug参数
proxies:代理配置段
- defaults:为frontend, backend, listen提供默认配置
- frontend:前端,相当于nginx中的server { }
- backend:后端,相当于nginx中的upstream { }
- listen:同时拥有前端和后端配置,配置简单,生产推荐使用
最终代理中的参数会把默认中的参数覆盖,默认中的参数会把全局中的参数覆盖
global配置参数说明
globallog 127.0.0.1 local2 #定义全局的syslog服务器;日志服务器需要开启UDP协议,最多可以定义两个
chroot /var/lib/haproxy #锁定运行目录
pidfile /var/run/haproxy.pid #指定pid文件
maxconn 100000 #指定最大连接数
user haproxy #指定haproxy的运行用户
group haproxy #指定haproxy的运行组
daemon #指定haproxy以守护进程方式运行
# turn on stats unix socket
stats socket /var/lib/haproxy/stats #指定haproxy的套接字文件
nbproc 2 #指定haproxy的work进程数量,默认是1个
cpu-map 1 0 #指定第一个work绑定第一个cpu核心
cpu-map 2 1 #指定第二个work绑定第二个cpu核心
nbthread 2 #指定haproxy的线程数量,默认每个进程一个线程,此参数与nbproc互斥
maxsslconn 100000 #每个haproxy进程ssl最大连接数,用于haproxy配置了证书的场景下
maxconnrate 100 #指定每个客户端每秒建立连接的最大数量
实验测试:
多进程和线程
global
log 127.0.0.1 local2
chroot /var/lib/haproxy
pidfile /var/run/haproxy.pid
maxconn 100000
user haproxy
group haproxy
daemon
# turn on stats unix socket
stats socket /var/lib/haproxy/haproxy.sock1 mode 600 level admin process 1 #
启用多个sock文件
stats socket /var/lib/haproxy/haproxy.sock2 mode 600 level admin process 2
nbproc 2 #启用多进程
cpu-map 1 0 #进程和cpu核心绑定防止cpu抖动从而减少系统资源消耗
cpu-map 2 1 #2 表示第二个进程,1表示第二个cpu核心
nbproc 2后接了几个数字就会开几个work,把主进程分成了多个子进程,和核有关,不是越多越好
实验:
这里可以看出是一个父程序(haproxy)后接了两个子程序,子进程通常负责 流量转发、负载均衡
启动多线程
注意:多线程和多进程之间不能同时使用会互斥
如果开起了多线程,需要与cpu的核心绑定,不会出现交叉使用的现象
proxies参数说明
Proxies配置-defaults
defaults
mode http #HAProxy实例使用的连接协议
log global #指定日志地址和记录日志条目的 syslog/rsyslog日志设备
#此处的 global表示使用 global配置段中设定的log值。
option httplog #日志记录选项,httplog表示记录与 HTTP 会话相关的各种属性值
#包括 HTTP请求、会话状态、连接数、源地址以及连接时间等
option dontlognull #dontlognull表示不记录空会话连接日志
option http-server-close #等待客户端完整HTTP请求的时间,此处为等待10s。
option forwardfor except 127.0.0.0/8 #透传客户端真实IP至后端web服务器
#在apache配置文件中加入:<br>%{X-Forwarded-For}i
#后在webserver中看日志即可看到地址透传 信息
option redispatch #当server Id对应的服务器挂掉后,强制定 向到其他健康的服务器,重新派发
option http-keep-alive #开启与客户端的会话保持
retries 3 #连接后端服务器失败次数
timeout http-request 10s #等待客户端请求完全被接收和处理的最长时间
timeout queue 1m #设置删除连接和客户端收到503或服务不可用等提示信息前的等待时间
timeout connect 120s #设置等待服务器连接成功的时间
timeout client 600s #设置允许客户端处于非活动状态,即既不发 送数据也不接收数据的时间
timeout server 600s #设置服务器超时时间,即允许服务器处于既 不接收也不发送数据的非活动时间
timeout http-keep-alive 60s #session 会话保持超时时间,此时间段内会转发到相同的后端服务器
timeout check 10s #指定后端服务器健康检查的超时时间
maxconn 3000
default-server inter 1000 weight 3
server配置
#针对一个server配置
check #对指定real进行健康状态检查,如果不加此设置,默认不开启检查,只有check后面没 有其它配置也可以启用检查功能
#默认对相应的后端服务器IP和端口,利用TCP连接进行周期性健康性检查,注意必须指定端口才能实现健康性检查
addr <IP> #可指定的健康状态监测IP,可以是专门的数据网段,减少业务网络的流量
port <num> #指定的健康状态监测端口
inter <num> #健康状态检查间隔时间,默认2000 ms
fall <num> #后端服务器从线上转为线下的检查的连续失效次数,默认为3
rise <num> #后端服务器从下线恢复上线的检查的连续有效次数,默认为2
weight <weight> #默认为1,最大值为256,0(状态为蓝色)表示不参与负载均衡,但仍接受持久连接
backup #将后端服务器标记为备份状态,只在所有非备份主机down机时提供服务,类似Sorry Server
disabled #将后端服务器标记为不可用状态,即维护状态,除了持久模式
#将不再接受连接,状态为深黄色,优雅下线,不再接受新用户的请求
redirect prefix http://www.baidu.com/ #将请求临时(302)重定向至其它URL,只适用于http模
式
maxconn <maxconn> #当前后端server的最大并发连接数
实验
weight
backend
注意:此时此刻要注意要关闭web1和web2的内容
disabled ----代表下线了
redirect prefix http://www.baidu.com/ ---重定向网页
maxconn <maxconn>
socat工具
对服务器动态权重和其它状态可以利用 socat工具进行调整,Socat 是 Linux 下的一个多功能的网络工具。
Socat 的主要特点就是在两个数据流之间建立双向通道,且支持众多协议和链接方式。
如 IP、TCP、 UDP、IPv6、Socket文件等。
准备:
model 666 权限 level admin级别
记得下载socat
多进程
haproxy多进程如何热处理
stdio标准的输入输出
haproxy算法
HAProxy通过固定参数 balance 指明对后端服务器的调度算法
balance参数可以配置在listen或backend选项中。
HAProxy的调度算法分为静态和动态调度算法
有些算法可以根据参数在静态和动态算法中相互转换。
加参数是动态算法,不加是静态算法
要讲算法,首先就要知道算法究竟是做什么的?
在我看来,haproxy 的算法就像一个 “指挥官”,它负责把来自用户的请求合理分配到多台服务器上,避免单台服务器累垮,同时让用户体验更流畅。
在这个基础上,haproxy的算法又可以分为好几类:静态算法、动态算法和其他算法
静态算法
按照事先定义好的规则轮询公平调度,不关心后端服务器的当前负载、连接数和响应速度等,且无法实时修改权重(只能为0和1,不支持其它值),只能靠重启HAProxy生效。
static-rr:基于权重的轮询调度
- 不支持运行时利用socat进行权重的动态调整(只支持0和1,不支持其它值)
- 不支持端服务器慢启动(慢启动是指在服务器刚刚启动上不会把他所应该承担的访问压力全部给它,而是先给一部分,当没问题后在给一部分)
- 其后端主机数量没有限制,相当于LVS中的 wrr
其实它的特点非常简单,首先它虽然是基于权重来分配,但实际上是按照定义好的规则顺序来分配的,并且当有新服务器时,完全不会有“新人保护期”,上来就是满负载,并且对后端主机的数量没有限制。
实验:
可以支持在线的权重调整
但是socat这里不能动态修改权重
first
- 根据服务器在列表中的位置,自上而下进行调度
- 其只会当第一台服务器的连接数达到上限,新请求才会分配给下一台服务
- 其会忽略服务器的权重设置
- 不支持用socat进行动态修改权重,可以设置0和1,可以设置其它值但无效
那first的特点从名字就能看得出来,后端主机的顺序就是“铁律”,第一个没满,后面的想都不要想。在它这里权重并不重要,顺序才是王道,同样他也是不支持动态调整的
实验:
所有流量打到第一个,第一个撑不住了,才会轮到下一个
尝试让第一个死掉
first算法中 没有权重的影响,第一个就是权重最高的
看到这里,静态算法的优点已经很突出了,它们简单直接,开销极低,算法实现难度很低。
但是,在现实中,服务器集群很少能保持 “理想状态”,因此静态算法的缺点也很明显,它们太死板、不抗变、资源分配也容易失衡。
在遇到复杂的情况时,静态算法要么手足无措,要么硬着头皮按老规矩来,最终可能导致部分服务器累死、部分服务器闲死,用户体验也会跟着打折扣。那此时动态算法就该登场了。
动态算法
- 基于后端服务器状态进行调度适当调整,
- 新请求将优先调度至当前负载较低的服务器
- 权重可以在haproxy运行时动态调整无需重启
roundrobin(最广泛也是默认使用的)
- 基于权重的轮询动态调度算法,
- 支持权重的运行时调整,不同于lvs中的rr轮训模式,
- HAProxy中的roundrobin支持慢启动(新加的服务器会逐渐增加转发数),
- 其每个后端backend中最多支持4095个real server
- 支持对real server权重动态调整
- roundrobin为默认调度算法,此算法使用广泛
它是最广泛的也是被默认使用的动态算法,它的功能可以和static--rr对应上,首先他可以动态修改权重,这样的灵活性是之前的静态算法无法做到的,并且动态算法的新服务器时具有保护期的,他不会一上来就被压垮,最后他也能管理很多后端服务器,但最多是4095台。
实验:
支持慢启动 对后端的RS有数量限制
不是严格按照设定的权重来执行的,会结合实际情况,选择最小的
leastconn
- leastconn加权的最少连接的动态
- 支持权重的运行时调整和慢启动,即:根据当前连接最少的后端服务器而非权重进行优先调度(新客户端连接)
- 比较适合长连接的场景使用,比如:MySQL等场景
接着我们来说动态算法里的另一位“灵活调度员”,它和第一个动态算法来比,她的思路则更直接:谁比较闲,就给谁派活儿。
对它来说,“当前连接最少”是第一优先级,权重只是“辅助参考”
而且它特别擅长处理“连接时间长,容易扎堆”的场景,能避免服务器 “忙的忙死、闲的闲死”。
实验:
目前后端都属于闲置状态,所以流量打入,会均摊
讲到这里,动态算法的两种类型也讲完了,在我看来动态算法就像两个贴心的管家,它们都支持权重的实时调整,服务器有个 “头疼脑热” 能及时减负,新服务器加入也能平稳过渡,在真实环境里,它们表现得相当靠谱。
它们还有一个特殊点,那就是它们既可以作为静态算法,又可以通过选项成为动态算法,这是因为他们有两种转发客户端请求到后端服务器的服务器选取计算方式,在介绍这些算法前,我们先要能理解一下这些方法
详细的讲解老师在上课时已经讲过了,那我这里就用一个我自己理解的方法来解释
第一个:map-base 取模法
大家都有取过快递吧
假设这里有 3 个快递柜(相当于 3 台服务器),分别叫 A、B、C,每天有无数快递(相当于数据)要放进柜子里。
快递小哥想了个简单的规则:
- 给每个快递编个号(比如快递 1、快递 2、快递 3...);
- 用快递编号除以快递柜数量(3),看余数:
- 余数 = 0 → 放 A 柜
- 余数 = 1 → 放 B 柜
- 余数 = 2 → 放 C 柜
比如:
- 快递 1:1÷3=0 余 1 → 放 B 柜
- 快递 5:5÷3=1 余 2 → 放 C 柜
- 快递 6:6÷3=2 余 0 → 放 A 柜
这样做的优点:简单粗暴,口算就能分。
但问题来了:如果小区人变多,快递柜增加到 4 个(新增 D 柜),规则就得改成 “除以 4 看余数”。这时你会发现 ——
原来放 A 柜的快递 6(6÷3 余 0),现在 6÷4 余 2 → 得改放 C 柜;
原来放 B 柜的快递 1(1÷3 余 1),现在 1÷4 余 1 → 还放 B 柜(少数幸运儿);
大部分快递的柜子都变了!快递小哥得把几乎所有快递从旧柜子挪到新柜子,累到哭…
那从这里就能看出,这是一个具有静态算法特点的方法,它的操作很简单,但是缺点也很明显
第二个:一致性hash
那还是这些快递和快递柜,但这次我们把小区的路设计成一个环形,这就是 “哈希环”
- 给每个快递柜在环上找个位置:
- A 柜站在 100 米处
- B 柜站在 200 米处
- C 柜站在 300 米处
- 给每个快递也在环上找个位置:
- 快递 1 站在 150 米处
- 快递 5 站在 250 米处
- 快递 6 站在 350 米处
- 规则:每个快递顺时针走,遇到的第一个快递柜就是它的 “家”。
比如:
- 快递 1 在 150 米,顺时针走先遇到 200 米的 B 柜 → 放 B 柜;
- 快递 5 在 250 米,顺时针遇到 300 米的 C 柜 → 放 C 柜;
- 快递 6 在 350 米,顺时针走到 400 米(=0 米)后遇到 100 米的 A 柜 → 放 A 柜。
那这个方法的关键优势:即便服务器数量变化了,也不用大规模挪快递!
- 如果新增 D 柜,放在 250 米处:
原来 200-250 米之间的快递(比如 230 米的快递),本来去 B 柜,现在改去 D 柜;其他快递位置不变,不用动。- 如果 C 柜坏了(300 米空了):
原来 250-300 米的快递(比如 280 米),现在顺时针走到 100 米的 A 柜;其他快递不受影响。
从这里也能看出,一致性hash的方法更具有动态算法的特点,环境变化时迁移数据更少,也更能适应复杂的环境
那我们理解了这两个方法的原理,最后几种算法的为什么能发生动态静态之间的变化也就很好学会了
那最后一种算法类型,它们本质上都是'哈希固定'—— 指用某个 “不变的特征” 算一个值,把相关请求绑定到同一台服务器,解决会话保持 或 数据集中的问题。
source(源地址哈希):认用户 IP,同一 IP 的请求永远去同一服务器。适合不用 Cookie 但要保持登录状态的场景,缺点是同一 IP会挤到同一台服务器。
uri(URI 哈希):认访问的网址,同一网址请求去同一服务器。缓存服务器最爱用,比如图片服务器,同一图片请求集中处理,缓存效率高。
url_param(URL 参数哈希):认 URL 里的特定参数(比如
user)
,同一参数值的请求去同一服务器。电商常用,确保同一用户的购物、下单操作在同一服务器,数据更一致。hdr(HTTP 头部哈希):认 HTTP 请求头里的特定信息(比如域名、自定义标识),同一标识的请求去同一服务器。灵活度高,适合按域名、用户标识等特殊规则分流的场景。
其他算法
其它算法即可作为静态算法,又可以通过选项成为动态算法
source
规则:看访客的 “身份证号”(用户 IP 地址),用这个号算个 “座位号”,以后这个身份证号的人再来,永远坐同一个座位。
例子:你家的 IP 是 192.168.1.100,第一次来被分到座位 A,以后你每次来都只能坐 A。
好处:适合 “需要记住你之前做过什么” 的场景(比如登录状态 session),不用靠 Cookie,就能让你在同一个服务器上找到自己的会话信息。
小缺点:如果服务器增减,很多人的座位会被迫换掉(哈希结果变了);
实验
如果访问客户端时一个家庭,那么所有的家庭的访问流量都会被定向到一台服务器,这是source算法的缺陷
map-base 取模法(静态)
取模法,对source地址进行hash计算,再基于服务器总权重的取模,最终结果决定将此请求转发至对应的后端服务器
此方法是静态的,即不支持在线调整权重,不支持慢启动,可实现对后端服务器均衡调度
缺点是当服务器的总权重发生变化时,即有服务器上线或下线,都会因总权重发生变化而导致调度结果整体改变
一致性hash(动态)

配置生效后 socat的效果
uri
- 基于对用户请求的URI的左半部分或整个uri做hash,再将hash结果对总权重进行取模后
- 根据最终结果将请求转发到后端指定服务器
- 适用于后端是缓存服务器场景
- 默认是静态算法,也可以通过hash-type指定map-based和consistent,来定义使用取模法还是一致性
注意:此算法基于应用层,所以只支持 mode http ,不支持 mode tcp
规则:看你要办的 “业务名称”(比如访问的网址),用业务名称算个座位号,同一业务永远去同一个座位。
例子:所有请求 “看 logo 图片” 的人,都被分到座位 B,座位 B 就可以把这张图片存起来(缓存),下次有人再来要,直接拿出来给,不用重新找。
最适合:缓存服务器场景,同一资源请求集中到一台服务器,缓存效率超高。
实验:
uri 取模法配置示例
uri一致性hash配置
只要第一次不变第二次依旧访问那个路径以及效果
url_param
- url_param对用户请求的url中的 params 部分中的一个参数key对应的value值作hash计算,并由服务器总权重相除以后派发至某挑出的服务器,后端搜索同一个数据会被调度到同一个服务器,多与电商
- 通常用于追踪用户,以确保来自同一个用户的请求始终发往同一个real server
- 如果无没key,将按roundrobin算法
规则:看你的 “专属编号”(比如 URL 里的
userid=123
或orderid=456
),用这个编号算座位号,同一编号永远去同一个座位。
例子:电商网站里,所有 “userid=123” 的请求都去座位 C,座位 C 上就存着这个用户的购物车、订单记录,处理起来更高效。
常用场景:需要追踪用户行为的场景(比如电商、社交),确保同一用户的所有操作都在同一台服务器上,数据一致性更好。如果没找到这个参数,就自动用roundrobin规则分配。
url_param取模法配置
url_param一致性hash配置
hdr
- 针对用户每个http头部(header)请求中的指定信息做hash,
- 此处由 name 指定的http首部将会被取出并做hash计算,
- 然后由服务器总权重取模以后派发至某挑出的服务器,如果无有效值,则会使用默认的轮询调度。
规则:看你身上的 “特殊标识”(比如 HTTP 请求头里的
Host
、User-Agent
或自定义的X-User-Id
),用这个标识算座位号,同一标识永远去同一个座位。
例子:指定按 “Host” 头分配,所有访问www.abc.com
的请求去座位 D,访问api.abc.com
的请求去座位 E,方便按域名区分服务。
灵活性:想按哪个头部信息分,就指定哪个,适合有特殊标识需求的场景;如果没找到有效标识,就用轮询兜底。
hdr取模法配置示例
hdr一致性hash配置示例
算法总结
#静态
static-rr--------->tcp/http
first------------->tcp/http
#动态
roundrobin-------->tcp/http
leastconn--------->tcp/http
random------------>tcp/http
#以下静态和动态取决于hash_type是否consistent
source------------>tcp/http
Uri--------------->http
url_param--------->http
hdr--------------->http
算法使用场景
first #使用较少
static-rr #做了session共享的web集群
roundrobin
random
leastconn #数据库
source
#基于客户端公网IP的会话保持
Uri--------------->http #缓存服务器,CDN服务商,蓝汛、百度、阿里云、腾讯
url_param--------->http #可以实现session保持
hdr #基于客户端请求报文头部做下一步处理