Haproxy搭建负载集群

炒沙作縻终不饱,缕冰文章费工巧。这篇文章主要讲述Haproxy搭建负载集群相关的知识,希望能为你提供帮助。
理论部分 常见的web集群调度器分为软件和硬件
软件通常使用开源的LVS、Haproxy、 nginx
LVS性能最好,但是搭建相对复杂; Nginx 的upstream模块支持群集功能,但是对群集节点健康检查功能不强,高并发性能没有Haproxy好。
硬件一般使用比较多的是F5,也有很多人使用国内的一些产品,如梭子鱼、绿盟等
Haproxy应用分析
LVS在企业应用中抗负载能力很强,但存在不足
●LVS不支持正则处理,不能实现动静分离
【Haproxy搭建负载集群】●对于大型网站,LVS的实施配置复杂,维护成本相对较高
Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件
●适用于负载大的Web站点
●运行在硬件上可支持数以万计的并发连接的连接请求
企业应用虚拟机:
VMsphere ESXI
云平台:公有云(华为、阿里、AWS、微软)、私有云(openstack) 、混合云(能满足对外企业的发布,同时也能满足网络环境的安全需求)
Haproxy调度算法原理
Haproxy支持多种调度算法,最常用的有三种
RR (Round Robin)
RR算法是最简单最常用的一种算法,即轮询调度
理解举例
有三个节点A、B、C
第一个用户访问会被指派到节点A
第二个用户访问会被指派到节点B
第三个用户访问会被指派到节点C
第四个用户访问继续指派到节点A,轮询分配访问请求实现负载均衡效果.
Haproxy调度算法原理
Haproxy支持多种调度算法,最常用的有三种
LC (Least Connections)
最小连接数算法,根据后端的节点连接数大小动态分配前端请求
理解举例
有三个节点A、B、C,各节点的连接数分别为A:4、B:5、 C:6
第一个用户连接请求,会被指派到A上,连接数变为A:5、B:5、 C:6
第二个用户请求会继续分配到A_上,连接数变为A:6、B:5、 C:6; 再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端
由于实际情况下A、B、C的连接数会动态释放,很难会出现- -样连接数的情况
此算法相比较rr算法有很大改进,是目前用到比较多的一种算法
Haproxy调度算法原理
Haproxy支持多种调度算法, 最常用的有三种
SH (Source Hashing)
基于来源访问调度算法,用于- -些有Session会话记录在服务器端的场景,可以基于来源的IP、Cookie等做集群调度
理解举例
有三个节点A、B、C,第一个用户第一-次访问被指派到了A,第二个用户第一-次访问被指派到了B
当第一一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡调度器不重启,第一一个用户访问都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度
此调度算法好处是实现会话保持,但某些IP访问量非常大时会引|起负载不均衡,部分节点访问量超大,影响业务使用
HAPrbxy是可提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,是免费、快速并且可靠的一 种解决方案。HAProxy非常适用于并发大(并发达1w以上)web站点,这些站点通常又需要会话保持或七层处理。HAProxy的运行模式使得它可以很简单安全的整合至当前的架构中(,同时可以保护web服务器不被暴露到网络.上。
!!! HAProxy的主要特性有:
●可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;
●最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;
●支持多达8种负载均衡算法,同时也支持会话保持;
●支持虚机主机功能,从而实现web负载均衡更加灵活;
●支持连接拒绝、全透明代理等独特的功能;
●拥有强大的ACL支持,用于访问控制;
●其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了01),即数据的查寻速度不会随着数据条目的增加而速度有所下降;
●支持客户端的keepalive功能, 减少客户端与haproxy的
●支持TCP加速, 零复制功能,类似于mmap机制;
●支持响应池( response buffering) ;
●支持RDP协议;
●基于源的粘性,类似nginx的ip_hash功能,把来自同--客户端的请求在一-定时间内始终调度到上游的同一服务器;
●更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息;
●详细的健康状态检测,web接口中有关于对.上游服务器的健康检测状态,并提供了一定的管理功能;
●基于流量的健康评估机制;
●基于http认证;
●基于命令行的管理接口;
●日志分析器,可对日志进行分析。
HAProxy负载均衡策略非常多,常见的有如下8种:
(1) roundrobin, 表示简单的轮询
(2) static-rr, 表示根据权重
(3) leastconn, 表示最少连接者先处理
(4)source,表示根据请求源IP
(5)uri,表示根据请求的URI,做cdn需使用;
(6) url param, 表示根据请求的URl参数balance url param requires an URL parameter name
(7) hdr (name), 表示根据HTTP请求头来锁定每一 次HTTP请求;
(8) rdp- cookie (name),表示根据据cookie (name)来锁定并哈希每一次TCP请求 。
LVS、Nginx、HAproxy的区别:
LVS基于Linux操作系统内核实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡;
LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而HAProxy 和Nginx都可以实现4层和7层技术,HAProxy 可提供TCP和HTTP应用的负载均衡综合解决方案;
LVS因为工作在IS0模型的第四层,其状态监测功能单- - ,而HAProxy在状态 监测方面功能更丰富、强大,可支持端口、URL、 脚本等多种状
态检测方式;
HAProxy功能强大,但整体性能低于4层模式的LVS负载均衡。
Nginx主要用于Web服务器或缓存服务器。Nginx的upstream模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好。
Nginx的优点:
●工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构。Nginx正则规则比HAProxy更为强大和灵活。
●Nginx对网络稳定性的依赖非常小,理论.上能ping通就就能进行负载功能,LVS对网络稳定性依赖比较大,稳定要求相对更高。
●Nginx安装和配置、测试比较简单、方便,有清晰的日志用于排查和管理,LVS的配置、测试就要花比较长的时间了。
●可以承担高负载压力且稳定,一 般能支撑几万次的并发量,负载度比LVS相对小些。
●Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等。
●Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的Web应用服务器。
●Nginx作为Web反向加速缓存越来越成熟了,1速度比传统的Squid服务器更快,很多场景下都将其作为反向代理加速器。
●Nginx作为静态网页和图片服务器,这方面的性能非常优秀,同时第三方模块也很多。
Nginx的缺点:
●Nginx仅能支持http、https和Email 协议,这样就在适用范围上面小些。
●对后 端服务器的健康检查,只支持通过端口来检测, 不支持通过url来检测。
●不支持Session的直接保持,需要通过ip_hash和cookie的引导来解决。
LVS的优点:
●抗负载能力强、是工作在网络4层之.上仅作分发之用,没有流量的产生。因此负载均衡软件里的性能最强的,对内存和cpu资源消耗比较低。
●LVS工作稳定,因为其本身抗负载能力很强,自身有完整的双机热备方案。
|●无流量,LVS只分发请求,而流量并不从它本身出去,这点保证了均衡器I0的性能不会收到大流量的影响。
●应用范围较广,因为LVS工作在4层,所以它几乎可对所有应用做负载均衡,包括http、 数据库等。
LVS的缺点:
●软件本身不支持正则表达式处理,不能做动静分离。相对来说,Nginx/ HAProxy+Keepalived则具有明显的优势。
●如果是网站应用比较庞大的话,LVS/ DR+Keepalived实施起来就比较复杂了。相对来说,Nginx/ HAProxy+Keepalived就简单多了。
HAProxy的优点:
●HAProxy也是支持虚拟主机的。
●HAProxy支持8种负载均衡策略。
●HAProxy的优点能够补充Nginx的一些缺点,比如支持Session的保持,Cookie的引导,同时支持通过获取指定的url来检测后端服务器的状态。
●HAProxy跟IVs类似,本身就只是一款负载均衡软件,单纯从效率上来讲HAProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。
●HAProxy支持TCP协议的负载均衡转发。
综合比较:
并发性能: LVS > HAproxy > Nginx
LVS是基于os的内核,HAproxy和Nginx是基于用户态的软件应用实现的
功能: LVS 只支持4层转发,HAproxy和Nginx 都能支持4层和7层转发
健康检查: LVS 监测功能单一,和Nginx 都主要用端口来检测,Haproxy检测手段很多,url, 端口,脚本等
实验 使用haproxy搭建集群环境:192.168.206.0/24
一台haproxy206.100
两台节点 206.102、206.103
实验拓扑图:

Haproxy搭建负载集群

文章图片

1、首先是配置两台节点服务器206.102、206.103
```html/xml
systemctl stop firewalld
setenforce 0
yum install -y httpd
echo test web 1 > /var/www/html/index.html#节点1号
echo test web 1.1 > /var/www/html/test.html
echo test web 2 > /var/www/html/index.html#节点2号
echo test web 2.1 > /var/www/html/test.html
2、haproxy服务器 ```html/xml 用winscp把haproxy传给opt yum install -y pcre-devel bzip2-devel gcc gcc-c++ make#安装haproxy的依赖包tar zxvf haproxy-1.5.19.tar.gz cd haproxy-1.5.19/ make TARGET=linux2628 ARCH=x86_64#编译haproxy,内核版本高于2.6的就使用linux2628 make install#安装mkdir /etc/haproxy#创建/etc/haproxy目录 cp examples/haproxy.cfg/etc/haproxy/#备份 cd /etc/haproxy/ vim haproxy.cfg#设置配置文件 ............................ 1、4、5行–修改,配置日志记录,local0为日志设备 log /dev/loglocal0 info log /dev/loglocal0 notice2、8行–注释,需将此行注释掉 #chroot /usr/share/haproxy3、 contimeout5000 clitimeout50000 srvtimeout50000 #这些都要注释掉,连接、服务器、客户端的连接超时设定 timeout http-request 10s timeout queue 1m timeout connect 10s timeout client 1m timeout server 1m timeout http-keep-alive 10s timeout check 10s #下面再加入如下日志5、删除所有的linten行,加入以下此项即可listenwebcluster 0.0.0.0:80 option httpchk GET /test.html balance roundrobin roundrobin server inst1 192.168.206.102:80 check inter 2000 fall 3 server inst2 192.168.206.103:80 check inter 2000 fall 3 .............................#下面是添加haproxy系统的配置 cp /opt/haproxy-1.5.19/examples/haproxy.init/etc/init.d/haproxy#解压包里的文件脚本复制到系统目录下 cd /etc/init.d/ ls chmod +x haproxy chkconfig --add /etc/init.d/haproxy ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy service haproxy start

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

验证:去客机验证,客机访问206.100.成功转跳
Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

拓展实验 获取(定义)haproxy的日志
默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般 单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中。
首先是去haproxy.cfg修改相应的全局设置日志文件
```html/xml
vim /etc/haproxy/haproxy.cfg
.......................
global
log /dev/log local0 info
log /dev/log local0 notice
.........................
service haproxy restart
下面是需要修改rsyslog配置,为了便于管理。将haproxy 相关的配置独立定义到haproxy. conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。 ```html/xml vim /etc/rsyslog.d/haproxy.conf ............................ if ($programname == haproxy and $syslogseverity-text == info) then -/var/log/haproxy/haproxy-info.log & ~ if ($programname == haproxy and $syslogseverity-text == notice) then -/var/log/haproxy/haproxy-notice.log & ~ ............................ #这部分配置是将haproxy的info日志记录到/var/1og/haproxy/haproxy- info.log下,将notice 日志记录到/var/log/ haproxy/haproxy-notice.log下。 “& ~"表示当日志写入到日志文件后,rsyslog停止处理这个信息。systemctl restart rsyslog.service tail -f /var/1og/haproxy/haproxy-info.1og#查看haproxy的访问请求日志信息

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片

Haproxy搭建负载集群

文章图片


    推荐阅读