Haproxy 部署Web群集

寸阳分阴须爱惜,休负春色与时光。这篇文章主要讲述Haproxy 部署Web群集相关的知识,希望能为你提供帮助。
常见的Web集群调度器

1、目前常见的Web集群调度器分为软件和硬件
2、软件通常使用开源的LVS、Haproxy、 nginx
LVS性能最好,但是搭建相对复杂; nginx 的upstream模块支持群集功能,但是对群
集节点健康检查功能不强,高并发性能没有haproxy好。
3、硬件一般使用比较多的是F5,也有很多人使用国内的一些产品,如梭子鱼、绿盟等

Haproxy应用分析
1、LVS在企业应用中抗负载能力很强,但存在不足
LVS不支持正则处理,不能实现动静分离
对于大型网站,LVS的实施配置复杂,维护成本相对较高
2、Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件
适用于负载大的Web站点
运行在硬件上可支持数以万计的并发连接的连接请求

HAProxy是可提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,是免费、快
速并且可靠的一种解决方案。HAProxy非常适用于并发大(并发达1w以上)web站点,这些
站点通常又需要会话保持或七层处理。HAProxy的运行模式使得它可以很简单安全的整合
至当前的架构中同时可以保护web服务器不被暴露到网络上。

HAProxy的主要特性有:
●可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;
●最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s:
●支持多达8种负载均衡算法,同时也支持会话保持;
●支持虚机主机功能,从而实现web负载均衡更加灵活:
●支持连接拒绝、全透明代理等独特的功能;
●拥有强大的ACL支持,用于访问控制;
●其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查寻速度不会随着数据条目的增加而速度有所下降:
●支持客户端的keepalive功能, 减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一 个tcp连接中完成:
●支持TCP加速,零复制功能,类似于mmap机制:
●支持响应池( response buffering) :
●支持RDP协议:
●基于源的粘性,类似nginx的ip_hash功能,把来自同一客户端的请求在一定时间内始终调度到上游的同--服务器;
●更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息:
●详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态,并提供了一定的管理功能;
●基于流量的健康评估机制:
●基于http认证;
●基于命令行的管理接口;
●日志分析器,可对日志进行分析。

Haproxy支持多种调度算法,最常用的有三种
(1) roundrobin, 表示简单的轮询
(2) static-rr, 表示根据权重
(3) leastconn, 表示最少连接者先处理
(4) source,表示根据请求源IP
(5)uri,表示根据请求的URI,做cdn需使用; .
(6) url_ param, 表示根据请求的UR1参数balance url_ param requires an URL parameter name
(7) hdr (name),表示根据HTTP请求头来锁定每一次HTTP请 求;
(8) rdp- cookie (name),表示根据据cookie (name)来锁定并哈希每一次TCP请 求。

1、RR (Round Robin):RR算法是最简单最常用的一种算法,即轮询调度

理解举例
有三个节点A、B、C
第一个用户访问会被指派到节点A
第二个用户访问会被指派到节点B
第三个用户访问会被指派到节点C
第四个用户访问继续指派到节点A,轮询分配访问请求实现负载均衡效果

2、LC (Least Connections):最小连接数算法,根据后端的节点连接数大小动态分配前端请求

理解举例
有三个节点A、B、C,各节点的连接数分别为A:4、B:5、 C:6
第一个用户连接请求,会被指派到A上,连接数变为A:5、B:5、 C:6
第二个用户请求会继续分配到A上,连接数变为A:6、B:5、 C:6; 再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端
由于实际情况下A、B、C的连接数会动态释放,很难会出现-样连接数的情况
此算法相比较rr算法有很大改进,是目前用到比较多的一种算法

3、SH (Source Hashing):基于来源访问调度算法,用于一些有Session会话记录在服务器端的场景,可以基于来源的IP、Cookie等做集群调度

理解举例
有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第一次.访问被指派到了B
当第一个用户第二次访问时会被继续指派到A,第一个用户第二次访问时依旧会被指派到B,只要负载均衡调度器不重启,第一个用户访问都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度
此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用

LVS、Nginx、 HAproxy的区别:
●LVS基于Linux操作系统内核实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡:
●LVS是可实现4层的IP负载均衡技术,无法实现基于日录、URL的转发。而HAProxy和Nginx 都可以实现4层和7层技术,HAProxy 可提供TCP和H

TTP应用的负载均衡综合解决方案:
●LVs因为工作在IS0模型的第四层,其状态监测功能单一而HAProxy在状态 监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状
态检测方式:
●HAProxy功能强大,但整体性能低于4层模式的IVS负载均衡。
●Nginx主要用于Web服务器或缓存服务器。Nginx的upstream模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Hapro
xy好。

并发性能: LVS > HAproxy > Nginx
LVS是基于0s的内核,HAproxY 和Nginx是基于用户态的软件应用实现的
功能: LVS只支持4层转发,HAproxy 和Nginx都能支持4层和7层转发
健康检查: LVS监测功能单一,
和Nginx都主要用端口来检测,Haproxy检测手段很多,url, 端口,脚本等

Haproxy搭建Web 群集环境配置:
Haproxy服务器: 192.168.163.6
Nginx服务器1:192.168.163.8
Nginx服务器2:192.168.163.9
客户端: 192.168.163.100

1.haproxy服务器部署
1.关闭防火墙,将安装Haproxy所需软件包传到/opt目录下
systemctl stop firewalld
setenforce 0

haproxy-1.5.19.tar.gz

2.编译安装Haproxy  
yum install -y pcre-devel bzip2-devel gcc gcc-c++ make

tar zxvf haproxy-1.5.19.tar.gz
cd haproxy-1.5.19/
make TARGET-linux2628 ARCH=x86_64
make install

------------------参数说明----------------
TARGET=1inux26 #内核版本,
#使用uname -r查看内核,如: 2.6.18-371.e15, 此时该参数用TARGET=linux26; kernel大于2.6.28的用TARGET=1inux2628

ARCH=x86_ 64#系统位数,64位 系统





3. Haproxy服务器配置
mkdir /etc/haproxy
cp examples/haproxy.cfg /etc/haproxy/

cd /etc/haproxy/

vim haproxy.cfg
g1obal#全局配置,主要用于定义全局参数,属于进程级的配置,通常和操作系统配置有关
4~5行--修改,定义haproxy日志输出设置和日志级别,local0为日志设备,默认存放到系统日志
log /dev/loglocal0 info#修改
log /dev/loglocal0 notice#修改
#log loghostlocal0 info
maxconn 4096#最大连接数,需考虑ulimit - n限制,推荐使用10240
-8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
#chroot /usr/ share/haproxy
uid 99#用户UID
gid 99#用户GID
daemon#守护进程模式
nbproc 1#添加,设置并发进程数,建议与当前服务器CPU核数相等或为其2倍

defaults#配置默认参数,这些参数可以被用到Listen,frontend, backend组件
logglobal#引入global定义的日志格式
modehttp#模式为http (7层代理http,4层代理tcp)
optionhttplog#日志类别为http日志格式
optiondontlognull#不记录健康检查日志信息
retries 3#检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
redispatch#当服务器负载很高时,自动结束当前队列处理比较久的连接
maxconn 2000#最大连接数,"defaults"中 的值不能超过“global"段中的定义
#contimeout 5000#设置连接超时时间,默认单位是亳秒
#clitimeout 50000#设置客户端超时时间,默认单位是亳秒
#srvtimeout 50000#设置服务器超时时间,默认单位是亳秒
timeout http-request 10s#默认http请求超时时间
timeout queue 1m#默认队列超时时间
timeout connect 10s#默认连接超时时间,新版本中替代contimeout,该参数向后兼容
timeout cl ient 1m#默认客户端超时时间,新版本中替代clitimeout,该参数向后兼容
timeout server 1m#默认服务器超时时间,新版本中替代srvtimeout,该参数向后兼容
timeout http-keep-alive 10s#默认持久连接超时时间
timeout check 10s#设置心跳检查超时时间

--删除下面所有listen项--,添加
listenwebcluster 0.0.0.0:80#haproxy实例状态监控部分配置,定义一个名为webcluster的应用
option httpchk GET /test.html#检查服务器的test.html文件
balance roundrobin#负载均衡调度算法使用轮询算法roundrobin
server inst1 192.168.163.8:80 check inter 2000 fall 3#定义在线节点
server inst2 192.168.163.9:80 check inter 2000 fall 3

参数说明:
balance roundrobin#负载均衡调度算法
#轮询算法: roundrobin; 最小连接数算法: leastconn; 来源访问调度算法: source, 类似于nginx的ip_ hash

check inter 2000#表示启用对此后端服务器执行健康检查,设置健康状态检查的时间间隔,单位为亳秒
fall 3#表示连续三次检测不到心跳频率则认为该节点失效
若节点配置后带有"backup"表示该节点只是个备份节点,仅在所有在线节点都失效该节点才启用。不携带“backup”, 表示为主节点,和其
它在线节点共同提供服务。

【Haproxy 部署Web群集】

4.添加haproxy 系统服务
cp /opt/haproxy-1.5.19/examp1es/haproxy.init /etc/init.d/haproxy
chmod +x /etc/init.d/haproxy
chkconfig --add /etc/init.d/haproxy

ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
service haproxy start或/etc/init.d/haproxy start


5.节点服务器部署
systemctl stop firewalld
setenforce 0

yum install -y pcre-devel zlib-devel gcc gcc-c++ make :

useradd -M -s /sbin/nologin nginx

cd /opt
tar zxvf nginx-1.12.0.tar.gz -C /opt/

cd nginx-1.12.0/
./configure --prefix=/usr/local/nginx --user=nginx --group=nginx & & make & & make install

make & & make install

--192.168.163.8---
echo "this is kgc web" > /usr/local/nginx/html/test.html

--192.168.163.9---
echo "this is benet web" > /usr/local/nginx/html/test.html

1n -s /usr/ 1local/nginx/ sbin/nginx/usr/local/sbin/

nginx#启动nginx服务








6.测试Web群集
?在客户端使用浏览器访问http://192.168.163.6?
?日志定义:??默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中。?
vim /etc/

    推荐阅读