LVS&Keepalived—集群负载均衡企业高可用详解

丈夫志四海,万里犹比邻。这篇文章主要讲述LVS&Keepalived—集群负载均衡企业高可用详解相关的知识,希望能为你提供帮助。
LVS负载均衡集群及配置 负载均衡概述1、集群
通过集群(cluster)技术,可以在付出较低成本的情况下获得在性能、可靠性、灵活性方面的相对高的收益,其任务调度则是集群系统中的核心技术。
集群搭建完成后,可以利用多台计算机和组合进行海量请求处理(负载均衡),从而获得高处理效率,也可以用多个计算机做备份(高可用HA),使得任何一个机器坏了整个系统还是能正常运行。
2、负载均衡集群技术概述
① 负载均衡(Load Balance):负载均衡集群为企业需求提供了可解决容量问题的有效方案。负载均衡集群使负载可以在计算机集群中尽可能平均地分摊处理。
② 负载通常包括应用程序处理负载和网络流量负载,每个节点都可以承担一定的处理负载,并且可以实现处理负载在节点之间的动态分配,以实现负载均衡。
3、负载均衡集群技术的实现
负载均衡(Load Balance)
负载均衡技术类型:基于 4 层负载均衡技术和基于 7 层负载均衡技术
负载均衡实现方式:硬件负载均衡设备或者软件负载均衡
硬件负载均衡产品:F5 、深信服 、Radware
软件负载均衡产品: LVS(Linux Virtual Server)、 Haproxy、nginx、Ats(apache traffic server)
4、实现逻辑

LVS&Keepalived—集群负载均衡企业高可用详解

文章图片

5、负载均衡分类
负载均衡根据所采用的设备对象(软/硬件负载均衡),应用的OSI网络层次(网络层次上的负载均衡),及应用的地理结构(本地/全局负载均衡)等来分类。
根据应用的 OSI 网络层次来分类的负载均衡类型:
二层负载均衡(mac)
一般是用虚拟mac地址方式,外部对虚拟MAC地址请求,负载均衡接收后分配后端实际的MAC地址响应。
三层负载均衡(ip)
一般采用虚拟IP地址方式,外部对虚拟的ip地址请求,负载均衡接收后分配后端实际的IP地址响应。
四层负载均衡(tcp)
在三层负载均衡的基础上,用ip+port接收请求,再转发到对应的机器。
七层负载均衡(http)
根据虚拟的url或IP,主机名接收请求,再转向相应的处理服务器。
**实际应用中,常见四层负载及七层负载的应用。
6、四层负载均衡(基于IP+端口的负载均衡)
四层负载均衡,主要通过报文中的目标ip地址和端口,再加上负载均衡设备设置的服务器选择方式(分发策略,轮询),决定最终选择的内部服务器。
在三层负载均衡的基础上,通过发布三层的IP地址(VIP),及四层的端口号,来决定哪些流量需要做负载均衡,对需要处理的流量进行NAT处理,转发至后台服务器,并记录下这个TCP或者UDP的流量是由哪台服务器处理的,后续这个连接的所有流量都同样转发到同一台服务器处理。
以常见的TCP为例,负载均衡设备在接收到第一个来自客户端的SYN 请求时,即通过上述方式选择一个最佳的服务器,并对报文中目标IP地址进行修改(改为后端服务器IP),直接转发给该服务器。TCP的连接建立,即三次握手是客户端和服务器直接建立的,负载均衡设备只是起到一个转发动作。在某些部署情况下,为保证服务器回包可以正确返回给负载均衡设备,在转发报文的同时可能还会对报文原来的源地址进行修改。
  • 实现四层负载均衡的设备和软件有:
F5:硬件负载均衡器,功能很好,成本很高
lvs:重量级的四层负载均衡软件
haproxy:模拟四层、七层转发,较灵活
7、七层的负载均衡(基于虚拟的URL或主机IP的负载均衡)
所谓七层负载均衡,也称为“内容交换”,也就是主要通过报文中的真正有意义的应用层内容,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。
在四层负载均衡的基础上(没有四层是就没有七层),再考虑应用层的特征,比如同一个Web服务器的负载均衡,除了根据IP加80端口辨别是否需要处理的流量,还可根据七层的URL、浏览器类别、语言来决定是否要进行负载均衡。
负载均衡设备如果要根据真正的应用层内容再选择服务器,只能先代理最终的服务器和客户端建立连接(三次握手)后,才可能接受到客户端发送的真正应用层内容的报文,然后再根据该报文中的特定字段,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。负载均衡设备在这种情况下,更类似于一个代理服务器。负载均衡和前端的客户端以及后端的服务器会分别建立TCP连接。所以从这个技术原理上来看,七层负载均衡明显的对负载均衡设备的要求更高,处理七层的能力也必然会低于四层模式的部署方式。
对应的负载均衡器除了支持四层负载均衡以外,还有分析应用层的信息,如HTTP协议URI等信息,实现七层负载均衡。此种负载均衡器能理解应用协议。
实现七层负载均衡的软件有:
haproxy:天生负载均衡技能,全面支持四层,七层代理,会话保持,标记,路径转移;
nginx:只在http协议和mail协议上功能比较好,性能与haproxy差不多;
apache:功能较差;
mysql proxy:功能尚可。
8、四层负载与七层负载的区别
LVS&Keepalived—集群负载均衡企业高可用详解

文章图片

四层负载与七层负载最大的区别就是效率与功能的区别。
四层负载架构设计比较简单,无需解析具体的消息内容,在网络吞吐量及处理能力上会相对比较高;而七层负载均衡的优势则体现在功能多,控制灵活强大。在具体业务架构设计时,使用七层负载或者四层负载还得根据具体的情况综合考虑。
LVS 实现四层负载均衡应用1、LVS 介绍
(1)LVS 是Linux Virtual Server的简称,也就是 Linux 虚拟服务器, 现在LVS已经是 Linux标准内核的一部分,因此性能较高。
(2)LVS软件作用:通过LVS提供的负载均衡技术实现一个高性能、高可用的服务器群集,它具有良好可靠性、可扩展性和可操作性。从而以低廉的成本实现最优的服务性能。
2、LVS 优势与不足
(1、优势
高并发连接:LVS基于内核工作,有超强的承载能力和并发处理能力。单台LVS负载均衡器,可支持上万并发连接。
稳定性强:是工作在网络4层之上仅作分发之用,它在负载均衡软件里的性能最强,稳定性最好,对内存和cpu资源消耗极低。
成本低廉:硬件负载均衡器价格较高,而LVS只需一台服务器和就能免费部署使用,性价比极高。
配置简单:LVS配置非常简单,仅需几行命令即可完成配置,也可写成脚本进行管理。
支持多种算法:支持多种论调算法,可根据业务场景灵活调配进行使用
支持多种工作模型:可根据业务场景,使用不同的工作模式来解决生产环境请求处理问题。
应用范围广:因为LVS工作在4层,所以它几乎可以对所有应用做负载均衡,包括http、数据库、DNS、ftp服务等等
(2、不足
工作在4层,不支持7层规则修改,机制过于庞大,不适合小规模应用。
(3、LVS 核心组件和专业术语
(1)、核心组件
LVS的管理工具和内核模块 ipvsadm/ipvs
ipvsadm:用户空间的命令行工具,用于管理集群服务及集群服务上的RS等;
ipvs:工作于内核上的程序,可根据用户定义的集群实现请求转发;
(2)、术语
VS:Virtual Server #虚拟服务
Director, Balancer #负载均衡器、分发器
RS:Real Server #后端请求处理服务器
CIP: Client IP #用户端IP
VIP:Director Virtual IP #负载均衡器虚拟IP
DIP:Director IP #负载均衡器真实IP
RIP:Real Server IP #后端请求处理服务器IP
(3)、LVS工作内核模型及工作模式
① 当客户端的请求到达负载均衡器的内核空间时,首先会到达 PREROUTING 链。
② 当内核发现请求数据包的目的地址是本机时,将数据包送往 INPUT 链。
③ LVS由用户空间的ipvsadm和内核空间的IPVS组成,ipvsadm用来定义规则,IPVS利用ipvsadm定义的规则工作,IPVS工作在INPUT链上,当数据包到达INPUT链时,首先会被IPVS检查,如果数据包里面的目的地址及端口没有在规则里面,那么这条数据包将被放行至用户空间。
④ 如果数据包里面的目的地址及端口在规则里面,那么这条数据报文将被修改目的地址为事先定义好的后端服务器,并送往POSTROUTING链。
⑤ 最后经由POSTROUTING链发往后端服务器。
(4)、LVS负载均衡四种工作模式
LVS/NAT:网络地址转换模式,进站/出站的数据流量经过分发器/负载均衡器(IP负载均衡,他修改的是IP地址) --利用三层功能LVS/DR :直接路由模式,只有进站的数据流量经过分发器/负载均衡器(数据链路层负载均衡,因为他修改的是目的mac地址)–利用二层功能mac地址LVS/TUN: 隧道模式,只有进站的数据流量经过分发器/负载均衡器LVS/full-nat:双向转换,通过请求报文的源地址为DIP,目标为RIP来实现转发:对于响应报文而言,修改源地址为VIP,目标地址为CIP来实现转发
(5)、LVS 四种工作模式原理、以及优缺点比较
(1、NAT模式(LVS-NAT)原理:把客户端发来的数据包的IP头的目的地址,在负载均衡器上换成其中一台RS的IP地址,转发至此RS来处理,RS处理完成后把数据交给经过负载均衡器,负载均衡器再把数据包的源IP地址改为自己的VIP,将目的地址改为客户端IP地址即可?期间,无论是进来的流量,还是出去的流量,都必须经过负载均衡器?
优点:集群中的物理服务器可以使用任何支持TCP/IP操作系统,只有负载均衡器需要一个合法的IP地址。 缺点:扩展性有限。当服务器节点(普通PC服务器)增长过多时,负载均衡器将成为整个系统的瓶颈,因为所有的请求包和应答包的流向都经过负载均衡器。当服务器节点过多时,大量的数据包都交汇在负载均衡器那,速度就会变慢!
LVS&Keepalived—集群负载均衡企业高可用详解

文章图片

(2、直接路由(Direct Routing)模式(LVS-DR)
原理:负载均衡器和RS都使用同一个IP对外服务?但只有DB对ARP请求进行响应,所有RS对本身这个IP的ARP请求保持静默?也就是说,网关会把对这个服务IP的请求全部定向给DB,而DB收到数据包后根据调度算法,找出对应的RS,把目的MAC地址改为RS的MAC(因为IP一致)并将请求分发给这台RS?这时RS收到这个数据包,处理完成之后,由于IP一致,可以直接将数据返给客户,则等于直接从客户端收到这个数据包无异,处理后直接返回给客户端?
优点:和TUN(隧道模式)一样,负载均衡器也只是分发请求,应答包通过单独的路由方法返回给客户端。与LVS-TUN相比,LVS-DR这种实现方式不需要隧道结构,因此可以使用大多数操作系统做为物理服务器。 缺点:(不能说缺点,只能说是不足)要求负载均衡器的网卡必须与物理网卡在一个物理段上。
图片: https://uploader.shimo.im/f/XIfxJCTMJBTihves.png
(3、IP隧道(Tunnel)模式(LVS-TUN)
原理:互联网上的大多Internet服务的请求包很短小,而应答包通常很大。那么隧道模式就是,把客户端发来的数据包,封装一个新的IP头标记(仅目的IP)发给RS,RS收到后,先把数据包的头解开,还原数据包,处理后直接返回给客户端不需要再经过负载均衡器?
由于RS需要对负载均衡器发过来的数据包进行还原,所以说必须支持IPTUNNEL协议?所以,在RS的内核中,必须编译支持IPTUNNEL这个选项
优点:负载均衡器只负责将请求包分发给后端节点服务器,而RS将应答包直接发给用户。所以减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,就能处理海量的请求量,这种方式,一台负载均衡器能够为很多RS进行分发。而且跑在公网上就能进行不同地域的分发。
缺点:隧道模式的RS节点需要合法IP,这种方式需要所有的服务器支持”IP Tunneling”(IP Encapsulation)协议,服务器可能只局限在部分Linux系统上。
LVS&Keepalived—集群负载均衡企业高可用详解

文章图片

( 4、FULL-NAT模式
原理:客户端对VIP发起请求,Director接过请求发现是请求后端服务。Direcrot对请求报文做full-nat,把源ip改为Dip,把目标ip转换为任意后端RS的rip,然后发往后端,rs接到请求后,进行响应,相应源ip为Rip目标ip还是DIP,又内部路由路由到Director,Director接到响应报文,进行full-nat。将源地址为VIP,目标地址改为CIP
请求使用DNAT,响应使用SNAT
lvs-fullnat(双向转换)
通过请求报文的源地址为DIP,目标为RIP来实现转发:对于响应报文而言,修改源地址为VIP,目标地址为CIP来实现转发:
(5、四者的区别
lvs-nat与lvs-fullnat:请求和响应报文都经由Director
lvs-nat:RIP的网关要指向DIP
lvs-fullnat:双向转换
lvs-dr与lvs-tun:请求报文要经由Director,但响应报文由RS直接发往Client
lvs-dr:通过封装新的MAC首部实现,通过MAC网络转发
lvs-tun:通过在原IP报文外封装新IP头实现转发,支持远距离通信
(6、LVS ipvsadm 命令的使用
(1)、LVS-server安装lvs管理软件
yum -y install ipvsadm

程序包:ipvsadm(LVS管理工具) 主程序:/usr/sbin/ipvsadm 规则保存工具:/usr/sbin/ipvsadm-save > /path/to/file 配置文件:/etc/sysconfig/ipvsadm-config

(2)、命令选项
LVS 负载均衡集群企业级应用部署环境准备
1、准备 3 台机器,两台 web 服务器
2、LVS-server 安装lvs管理软件
[root@lvs-server ~]# yum -y install ipvsadm 程序包:ipvsadm(LVS管理工具) 主程序:/usr/sbin/ipvsadm 规则保存工具:/usr/sbin/ipvsadm-save > /path/to/file 配 置文件:/etc/sysconfig/ipvsadm-config

3、LVS/DR 模式
说明:网络使用NAT模式;DR模式要求Director DIP 和 所有RealServe
r RIP必须在同一个网段及广播域3;所有节点网关均指定真实网关
LVS&Keepalived—集群负载均衡企业高可用详解

文章图片

2、LVS/DR模式实施(部署)
(1、准备工作(集群中所有主机)关闭防火墙和selinux(企业环境自行配置防火墙)
[rot@lvs-server ~]# cat /etc/hosts 127.0.0.1localhost localhost.localdomain loalhost4 localhost4.localdomain4 ::1localhost localhost.localdomain loalhost6 localhost6.localdomin6 192.168.246.166 lvs-servr 192.168.246.161 real-server1 192.168.246.162 real-server2

(2、Director分发器配
配置VIP
[root@lvs-server ~]# ip addr add dev ens33 192.168.246.160/32 #设置VIP [root@lvs-server ~]# yum install -y ipvsadm#RHEL确保LoadBalancer仓库可用 [root@lvs-server ~]# service ipvsadm start#启动 注意:启动如果报错: /bin/bash: /etc/sysconfig/ipvsadm: 没有那个文件或目录 需要手动生成文件 [root@lvs-server ~]# ipvsadm --save > /etc/sysconfig/ipvsadm

定义LVS分发策略
[root@lvs-server ~]# ipvsadm -C#清除内核虚拟服务器表中的所有记录。 [root@lvs-server ~]# ipvsadm -A -t 192.168.195.160:80 -s rr [root@lvs-server ~]# ipvsadm -a -t 192.168.195.160:80 -r 192.168.195.161 -g [root@lvs-server ~]# ipvsadm -a -t 192.168.195.160:80 -r 192.168.246.162 -g [root@lvs-server ~]# service ipvsadm save #保存方式一,使用下面的保存方式,版本7已经不支持了 [root@lvs-server ~]# ipvsadm -S > /etc/sysconfig/ipvsadm#保存方式二,保存到一个文件中 [root@lvs-server ~]# ipvsadm -ln IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:PortForward Weight ActiveConn InActConn TCP192.168.246.160:80 rr -> 192.168.246.161:80Route100 -> 192.168.246.162:80Route100 [root@lvs-server ~]# ipvsadm -L -n [root@lvs-server ~]# ipvsadm -L -n --stats#显示统计信息

2、Nginx+keepalived实现七层的负载均衡(同类服务)
  • upstream 支持的负载均衡算法
轮询(默认):可以通过weight指定轮询的权重,权重越大被调度的次数越多
ip_hash:可以实现会话保持,将同一客户的IP调度到同一样后端服务器,可以解决session的问题,不使用weight
fair:可以根据请求页面的大小和加载时间长短进行调度,使用第三方的upstrem_fair模块
url_hash:按请求的url的hash进行调度,从而使每个url定向到同一服务器,使用第三方的url_hash模块
配置安装nginx 所有的机器,关闭防火墙和selinux
[root@nginx-proxy ~]# cd /etc/yum.repos.d/ [root@nginx-proxy yum.repos.d]# vim nginx.repo [nginx-stable] name=nginx stable repo baseurl=http://nginx.org/packages/centos/$releasever/$basearch/ gpgcheck=0 enabled=1 [root@nginx-proxy yum.repos.d]# yum install yum-utils -y [root@nginx-proxy yum.repos.d]# yum install nginx -y

调度到不同组后端服务器
网站分区进行调度
拓扑结构
[vip: 20.20.20.20][LB1 Nginx][LB2 Nginx] 192.168.1.2192.168.1.3 [index][milis][videos][images][news] 1.111.211.311.411.51 1.121.221.321.421.52 1.131.231.331.431.53 ............... /web/web/milis/web/videos/web/images/web/news index.htmlindex.htmlindex.htmlindex.htmlindex.html

一、实施过程
1、选择两台nginx服务器作为代理服务器。
2、给两台代理服务器安装keepalived制作高可用生成VIP
3、配置nginx的负载均衡
以上两台nginx服务器配置文件一致
根据站点分区进行调度
配置upstream文件
[root@nginx-proxy ~]# cd /etc/nginx/conf.d/ [root@nginx-proxy conf.d]# mv default.conf default.conf.bak [root@nginx-proxy conf.d]# vim upstream.conf upstream index { server 192.168.246.162:80 weight=1 max_fails=2 fail_timeout=2; server 192.168.246.163:80 weight=2 max_fails=2 fail_timeout=2; } [root@nginx-proxy conf.d]# vim proxy.conf server { listen 80; server_namelocalhost; access_log/var/log/nginx/host.access.logmain; location / { proxy_pass http://index; proxy_redirect default; proxy_set_header Host $http_host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } } 将nginx的配置文件拷贝到另一台代理服务器中: [root@nginx-proxy-master conf.d]# scp proxy.conf 192.168.246.161:/etc/nginx/conf.d/ [root@nginx-proxy-master conf.d]# scp upstream.conf 192.168.246.161:/etc/nginx/conf.d/

二、Keepalived实现调度器HA
注:主/备调度器均能够实现正常调度
  1. 主/备调度器安装软件
[root@nginx-proxy-master ~]# yum install -y keepalived [root@nginx-proxy-slave ~]# yum install -y keepalived [root@nginx-proxy-slave ~]# cd /etc/nginx/conf.d/ [root@nginx-proxy-slave conf.d]# mv default.conf default.conf.bak [root@nginx-proxy-master ~]# mv /etc/keepalived/keepalived.conf /etc/keepalived/keepalived.conf.bak [root@nginx-proxy-master ~]# vim /etc/keepalived/keepalived.conf ! Configuration File for keepalivedglobal_defs { router_id directory1#辅助改为directory2 }vrrp_instance VI_1 { state MASTER#定义主还是备 interface ens33#VIP绑定接口 virtual_router_id 80#整个集群的调度器一致 priority 100#优先级,backup改为50 advert_int 1#心跳检测的时间间隔1s authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.246.16/24 } }[root@nginx-porxy-slave ~]# mv /etc/keepalived/keepalived.conf /etc/keepalived/keepalived.conf.bak [root@nginx-proxy-slave ~]# vim /etc/keepalived/keepalived.conf ! Configuration File for keepalivedglobal_defs { router_id directory2 }vrrp_instance VI_1 { state BACKUP#设置为backup interface ens33 nopreempt#设置到back上面,不抢占资源(VIP) virtual_router_id 80 priority 50#辅助改为50 advert_int 1 #检测间隔1s authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.246.16/24 } }

  1. 启动KeepAlived(主备均启动)
[root@nginx-proxy-master ~]# systemctl start keepalived [root@nginx-proxy-master ~]# systemctl enable keepalived [root@nginx-porxy-slave ~]# systemctl start keepalived [root@nginx-porxy-slave ~]# systemctl enable keepalived [root@nginx-proxy-master ~]# ip addr : lo: < LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: ens33: < BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 00:0c:29:48:07:7d brd ff:ff:ff:ff:ff:ff inet 192.168.246.169/24 brd 192.168.246.255 scope global dynamic ens33 valid_lft 1726sec preferred_lft 1726sec inet 192.168.246.16/24 scope global ens33 valid_lft forever preferred_lft forever inet6 fe80::23e9:de18:1e67:f152/64 scope link valid_lft forever preferred_lft forever

测试:
浏览器访问:http://192.168.246.16
如能正常访问,将keepalived主节点关机,测试vip是否漂移
到此:
可以解决心跳故障keepalived
不能解决Nginx服务故障,也就是心跳检测,确认的是keepalived主节点是否存活,而不是nginx服务是否正常运行
  1. 扩展对调度器Nginx健康检查(可选)两台都设置
    思路:
    让Keepalived以一定时间间隔执行一个外部脚本,脚本的功能是当Nginx失败,则关闭本机的Keepalived
(1) script
[root@nginx-proxy-master ~]# vim /etc/keepalived/check_nginx_status.sh #!/bin/bash /usr/bin/curl -I http://localhost & > /dev/null if [ $? -ne 0 ]; then # /etc/init.d/keepalived stop systemctl stop keepalived fi[root@nginx-proxy-master ~]# chmod a+x /etc/keepalived/check_nginx_status.sh

(2). keepalived使用script
[root@nginx-proxy-master ~]# vim /etc/keepalived/keepalived.conf ! Configuration File for keepalivedglobal_defs { router_id directory1 } vrrp_script check_nginx { script "/etc/keepalived/check_nginx_status.sh" interval 5 }vrrp_instance VI_1 { state MASTER interface ens33 virtual_router_id 80 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.246.16/24 } track_script { check_nginx } }

注:必须先启动Nginx,再启动keepalived
测试访问:
将keepalived集群的主节点的Nginx服务关闭,查看vip是否漂移,如果漂移则成功。
3、LVS_Director + KeepLVS_Director + KeepAlived
KeepAlived在该项目中的功能:
(1. 管理IPVS的路由表(包括对RealServer做健康检查)
(2. 实现调度器的HA(高可用)
Keepalived所执行的外部脚本命令建议使用绝对路径
实施步骤:
(1). 主/备调度器安装软件
[root@lvs-keepalived-master ~]# yum -y install ipvsadm keepalived [root@lvs-keepalived-slave ~]# yum -y install ipvsadm keepalived

(2). Keepalivedlvs-master
[root@lvs-keepalived-master ~]# vim /etc/keepalived/keepalived.conf ! Configuration File for keepalivedglobal_defs { router_id lvs-keepalived-master#辅助改为lvs-backup }vrrp_instance VI_1 { state MASTER interface ens33#VIP绑定接口 virtual_router_id 80#VRID 同一组集群,主备一致 priority 100#本节点优先级,辅助改为50 advert_int 1#检查间隔,默认为1s authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.246.110/24 } }virtual_server 192.168.246.110 80 {#LVS配置 delay_loop 3#启动3个进程 lb_algo rr#LVS调度算法 lb_kind DR#LVS集群模式(路由模式) nat_mask 255.255.255.0 protocol TCP#健康检查使用的协议 real_server 192.168.246.162 80 { weight 1 inhibit_on_failure#当该节点失败时,把权重设置为0,而不是从IPVS中删除 TCP_CHECK {#健康检查 connect_port 80#检查的端口 connect_timeout 3#连接超时的时间 } } real_server 192.168.246.163 80 { weight 1 inhibit_on_failure TCP_CHECK { connect_timeout 3 connect_port 80 } } }

[root@lvs-keepalived-slave ~]# vim /etc/keepalived/keepalived.conf ! Configuration File for keepalivedglobal_defs { router_id lvs-keepalived-slave }vrrp_instance VI_1 { state BACKUP interface ens33 nopreempt#不抢占资源 virtual_router_id 80 priority 50 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.246.110/24 } } virtual_server 192.168.246.110 80 { delay_loop 3 lb_algo rr lb_kind DR nat_mask 255.255.255.0 protocol TCP real_server 192.168.246.162 80 { weight 1 inhibit_on_failure TCP_CHECK { connect_port 80 connect_timeout 3 } } real_server 192.168.246.163 80 { weight 1 inhibit_on_failure TCP_CHECK { connect_timeout 3 connect_port 80 } } }

(3). 启动KeepAlived(主备均启动)
[root@lvs-keepalived-master ~]# systemctl start keepalived [root@lvs-keepalived-master ~]# systemctl enable keepalived[root@lvs-keepalived-master ~]# ipvsadm -Ln IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:PortForward Weight ActiveConn InActConn TCP192.168.246.110:80 rr persistent 20 -> 192.168.246.162:80Route100 -> 192.168.246.163:80Route000

(4). 所有RS配置(nginx1,nginx2)
配置好网站服务器,测试所有RS
[root@test-nginx1 ~]# yum install -y nginx [root@test-nginx2 ~]# yum install -y nginx[root@test-nginx1 ~]# ip addr add dev lo 192.168.246.110/32 [root@test-nginx2 ~]# ip addr add dev lo 192.168.246.110/32[root@test-nginx1 ~]# echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore #忽略arp广播 [root@test-nginx1 ~]# echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce #匹配精确ip地址回包[root@test-nginx2 ~]# echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore #忽略arp广播 [root@test-nginx2 ~]# echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce #匹配精确ip地址回包[root@test-nginx1 ~]# echo "web1..." > > /usr/share/nginx/html/index.html [root@test-nginx2 ~]# echo "web2..." > > /usr/share/nginx/html/index.html [root@test-nginx1 ~]# systemctl start nginx

END
【LVS&Keepalived—集群负载均衡企业高可用详解】

    推荐阅读