1.Haproxy应用分析
LVS在企业应用中抗负载能力很强,但存在不足
- LVS不支持正则处理,不能实现动静分离
- 对于大型网站,LVS的实施配置复杂,维护成本相对较高
Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件
- 适用于负载大的Web站点
- 运行在硬件上可支持数以万计的并发连接的连接请求
1.1 Haproxy的特性
-
可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;
-
最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;
-
支持多达8种负载均衡算法;
-
支持Session会话保持,Cookie的引导;
-
支持通过获取指定的url来检测后端服务器的状态;
-
支持虚机主机功能,从而实现web负载均衡更加灵活;
-
支持连接拒绝、全透明代理等独特的功能;
-
拥有强大的ACL支持,用于访问控制;
-
支持TCP协议的负载均衡转发;(支持7层代理、实现动静分离)
-
支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成
1.2 Haproxy的调度算法
RR(roundrobin)
RR算法是最简单最常用的一种算法,即轮询调度。
理解举例:
- 有三个节点A、B、C
- 第一个用户访问会被指派到节点A
- 第二个用户访问会被指派到节点B
- 第三个用户访问会被指派到节点C
- 第四个用户访问继续指派到节点A,轮询分配访问请求实现负载均衡 效果
static -rr
加权轮询,表示根据web服务器的权重来分配前端请求。
为web服务器设置不同权重,哪台服务器配置好,权重就多一点。
类似于Nginx负载局哼算法的ip_hash。
lc (least coune)
最小连接数算法,根据后端的节点连接数大小动态分配前端请求。
理解举例:
- 有三个节点A、B、C,各节点的连接数分别为A:4、B:5、C:6
- 第一个用户连接请求,会被指派到A上,连接数变为A:5、B:5、 C:6
- 第二个用户请求会继续分配到A上,连接数变为A:6、B:5、 C:6; 再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端
- 由于实际情况下A、B、C的连接数会动态释放,很难会出现-样连接数的情况
- 此算法相比较rr算法有很大改进,是目前用到比较多的一-种算法
sh (source hashing)
基于来源访问调度算法,用于一些有Session会话记录在服务器端的场景,可以基于来源的IP、Cookie等做集群调度。
理解举例:
-
有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第一次访问被指派到了B。
-
当第一个用户第二次访问时会被继续指派到A,第二个用户第= _次访问时依旧会被指派到B,只要负载均衡调度器不重启,第-个用户访问都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度。
-
此调度算法好处是实现会话保持,但某些IP访问量非常大时会引|起负载不均衡,部分节点访问量超大,影响业务使用。
uri
目的地址哈希,表示根据用户请求的URI做hash,做cdn时需要使用。(cdn:内容分发网络 ,边缘网络缓存加速)
url_hash 就是根据虚拟主机名称后面的目录。
url_param
表示根据请求的URl参数'balance url_ param' requires an URL parameter name
hdr (name)
表示根据http请求头来锁定每一次http请求
rdp-cookie (name)
表示根据cookie (name)来锁定并哈希每一次TCP请求。
1.3 haproxy提供了三种实现会话保持的方式
(1)源地址hash
(2)设置cookie
(3)会话粘性表stick-table
1.4 lvs、nginx、haproxy的区别
-
LVS基于Linux操作系统内核实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡;
-
LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而HAProxy 和Nginx都可以实现4层和7层技术,HAProxy可提供TCP和HTTP应用的负载均衡综合解决方案;
-
LVS因为工作在ISO模型的第四层,其状态监测功能单一,而HAProxy在状态监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状态检测方。
-
HAProxy功能强大,单纯从效率上来讲HAProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。但整体性能低于4层模式的LVS负载均衡;
-
Nginx主要用于web服务器或缓存服务器。Nginx的upstream模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好。
2.怎么样用 Haproxy 布置一个简单的负载均衡器
1.先在官网上的找到haproxy的安装包进行解压
2.在编译之前先安装环境
yum install -y pcre-devel bzip2-devel gcc gcc-c++ make
3.进入到源文件包中进行编译
make TARGET=linux31 PREFIX=/apps/haproxy
make install PREFIX=/apps/haproxy
4.去我们的安装目录下编写配置文件,创建一个conf文件夹,然后在里面编写一个haproxy.cfg配置文件
cd /apps/haproxy
mkdir conf
cd conf
vim haproxy.cfg
global #全局配置,主要用于定义全局参数,属于进程级的配置,通常和操作系统配置有关
#将info(及以上)的日志发送到rsyslog的local0接口,将warning(及以上)的日志发送到rsyslog的local1接口
log 127.0.0.1 local0 info
log 127.0.0.1 local1 warning
maxconn 30000 #最大连接数,HAProxy 要求系统的 ulimit -n 参数大于 maxconn*2+18
#chroot /var/lib/haproxy #修改haproxy工作目录至指定目录,一般需将此行注释掉
pidfile /var/run/haproxy.pid #指定保存HAProxy进程号的文件
user haproxy #以指定的用户名身份运行haproxy进程
group haproxy #以指定的组名运行haproxy,以免因权限问题带来风险
daemon #让haproxy以守护进程的方式工作于后台
#nbproc 1 #指定启动的haproxy进程个数,只能用于守护进程模式的haproxy,默认只启动一个进程。haproxy是单进程、事件驱动模型的软件,单进程下工作效率已经非常好,不建议开启多进程
spread-checks 2 #在haproxy后端有着众多服务器的场景中,在精确的时间间隔后统一对众服务器进行健康状况检查可能会带来意外问题;此选项用于将其检查的时间间隔长度上增加或减小一定的随机时长;默认为0,官方建议设置为2到5之间。
defaults #配置默认参数,这些参数可以被用到listen,frontend,backend组件
log global #所有前端都默认使用global中的日志配置
mode http #模式为http(7层代理http,4层代理tcp)
option http-keep-alive #使用keepAlive连接,后端为静态建议使用http-keep-alive,后端为动态应用程序建议使用http-server-close
option forwardfor #记录客户端IP在X-Forwarded-For头域中,haproxy将在发往后端的请求中加上"X-Forwarded-For"首部字段
option httplog #开启httplog,在日志中记录http请求、session信息等。http模式时开启httplog,tcp模式时开启tcplog
option dontlognull #不在日志中记录空连接
option redispatch #当某后端down掉使得haproxy无法转发携带cookie的请求到该后端时,将其转发到别的后端上
option abortonclose #当服务器负载很高的时候,自动结束掉当前队列处理比较久的链接
maxconn 20000 #最大连接数,“defaults”中的值不能超过“global”段中的定义
retries 3 #定义连接后端服务器的失败重连次数,连接失败次数超过此值后会将对应后端服务器标记为不可用
#contimeout 5000 #设置连接超时时间,默认单位是毫秒
#clitimeout 50000 #设置客户端超时时间,默认单位是毫秒
#srvtimeout 50000 #设置服务器超时时间,默认单位是毫秒
timeout http-request 2s #默认http请求超时时间,此为等待客户端发送完整请求的最大时长,用于避免类DoS攻击。haproxy总是要求一次请求或响应全部发送完成后才会处理、转发
timeout queue 3s #默认客户端请求在队列中的最大时长
timeout connect 1s #默认haproxy和服务端建立连接的最大时长,新版本中替代contimeout,该参数向后兼容
timeout client 10s #默认和客户端保持空闲连接的超时时长,在高并发下可稍微短一点,可设置为10秒以尽快释放连接,新版本中替代clitimeout
timeout server 2s #默认和服务端保持空闲连接的超时时长,局域网内建立连接很快,所以尽量设置短一些,特别是高并发时,新版本中替代srvtimeout
timeout http-keep-alive 10s #默认和客户端保持长连接的最大时长。优先级高于timeout http-request 也高于timeout client
timeout check 2s #和后端服务器成功建立连接后到最终完成检查的最大时长(不包括建立连接的时间,只是读取到检查结果的时长)
5.进入配置文件去建立简单的wed网页负载均衡
#在配置文件的最后写
frontend http-lzq
bind *:80
default_backend nginx_servers
backend nginx_servers
#配置nginx_servers 地址池的参数
balance roundrobin
#这边使用轮询的调度算法
option httpchk GET /test.html
server ngx01 192.168.223.101:80 check inter 2000 rise 2 fall 3
#这边是后端节点服务器的真实地址和端口号 还有健康检查的配置
server ngx02 192.168.223.102:80 check inter 2000 rise 2 fall 3
6.启动haproxy软件
[root@localhost conf]#/apps/haproxy/sbin/haproxy -f ./haproxy.cfg
7.进行测试
3.如何使用haproxy来完成动静分离与反向代理,并与keepalived配合做高可用
3.1操作内容
建立两台nginx静态后端服务器,还有两台tomcat动态后端服务器,并使用一台haproxy调度器来实现动静分离,一台服务器做调度器的备用服务器
3.2具体操作
1.先配置两台tomcat服务器,并测试页面是否正常
2.两台nginx服务器就用上题的服务器,进行下网页测试看看是否正常
3.先在我们的调度器上安装haproxy,先安装编译环境,操作和上题有些不一样
yum install -y zlib-devel pcre-devel openssl-devel systemd-devel
4.解压安装包
5.进行编译安装
[root@localhost haproxy-2.8.3]#make PREFIX=/apps/haproxy ARCH=x86_64 TARGET=linux-glibc USE_PCRE=1 USE_OPENSSL=1 USE_ZLIB=1 USE_SYSTEMD=1
[root@localhost haproxy-2.8.3]#make install PREFIX=/apps/haproxy
6.创建一个haproxy用户来专门管理haproxy服务
7.创建配置文件目录
mkdir /etc/haproxy
cd /etc/haproxy
vim haproxy.cfg
global #全局配置,主要用于定义全局参数,属于进程级的配置,通常和操作系统配置有关
#将info(及以上)的日志发送到rsyslog的local0接口,将warning(及以上)的日志发送到rsyslog的local1接口
log 127.0.0.1 local0 info
log 127.0.0.1 local1 warning
maxconn 30000 #最大连接数,HAProxy 要求系统的 ulimit -n 参数大于 maxconn*2+18
#chroot /var/lib/haproxy #修改haproxy工作目录至指定目录,一般需将此行注释掉
pidfile /var/run/haproxy.pid #指定保存HAProxy进程号的文件
user haproxy #以指定的用户名身份运行haproxy进程
group haproxy #以指定的组名运行haproxy,以免因权限问题带来风险
daemon #让haproxy以守护进程的方式工作于后台
#nbproc 1 #指定启动的haproxy进程个数,只能用于守护进程模式的haproxy,默认只启动一个进程。haproxy是单进程、事件驱动模型的软件,单进程下工作效率已经非常好,不建议开启多进程
spread-checks 2 #在haproxy后端有着众多服务器的场景中,在精确的时间间隔后统一对众服务器进行健康状况检查可能会带来意外问题;此选项用于将其检查的时间间隔长度上增加或减小一定的随机时长;默认为0,官方建议设置为2到5之间。
defaults #配置默认参数,这些参数可以被用到listen,frontend,backend组件
log global #所有前端都默认使用global中的日志配置
mode http #模式为http(7层代理http,4层代理tcp)
option http-keep-alive #使用keepAlive连接,后端为静态建议使用http-keep-alive,后端为动态应用程序建议使用http-server-close
option forwardfor #记录客户端IP在X-Forwarded-For头域中,haproxy将在发往后端的请求中加上"X-Forwarded-For"首部字段
option httplog #开启httplog,在日志中记录http请求、session信息等。http模式时开启httplog,tcp模式时开启tcplog
option dontlognull #不在日志中记录空连接
option redispatch #当某后端down掉使得haproxy无法转发携带cookie的请求到该后端时,将其转发到别的后端上
option abortonclose #当服务器负载很高的时候,自动结束掉当前队列处理比较久的链接
maxconn 20000 #最大连接数,“defaults”中的值不能超过“global”段中的定义
retries 3 #定义连接后端服务器的失败重连次数,连接失败次数超过此值后会将对应后端服务器标记为不可用
#contimeout 5000 #设置连接超时时间,默认单位是毫秒
#clitimeout 50000 #设置客户端超时时间,默认单位是毫秒
#srvtimeout 50000 #设置服务器超时时间,默认单位是毫秒
timeout http-request 2s #默认http请求超时时间,此为等待客户端发送完整请求的最大时长,用于避免类DoS攻击。haproxy总是要求一次请求或响应全部发送完成后才会处理、转发
timeout queue 3s #默认客户端请求在队列中的最大时长
timeout connect 1s #默认haproxy和服务端建立连接的最大时长,新版本中替代contimeout,该参数向后兼容
timeout client 10s #默认和客户端保持空闲连接的超时时长,在高并发下可稍微短一点,可设置为10秒以尽快释放连接,新版本中替代clitimeout
timeout server 2s #默认和服务端保持空闲连接的超时时长,局域网内建立连接很快,所以尽量设置短一些,特别是高并发时,新版本中替代srvtimeout
timeout http-keep-alive 10s #默认和客户端保持长连接的最大时长。优先级高于timeout http-request 也高于timeout client
timeout check 2s #和后端服务器成功建立连接后到最终完成检查的最大时长(不包括建立连接的时间,只是读取到检查结果的时长)
8.设置配置文件
frontend http-in
bind *:80
acl url_jsp path_end -i .jsp
use_backend tomcat_server if url_jsp
default_backend nginx_server
backend nginx_server
balance roundrobin
option httpchk GET /test.html
server ngx01 192.168.223.101:80 check inter 2000 fall 3 rise 2
server ngx02 192.168.223.102:80 check inter 2000 fall 3 rise 2
backend tomcat_server
balance roundrobin
option http-server-close
cookie HA-STICKY-dy insert indirect nocache
server tomcat01 192.168.223.103:8080 cookie tomcat01 check inter 2000 fall 3 rise 2
server tomcat02 192.168.223.105:8080 cookie tomcat02 check inter 2000 fall 3 rise 2
listen stats
bind *:1080
stats enable
stats refresh 30s
stats auth admin:admin
9.使用管理脚本去启动haproxy服务,先去到haproxy源文件中
10.将这个文件复制到/etc/init.d/haproxy中
11.cd 到/etc/init.d中对这个脚本文件进行修改
12.制作一个软连接,使haproxy可以快速补全,并给这个脚本加执行权限
ln -s /apps/haproxy/sbin/haproxy /usr/sbin/`
chmod +x haproxy
13.使用chkconfig 来加入服务文件中
[root@localhost init.d]#chkconfig --add /etc/init.d/haproxy
[root@localhost init.d]#chkonfig --list haproxy
14.启动服务
15.去浏览器上进行测试
动态页面虽然有设置负载均衡但是不会立刻转换,有会话保持
16.设置keepalived配置高并发,先安装主调度器与备调度器的keepalived软件
17.安装备服务器的haproxy操作流程跟上面一样
18.配置nginx与tomcat服务器上面的虚拟网卡lo:0,四台都要配置
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.223.200
NETMASK=255.255.255.255
19.配置他们的内核参数在/etc/sysctl.conf 文件下
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
20.去我们的调度器中设置keepalived的安全检查脚本防止脑裂,并给执行权限
#!/bin/bash
if ! killall -0 haproxy
then
systemctl stop keepalived
fi
chmod +x check_haproxy.sh
21.去修改我们的keepalived的配置文件在/etc/keepalived
! Configuration File for keepalived
global_defs {
notification_email {
acassen@firewall.loc
failover@firewall.loc
sysadmin@firewall.loc
}
notification_email_from Alexandre.Cassen@firewall.loc
smtp_server 127.0.0.1
smtp_connect_timeout 30
router_id HAPROXY_01
}
vrrp_script chk_haproxy {
script "/etc/keepalived/check_haproxy.sh"
interval 2
weight 2
}
vrrp_instance VI_1 {
state MASTER
interface ens33
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.223.200
}
track_script {
chk_haproxy
}
}
22.将我们配置好的文件直接给我们的备用服务器,之后我们修改备用服务器的keepalived的配置文件
23.重启服务
24.并测试当主服务器的haproxy软件关机,备是否能顶上