Nginx负载均衡的逻辑架构图如下图所示:
Nginx负载均衡逻辑架构图
负载均衡配置Nginx负载均衡服务器清单:
服务器名称 |
IP |
说明 |
Load Balance Server |
10.0.0.10 |
Nginx负载均衡服务器 |
Web Server 1 |
10.0.0.20 |
Web应用服务器 |
Web Server 2 |
10.0.0.21 |
Web应用服务器 |
负载均衡服务器Nginx.conf配置如下:
worker_process 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
upstream www_pools { # 定义Web服务池
server 10.0.0.20:80 weight = 1;
server 10.0.0.21:80 weight = 1;
}
Server { # 定义负载均衡虚拟主机
listen 80;
server_name www.test.com; # 根据实际域名填写
location / {
proxy_pass http://www_pools; # 访问www.test.com,请求转发给www_pools中的节点
}
}
}
重启Nginx服务:
nginx -s reload
至此,已经完成了一个简单的负载均衡集群网络的配置,当用户输入网址http://www.test.com/访问负载均衡服务器时,负载均衡会根据设置的负载均衡算法将访问请求分发到Web server 1和Web Server 2两个节点。
负载均衡核心组件upstream 模块模块简介Nginx负载均衡功能依赖于ngx_http_upstream_module模块,所支持的代理方式包括proxy_pass、fastcgi_pass、memcached_pass。
模块语法示例1:基本upstream配置
upstream www_pools { # upstream关键词必须有,www_pools为集群组名称,自定义
server 10.0.0.20:80 weight=5; # server固定关键词,后接域名或IP,端口不指定默认80
server 10.0.0.21:80 weight=10; # weight表示权重,权重越大被分配几率越大
}
示例2:较完整的upstream配置
upstream web_pools {
server 10.0.0.5;
server 10.0.0.6:80 weight=1 max_fails=1 fail_timeout=10s;
server 10.0.0.10:80 weight=2 max_fails=2 fail_timeout=20s backup;
}
示例3:使用域名及socket的upstream配置
upstream backend {
server backend1.example.com weight=5;
server backend2.example.com:8080;
server unix:/tmp/backend3; # 指定socket文件
server backup1.example.com:8080 backup;
server backup2.example.com:8080 backup; #backup表示备份服务器,其他指定服务器都不可用时启动
}
upstream模块内部server标签参数说明
Server标签 |
参数说明 |
server 10.0.0.10:80 |
节点地址可以是IP或者域名,端口不写则默认为80端口 |
weight=1 |
服务器权重,默认值为1。权重越大表示接收请求比例越大 |
max_fails=1 |
Nginx尝试连接后端主机节点失败的次数 |
backup |
热备配置参数,当前面激活的节点都失败后会自动启动热备节点。注意:当负载调度算法为ip_hash时,状态不能是weight和backup。 |
fail_timeout=10s |
在max_fails定义的失败次数后,距离下次检查的间隔时间,默认是10s。 |
down |
标志着该节点永远不可用,这个参数可配合ip_hash使用。 |
proxy_pass指令属于ngx_http_proxy_module模块,此模块可以将请求转发到另一台服务器。 在实际的反向代理工作中,会通过location功能匹配指定的URI,然后把接收到的符合匹配URI的请求通过proxy_pass抛给定义好的upstream节点池。
常见的使用案例:
(1)将匹配URI为name的请求抛给http://127.0.0.1/remote:
location /name/ {
proxy_pass http://127.0.0.1/remote/;
}
(2)将匹配URI为name的请求应用指定的rewrite规则,然后抛给http://127.0.0.1:
location /name/ {
rewrite /name/([^/] ) /users?name=$1 break;
proxy_pass http://127.0.0.1;
}
调度算法一般可以分为两类:
静态调度算法: 负载均衡器根据自身设定的规则进行分配,不考虑后端节点服务器的情况。比如rr、wrr、ip_hash都属于静态调度算法。
动态调度算法: 负载均衡器会根据后端服务器当前状况来决定是否分发请求。比如least_conn、fair等都属于动态调度算法。
rr轮询算法按照客户端请求顺序把客户端请求逐一分配给不同的后端节点,若后端节点宕机,则会被自动从节点池中剔除。
wrr权重轮询算法在rr轮询算法的基础上加上权重,即权重轮询算法。权重和用户访问量成正比,权重值越大,被转发的请求也就越多。
ip_hash算法每个请求按照客户端IP的hash结果分配,当新的请求到达时,先讲起客户端的IP通过哈希算法哈希出一个值,相同的哈希值会被分配到同一台节点服务器。
该调度算法可以解决动态网页的session共享问题。
fair算法根据后端节点服务器的响应时间来分配请求,响应时间短的有限分配。
Nginx本身不支持fair调度算法,如果要使用该算法,必须下载upstream_fair模块。
least_conn算法根据后端节点的连接数来决定分配情况,哪个节点连接数少就分给哪个节点。
url_hash算法根据访问URL的hash结果来分配请求,让每个URL定向到同一个后端服务器。
Nginx本身不支持url_hash的,如果需要使用该算法,必须安装Nginx的hash模块软件包。
,