通过配置 Nginx 配置文件,实现正向代理、反向代理、负载均衡、Nginx 缓存、动静分离和高可用 Nginx 6种功能,并对 Nginx 的原理作进一步的解析。当需要使用 Nginx 配置文件时,参考本文实例即可,建议收藏。
正向代理的代理对象是客户端。正向代理就是代理服务器替客户端去访问目标服务器。
1.1%20实战一
实现效果:
在浏览器输入%20www.google.com%20,%20浏览器跳转到www.google.com%20。
具体配置:
server{%20%20%20%20resolver%208.8.8.8;%20%20%20%20listen%2080;%20%20%20%20location%20/%20{%20%20%20%20%20%20%20%20proxy_pass%20http://$http_host$request_uri;%20%20%20%20}}
在需要访问外网的客户端上执行以下一种操作即可:
1.%20方法1(推荐)export%20http_proxy=http://你的正向代理服务器地址:代理端口%20%20%202.%20方法2vim%20~/.bashrcexport%20http_proxy=http://你的正向代理服务器地址:代理端口%20%20%20
反向代理指代理后端服务器响应客户端请求的一个中介服务器,代理的对象是服务端。
2.1%20实战一
实现效果:
在浏览器输入%20www.abc.com%20,%20从%20nginx%20服务器跳转到%20linux%20系统%20Tomcat%20主页面。
具体配置:
%20%20%20%20server%20{%20%20%20%20%20%20%20%20listen%20%20%20%20%20%20%2080;%20%20%20%20%20%20%20%20%20%20%20server_name%20%20192.168.4.32;%20%20%20#监听地址%20%20%20%20%20%20%20%20%20%20%20location%20%20/%20{%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20root%20html;%20%20#/html目录%20%20%20%20%20%20%20%20%20%20%20proxy_pass%20http://127.0.0.1:8080;%20%20#请求转向%20%20%20%20%20%20%20%20%20%20%20index%20%20index.html%20index.htm;%20%20%20%20%20%20#设置默认页%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20}%20%20%20%20%20}
2.2%20实战二
实现效果:
根据在浏览器输入的路径不同,跳转到不同端口的服务中。
具体配置:
%20%20%20%20server%20{%20%20%20%20%20%20%20%20listen%20%20%20%20%20%20%209000;%20%20%20%20%20%20%20%20%20%20%20server_name%20%20192.168.4.32;%20%20%20#监听地址%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20location%20%20~%20/example1/%20{%20%20%20%20%20%20%20%20%20%20%20%20%20proxy_pass%20http://127.0.0.1:5000;%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20}%20%20%20%20%20%20%20%20%20location%20%20~%20/example2/%20{%20%20%20%20%20%20%20%20%20%20%20%20%20proxy_pass%20http://127.0.0.1:8080;%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20}%20%20%20%20%20}
location 指令说明:
3.1%20实战一
实现效果:
在浏览器地址栏输入%20http://192.168.4.32/example/a.html%20,平均到%205000%20和%208080%20端口中,实现负载均衡效果。
具体配置:
%20%20%20%20upstream%20myserver%20{%20%20%20%20%20%20%20%20%20server%20192.167.4.32:5000;%20%20%20%20%20%20server%20192.168.4.32:8080;%20%20%20%20}%20%20%20%20%20%20%20%20server%20{%20%20%20%20%20%20%20%20listen%20%20%20%20%20%20%2080;%20%20%20#监听端口%20%20%20%20%20%20%20%20server_name%20%20192.168.4.32;%20%20%20#监听地址%20%20%20%20%20%20%20%20%20%20%20location%20%20/%20{%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20%20root%20html;%20%20#html目录%20%20%20%20%20%20%20%20%20%20%20index%20index.html%20index.htm;%20%20#设置默认页%20%20%20%20%20%20%20%20%20%20%20proxy_pass%20%20http://myserver;%20%20#请求转向%20myserver%20定义的服务器列表%20%20%20%20%20%20%20%20%20%20%20%20%20%20}%20%20%20%20%20}
nginx%20分配服务器策略
4.1%20实战一
实现效果:
在3天内,通过浏览器地址栏访问%20http://192.168.4.32/a.jpg ,不会从服务器抓取资源,3天后(过期)则从服务器重新下载。
具体配置:
# http 区域下添加缓存区配置proxy_cache_path /tmp/nginx_proxy_cache levels=1 keys_zone=cache_one:512m inactive=60s max_size=1000m;# server 区域下添加缓存配置location ~ .(gif|jpg|png|htm|html|css|js)(.*) { proxy_pass http://192.168.4.32:5000;#如果没有缓存则转向请求 proxy_redirect off; proxy_cache cache_one; proxy_cache_valid 200 1h; #对不同的 HTTP 状态码设置不同的缓存时间 proxy_cache_valid 500 1d; proxy_cache_valid any 1m; expires 3d;}
expires 是给一个资源设定一个过期时间,通过 expires 参数设置,可以使浏览器缓存过期时间之前的内容,减少与服务器之间的请求和流量。也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。
5.1 实战一
实现效果:
通过浏览器地址栏访问 www.abc.com/a.html ,访问静态资源服务器的静态资源内容。通过浏览器地址栏访问 www.abc.com/a.jsp ,访问动态资源服务器的动态资源内容。
具体配置:
upstream static { server 192.167.4.31:80;}upstream dynamic { server 192.167.4.32:8080;}server { listen 80; #监听端口 server_name www.abc.com; 监听地址 # 拦截动态资源 location ~ .*.(php|jsp)$ { proxy_pass http://dynamic; } # 拦截静态资源 location ~ .*.(jpg|png|htm|html|css|js)$ { root /data/; #html目录 proxy_pass http://static; autoindex on;; #自动打开文件列表 } }
一般情况下,通过 nginx 主服务器访问后台目标服务集群,当主服务器挂掉后,自动切换至备份服务器,此时由备份服务器充当主服务器的角色,访问后端目标服务器。
6.1 实战一
实现效果:
准备两台 nginx 服务器,通过浏览器地址栏访问虚拟 ip 地址,把主服务器的 nginx 停止,再次访问虚拟 ip 地址仍旧有效。
具体配置:
(1)在两台 nginx 服务器上安 keepalived。
keepalived 相当于一个路由,它通过一个脚本来检测当前服务器是否还活着,如果还活着则继续访问,否则就切换到另一台备份服务器。
# 安装 keepalivedyum install keepalived -y# 检查版本rpm -q -a keepalivedkeepalived-1.3.5-16.el7.x86_64
(2)修改主备服务器 /etc/keepalived/keepalivec.conf 配置文件(可直接替换),完成高可用主从配置。
keepalived 将 nginx 服务器绑定到一个虚拟 ip , nginx 高可用集群对外统一暴露这个虚拟 ip,客户端都是通过访问这个虚拟 ip 来访问 nginx 服务器 。
global_defs { notification_email { acassen@firewall.loc failover@firewall.loc sysadmin@firewall.loc } notification_email_from_Alexandre.Cassen@firewall.loc smtp_server 192.168.4.32 smtp_connect_timeout 30 router_id LVS_DEVEL # 在 /etc/hosts 文件中配置,通过它能访问到我们的主机}vrrp_script_chk_http_port { script "/usr/local/src/nginx_check.sh" interval 2 # 检测脚本执行的时间间隔 weight 2 # 权重每次加2}vrrp_instance VI_1 { interface ens7f0 # 网卡,需根据情况修改 state MASTER # 备份服务器上将 MASTER 改为 BACKUP virtual_router_id 51 # 主备机的 virtual_router_id 必须相同 priority 100 # 主备机取不同的优先级,主机值较大,备份机值较小 advert_int 1 # 每隔多长时间(默认1s)发送一次心跳,检测服务器是否还活着 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.100 # VRRP H 虚拟地址,可以绑定多个 }}
字段说明
ens7f0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 inet 192.168.4.32 netmask 255.255.252.0 broadcast 192.168.7.255 inet6 fe80::e273:9c3c:e675:7c60 prefixlen 64 scopeid 0x20<link> ... ...
(3)在 /usr/local/src 目录下添加检测脚本 nginx_check.sh。
#!/bin/bashA=`ps -C nginx -no-header |wc -l`if [ $A -eq 0 ];then /usr/local/nginx/sbin/nginx sleep 2 if [ ps -C nginx -no-header |wc -l` -eq 0 ];then killall keepalived fifi
(4)启动两台服务器的 nginx 和 keepalived。
# 启动 nginx./nginx# 启动 keepalivedsystemctl start keepalived.service
(5)查看虚拟 ip 地址 ip a 。把主服务器 192.168.4.32 nginx 和 keepalived停止,再访问虚拟 ip 查看高可用效果。
Nginx 启动之后,在 Linux 系统中有两个进程,一个为 master,一个为 worker。master 作为管理员不参与任何工作,只负责给多个 worker 分配不同的任务(worker 一般有多个)。
ps -ef |grep nginxroot 20473 1 0 2019 ? 00:00:00 nginx: master process /usr/sbin/nginxnginx 4628 20473 0 Jan06 ? 00:00:00 nginx: worker processnginx 4629 20473 0 Jan06 ? 00:00:00 nginx: worker process
worker 是如何工作的?
客户端发送一个请求首先要经过 master,管理员收到请求后会将请求通知给 worker,多个 worker 以争抢的机制来抢夺任务,得到任务的 worker 会将请求经由 tomcat 等做请求转发、反向代理、访问数据库等(nginx 本身是不直接支持 JAVA 的)。
一个 master 和多个 worker 的好处?
设置多少个 worker 合适?
Nginx 和 redis 类似,都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,每个进程里只有一个主线程,通过异步非阻塞的方式来处理请求,每个 worker 的线程可以把一个 cpu 的性能发挥到极致,因此,worker 数和服务器的 cpu 数相等是最为适宜的。
思考:
(1)发送一个请求,会占用 worker 几个连接数?
(2)有一个 master 和 4个 worker,每个 worker 支持的最大连接数为 1024,该系统支持的最大并发数是多少?
作者:臧小晶
原文链接:https://juejin.im/post/5e1c263e5188254dc74a3b23