Nginx+Tomcat搭建高性能负载均衡集群之枯藤老树
一、 工具
nginx-1.8.0
apache-tomcat-6.0.33
二、 目标
实现高性能负载均衡的Tomcat集群:
三、 步骤
1、首先下载Nginx,要下载稳定版:
2、然后解压两个Tomcat,分别命名为apache-tomcat-6.0.33-1和apache-tomcat-6.0.33-2:
3、然后修改这两个Tomcat的启动端口,分别为18080和28080,下面以修改第一台Tomcat为例,打开Tomcat的conf目录下的server.xml:
共需修改3处端口:
当然第二台Tomcat也一样,如下图:
4、然后启动两个Tomcat,并访问,看是否正常:
5、然后修改上面两个Tomcat的默认页面(为了区分下面到底访问的是那一台Tomcat,随便改一下即可):
改完以后,进行访问,如下图:
6、OK,现在我们可以开始配置Nginx来实现负载均衡了,其实非常的简单,只需要配置好Nginx的配置文件即可:
配置如下(这里只进行了简单的配置,实际生产环境可以进行更详细完善配置):
- worker_processes 1;#工作进程的个数,一般与计算机的cpu核数一致
- events {
- worker_connections 1024;#单个进程最大连接数(最大连接数=连接数*进程数)
- }
- http {
- include mime.types; #文件扩展名与文件类型映射表
- default_type application/octet-stream;#默认文件类型
- sendfile on;#开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off。
- keepalive_timeout 65; #长连接超时时间,单位是秒
- gzip on;#启用Gizp压缩
- #服务器的集群
- upstream netitcast.com { #服务器集群名字
- server 127.0.0.1:18080 weight=1;#服务器配置 weight是权重的意思,权重越大,分配的概率越大。
- server 127.0.0.1:28080 weight=2;
- }
- #当前的Nginx的配置
- server {
- listen 80;#监听80端口,可以改成其他端口
- server_name localhost;############## 当前服务的域名
- location / {
- proxy_pass http://netitcast.com;
- proxy_redirect default;
- }
- error_page 500 502 503 504 /50x.html;
- location = /50x.html {
- root html;
- }
- }
- }
核心配置如下:
到此配置完成,下面开始演示负载均衡。
7、首先,我们启动Nginx:
8、然后我们即可输入:localhost/index.jsp查看运行状况了
第一次访问,发现访问的是Tomcat2上的程序:
然后刷新,访问的还是Tomcat2上的程序:
再刷新,发现变为了Tomcat1上的程序:
再刷新,发现又变为了Tomcat2上的程序:
到此,我们利用Nginx已经实现了负载均衡的Tomcat集群。我们不断的刷新,发现访问Tomcat2的概率大概是Tomcat1的2倍,这是因为我们在Nginx中配置的两台Tomcat的权重起的作用,如下图:
四、 总结
nginx的upstream目前支持4种方式的分配
1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
2、weight
指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
例如:
upstream bakend {
server 192.168.0.14 weight=10;
server 192.168.0.15 weight=10;
}
2、ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
例如:
upstream bakend {
ip_hash;
server 192.168.0.14:88;
server 192.168.0.15:80;
}
3、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream backend {
server server1;
server server2;
fair;
}
4、url_hash(第三方)
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}
tips:
upstream bakend{#定义负载均衡设备的Ip及设备状态}{
ip_hash;
server 127.0.0.1:9090 down;
server 127.0.0.1:8080 weight=2;
server 127.0.0.1:6060;
server 127.0.0.1:7070 backup;
}
在需要使用负载均衡的server中增加
proxy_pass http://bakend/;
每个设备的状态设置为:
1.down表示单前的server暂时不参与负载
2.weight为weight越大,负载的权重就越大。
3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误
4.fail_timeout:max_fails次失败后,暂停的时间。
5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
client_body_in_file_only设置为On 可以讲client post过来的数据记录到文件中用来做debug
client_body_temp_path设置记录文件的目录 可以设置最多3层目录
location对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡
感谢博主:写的简介明了,ranhttp://blog.****.net/wang379275614/article/details/47778201
YInginx-1.8.0
apache-tomcat-6.0.33
二、 目标
实现高性能负载均衡的Tomcat集群:
三、 步骤
1、首先下载Nginx,要下载稳定版:
2、然后解压两个Tomcat,分别命名为apache-tomcat-6.0.33-1和apache-tomcat-6.0.33-2:
3、然后修改这两个Tomcat的启动端口,分别为18080和28080,下面以修改第一台Tomcat为例,打开Tomcat的conf目录下的server.xml:
共需修改3处端口:
当然第二台Tomcat也一样,如下图:
4、然后启动两个Tomcat,并访问,看是否正常:
5、然后修改上面两个Tomcat的默认页面(为了区分下面到底访问的是那一台Tomcat,随便改一下即可):
改完以后,进行访问,如下图:
6、OK,现在我们可以开始配置Nginx来实现负载均衡了,其实非常的简单,只需要配置好Nginx的配置文件即可:
配置如下(这里只进行了简单的配置,实际生产环境可以进行更详细完善配置):
- worker_processes 1;#工作进程的个数,一般与计算机的cpu核数一致
- events {
- worker_connections 1024;#单个进程最大连接数(最大连接数=连接数*进程数)
- }
- http {
- include mime.types; #文件扩展名与文件类型映射表
- default_type application/octet-stream;#默认文件类型
- sendfile on;#开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off。
- keepalive_timeout 65; #长连接超时时间,单位是秒
- gzip on;#启用Gizp压缩
- #服务器的集群
- upstream netitcast.com { #服务器集群名字
- server 127.0.0.1:18080 weight=1;#服务器配置 weight是权重的意思,权重越大,分配的概率越大。
- server 127.0.0.1:28080 weight=2;
- }
- #当前的Nginx的配置
- server {
- listen 80;#监听80端口,可以改成其他端口
- server_name localhost;############## 当前服务的域名
- location / {
- proxy_pass http://netitcast.com;
- proxy_redirect default;
- }
- error_page 500 502 503 504 /50x.html;
- location = /50x.html {
- root html;
- }
- }
- }
核心配置如下:
到此配置完成,下面开始演示负载均衡。
7、首先,我们启动Nginx:
8、然后我们即可输入:localhost/index.jsp查看运行状况了
第一次访问,发现访问的是Tomcat2上的程序:
然后刷新,访问的还是Tomcat2上的程序:
再刷新,发现变为了Tomcat1上的程序:
再刷新,发现又变为了Tomcat2上的程序:
到此,我们利用Nginx已经实现了负载均衡的Tomcat集群。我们不断的刷新,发现访问Tomcat2的概率大概是Tomcat1的2倍,这是因为我们在Nginx中配置的两台Tomcat的权重起的作用,如下图:
四、 总结
nginx的upstream目前支持4种方式的分配
1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
2、weight
指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
例如:
upstream bakend {
server 192.168.0.14 weight=10;
server 192.168.0.15 weight=10;
}
2、ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
例如:
upstream bakend {
ip_hash;
server 192.168.0.14:88;
server 192.168.0.15:80;
}
3、fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream backend {
server server1;
server server2;
fair;
}
4、url_hash(第三方)
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}
tips:
upstream bakend{#定义负载均衡设备的Ip及设备状态}{
ip_hash;
server 127.0.0.1:9090 down;
server 127.0.0.1:8080 weight=2;
server 127.0.0.1:6060;
server 127.0.0.1:7070 backup;
}
在需要使用负载均衡的server中增加
proxy_pass http://bakend/;
每个设备的状态设置为:
1.down表示单前的server暂时不参与负载
2.weight为weight越大,负载的权重就越大。
3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误
4.fail_timeout:max_fails次失败后,暂停的时间。
5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
client_body_in_file_only设置为On 可以讲client post过来的数据记录到文件中用来做debug
client_body_temp_path设置记录文件的目录 可以设置最多3层目录
location对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡
感谢博主:写的简介明了,ranhttp://blog.****.net/wang379275614/article/details/47778201