> 文章列表 > LVS负载均衡群集

LVS负载均衡群集

LVS负载均衡群集

群集的含义

Cluster,集群、群集

由多台主机构成,但对外只表现为一个整体(集群中的多台主机都干一件事提供一样的服务),只提供一个访问入口(域名或IP地址),相当于一台大型计算机。

问题:

互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求。

解决方法:

  1. 私用价格昂贵的小型机、大型机
  2. 使用多台相对廉价的普通服务器构建服务群集

通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并以同一个IP地址对外提供相同的服务。

根据群集所针对的目标差异,可分为三种类型

  • 负载均衡群集
  • 高可用群集
  • 高性能运算群集

负载均衡群集(Load Balance Cluster)

  • 提高应用系统的响应能力,尽可能处理更多的访问请求、减少延迟,为目标获得高并发、高负载(LB)的整体性能
  • LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。例如“DNS轮训”“反向代理”等

高可用群集(High Availability Cluster)

  • 提高应用系统的可靠性,尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果。
  • HA的工作方式包括双工和主从两种模式。双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点自动切换为主节点。例如,“故障切换”“双击热备”等。

高性能运算群集(High Performance Computer Cluster)

  • 以提高应用程序的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
  • 高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。例如,“云计算”“网格计算”等。

负载均衡群集架构

负载均衡的结构

  • 第一层:负载调度器(Load Balancer或Director)

访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换纸备用调度器,确保高可用性。

  • 第二层:服务器池(Server Pool)

群集所提供的应用服务,由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。

  • 第三层:共享存储(Share Storage)

为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器。

负载均衡群集是目前企业用的对多的群集类型

群集的负载调度技术有三种工作模式(LVS)

  • 地址转换
  • IP隧道
  • 直接路由

NAT模式

地址转换

  • Network Address Translation,简称NAT模式
  • 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各个节点回应客户机的访问出口。
  • 服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式。

TUN模式

IP隧道

  • IP Tunnel,简称TUN模式
  • 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet链接直接回应客户机,而不再经过负载调度器。
  • 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信。

✔DR模式

直接路由

  • Direct Routing,简称DR模式
  • 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
  • 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的Ip隧道

关于LVS虚拟服务器实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法。

LVS现在已成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。在CentOS7 系统中,以下操作可以手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息。

[root@localhost~]# modprobe ip_vs

[root@localhost~]# cat /proc/net/ip_vs

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

->RemoteAddress:Port ForwardWeight ActiveConn InActConn

模块在:/usr/lib/modules/3.10.0-693.e17.x86_64/kernel/net/netfilter/ipvs中

echo $a | awk -F. '{print $1}'

echo ${a%%.*}

echo $a | grep -o "^[^.]*" #不以点开头的

LVS的负载调度算法

轮询(Round Robin)

将收到的访问请求按照顺序轮流分配给群集中的各个节点(真实服务器),均等的对待每一台服务器,而不管服务器的实际连接数和系统负载

加权轮询(Weighted Round Robin)

根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多

保证性能强的服务器承担更多的访问流量

目的地址哈希调度(Destination Hashing)

以目的地地址为关键字查找一个静态hash表来获得所需的RS(服务器)

源地址哈希调度(Source Hashing)

以源地址为关键字查找一个静态hash表来获得需要的RS。

动态调度算法:wlc lc lblc

wlc:加权最小连接数调度:假设各台服务器的权值依次为Wi,当前的tcp连接数依次为Ti,一次去Ti/Wi为最小的RS作为下一个分配的RS

lc:最小连接数调度(least-connection):IPVS表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RS.

lblc:给予地址的最小连接数调度(Locality-based Least-connection):将来自同一个目的地址的请求分配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑

rpc端口:111 nfs端口:2049

共享配置文件:/etc/exports

/opt/html 192.168.179.0/24(rw,async,no_root_squash)

#root_squash 客户端用户进入会自动降权为匿名用户

chmod 777 html/

exportfs -arv 在线发布共享目录,如果重启来在线发布,会导致已经挂在nfs的客户端出现卡死现象

showmount -e 192.168.179.2x

systemctl stop firewalld

setenforce 0

mount 192.168.179.2x:/opt/html /usr/share/nginx/html

cp -r html/ www

chmod 777 www

vim /etc/fstab

192.168.179.2x:/opt/html /usr/share/nginx/html nfs defaults,_netdev 0 0

192.168.179.2x:/opt/www /usr/share/nginx/html nfs defaults,_netdev 0 0

#第一个0不做dump备份 第二个不做开机检查

exportfs -arv

systemctl enable --now nginx

实验:

 七层反向代理:

cd /etc/nginx/conf.d/
vim default.confupstream tomcat_server {server 192.168.179.21:8080;server 192.168.179.21:8081;server 192.168.179.23:8080;
}
server {listen       80;server_name  localhost;#access_log  /var/log/nginx/host.access.log  main;location / {root   /usr/share/nginx/html;index  index.html index.htm;}location ~* .*\\.jsp$ {proxy_pass http://tomcat_server;proxy_set_header HosT $host;proxy_set_header X-Real-Ip $remote_addr;proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}#error_page  404              /404.html;

在调度器上新建网卡:cp ifcfg-ens33 ifcfg-ens35

 在nginx上修改网卡,gateway修改成调度器的地址

 在调度器上配置snet:

 vim /etc/sysctl

net.ipv4.ip_forward=1

sysctl -p

 

修改iptables规则 :

iptables -F && iptables -t nat -F

iptables -nL

iptables -t nat -A POSTROUTING -s 192.168.179.0/24 -o ens35 -j SNAT --to 12.0.0.10

 

加载模块modprobe ip_vs

cat /proc/net/ip_vs

进入/usr/lib/modules/3.10.0-693.e17.x86_64/kernel/net/netfilter/ipvs目录

遍历运行全部

for i in $(ls ./)

>do

>a=$(echo $i | awk -F. '{print $1}')

>modprobe $a

>echo $a

>done

使用ipvsadm工具创建虚拟服务器:(ipvsadm需要yum下载)

rpm -q ipvsadm

yum -y install ipvasadm


ipvsadm工具选项说明:

-A 添加虚拟服务器

-D 删除整个虚拟服务武器

-s 制定负载调度算法

-a 表示添加真实服务器(节点服务器)

-d 删除某一个节点

-t 指定VIP地址及 TCP端口

-r 指定RIP地址及 TCP端口

-m 表示是使用NAT群集模式

-g 表示使用DR模式

-i 表示是使用TUN模式

-w 设置权重(权重为0时表示暂停节点)

-p 60: 表示保持长连接60秒

-l 列表查看LVS

ipvsadm -C #清除原有原则


ipvsadm-save > /etc/sysconfig/ipvsadm

或者ipvsadm --save > /etc/sysonfig/ipvsadm

ls /etc/sysconfig

systemctl start ipvsadm

systemctl status ipvsadm

ipvsadm -ln

ipvsadm -C

ipvsadm -A -t 12.0.0.10:80 -s rr -p30#长连接保持时间30秒 #创建虚拟服务器先

ipvsadm -a -t 12.0.0.10:80 -r 192.168.179.22:80 -m

ipvsadm -a -t 12.0.0.10:80 -r 192.168.179.20:80 -m

ipvsadm -ln

备份ipvsadm方法:

ipvsadm --save > /opt/ipvsadm

ipvsadm-restore < /opt/ipvsadm

(与iptables类似)

修改nginx的keepalive_timeout 0;

systemctl restart nginx

netstat -lntp | grep :80 检查好习惯

客户端也换成和调度器一样网络VMnet1

修改适配器 12.0.0.120

网关指向调度器12.0.0.10

 进行测试:

 

生活知识