云的负载均衡是指将客户端的请求分发到云环境中运行的多个应用服务器。同其他类型的负载均衡相同,云负载均衡也可以最大限度的提高应用性能和可靠性,相比于本地资源传统负载均衡而言,优势在于成本更少的前提下,根据需求来扩展或收缩应用。
之前的负载均衡解决方案是利用数据中心内的专用的硬件,还要有专业技术团队进行系统安装、调整和维护。这种应用在当时只适合于大预算企业。随着云计算的发展,基于硬件的解决方案存在的缺陷,就是不能满足云负载均衡,云基础架构厂商一般不允许在其环境中使用用户的硬件或者专有硬件。
而现如今的云负载均衡,大大展现了云本身可扩展性和全局性上的优势。云端扩展具有便捷性和速度,企业仅在一组应用实例前放置一个可根据自动扩展的云负载均衡器,即可保证性能前提下轻松处理流量峰值。
全世界多个云中心托管中应用了云负载均衡器,大大提高了可靠性。如美国东北部在遭遇暴风雪威胁后出现停电,云负载均衡器就可以把流量从该地址托管的云资源引导至其他地区托管资源。保证用户的云服务器使用不间断。
当下云服务器产品的接受度越来越高,各种类型的应用都在云服务器中进行。如不少企业会使用基于云的CRM来存储用户信息。使用基于云的ERP系统跟踪产品数据,使用网络托管服务托管网站,使用云服务器运行少量定制应用等等场景。
现在通过负载均衡器服务器和所负载均衡资源都部署在同一环境中,达成更好的资源利用,如企业大部分计算基础架构都托管上云,在云中使用负载均衡器就非常有必要的。
云计算中,负载均衡的工作原理是在后端服务器和客户端设备之间实施的。在收到请求之后,负载均衡器会通过一类算法,综合考虑多种条件如地理距离、服务器负载等,把请求分发到可用服务器上。在云计算环境中,经常用算法:静态和动态来分配流量实现负载均衡。
当下的云计算中,云负载均衡可以分为4类。应用程序,负载均衡会检查请求的内容,并据此重定向流量;网络,负载均衡技术会根据IP地址和其他网络信息,把流量重新定向到最佳资源;全球服务器,负载均衡在重定向流量时,根据和用户端之间的物理距离选择最近目的地,这样来最大限度的降低延迟;DNS,负载均衡会对网域进行配置,从而在该网域中一系列资源间路由网络请求。