索阅 100例 首 页| 资 讯| 下 载| 论 坛| 博 客| Webinar| 高 校| 专 刊| 会展| EETV| 百科| 问答| 电路图| 工程师手册| Datasheet

负载均衡

  负载均衡
  负载均衡 建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。
  负载均衡,英文名称为Load Balance,其意思就是分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其它关键任务服务器等,从而共同完成工作任务。
  1详细信息
  算法
  提供多个WAN ports可作多种负载平衡算法则,企业可依需求自行设定负载平衡规则,而网络存取可参照所设定的规则,执行网络流量负载平衡导引。算法则有:
  ◎ 依序Round Robin
  ◎ 比重Weighted Round Robin
  ◎ 流量比例Traffic
  ◎ 使用者端User
  ◎ 应用类别Application
  ◎ 联机数量Session
  ◎ 服务类别Service
  ◎ 自动分配Auto Mode
  Inbound Load Balancing
  内建Inbound Load Balance 功能,可让企业透过多条ISP线路,提供给浏览者更实时、快速与稳定不断线的因特网在线服务;
  Inbound负载平衡算法包括:Round Robin/ Weighted Round Robin/Auto Back Up;
  功能
  内建DNS服务器,可维护多个网域(domain),每个网域又可以新增多笔纪(A/CNAME/MX),达到Inbound Load Sharing的功能。
  ■Server Load Balancing
  AboCom服务器负载均衡提供了服务级(端口)负载均衡及备援机制。主要用于合理分配企业对外服务器的访问请求,使得各服务器之间相互进行负载和备援。
  AboCom服务器负载与服务器群集差异:
  一旦有服务器故障,群集技术只对服务器的硬件是否正常工作进行检查;AboCom服务器负载则对应用服务端口进行检查,一旦服务器的该应用服务端口异常则自动将访问请求转移到正常的服务器进行响应。
  ■VPN Trunk 负载均衡
  支持同时在多条线路上建立VPN连接,并对其多条VPN线路进行负载。不仅提高了企业总部与分支机构的VPN访问速度,也解决了因某条ISP线路断线造成无法访问的问题。进行VPN负载均衡时VPN访问数据将同时在多条VPN线路上进传输。当一条VPN线路故障时,所有流量将自动切换到正常的VPN线路上进行传输。
  QoS(带宽管理)
  个人带宽管理:可实现每个人的网络带宽分配、管理,可以设置保证带宽用以保障个人应用不受整体环境影响。每日带宽配额:可以针对个人、群组或部门等分别设置带宽配额,这样可以合理利用带宽资源,杜绝资源的浪费,也杜绝员工干与工作无关的事,如看在线电影,下载大容量文件资料等等。
  内容过滤
  网络信息过滤:采用关键字进行内容过滤,可保护内网不受色情、暴力、反动、迷信等信息的入侵和干扰。
  聊天软件、P2P软件控制:可针对QQ、MSN、YAHOO、SKYPE、GOOGLE TALK等聊天通讯软件进行管控和限制,还可限制或禁止如BT、电驴、迅雷等P2P软件的使用。
  SSL VPN
  提供最佳远程安全存取解决方案,企业仅需透过最熟悉的网络浏览器接口(Web Browser),即可轻松连接到企业内部网络;即使未携带企业管控的笔记型计算机,利用家用计算机、公用计算机、PDA等,甚至是通过无线局域网络,都不影响安全联机的建立。
  其他功能
  实时图形化统计分析:记录所有网络封包的进出流量信息,可用做网络使用监控及统计记录;提供事件警报 (Event Alert)及日志记录管理功能;
  支持3A认证:Authentication、Authorization、Accounting,即认证、授权、审计;
  交换机联合防御:利用指定交换机进行联合防护,提升整个网络的安全系数和安全强度;
  HA双机热备:支持双机备援,防止设备故障造成网络瘫痪,提升整个网络的可靠性;
  远程唤醒(Wake on Lan):远程启动计算机。
  四个分类
  软/硬件
  软件负载均衡解决方案是指在一台或多台服务器相应的操作系统上安装一个或多个附加软件来实现负载均衡,如DNS Load Balance,CheckPoint Firewall-1 ConnectControl等,它的优点是基于特定环境,配置简单,使用灵活,成本低廉,可以满足一般的负载均衡需求。
  软件解决方案缺点也较多,因为每台服务器上安装额外的软件运行会消耗系统不定量的资源,越是功能强大的模块,消耗得越多,所以当连接请求特别大的时候,软件本身会成为服务器工作成败的一个关键;软件可扩展性并不是很好,受到操作系统的限制;由于操作系统本身的Bug,往往会引起安全问题。
  硬件负载均衡解决方案是直接在服务器和外部网络间安装负载均衡设备,这种设备通常称之为负载均衡器,由于专门的设备完成专门的任务,独立于操作系统,整体性能得到大量提高,加上多样化的负载均衡策略,智能化的流量管理,可达到最佳的负载均衡需求。
  负载均衡器有多种多样的形式,除了作为独立意义上的负载均衡器外,有些负载均衡器集成在交换设备中,置于服务器与Internet链接之间,有些则以两块网络适配器将这一功能集成到PC中,一块连接到Internet上,一块连接到后端服务器群的内部网络上。
  一般而言,硬件负载均衡在功能、性能上优于软件方式,不过成本昂贵。
  本地/全局
  负载均衡从其应用的地理结构上分为本地负载均衡(Local Load Balance)和全局负载均衡(Global Load Balance,也叫地域负载均衡),本地负载均衡是指对本地的服务器群做负载均衡,全局负载均衡是指对分别放置在不同的地理位置、有不同网络结构的服务器群间作负载均衡。
  本地负载均衡能有效地解决数据流量过大、网络负荷过重的问题,并且不需花费昂贵开支购置性能卓越的服务器,充分利用现有设备,避免服务器单点故障造成数据流量的损失。其有灵活多样的均衡策略把数据流量合理地分配给服务器群内的服务器共同负担。即使是再给现有服务器扩充升级,也只是简单地增加一个新的服务器到服务群中,而不需改变现有网络结构、停止现有的服务。
  全局负载均衡主要用于在一个多区域拥有自己服务器的站点,为了使全球用户只以一个IP地址或域名就能访问到离自己最近的服务器,从而获得最快的访问速度,也可用于子公司分散站点分布广的大公司通过Intranet(企业内部互联网)来达到资源统一合理分配的目的。
  全局负载均衡有以下的特点:
  实现地理位置无关性,能够远距离为用户提供完全的透明服务。
  除了能避免服务器、数据中心等的单点失效,也能避免由于ISP专线故障引起的单点失效。
  解决网络拥塞问题,提高服务器响应速度,服务就近提供,达到更好的访问质量。
  部署方式
  负载均衡有三种部署方式:路由模式、桥接模式、服务直接返回模式。
  路由模式部署灵活,约60%的用户采用这种方式部署;桥接模式不改变现有的网络架构;服务直接返回(DSR)比较适合吞吐量大特别是内容分发的网络应用。约30%的用户采用这种模式。
  路由模式(推荐)
  路由模式的部署方式如上图。服务器的网关必须设置成负载均衡机的LAN口地址,且与WAN口分署不同的逻辑网络。因此所有返回的流量也都经过负载均衡。这种方式对网络的改动小,能均衡任何下行流量。
  桥接模式
  桥接模式配置简单,不改变现有网络。负载均衡的WAN口和LAN口分别连接上行设备和下行服务器。LAN口不需要配置IP(WAN口与LAN口是桥连接),所有的服务器与负载均衡均在同一逻辑网络中。
  由于这种安装方式容错性差,网络架构缺乏弹性,对广播风暴及其他生成树协议循环相关联的错误敏感,因此一般不推荐这种安装架构。
  服务直接返回模式
  这种安装方式负载均衡的LAN口不使用,WAN口与服务器在同一个网络中,互联网的客户端访问负载均衡的虚IP(VIP),虚IP对应负载均衡机的WAN口,负
  载均衡根据策略将流量分发到服务器上,服务器直接响应客户端的请求。因此对于客户端而言,响应他的IP不是负载均衡机的虚IP(VIP),而是服务器自身的IP地址。也就是说返回的流量是不经过负载均衡的。因此这种方式适用大流量高带宽要求的服务。
  详细配置
  基础网络配置:
  AX1000(config)#clock timezone Asia/Shanghai//设置时区
  AX1000(config)#vlan 10//创建VLAN10
  AX1000(config-vlan:10)# untagged ethernet 1 to 2//划分接口到VLAN10中
  AX1000(config-vlan:10)# router-interface ve 10 //设置路由接口为Ve10,后面会给Ve10 配置地址的,这点和传统的二、三层交换不一样。
  AX1000(config-vlan:10)# name “Web-Server-Outside”//也可以设置的备注
  AX1000(config-vlan:10)#end//完成VLAN10的内容,和Cisco的命令一样。
  AX1000(config)#vlan 20
  AX1000(config-vlan:20)# untagged ethernet 3 to 4
  AX1000(config-vlan:20)# router-interface ve 20
  AX1000(config-vlan:20)# name “Web-Server-Inside”
  AX1000(config-vlan:10)#end
  AX1000(config)#interface ethernet 1//进入eth1口
  AX1000(config-if:ethernet1)# enable //激活该接口
  AX1000(config-if:ethernet1)# interface ethernet 2
  AX1000(config-if:ethernet2)# enable
  AX1000(config-if:ethernet2)#interface ethernet 3
  AX1000(config-if:ethernet3)# enable
  AX1000(config-if:ethernet3)#interface ethernet 4
  AX1000(config-if:ethernet4)# enable
  AX1000(config-if:ethernet4)#end
  AX1000(config)#interface ve 10//进入Ve10接口并为其配置地址
  AX1000(config-if:ve10)# ip address 116.255.188.2 255.255.255.0
  AX1000(config-if:ve10)# ip nat outside//这和传统的路由交换设置一直,是需要做NAT处理的。
  AX1000(config-if:ve10)#end
  AX1000(config)#interface ve 20
  AX1000(config-if:ve20)# ip address 192.168.1.1 255.255.255.0
  AX1000(config-if:ve20)# ip nat inside
  AX1000(config-if:ve20)#end
  首先添加服务器:
  AX1000(config)#slbserver Web1192.168.1.11//添加服务器Web1,其IP地址为192.168.1.11
  AX1000(config-real server)#port 80tcp//指定服务器开放的端口及端口类型
  AX1000(config-real server-node port)#exit
  AX1000(config-real server)#exit
  AX1000(config)#slb server Web2192.168.1.12
  AX1000(config-real server)#port 80tcp
  AX1000(config-real server-node port)#end
  检查添加的服务器状态是否正常:
  AX1000#showslbserver //查看SLB信息
  Total Number of Services configured: 2
  Current = Current Connections, Total = Total Connections
  Fwd-pkt = Forward packets, Rev-pkt = Reverse packets
  Service Current Total Fwd-pkt Rev-pkt Peak-conn State
  —————————————————————————————
  Web1:80/tcp 0 0 0 0 0 Up
  Web1: Total 0 0 0 0 0 Up
  Web2:80/tcp 0 0 0 0 0 Up
  Web2: Total 0 0 0 0 0 Up
  发现全Up以后,则表示服务器的健康检查通过。
  默认的健康检查方式是Ping检查服务器的存活状态。只有服务器状态为Up时,负载均衡器才会把会话分发给该服务器处理,从而最大可能性的保障用户的请求得到服务器的正常应答,这也是负载均衡器的基本功能之一。
  在很多时候服务器作了安全策略,比如说防止Icmp的报文等等,就需要调整服务器的健康检查方式,具体内容后期提供。
  创建服务组
  AX1000(config)#slb service-group Webtcp
  AX1000(config-slbsvc group)#member Web1:80
  AX1000(config-slbsvc group)#member Web2:80
  AX1000(config-slbsvc group)#end
  验证服务组工作正常
  AX1000#show slb service-group
  Total Number of Service Groups configured: 2
  Current = Current Connections, Total = Total Connections
  Fwd-p = Forward packets, Rev-p = Reverse packets
  Peak-c = Peak connections
  Service Group Name
  Service Current Total Fwd-p Rev-p Peak-c
  ——————————————————————————-
  *Web State:All Up
  Web1:80 0 0 0 0 0
  Web2:80 0 0 0 0 0
  创建虚拟服务器:
  其地址为:116.255.188.235,即对外公布的真实的服务地址
  AX1000(config)#slbvirtual-server VIP-WEB 116.255.188.235//创建VIP
  AX1000(config-slbvserver)#port 80http//指定VIP对公共用户开放的端口及端口类型,Web页面选择http
  AX1000(config-slbvserver-vport)#service-group Web//该端口对应的服务组为Web
  AX1000(config-slbvserver-vport)#end
  查看虚拟服务器状态
  AX1000#showslbvirtual-server
  Total Number of Virtual Services configured: 1
  Virtual Server Name IP Current Total Request Response Peak
  Service-Group Service connection connection packets packets connection
  —————————————————————————————-
  *VIP-WEB(A) 116.255.188.235 Up
  port 80 http 0 0 0 0 0
  Web 80/http 0 0 0 0 0
  Total received conn attempts on this port: 0
  域名的解析记录已设置为116.255.188.235,所以只要直接访问即可看到效果。
  验证:
  AX1000#show session | in 116.255.188.235//查看当前设备上访问116.255.188.235的详细会话
  Traffic Type Total
  ——————————————–
  TCP Established 17
  TCP Half Open 8
  UDP 0
  Non TCP/UDP IP sessions 0
  Other 681295
  Reverse NAT TCP 0
  Reverse NAT UDP 0
  Free Buff Count 0
  Curr Free Conn 2031387
  Conn Count 6926940
  Conn Freed 6926870
  TCP SYN Half Open 0
  Conn SMP Alloc 103137
  Conn SMP Free 102986
  Conn SMP Aged 0
  Conn Type 0 Available 6225920
  Conn Type 1 Available 3112960
  Conn Type 2 Available 2015155
  Conn Type 3 Available 778240
  Conn SMP Type 0 Available 6225920
  Conn SMP Type 1 Available 3112960
  Conn SMP Type 2 Available 1572712
  Conn SMP Type 3 Available 778240
  Prot Forward Source Forward Dest Reverse Source Reverse Dest Age Hash Flags
  —————————————————————————————————————-
  Tcp 110.152.232.139:1927 116.255.188.235:80 192.168.1.11:80 110.152.232.139:80 0 1 OS
  Tcp 110.152.232.139:1927 116.255.188.235:80 192.168.1.12:80 110.152.232.139:80 0 1 OS
  类型 源地址 目的地址服务器地址 服务器回报地址
  2主要应用
  1.DNS负载均衡最早的负载均衡技术是通过DNS来实现的,在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。DNS负载均衡是一种简单而有效的方法,但是它不能区分服务器的差异,也不能反映服务器的当前运行状态。
  2.代理服务器负载均衡 使用代理服务器,可以将请求转发给内部的服务器,使用这种加速模式显然可以提升静态网页的访问速度。然而,也可以考虑这样一种技术,使用代理服务器将请求均匀转发给多台服务器,从而达到负载均衡的目的。
  3.地址转换网关负载均衡 支持负载均衡的地址转换网关,可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。
  4.协议内部支持负载均衡除了这三种负载均衡方式之外,有的协议内部支持与负载均衡相关的功能,例如HTTP协议中的重定向能力等,HTTP运行于TCP连接的最高层。
  5.NAT负载均衡NAT(Network Address Translation网络地址转换)简单地说就是将一个IP地址转换为另一个IP地址,一般用于未经注册的内部地址与合法的、已获注册的Internet IP地址间进行转换。适用于解决Internet IP地址紧张、不想让网络外部知道内部网络结构等的场合下。
  6.反向代理负载均衡普通代理方式是代理内部网络用户访问internet上服务器的连接请求,客户端必须指定代理服务器,并将本来要直接发送到internet上服务器的连接请求发送给代理服务器处理。反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。反向代理负载均衡技术是把将来自internet上的连接请求以反向代理的方式动态地转发给内部网络上的多台服务器进行处理,从而达到负载均衡的目的。
  7.混合型负载均衡在有些大型网络,由于多个服务器群内硬件设备、各自的规模、提供的服务等的差异,可以考虑给每个服务器群采用最合适的负载均衡方式,然后又在这多个服务器群间再一次负载均衡或群集起来以一个整体向外界提供服务(即把这多个服务器群当做一个新的服务器群),从而达到最佳的性能。将这种方式称之为混合型负载均衡。此种方式有时也用于单台均衡设备的性能不能满足大量连接请求的情况下。
  3常见产品
  F5
  F5 公司是应用交付网络(ADN)领域的全球领先厂商,全球市场份额第一。其致力于帮助全球大型的企业和服务提供商实现虚拟化、云计算和“随需应变”的IT的业务价值。F5公司总部设在华盛顿州的西雅图,并在全球各地设有分部。更多最新信息,请访问F5中文官网。
  产品技术特点:
  1)全面的负载均衡
  BIG-IP LTM(本地流量管理)包含静态和动态负载均衡方法,包括动态速率、最少连接和观察模式的动态平衡,这些方法用于以整体方式跟踪服务器的动态性能。这保证了始终选择最佳的资源,以提高性能。可支持所有基于TCP/IP协议的服务器负载均衡。可支持最小连接数、轮询、比例、最快响应、哈希、预测、观察、动态比例等负载均衡算法。
  2)应用状态监控
  BIG-IP LTM提供的监视器,用于检查设备、应用和内容的可用性,包括适合多种应用的专用监视器(包括多种应用服务器、SQL、SIP、LDAP、XML/SOAP、RTSP、SASP、SMB等),以及用于检查内容和模拟应用调用的定制监视器。
  3)高可用性和交易保障
  BIG-IP LTM提供了次秒级系统故障切换和全面的连接映射,无论出现何种系统、服务器或应用故障,都能保证它是一个高可用的解决方案。BIG-IP LTM可以主动检测和响应任何服务器或应用错误。
  4)支持NAT地址转换
  提供NAT地址转换功能,能够实现动态或静态地址转换。
  5)支持访问控制列表
  能够实现防火墙的基本功能,建立访问控制列表,拒接IP网段或端口号吗。
  6)广域流量管理器(插件模块)
  为在全球各地的多个数据中心中运行的应用提供高可用性、最高的性能和全局管理。
  7)链路控制器(插件模块)
  无缝地监控多个WAN连接的可用性和性能,智能地管理站点的双向流量,从而提供容错的、经过优化的互联网接入。比如管理控制CT和CNC的网络流量。
  8)应用防火墙(插件模块)
  该模块可加入到F5设备中,为设备提供更高级的安全服务。
  9)支持路由
  该功能为F5设备中基本功能,但只支持静态路由,如果使用较为高级的OSPF路由协议,需要购买单独的模块来支持。
  扩展应用-降低服务器负载
  1)内容转换
  BIG-IP LTM为将许多繁杂或者重复功能卸载到集中的高性能网络设备上提供了全面的解决方案。SSL、压缩以及BIG-IP LTM的其它多项功能提供了一个完整的内容转换网关,可重定向、插入或者全面转换应用内容,以实现有效且高效的应用集成。
  2)OneConnect
  F5 OneConnect? 将数百万个请求汇聚为几百个服务器端的连接,确保后端系统能够高效地处理这些连接,从而使服务器容量提高60%。
  3)高速缓存
  智能缓存功能通过将重复流量从Web和应用服务器上卸载,使服务器容量提高9倍,从而实现显著的成本节约。该功能也是业内唯一提供多存储库缓存的解决方案,能够针对各应用或部门管理不同的缓存库,为高优先级的应用提供精确的智能控制。
  4)SSL加速和卸载
  每个BIG-IP LTM设备提供了硬件加速方式的SSL加密,以消除应用服务器的SSL负担。通过加快设置和批量加密,企业可以采用更安全的密码将全部通信迁移到SSL,几乎不会导致应用性能下降或瓶颈。
  优化的应用
  1)智能应用交换
  BIG-IP LTM拥有读取所有IP应用的独特能力,因此,它可以转换并且持续保留特定供应商的应用服务器(Microsoft、IBM、Oracle、SUN等)的独特信息; Web服务应用的XML数据;或者指示移动/无线应用的定制数值。您的企业可以借助BIG-IP LTM转换、记录以及持续保留有效负载或数据流的能力,实现更高的可靠性和可扩展性。
  2)智能压缩
  将应用性能提高至3倍,同时使带宽的使用量减少80%。使用业界标准的gzip和DEFLATE压缩算法减少HTTP流量,通过更慢/低的带宽连接降低带宽消耗量,缩短用户下载时间。这一功能对于压缩多种类型的文件提供了丰富的支持能力,包括HTTP、XML、JavaScript、J2EE应用等。
  3)灵活的第4至7层流量整形
  通过为更高优先级的应用分配带宽,控制流量峰值,并且根据第4层或第7层参数确定流量的优先级,保证最佳的应用性能。即IDC机房在核心交换机上所启用的QOS功能。
  4)TCP Express
  BIG-IP LTM的高度优化的TCP/IP堆栈(称为TCP Express?)将TCP/IP技术和最新RFC的改进功能,与F5开发的多项改进和扩展功能相结合,最大限度降低了拥塞、丢包和恢复的影响。BIG-IP LTM是一个全代理设备,因此,TCP Express可以屏蔽并且透明地优化服务器或客户端上运行的原有的或者不兼容的TCP堆栈。这样可以使用户的性能提高2倍,并且使带宽效率提高4倍,同时降低您的服务器上的连接负载。
  安全的应用
  1)基础防火墙功能——数据包过滤
  BIG-IP LTM集成了一个控制点,用于定义和执行基于第4层的过滤规则(基于PCAP,类似于网络防火墙),以提高网络防护能力。
  2)资源隐藏和内容安全
  BIG-IP LTM对所有应用、服务器错误代码和真正的URL参考实现了虚拟化和隐藏,因为这些可能为黑客提供关于基础架构、服务及其相关漏洞的信息。敏感的文档或内容将不允许离开您的站点。
  3)定制的应用攻击过滤
  全面的检测和基于事件的策略为搜索、检测和应用多种规则阻止已知第7层攻击提供了显著增强的能力。BIG-IP LTM还采用安全的应用模板阻止已知攻击和针对应用业务逻辑的攻击。额外的安全层可防止黑客、病毒和蠕虫,同时为合法流量提供持续的服务。
  4)隔离协议攻击
  BIG-IP LTM提供了协议无害处理 (Protocol Sanitization) 和充分TCP终止 (Full TCP Termination)点来单独管理客户端和服务器端连接,以保护所有后端系统和应用免遭恶意攻击。
  5)网络攻击防护
  BIG-IP LTM作为安全代理,可防护DoS攻击、SYN Flood以及其它基于网络的攻击。诸如SYNCheck?等特性可为部署在BIG-IP设备后的服务器提供全面的SYN Flood保护。BIG-IP LTM采用Dynamic Reaping(获取空闲连接的一种自适应方法)过滤掉负载最重的攻击,同时为合法连接提供不间断的服务。
  6)有选择的加密
  BIG-IP LTM提供了业界最具选择性的加密方法,对数据进行整体、部分或有条件的加密,从而保护并优化不同用户之间的通信。
  7)Cookie加密
  透明地分配给合法用户的Cookie和其它令牌都经过加密。企业可获得针对全部带状态的应用(电子商务、CRP、ERP和其它关键业务应用)的卓越安全性,以及更高的用户身份信任度。
  8)高级SSL加密标准
  BIG-IP LTM采用市场上最安全的SSL加密技术,支持更高标准的AES算法,而无需额外的处理成本。
  9)抓包工具
  提供tcpdump工具作为抓包分析使用,可用于故障处理,流量分析等方向。
  A10
  A10 公司是应用交付网络(ADN)领域的全球领先厂商,全球市场份额第三。其总部位于美国硅谷,连续多年被INC.500评为全球发展最快的企业之一,其产品在2013年获得微软"Best of TechEd 2013"最佳硬件和最高人气两项大奖,是业界性价比最高和每瓦特性能最佳的应用交付产品,具体可参考A10公司中文官网。
  应用案例(国际)
  Twitter,Microsoft,LG,Samsung,Godaddy,NTT,Linkedin,AOL,Evernote,Terra,Bizrate,meebo,Box,Subaru,gamania,mevio,TED baker……
  应用案例(国内)
  淘宝网,阿里巴巴,携程,中国雅虎,盛大网络,世纪互联,1号店,新华网,人民网,第一视频,500wan彩票,神州租车,国税总局,保监会,平安集团,建设银行,农业银行,上海交大,浙江大学,四川大学,新华社,国电集团,中化集团,联想集团……
  深信服
  深信服应用交付AD产品具备服务器负载均衡、链路负载均衡、单边加速、智能优化技术、SSL加速、商业智能分析等优势功能,将用户访问请求智能匹配到最优的链路,并为用户选择响应最快的服务器,提升用户使用体验,并为企业提供科学管理的决策。
  产品技术特点:
  单边加速功能
  客户端无需安装任何插件和软件即可提升用户访问速度,这使得用户可以更快更稳定地访问发布内容,打造稳定智能的业务发布平台。
  商业智能分析
  深信服AD应用交付产品区别于传统负载均衡设备,更加关注企事业单位应用的整体交付过程中与业务、网络优化相关的一系列问题。其中最显著的特点就是,在保证应用交付过程中稳定性的前提下,不仅可以知悉组织网络和服务器的运行状况,更重要的是可以帮助组织分析自身的业务系统运行状况,以此为高层的网络优化和业务优化提供决策依据。
  链路负载和服务器负载二合一
  深信服AD产品包括链路优化和服务器优化,四到七层负载均衡,实现对各个链路以及服务器状态的实时监控,同时根据预设的规则将请求分配给相应的链路以及服务器,以此最终实现数据流的合理分配,使所有的链路和服务器都得到充分的利用,扩展应用系统的整体处理能力,提高应用系统的稳定性,改善用户的访问体验,降低组织IT投资成本。
  高投资回报比
  深信服AD系列应用交付产品打破国外厂商垄断,在同等投入水平下,具备链路、服务器二合一负载均衡解决方案,并直接开通SSL加速、缓存、压缩等众多优化功能,获得超出业界同类产品的设备性能
  梭子鱼
  梭子鱼负载均衡机通过为多台服务器进行流量均衡、网络入侵防护等流量优化和安全扫描机制,实现应用的高可用性和安全性,并通过完善的服务器健康检查机制,为应用提供冗余。梭子鱼使用软、硬件一体化设计,避免了根据服务器台数和端口数的收费方式,为用户提供性价比极高的应用安全负载均衡。
  高可用性与高可扩展性
  据行业分析报告,只有不到20%的核心应用实现了高可用性。应用高可用性所面临的巨大挑战包括了持续工作时间的延长、应用的扩容和攻击的防护。梭子鱼负载均衡机使用完善的服务器健康检查对真实服务器进行实时监控,确保用户的请求始终到达健康的服务器,得到正常的响应。对于梭子鱼负载均衡机自身的高可用性,可以通过梭子鱼负载均衡机的集群部署实现。
  对于高流量的应用环境,梭子鱼负载均衡机通过动态权重分配机制根据每台服务器的实时处理能力进行流量的均衡。对于需要会话保持的应用,梭子鱼负载均衡机提供源IP会话保持以及7层的cookie会话保持功能。
  易于管理和维护
  梭子鱼负载均衡机部署简单。通过服务器自动发现功能和友好的Web配置界面,帮助用户轻松完成配置。同时,梭子鱼通过集成的IPS为应用提供实时的安全防护。
  梭子鱼负载均衡机的Web管理界面提供完善的数据统计,对设备的性能、流量等数据进行实时统计,同时提供易于操作的服务配置页面,为管理员提供方便的管理。
  万任科技
  功能
  1、会话保持设置,保障业务延续性、可用性。
  2、分发互联网的流量,解决南北互通。
  3、链路备份,提高链路冗余。
  4、带宽叠加,减少互联网接入的成本。
  5、链路自动探测纠错与健康检查
  6、智能负载均衡/手动负载均衡
  7、按内网地址选路/按外网地址选路
  8、按应用选路
  优势:
  支持带宽叠加:将多条宽带绑定成一条,降低对网络的投资,以最小的投入获得最高效稳定的网络环境。
  支持线路备份:当一条链路出现故障时,可以迅速切换到其他可用链路,保证网络的高可用性和业务延续性。
  解决南北互通问题:有效解决了南北因电信、网通的差异导致了普遍存在的“南北互通”问题。
  支持多链路负载均衡:高度保证企业网络的稳定性和业务的延续性避免系统宕机、链路中断或拥塞等对企业运营带来不利影响。
  拥有多项先进的技术:集HTTP压缩,SSL加速、智能数据压缩、基于内存的高速缓存、TCP连接复用、单边TCP加速等多项技术于一身,减少响应时间,显著改善终端用户体验。
  丰富的算法与策略:拥有多种均衡算法和丰富的负载均衡策略,让用户更高效合理的使用网络资源,极大提升链路利用效率,保障业务高效运行。
  保障关键业务:支持链路、应用状态监控,支持会话保持,避免业务访问中断,保障关键业务的延续性。
  安装部署配置简便:安装简单,部署方便,图形化的配置界面,简单直观,降低用户配置复杂度,便于系统管理和维护。
  品安科技
  品安科技的品安科技AD产品是品安科技自主研发,拥有独立自主知识产权的,涵盖负载均衡、应用加速及应用安全功能的应用交付控制器。该产品内聚了独有的多核多线程调度、告诉协议栈等关键技术,能极大的提高服务器的可用性,保障链路的可靠性和安全性,高效的将应用交付给客户,改善用户访问体验,降低IT投资成本。
  特点优势:
  1 、All in One, One for ALL 多种功能为一体。应用交付控制器是集成多功能通信管理平台,把主流应用流量管理和性能增强功能集成到一个功能强大的平台上,包括二到七层服务负载均衡(SLB)、高速缓存(Cache)、链路负载平衡(LLB)、SSL加速、HTTP压缩、群集、应用安全防火墙(Webwall)和全局服务负载平衡(GSLB)。该平台加快了应用传输速度并简化了这一过程。
  2 、High Performance 高性能。通过采用多种性能增强技术,特别是具有革命性的国内独有技术,即高速协议栈技术,将应用交付控制器提供的所有功能集成在一起,极大的地优化了各个功能的处理过程,实现了数据动态管理,从而保证网络应用和服务能够高速和可靠地运行。
  3 、TCP off loading 网络卸载。应用交付控制器在实现服务负载均衡时,通过特有的连接复用等性能优化技术,在稳定的实现服务负载均衡功能的基础上,能够在高负载的情况下大大减小后台的负载总量,使得服务提供设备能够处理更多的并发请求,从而提供更优的性能价格比。在结合Cache功能应用时,应用交付控制器甚至能够成百倍地减小对后台的负载,提供令人惊喜的表现。
  4、Flexibility 灵活。在实现高处理能力和功能的同时,应用交付控制器相对与其它产品配置、管理和维护更加简单和人性化。同时结合独有的强大本地化技术支持和研发力量,能够及时准确的提供全面的技术服务,为用户提供长期创造价值。
  天融信
  天融信网络卫士TopApp-LB负载均衡系统是一款融合了智能带宽控制功能的链路及服务器负载均衡产品。通过对网络出口链路和服务器资源的优化调度,TopApp-LB负载均衡系统让大规模的应用部署轻松实现,同时达至最稳定的运行效果,最高的资源利用率,最佳的应用性能和用户体验。大量的企事业单位通过TopApp-LB负载均衡系统顺利实现了应用部署,满足了信息化发展的需求,并极大地提升了工作效率。
  二合一负载均衡
  集成高性能链路负载均衡和服务器负载均衡,保证应用数据在错综复杂的网络中获得最佳传输路径。完善的链路、应用服务健康检查机制,及时诊断出不能正常工作或负载过重的链路和服务器。能够根据应用、链路的健康状况,智能调整流量在多链路、多服务器之间的分配,并自动完成切换,提升网络和应用的可用性。
  精确流量控制提升带宽价值
  创新的端到端精确带宽控制与均衡技术避免了传统队列机制所带来的广域网下行带宽的浪费,真正实现优先级管理、带宽限制、带宽保障以及带宽的公平使用,提升带宽价值。
  高可用性保证
  实现多机集群及Active-Standby、Active-Acitive模式的高可用性部署,最大化应用运行时间,避免了设备或网络故障对业务的影响。
  强化的安全保护
  状态检测防火墙实现高性能的访问控制,双向NAT支持多对一、一对多和一对一等多种方式的地址转换,IP/MAC地址自动扫描及绑定,有效抵御数十种网络攻击。
  易于使用及部署
  单臂、双臂可选的接入模式最大程度上减少用户网络结构的调整。负载均衡算法的自适应管理、内置中国ISP地址列表、服务器故障自动通知及应用故障自动修复等降低了用户配置管理的复杂性。
  4解决方案
  负载均衡在银行中的解决方案
  业务连续性与高可用性从来都是企业的生命线。我们很难想象,当一个银行的信息系统中断那怕是一个小时,将会造成怎样的严重后果。据权威统计,经历突发性重大灾害后的公司有将近43%倒闭,而另外51% 也在两年之内陆续关门。要保证关键业务7x24不中断,应对激烈的市场竞争和提高客户满意度,企业必须在IT系统围绕“连续”主题进行构建,实施业务连续/容灾备份计划,包括业务连续性、高可用性管理、容灾、数据保护和恢复案、安全等。
  正是基于以上考虑,某银行数据中心采用了服务器负载均衡高可用性解决方案,该银行实现了多数据中心链接和高负载高流量的网络应用目标,确保了该银行数据中心的稳定的业务处理能力。
  客户需求
  某银行成立于1992年,是国有控股的全国性股份制商业银行,为国内第一家有国际金融组织参股的银行,具有雄厚的资金实力,特点鲜明的股权结构,完善的经营管理体制,布局合理的机构网络,该银行已在全国23个省、自治区、直辖市的36个经济中心城市拥有分支机构300多家,成为对社会有一定影响的全国性股份制商业银行。与此同时,该银行也积极利用信息化手段,来提高自身的竞争力和客户满意度。
  就该银行而言,要确保银行数据中心高流量负载和高可用性,全面部署高可用性的服务器负载均衡解决方案,要求如下:在正常情况下两台或多台服务器的负载基本相同,在某台服务器停机的情况下透明的容错,保证关键服务的持续。ISP接入链路的容灾:在每个数据中心采用不同的ISP接入链路, 保证在ISP故障的情况下系统的正常运行, 而在正常的情况下实现负载均衡, 提高链路利用率。多数据中心的协同工作:为配合未来在业务量增加的情况下, 在某分中心的协同工作,特别是不同地理位置的用户的就近性访问的考虑, 以提高服务品质, 增加用户访问的满意度。
  解决方案
  针对某银行的需求现状和未来需求趋势,考虑到该银行数据中心的后台是通过中间件为基础架构搭建起来,服务器负载均衡设备机, 并以服务器直接返回模式(DSR)将负载均衡设备接入网络,对每一层的应用服务器进行负载均衡。该方案具有以下优势:
  1. DSR模式为独有负载均衡工作模式,是专门针对如金融行业这种对高并发连接数有严格要求的行业开发的模式。
  2. 简单快速的网络搭建, 实现网络拓扑零改动。
  负载均衡机是提供本地服务器群负载均衡和容错的产品,在充分利用现有资源以及对IT基础设施进行最小变动的前提下有效地进行流量的分配,从而提高服务器的处理性能。对客户端而言,这一切都是透明的。
  两台服务器负载均衡机做为一组, 对应用服务器提供负载均衡服务, 并且互为备份,采用“心跳”技术实时监控伙伴设备的同时, 也实现了负载均衡设备的负载均衡。能够避免SPOF和单点瓶颈的问题, 最大限度地发挥负载均衡的能力。
  采用负载均衡系列产品处理多ISP的多网段IP地址的情况, 由该产品全权处理有关DNS解析和多数据中心的多ISP接入链路问题。开启该产品的健康检查功能, 检查两个或多个数据中心的服务状况, 以确保用户的正常访问。DNS服务器分别接在接入路由器上,负责用户的DNS访问请求。引导用户使用最快的链路进行访问站点。同时,负载均衡机负责检查线路的健康状态,一旦检测到线路的中断,则停止相应线路的地址解析。[1]
  5IPTV系统负载均衡
  华灯初上的时候,打开电视机,点播一个你爱看的电影,电影顷刻间就开演了!你可否想过,和你一样点播电视节目的有千家万户,为什么每家每户想看的节目都能及时送到眼前呢?这是怎么做到的呢?
  在电视上点播节目是一种IPTV业务,被点播的电影、电视剧等节目我们称为内容。向众多用户提供内容是由一个专门的网络完成的,这个网络我们叫它内容分发网络(CDN),我们将这个分发网络上负责给电视传送内容的服务器叫做CDN节点(CDN node)。
  在网络建设之初、IPTV用户还较少的时候,这个网络并不庞大,可能一台设备就能轻松处理完全部用户的要求。然而随着业务的发展,用户量和业务量与日俱增,一台设备已经招架不住了。这时我们就需要给这台设备找些帮手。于是我们为这台设备“克隆”一些兄弟,然后将用户的要求分摊给所有兄弟,大家一起共同面对。对于这个网络来说,大家要完成的任务即是负载,如此多队员的合作以及团队运作,即是负载均衡。
  大家合作,处理业务的能力是够了,但是任务来了后究竟由谁来处理呢?队员们会不会都不知道应该做什么?会不会都抢着做而打起来?因此必须要有一个领队(CDN Manager)来管理他们,指挥他们谁应该做什么、要达到什么样的目的。在向各队员发出指示之前,领队需要首先统一接收任务,然后分析并分解任务、挑选合适的队员(CDN node)来执行任务,再将任务安排下去由合适的队员具体来执行。由此可见,领队可下了一番功夫的呢!在领队的合理安排下,队员们都有条不紊地执行任务,不会出现有的太闲而有的过忙的现象,“CDN团队”融洽高效地完成了任务。
  那么领队如何决定把某个任务或子任务分给哪个队员呢?领队的决定可不是随意做出的,而是相当谨慎且科学的。原来啊,领队是依据一些策略来做出决定的。这些策略包括用户的网络地址、用户的分组、先到先得规则等。
  根据这些策略,领队可以把一个大任务分解成多个子任务,让每个队员执行其中一个小任务,大家完成后由领队汇总,达到完成大任务的目的,这样这个任务就会执行得很快;领队也可以把一批任务中的每一个任务分散到每个队员去分头执行,由队员直接完成这些任务,这样这批任务也会执行得很快。大规模的CDN网络通常是一级一级、一层一层的,我们叫它分布式网络,相邻的层级之间形成依赖和备份关系。而你点播的节目最终通常由最靠近你的CDN节点送达你的电视机,这就是为什么节目总是那么及时地开演。当最靠近你的CDN节点出现故障或者服务能力无法提供服务时,领队能够根据依赖和备份策略选取其他合适的节点提供服务。
  从均衡所覆盖的范围角度,负载均衡又分全局负载均衡和本地负载均衡。
  全局负载均衡和本地负载均衡是两个相对的概念。前者关注的是一个网络的整体,是对放在不同位置、为完成同一个任务的设备群体做负载均衡,是宏观上的;后者关注的是网络个体,是对一个地理位置上的设备群做负载均衡或者对某一个设备内部的具有相同功能的多个模块做负载均衡,是微观的。
  IPTV系统中的本地负载均衡特指某个节点内部的负载均衡,即当某个节点内部存在多个提供相同功能的单板时,会有至少一个管理单板担任该本地负载均衡的领队,带领这个小团队完成上级下发的任务。
  说到这里,大家应该明白了,负载均衡就是团队运作。为了一个共同的团队目标,位于不同位置上“队员”们在领队的统一调度下,协同工作,将大的任务相对平均地分担起来,把任务完成的更快、更好!在整个网络这个大范围内的负载均衡是全局负载均衡,局部的小范围内的负载均衡是本地负载均衡。


如果您认为本词条还有待完善,需要补充新内容或修改错误内容,请编辑词条     查看历史版本
开放分类
负载    负载均衡    

贡献者
angelazhang