EMC双活数据中心解决方案 V40资料Word文件下载.docx
- 文档编号:21137022
- 上传时间:2023-01-27
- 格式:DOCX
- 页数:12
- 大小:1.49MB
EMC双活数据中心解决方案 V40资料Word文件下载.docx
《EMC双活数据中心解决方案 V40资料Word文件下载.docx》由会员分享,可在线阅读,更多相关《EMC双活数据中心解决方案 V40资料Word文件下载.docx(12页珍藏版)》请在冰豆网上搜索。
本文随后将介绍VPlex产品及其主要应用场景,供用户信息存储管理人士参考。
第一章.方案概述
1.需求
***计划建设两个数据中心,构成同城双生产系统,两中心之间距离不超过100公里;
要求数据零丢失,系统切换时间小于5分钟;
2.方案简介
为了满足客户建设容灾系统的需求,我们设计了本地双活数据中心。
整体架构如下:
上图是双活数据中心总体框架,包括双活存储系统、双活数据库系统、双活应用系统和双活网络系统。
我们将利用存储双活技术和主机集群技术实现数据库系统的双活,利用负载均衡设备实现应用系统在两个数据中心内的负载均衡,利用动态域名确保两个数据中心的网络双活。
双活数据中心可以实现业务系统同时在两个节点同时工作,达到负载均衡的目的。
当生产节点出现故障时,业务系统还能够在第二生产节点上正常工作,实现业务零切换。
第二章.双活数据中心架构设计
通过对***具体需求的分析,我们建议客户采用双活数据中心架构设计。
3.数据库系统双活架构设计
在这个架构中,存储层除了采用EMCVNX存储系统或者其他厂商存储系统(第三方主流存储系统见EMCVplex兼容性列表)外,还引进了EMC全新一代数据整合系统VPLEX,由VPLEX实现存储系统高可靠性和同城范围内数据高效共享。
1.1本地存储高可靠性保证
在本方案中,首先我们要满足客户对生产中心存储系统高可靠性的需求。
目前的IT系统架构中,从应用服务器、数据库服务器到网络等各个部分都已经提供了高可靠性的设计,唯独存储系统很少有高可靠性方案的设计,这主要基于两个原因:
●存储系统自身已经有高可靠性设计,控制器、电源、链路等都是冗余设计,可靠性较高,一般情况下很少会发生整体故障,导致数据不可访问。
●没有非常合适的技术来实现存储系统的高可靠性保证
现在EMC推出了全新架构的数据整合解决方案——VPLEX,VPLEX首先实现了本地存储系统的整合及高可靠性设计,而且是硬件级别的解决方案。
在本项目中,生产中心VPLEX首先将两台EMCDMX3/4(仅以DMX存储为例说明,下同)整合在一起,实现存储级别的HA系统。
如下图显示:
1)在两台DMX3/4中分别划出两个LUN,LUN-A和LUN-B
●LUN大小一样
●RAID的保护方式一样
●为了保证性能所分布的硬盘类型和数量最好也一样
将这两个LUN同时映射给VPLEX(通过图中虚线链路),VPLEX可以将这些LUN进行再次RAID保护,目前VPLEX支持的RAID保护级别为:
●RAID0
●RAID1
●分布式RAID1
在实现本地存储HA系统时,使用RAID1保护方式,形成一个虚拟LUN(V-LUN)。
2)VPLEX通过光纤链路(图中实线链路)将V-LUN分配给主机,主机可以进行读写操作
3)当主机向V-LUN写入I/O时,先写入V-LUN,然后再继续写入到两台DMX3/4存储系统中
4)当其中一台存储设备发生故障,整个存储系统能够继续工作,主机访问存储不会受到任何影响
1.2双活数据中心数据保护
本次项目客户要求首先实现本地存储高可靠性保护外,还需要实现双活数据中心,既两个数据中心的业务同时运行,任何一个数据中心出现问题,业务都会继续运行。
1.2.1通过VPLEX进行数据读写
首先在第二生产节点上,DMX3/4存储系统给VPLEX分配一个LUN,VPELX产生一个V-LUN。
其次,通过两个节点的VPLEX产生一个分布式虚拟LUN,采用分布式RAID1保护。
两个节点的主机都能够访问到这个虚拟LUN,两节点的主机都能够同时访问这个分布式虚拟LUN。
由于我们提供的是双活数据中心,两个节点中的数据要实时一致,所以在写入数据时,要确保数据被同时写入到两个节点中,这样才能保证数据两节点之间的数据一致性。
如下图所示:
1)在生产节点的主机产生I/O;
2)向VPLEX写入I/O,I/O通过VPLEX之间的光纤链路发送到第二生产节点的VPLEX上,
3)I/O同时写入到两个节点中的DMX3/4存储系统中;
4)第二生产节点的VPLEX向生产节点VPLEX发出写I/O完成的确认信息(ACK);
1.2.2通过VPLEX进行数据读取
EMCVPLEX是一个集群系统提供分布式缓存一致性保证,能够将两个或多个VPLEX的缓存进行统一管理,从而使主机访问到一个整体的缓存系统。
当主机向VPLEX的摸一个缓存区域写I/O时,VPLEX缓存将锁定这个缓存区域,同一时刻其他主机是无法向这个缓存区域写入I/O的。
但是,当主机读取I/O时,VPLEX缓存允许多个主机访问一个缓存区域,尤其是主机访问其他VPLEX集群中其他VPLEX所管理的数据时,统一个缓存管理会将这个I/O的具体位置告知主机,主机直接访问。
1.2.3主机故障切换
我们将1个RAC的集群中的两台主机分别放置在生产和第二生产节点上,这两台主机形成一个跨数据中心的集群系统,如图中RAC1-1和RAC1-2,RAC2-1和RAC2-2。
这种设置保证了正常情况下,两节点的主机同时工作;
一旦其中一个节点的主机出现故障,业务会无缝的被另外一个节点的主机所接管。
此时,RAC的心跳线需要通过网络来进行连接。
1.2.4存储故障切换
主机故障切换由RAC集群保证,存储系统故障切换则由EMCVPLEX保证。
●EMCVPLEX中设计了一个重要的部件——VPLEXWitness
Witness安装在客户提供的VMwareESXServer上运行的虚拟机,Witness最好与两个VPLEX集群不在同一地点,但是考虑到实际情况,也可以将Witness放置在生产节点。
VPLEXWitness使用IP连接监视两个VPLEX群集之间的系统“心跳”信号。
通过监视这些心跳信号,VPLEXWitness可以区分站点故障和站点分区。
VPLEXWitness让应用程序能够承受任何存储故障的影响,包括同时影响整个存储设备机架的故障。
VPLEXWitness与服务器群集软件和AccessAnywhere相结合,形成了一套端到端的解决方案,允许在服务器出现故障时自动重启。
对于双活数据中心的部署,VPLEXWitness能为客户提供具有零恢复点目标(RTO)的高可用性解决方案。
●由于在生产节点已经通过VPLEX实现存储的HA,所以一个存储系统出现故障,不会影响到整个系统的正常运行。
如图所示:
●第二生产节点存储系统出现故障,不会影响到整个系统的正常运行。
●VPLEX系统故障
VPLEX系统自身是全冗余设计,可用性能够达到99.999%,但是为了防止VPLEX自身出现故障,VPLEX自身有一整套放置系统故障的处理流程,在这个过程中就要结合上面我们提到的Witness。
上图中,①—⑦种情况中,业务正常工作;
⑧—⑩种情况中,业务暂停,需要少量人工干预将业务恢复,时间不会超过10分钟。
1.2.5生产节点发生灾难
如果生产节点发生灾难,则所有业务要切换至第二生产节点,其过程如上图所示情况⑨,需要少量人工干预,在这种情况下人工干预是指将V-2暂时中断的工作重新启动,主机能够重新访问存储系统,最终业务恢复。
1.2.6生产节点恢复
生产节点修复后,需要重新将生产节点和第二生产节点的VPLEX关联起来。
在VPLEX上重新通过两个节点的VPLEX产生一个分布式虚拟LUN,采用分布式RAID1保护,此时业务可以正常运行,第二生产节点与生产节点之间的数据在后台进行复制,直到两边数据一致。
在这个过程中,我们还需要将VPLEX的Witness修复,在其中定义生产节点为主节点。
4.网络系统架构设计
2.1互联网接入部分
该部分内容EMC只是根据其他用户的经验提供一些建议,具体设计与实施还需要专业的网络系统厂商或集成商提供。
建议两个生产分别租用两条互联网出口线路,一条联通线路,一条电信线路。
在每条线路出口处,分别透明部署一台智能抗攻击设备,用以抵挡来自互联网的Dos/DDos等攻击,保护内部用户和服务器的安全。
在两台抗攻击设备后,分别部署两台链路负载均衡设备,用来实现多广域网线路选路和冗余备份,使用户可以通过最快线路访问***业务系统,加快了数据中心访问速度。
同时,当任何一条线路故障,用户依然可以通过另一条广域网线路访问数据中心服务器,提高了数据中心的可靠性。
链路负载均衡设备可实现多条internet接入链路的负载均衡,可以同时实现outbound流量和inbound流量双向的负载均衡。
链路负载均衡设备会通过多种方式检测两条链路的健康状况,一旦发现其中一条链路故障,会立即将所有用户流量定向至其它可用链路,从而实现Internet连接的高可用性。
主要的方法有:
●为了确保ISP链路的畅通,链路负载均衡设备将采用Ping的方法,不仅仅检查和其相连的路由器的端口是否可达,还可以检查该链路后续路由节点的连通性(10跳),已确保整个路径的畅通。
●针对所有的网络环境(包括禁止ICMP的ISP),链路负载均衡设备提供了丰富的4~7层检查方式,并可以通过多种检查结果的“与”和“或”运算结果,最终准确判断链路的健康状况。
在链路负载均衡设备旁路部署全局负载均衡设备。
通过全局负载均衡设备的智能DNS功能,实现两数据中心的灾备功能。
当第一生产中心的所有服务器故障或受到攻击而不能提供服务时,全局负载均衡设备会引导用户(自动或人工)去第二生产中心访问业务。
在用户的权威DNS服务器上添加NS记录,使服务器域名的解析权交给主备两个站点的全局负载均衡设备。
当全局负载均衡设备(无论哪个中心)收到用户DNS请求后,首先会检测服务器状态,确认应用是否健康,能否正常提供服务,广域网线路是否正常等等。
如果主站点服务器能提供正常服务,再根据DNS请求包源地址,将域名解析为主站点的联通或电信地址(根据动态探测结果),使用户访问主站点服务器。
如果主站点服务器不能提供正常服务,则将域名解析为备站点的地址,使用户访问备站点服务器。
当两个数据中心的任何一个互联网线路故障或全局负载均衡设备同时故障,备份中心的全局负载均衡设备探测到第一生产中心故障,并接管全部DNS解析功能,引导用户访问第二生产中心互联网入口。
2.2核心网络系统
该部分内容具体设计与实施还需要专业的网络系统厂商或集成商提供。
2.3SAN网络系统
由于目前***已经实现了两个数据中心之间的SAN网络互联,所以双活数据中心系统直接利用现有的SAN网络系统即可。
5.双活数据中心建议配置设备
●VPLEX虚拟存储系统引擎,2套,每套引擎配置两个控制器,每套引擎配置72GB高速缓存,16个8Gbps光纤端口;
●两台智能抗攻击设备;
●两台链路负载均衡设备;
●两台全局负载均衡设备
第三章.产品配置
EMC存储产品报价表
序号
产品型号
配置描述
数量
EMC报价
1
EMCVplexMetro
虚拟化存储引擎:
每台两个控制器,配置缓存72G,32个8GB主机接口,配置4个56GBEFD硬盘,管理软件,专用机柜。
2
EMCVNX5200
磁盘阵列:
冗余引擎,配置缓存32G,8个8GB主机接口,配置2块400GBEFD磁盘,46个900GB10kSAS硬盘,配置自动分层软件,链路冗余软件,存储管理软件等。
Total:
第四章.
方案优势
6.方案优势
●双活数据中心优势
基于EMCVPLEX系统所构建的双活数据中心,能够实现双中心零时间切换的终极目标,使客户的业务持续运行。
技术领先:
EMCVPLEX引入了一种新的体系结构,它吸收了我们在20年设计、实施和完善企业级智能缓存和分布式数据保护解决方案的实践中取得的经验教训。
以可扩展、高可用的处理器引擎为基础,EMCVPLEX设计为可从小型配置无缝扩展到大型配置。
VPLEX驻留在服务器和异构存储资产之间,使用独特的群集体系结构,此体系结构允许多个数据中心的服务器具有对共享块存储设备的读/写访问权限。
此新体系结构的独特特征包括:
•横向扩展群集硬件,允许您从小配置开始并以可预知的服务级别逐步扩展
•高级数据缓存,它利用大规模SDRAM缓存提高性能并减少I/O延迟和阵列争用
•分布式缓存吻合性,可跨整个群集自动执行I/O的共享、平衡和故障切换
•跨VPLEX群集的一个或多个LUN的统一视图,这些群集可以是在同一数据中心内相距几英尺,也可以跨同步距离-从而实现新的高可用性和工作负载移置模式凭借独特的纵向扩展和横向扩展体系结构,VPLEX高级数据缓存和分布式缓存吻合性提供了工作负载弹性、存储域的自动共享、平衡和故障切换,并帮助实现了有可预知服务级别的本地和远程数据访问。
可扩展性:
VPLEX群集可通过添加更多引擎进行纵向扩展,通过将群集连接到同步-Plex中进行横向扩展(两个VPLEX同步群集在大都市距离内连接起来)VPLEX同步有助于透明地移动和共享工作负载(包括虚拟化主机),整合数据中心,和跨数据中心优化资源利用率。
此外,它提供了无中断数据移动、异构存储管理和改进的应用程序可用性。
VPLEX同步支持最多两个群集,这两个群集可以位于同一数据中心中两个在同步距离内的站点(大约相距60英里或100公里)。
无论位于单个站点还是在站点之间,VPLEX系列都提高了数据和存储的弹性。
VPLEX使客户能够在同一位置内和跨不同位置镜像卷,从而在出现组件故障时提供连续的应用程序可用性。
此功能可提高关键应用程序的保护和可用性,同时又能利用您现有的存储资源,而无需主机资源。
业界最先进的互操作性:
EMC公司提供的VPLEX能够为系统提供最佳的互操作性,充分保证系统的连续。
在未来的扩展中,不同平台的主机系统都能够平滑连接EMCVPLEX系统中。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- EMC双活数据中心解决方案 V40资料 EMC 数据中心 解决方案 V40 资料