XX超融合解决方案建议书Word文档格式.docx
- 文档编号:19544757
- 上传时间:2023-01-07
- 格式:DOCX
- 页数:33
- 大小:1.95MB
XX超融合解决方案建议书Word文档格式.docx
《XX超融合解决方案建议书Word文档格式.docx》由会员分享,可在线阅读,更多相关《XX超融合解决方案建议书Word文档格式.docx(33页珍藏版)》请在冰豆网上搜索。
传统存储根据机头控制器的能力分为高中低三档存储,低端存储通常支持200块硬盘左右的扩展能力,中端存储通常支持1000块硬盘左右扩展能力,高端存储通常支持5000块硬盘左右扩展能力。
集中式存储扩展性受限,低端存储无法升级为中高端存储,不能实现随着计算资源扩展而自由地横向扩展。
当客户业务量较小时,初期购买中低端存储,后续遇到业务量增加或者新上业务,存储性能和容量则无法满足客户需求,通常选择是再增加一台新的中低端存储,这样就造成了多存储平台之间的割裂,资源利用率底,管理复杂,无法满足上层业务对易用性和敏捷性的需求。
如果客户初次购买高端存储,则又会遇到初次投入成本过高,设备利用率不足等问题。
随着数据集中化及云计算成为主流建设模式,存储资源集中化,业务大规模部署及运维逐步成为刚需,传统存储在扩展性上受限,无法适应虚拟化数据中心弹性可扩展的未来要求,这是目前客户遇到的主要痛点之一。
(3)高昂的成本支出
投资成本高:
传统的存储与计算分离架构,需要配置独立的网络、存储和计算节点。
为了提高系统整体高可用性,需要通过资源冗余的方式达到设计目标,包括存储网络设备的冗余、存储控制器的冗余、存储链路的冗余等,增加了数据中心的建设投资成本。
运维成本高:
随着IT规模的不断膨胀,数据中心内的服务器数量、网络复杂程度以及存储容量急剧增长,随之带来的是高昂的硬件成本支出以及运营成本支出(电力、制冷、占地空间、管理人员等),同时,应用系统的高可靠性严重依赖于硬件提供的RAS(ReliabilityAvailabilityandServiceability,可靠性、可用性和可服务性)特性,导致硬件产品规格不断提高,硬件采购成本极为高昂。
(4)业务部署速度缓慢
新的服务器、存储设备和网络设备的部署周期较长,整个过程包括方案设计、硬件选型、多厂商采购、分批到货、上架安装、系统集成、网络配置、综合调试、业务部署等环节。
一般情况下,这个过程需要的工作量约20~40小时,交付周期约2~5个月,IT系统从提交业务变更请求到进行运营变更之间存在较长的延迟,初期部署效率低。
1.2.超融合产生背景
融合在近年来已经成为IT基础架构领域最具颠覆性的架构之一,它不仅深刻改变着用户IT基础设施的采购和使用模式,更影响着整个IT基础架构市场的格局。
而任何一项变革性的架构无不来自于两个方面的驱动力:
(1)用户强烈的痛点和需求。
(2)相关核心技术的演进和成熟。
从需求的角度,随着企业对信息系统建设越来越重视,以及IT业务系统持续为企业带来巨大效益,企业对IT基础架构投入也越来越大,如何以更低的成本获得稳定、高性能、易于维护、易于扩展的IT基础架构成为企业的持续需求。
与此同时,IT基础架构的核心技术和产品也在快速的演进,对超融合架构产生影响的技术包含了CPU、分布式存储、SSD、服务器虚拟化和万兆网络在内几乎所有核心元素:
(1)虽然x86虚拟化技术早在1998年就已出现,但在2005年CPU支持虚拟化技术之前,并不算十分流行;
CPU虚拟化技术大力推动服务器虚拟化软件的发展;
2007年VMware发布ESX3.5真正开始步向成熟。
市场也看到服务器虚拟化具有颠覆性的优势,逐渐开始普及服务器虚拟化技术。
到今天服务器虚拟化可以说成为企业数据中心必选技术之一,已经被广泛应用。
服务器虚拟化技术解决了计算能力的密度提升与降低成本的问题。
(2)随着业务规模扩大,越来越多的虚拟机、越来越多的数据,对集中式存储带来了非常大的压力。
由于传统集中式存储性能受限于存储控制器,而存储控制器难以线性扩展,虚拟化程度高导致IO压力剧增,集中式存储难以负荷;
此外传统存储的专有硬件架构,导致其维护成本高昂、升级困难、管理复杂,与此对应的分布式存储则避免了这些缺点。
但分布式存储真正具备长足发展的原因是硬件技术的成熟。
从2012年左右开始,企业级SSD逐渐成熟,使得不再需要大量堆砌HDD磁盘来获得性能提升。
(3)10Gb以太网普及成本下降,使分布式存储访问远程节点的性能与访问本地节点的性能差距大大缩小。
(4)8核甚至10核以上的CPU也开始普及,让服务器除了运行服务器虚拟化计算外,还有能力同时运行分布式存储软件。
在此背景下,超融合架构应运而生,并不断演进,逐渐成为被越来越多人接受的主流基础架构建设方案。
1.3.项目现状分析
XXXXX随着信息化建设的不断深入、业务系统的不断上线,一方面提供信息服务的IT软硬件的种类与数量不断增加;
另一方面,IT软硬件的运行情况和企业各部门业务的捆绑越来越紧密,IT软硬件承担的责任也越来越重,对数据中心的安全、运营和维护管理的要求也越高。
虚拟化和云计算技术成为数据中心选择的解决方案。
该数据中心的基础架构由服务器、存储和网络构成,其中,为虚拟化平台提供数据空间的存储大多采用传统的集中存储,包括SAN和NAS等。
随着业务规模和种类不断扩大,运维人员逐渐感受到服务器虚拟化带来的便利和高效,但僵化的传统外置磁盘阵列逐渐成为提高管理水平和效率的瓶颈,数据中心的运维人员需要同时管理服务器、网络、存储等硬件,还要管理业务软件、数据库、中间件、操作系统,甚至虚拟化和云管理平台。
运维人员发现,每当新业务需要存储空间时,负责存储管理的人员必须向存储空间使用方详细了解所需逻辑卷的空间、性能、可用性(快照、容灾)等数据服务的需求。
导致存储无法做到像虚拟服务器那样快速高效分配计算资源一样,去分配存储资源。
整个数据中心运维的敏捷性、灵活性都因此受限。
而且,如果采用传统外置磁盘阵列,按照最高SLA(服务等级协议)进行配置,将会导致成本居高不下,并造成严重浪费。
同时单个存储的功能与性能绑定在某个具体存储硬件上,并不能满足所有的应用要求。
如果为不同的应用配置不同的集中存储,将会造成大量的分散的集中存储,造成管理的困难。
此外,集中存储存在扩展性问题,存储的容量无法随服务器计算能力的扩展实现存储容量的水平扩展。
同时,集中存储在扩容的时候可能面临被存储硬件厂商绑架,丧失议价能力。
总结一下,XXX客户面临的主要挑战有:
•存储资源利用率低
•运维管理压力大
•存储无法随应用SLA调整
•存储无法水平或垂直扩展
•总体拥有成本居高不下
1.4.项目需求
XXXXXXXXXX建设超融合对系统要求如下:
需求
需求描述
备注
虚拟化要求
虚拟机规格:
vCPU=2U,Memory=8GB,系统盘=40GB,数据盘=500GB,规模100
根据实际情况修改
vCPU=2U,Memory=16GB,系统盘=40GB,数据盘=1T,规模50X
分布式存储要求
要求:
3副本
XXXXX
XXXXXX
功能需求:
●采用分布式架构,非集中式;
●具有存储精简配置能力(ThinProvisioning),减少存储容量的需求;
●提供虚拟机回收站功能,防止因虚拟机误删除导致数据丢失,支持设置回收站文件保存周期,超期的文件将被自动删除;
●提供虚拟机快照功能,支持设置手工和定时快照将虚拟机磁盘文件和内存状态信息保存到镜像文件中;
●数据副本支持部署在不同服务器、不同机柜,以提供当服务器、机柜故障时不中断存储服务;
●支持2.5热插拔SAS/SATA/SSD热插拔硬盘;
;
●存储支持10GE网络互联;
●支持划分多资源池;
●支持底层存储虚拟化;
●XXXX
2.XX超融合解决方案
2.1.项目方案建设思路
IT基础设施是由上层应用的发展决定,现在云计算以及虚拟化技术已经深刻的改变了IT基础架构,企业必须能够优化计算、网络和存储资源之间的关系,实现真正的灵活部署以及弹性扩展,才能支撑起IT瞬息变化的需求。
从近些年IT基础设施的发展可以得出如下结论:
硬件平台单一化,越来越多的IT设备均由X86服务器承载;
专用设备软件化,即通过软件定义技术实现灵活的业务部署。
基于此发展趋势,超融合设备成为基础设施领域最热门的产品。
HCI超融合是实现“软件定义数据中心”的终极技术途径。
HCI类似Google、Facebook等互联网数据中心的大规模基础架构模式,可以为数据中心带来最优的效率、灵活性、规模、成本和数据保护。
使用计算存储超融合的一体化平台,替代了传统的服务器加集中存储的架构,使得整个架构更清晰简单。
相比分离式的计算存储虚拟化,超融合在提供存储的同时,也提供计算能力,这不但大量减少了硬件投入和电力成本,也将计算放在离存储更近的地方,达到最优的性能。
超融合架构通常采用了全分布式的组件,横向可扩展,不存在单点失效,数据能够自动恢复和备份,性能优势非常明显,是目前国际上主流科技公司普遍采用的IT基础架构,也是未来IT基础架构的方向。
下表列举了使用超融合架构(计算+存储)和传统数据中心三层架构(服务器+光纤交换机+存储)的对比:
超融合架构
传统数据中心基础架构
性能
尽可能提供本地吞吐,并使用SSD保证应用IO需求。
不存在性能瓶颈
随着访问集中存储的服务器越来越多,性能瓶颈将日益凸显
横向扩展
可以简单的在集群中增加节点以扩展集群规模和性能
由于架构限制,无法实现横向扩展
高可用性
可以通过三副本的方式容忍最多两个节点同时故障,并且硬件故障时数据重建速度快,性能几乎不受影响
通过raid技术实现高可用性,但面对硬件故障时,性能下降严重。
整合比
虚拟机密度高,是传统2倍以上
虚拟机密度低
安装配置
开箱即用的部署方式,只需30分钟即可完成安装配置
需要准备大量安装实施前的信息收集和整理工作,并且由专人进行安装部署,最少需要2天时间
管理维护
统一WEB界面管理,维护方便
无需配置LUN、卷、Raid组
需要专门存储管理软件,配置复杂。
需要厂商支持。
空间占用
使用超融合架构:
2台4U高,总共包含8个节点(包含服务器和存储)
总共占用空间4U
使用传统架构:
8台2路服务器至少占用8U,存储至少需要3U
总共占用空间11U
耗电
2台8节点,共耗电2000W
运行三年电费支出约:
5.5万元
8台服务器平均每台服务器耗电600W计算,存储耗电1500w,总共耗电6300W
运行三年电费支出约为:
16.8万元
基于以上项目背景及建设思路,推荐用户采用XX超融合架构解决方案,融合了:
计算、网络、存储和安全四大模块,通过全虚拟化的方式构建IT架构资源池。
所有的模块资源均可以按需部署,灵活调度,动态扩展。
通过超融合一体机或者超融合操作系统能够在最短的时间内,将业务系统安全、稳定、高效的迁移到超融合平台中,并且为后期迈向私有云平台奠定基础,从而能够实现云服务目录、多租户的管理及计费审计等功能。
XX超融合架构解决方案软件架构主要包含服务器虚拟化、存储虚拟化、网络虚拟化超融合管理平台等。
2.2.设计原则
整体方案设计应当遵循以下规则:
•统一规范
超融合数据中心应该在统一的框架体系下,参考国际国内各方面的标准与规范,严格遵从各项技术规定,做好系统的标准化设计与施工。
•成熟稳定
超融合数据中心应是熟稳定的技术和产品,确保能够适应各方面的需求,并满足未来业务增长及变化的需求。
•实用先进
为避免投资浪费,超融合架构的设计不仅要求能够满足目前业务使用的需求,还必须具备一定的先进性和发展潜力,具备纵向扩增以及平滑横向扩展的能力,以便IT基础架构在尽可能短的时间内与业务发展相适应。
•开放适用
超融合数据中心是为各业务系统提供支撑,所以必须充分考虑开放性,提供开放标准接口,供开发者及用户使用。
•安全可靠
超融合数据中心设计时应加强系统安全防护能力,确保业务和数据的稳定可靠,保障业务连续性。
2.3.超融合方案拓扑架构
XXXXXX选用X台服务器部署了所有业务系统,采用全实体机的方式,每个服务器运行1-2个业务系统。
XX基于对XXXXXX用户业务现状梳理的认识以及未来业务及信息化发展的目标,建议XXXXXX用户构建以超融合架构为基础的新一代超融合数据中心,以符合现代化应用开发框架在高性能、高可靠性、弹性扩展及伸缩、简化基础架构管理等方面的需求,并通过标准化构建的方式,实现未来在自动化故障转移、容灾、全面优化数据中心软硬件资产、集成智能化运维等方面的信息化目标,从而实现对业务的快速响应。
总体拓扑设计如下:
网络规划
端口类型
组网
建议端口数量
承载数据
存储业务网
万兆
独立组网,建议双链路
2
计算虚拟化与分布式存储数据交互、XXXXMON管理集群、OSD前端心跳报文
存储后端网络
数据副本复制、硬盘或节点故障时数据重构、XXXXOSD后端心跳
业务网
至少千兆
业务访问数据
管理网
主机及虚拟机软件管理报文(包括HA、集群心跳等报文)、迁移数据
2.4.超融合解决方案
2.4.1.六大软件能力的管理融合
XXXX超融合产品解决了传统数据中心IT建设的关键困境:
管理孤岛。
通过计算、存储、网络、安全、运维监控、云业务交付流程等六大软件能力的融合管理,将IT管理员从繁重的配置、调优和问题定位协调中解放出来,将更多的精力投入到为企业创造价值的虚拟化业务上,同时,超融合消除了专用存储设备和专用存储网络,减轻了存储阵列与网络维护方面所需投入的人力与物力,降低了IT管理员对存储专业知识方面的需求。
2.3.3服务器虚拟化
2.4.1.1.概述
XX计算资源池是通过x86服务器XX虚拟化软件来实现的,XXXX虚拟化平台采用裸金属架构,实现对数据中心内的计算、网络和存储等硬件资源的虚拟化管理,对上层应用提供自动化服务。
其业务范围包括:
虚拟计算、虚拟网络、虚拟存储、高可用性(HA)、动态资源调度(DRS)、虚拟机容灾与备份、虚拟机模板管理、集群文件系统、虚拟网络策略管理等。
在虚拟化Hypervisor层形成计算资源池,为业务系统的虚拟机提供不同的服务质量和能力。
2.4.1.2.XXXX部分特性
(1)VMotion在线迁移
XXvMotion能在实现零停机和服务连续可用的情况下将正在运行的虚拟机从一台物理服务器实时地迁移到另一台物理服务器上,并且能够完全保证事务的完整性。
(2)高可靠HA
XXXX服务器虚拟化管理平台对数据中心IT基础设施进行基于集群的集中化管理,由多台独立服务器主机聚合形成的集群不仅降低了管理的复杂度,而且具有内在的高可靠性,从而为用户提供一个经济、有效、适用于所有应用的高可靠性解决方案。
XXXX服务器虚拟化管理定时对集群内的主机和虚拟机状态进行监测,当服务器发生故障的时候,受影响的虚拟机将在集群中留有备用容量的其它主机上自动重启,从而将停机时间和服务中断降低到最低,同时不需要专门的备用硬件和安装附加的软件。
XXXX服务器虚拟化管理目前能够提供网络层面、虚拟机层面、应用层面、操作系统、主机层面等多种HA方案,提供不同故障情况下的高可靠性保证。
(3)SRM
SRM(SiteRecoveryManager,站点恢复管理)是XXXXXX提供的数据中心级异地容灾管理解决方案,该解决方案用于在生产站点发生故障的情况下,通过一系列的故障恢复流程在灾备站点将业务恢复起来,它可为集中式恢复计划提供自动化编排和无中断测试,从而简化了所有虚拟化应用的灾难恢复管理。
SRM容灾解决方案基于存储层复制功能实现,本地站点和远端灾备站点的存储复制技术要求一致,存储层上有存储复制的许可和快照的许可。
XXXX虚拟化管理提供的SRM容灾解决方案可以实现多种故障恢复场景,包括计划故障恢复、测试恢复计划、故障恢复和反向恢复等。
CPU和内存的热添加和磁盘的热扩展
热添加使管理员可以在虚拟机需要时为其增加RAM和CPU资源,同时不会中断虚拟机的使用。
这样可减少停机时间并确保虚拟机中的应用始终拥有所需的资源。
即使制定了最好的规划,应用所需的资源有时还是超出预期,XX支持热添加vCPU和内存以及热添加/热扩展虚拟磁盘,从而实现虚拟机资源的动态添加。
通过在不中断应用或终端用户的情况下为虚拟机调配添加vCPU,内存和硬盘,热添加和热扩展能力允许IT为应用添加可用资源。
所有虚拟机都支持虚拟磁盘的热添加/热扩展。
所有在物理服务器上本地支持热添加vCPU/内存的客户操作系统,都支持虚拟机CPU/内存的热添加。
(4)分布式资源调度DRS
XXDistributedResourceScheduler(DRS)可以跨XX服务器持续地监视利用率,并可根据业务需求在虚拟机之间智能分配可用资源。
(5)分布式电源管理DPM
分布式电源管理XXDistributedPowerManagement(DPM)可持续优化数据中心的能耗。
当DRS集群中的虚拟机所需资源较少时(例如在夜间和周末),DPM会将工作负载整合到较少的服务器上,并关闭其余服务器以减少能耗。
当虚拟机资源需求增加时,DPM会让关闭的主机恢复联机,以确保达到服务级别要求。
在利用率较低的时段,最多可使数据中心日常的电力和散热成本降低20%。
(7)动态资源扩展DRX
XX提供了独创的面向应用的云资源动态扩展技术(DRX),实时监控承载了特定应用的虚拟服务器组的CPU、内存、TCP连接数、网络吞吐量、磁盘I/O吞吐量和IOPS性能等负载状况,在业务突发时自动扩展业务虚拟机进行流量负载分担,峰值过去后自动回收资源再利用,提高资源利用率,增加业务的灵活性,降低管理难度。
2.4.2.存储虚拟化
2.4.2.1.概述
XXXXXX分布式存储系统通过领先的分布式架构,极易维护的管理平台,全自动化的运维能力,实现了存储性能的线性扩展,可靠性的大大提高,降低了用户的使用门槛,通过系统自身的自动化运维特性,无需非常专业技能即可实现存储系统的管理维护,简单易用高可靠。
此外,XXXX系统可部署于标准X86服务器,对硬件无特殊要求,真正实现软件定义存储。
2.4.2.2.XXXXXX部分特性
1、领先的分布式架构
XXXXXXXX存储软件的采用全分布式的架构:
分布式管理集群,分布式哈希数据分布算法,分布式无状态客户端、分布式Cache等,这种架构为存储系统的可靠性、可用性、自动运维、高性能等方面提供了有力保证。
其系统架构组成如下图所示:
上图中,XXXX逻辑上可分为三部分:
OSD、Monitor、Client。
在实际部署中,这些逻辑组件可灵活部署,也就是说既可以部署在相同的物理服务器上,也可以根据性能和可靠性等方面的考虑,部署在不同的硬件设备上。
下面对每一部分作一简要说明。
OSD:
Object-basedStorageDevice
OSD由系统部分和守护进程(OSDdeamon)两部分组成。
OSD系统部分可看作安装了操作系统和文件系统的计算机,其硬件部分包括处理器、内存、硬盘以及网卡等。
守护进程即运行在内存中的程序。
在实际应用中,通常将每块硬盘(SSD或HDD)对应一个OSD,并将其视为OSD的硬盘部分,其余处理器、内存、网卡等在多个OSD之间进行复用。
XXXX存储集群中的用户都保存在这些OSD中。
OSDdeamon负责完成OSD的所有逻辑功能,包括与monitor和其他OSD(事实上是其他OSD的deamon)通信以维护更新系统状态,与其他OSD共同完成数据的存储和维护,与client通信完成各种数据对象操作等等。
Monitor:
Monitor是集群监控节点。
Monitor持有clustermap信息。
所谓ClusterMap,粗略的说就是关于集群本身的逻辑状态和存储策略的数据表示。
XXXXClusterMap包括Monitormap、osdmap、pgmap、crushmap等,这些map构成了集群的元数据。
总之,可以认为Monitor持有存储集群的一些控制信息,并且这些map信息是轻量级的,只有在集群的物理设备(如主机、硬盘)和存储策略发生变化时map信息才发生改变。
Client:
这里的Client可以看出外部系统获取存储服务的网关设备。
client通过与OSD或者Monitor的交互获取clustermap,然后直接在本地进行计算,得出数据的存储位置后,便直接与对应的OSD通信,完成数据的各种操作。
在此过程中,客户端可以不依赖于任何元数据服务器,不进行任何查表操作,便完成数据访问流程。
这一点正是XXXX分布式存储系统可以实现扩展性的重要保证。
客户的数据到达Client后,如何存储到OSD上,其过程大致如下图
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- XX 融合 解决方案 建议书