您现在的位置是:首页 > IT基础架构 > 计算存储 >

虚拟服务器整合,如何衡量效率?

2012-06-14 19:13:00作者: 来源:

摘要理想的虚拟服务器整合率令人难以定夺。更大的服务器和更高的内核数是诱人的,但是对许可模型和运行时间的担忧使IT管理者对整合却步。 ...

  理想的虚拟服务器整合率令人难以定夺。更大的服务器和更高的内核数是诱人的,但是对许可模型和运行时间的担忧使IT管理者对整合却步。

  当计划虚拟服务器整合策略时,多少是多?多少是少?如果你正在使用虚拟化技术,这是个出乎人意料的答案。

  在虚拟化技术早期,服务器整合率的目标通常是“越多越好”.同个服务器上支持的产品如虚拟机(VM)足够让IT管理者获得hypervisor软件的最大效益。

  但是这是在把虚拟化技术用于办理低交易、轻量级的工作负载之后。目前,虚拟服务器掌控了越来越多的关键任务的应用程序,当然不是由于糟糕的容量规划这种简单的原因。在很大程度上,这终止了夸张的虚拟服务器合并比率,使IT管理者清醒地回到现实,接受正确的资源分配的价值、正常运行时间和容量计划。

  夸张的整合率美梦最早产生于2011年7月,当时领先的虚拟化技术供应商VMware引进一种新型定价模式,极大鼓舞了IT管理者们对资源消耗的关注。然而VMware习惯将VMware vSphere套件在每个处理器的基础上出售,并没有考虑到有多少VM运行在一个主机上。vSphere 5套件包含“vRAM”分配,限制了虚拟机通过每个许可可以使用的物理内存总量。

  到现在为止,VMware是唯一一家采用资源为基础的定价模型的虚拟化厂商,其他的虚拟化厂家遵守承若,坚定地将CPU为基础的定价作为竞争优势。但铁的事实是:随着工作负载转移到日益增长的虚拟的、基于云的模型上,供应商期望根据底层资源消费收取费用。

  与此同时,基础设施供应商继续引进更大、更友好的虚拟服务器让数十种虚拟机装到一台主机、减少虚拟机大小和布局的优化变得十分简单。但是高的虚拟服务器整合率付出了高代价,不仅指硬件和许可,也和正常运行时间有关。错误地高度整合、不适当地配置服务器,可以戏剧性地影响应用程序的可用性和正常运行时间。

  虚拟服务器整合率范围很广

  以此为背景,目前IT管理员处理的是什么样的服务器整合率?答案是意料之中的,它依赖其他环境。

  回到旧的VMware ESX 3.x时代。虚拟服务器整合一个好的经验法则是每核心四个虚拟机,Go Daddy托管提供商的IT经理乔?桑切斯说。例如,给定一个双进程,四核处理器的服务器,结果是八个VM或者8:1的整合率。

  目前,大部分hypervisor理论上单核能够支持更多的VM,但即便如此,如果以平衡性能为目标,4个虚拟机中的1个或2个虚拟CPU(vCPU)/单核仍然是一个很好的指南,桑切斯说。

  “新的服务器和ESX版本可以处理更多的VM,”他说,“但是CPU等待时间仍会受到影响,太多的VM在同一核心上等待可能会导致性能问题。”

  如果不关心性能问题,测试和开发环境是怎么样的呢?“那就无限期的等待加载内核,” 桑切斯说。

  Walz是监管文件管理服务的提供商,为生产系统使用这个模型的虚拟服务器整合策略和非常保守的VM对主机的比率,而为环境比如测试和开发和质量保证使用更高的比率。

  “在生产系统上,我们很少在每个主机上运行超过15个VM,” 加利福尼亚Temecula公司的首席信息安全官Bart Falzarano说。此家公司运行VMware,思科的双处理器,四核的UCS B系列的刀片服务器,在认证的FlexPod中配置NetApp存储。

  但是外部生产还没有类似的限制,虚拟服务器整合率常常达到40:1,Falzarano说。他说他认识的其他公司的VM密度更高--大约100:1.

  感谢Intel,AMD增加的服务器核心数量

  在很大程度上,目前的增加的VM密度没有什么特别的--它们很大程度上得益于增加的服务器核心数量,而不是任何神奇的虚拟化提供者或从业者。

  的确,随着时间的推移,虚拟化管理提供商VKernel在审查客户使用数据时发现虚拟化商店增加VM密度踪迹跟服务器核心的增加密切相关。

  “我意识到从数据中心看到的来自虚拟化的整合率跟CPU和内存的使用率没有关系,” VKernel的首席营销官Bryan Semple在博客中提到,“相反,这个比率与Intel增加每个主机内核密度的能力有关。”

  的确,目前Intel Xenon E7 Westmere处理器特性达到了10个处理器核心,最近发布的AMD Opteron Interlagos达到了16个。这种功率在scaleout服务器正常运行情况下有可能接近100:1的虚拟服务器整合率。或者,正如VKernel的Semple所说:“请寄给Intel公司的CEO Paul Otellini,一个感谢的字条。”

  集群和资源池的概念进一步削弱了关注个人服务器以及它们的配置。“我们不会关注服务器太多,而是关注资源池,” 英国Plymouth大学的基础设施和运营经理Adrian Jane说。大学的服务器能够支持最大的VM,目前是8个vCPU 24 GB内存的机器运行Microsoft Exchange, VMware Distributed Resource Scheduler处理剩余的。

  旋钮和转盘帮助优化虚拟服务器整合率

  随着虚拟化越来越成为主流--随着挥之不去的经济衰退打破IT预算--优化服务器整合率的热情正在增加,VKernel产品营销经理Alex Rosemblat说。

  如果要采购新的服务器,IT管理者需要做很多的工作来提升服务器整合率,他说。

  例如,过多的VM从一开始过度地供应内存和虚拟cpu--不是因为管理员的错误,而是因为应用程序所有者常常坚持认为他们需要更多的资源。

  另外一个常见的错误配置是虚拟机的内存限制,有时会忘记设置。如果没有意识到内存限制实际上是防止其使用额外的容量,当管理员为了修复性能问题试图分配VM更多的内存时,问题就出现了。

  当IT商店开始采用虚拟化技术时,投资的回报是如此的戏剧化以至很少有人质疑离开这个环境他们是否能维持更高的储蓄,Rosemblat说。把一个100个主机的环境以5:1的比例整合到20个主机,“即使有相对较低的密度,人们仍满意一个真正伟大的投资回报,”他说。

  将时间快进几年。“人们习惯只运行20个主机,成本正不断攀升,”他说。更糟糕的是,更方便的服务器虚拟化--导致所谓的虚拟化蔓延。同时,预算持平或下降,IT经理积极寻找方法来降低成本并扩大他们的服务器整合策略是一个简单的办法。

  现实世界的需求控制虚拟服务器整合率

  IT管理者切实担忧的正常运行时间阻止他们进行更深的服务器整合率。

  例如,Jane说Plymouth大学在其主要和租赁的几英里远的数据中心以双活配置运行自己的虚拟环境。其运营不大于45%的利用率,所以,如果一个站点崩溃,其他的站点可以接管整个负荷点。

  另外,该学校租赁设备,替代周期是四年。这意味着,当需要购买新的服务器时,它们必须足够大来处理总站点故障以及四年的增长。

  这所大学去年刚刚经历过服务器规模调整。小组确定需要一个180核的池来支持工作负载,并最终购买384个核心,分布在32个双核处理器,6核心的IBM BladeCenter HS22 刀片服务器。

  这可能似乎有些过分,但是Jane希望预先多买以避免升级的时候资源不足。去年升级的时候,大学运行55%的容量,意味着它不可能通过将系统故障转移到辅助网站进行简单的升级。“我们不得不选择哪些VMs需要关闭,这是非常痛苦的,”他说。

  云来营救?

  同其他棘手的IT问题一样,云计算被定位成如何平衡虚拟服务器整合率的一个可能的解决办法。

  Plymouth大学的服务器不会出现另一个三年的租期,也许在这一点上,Jane说,云计算已经足够成熟配置服务器不再是必要的。

  不是购买额外的能力,“我想要是一个基于云计算的资源盒,”Jane说,当需要额外的容量时,大学可能打破这种短期或长期稳定的方式。

  这个生态系统还不可用,但Jane说,“但在接下来的几年中,我期望云变得足够成熟来处理我们很多的服务。”


(本文不涉密)
责任编辑:

站点信息

  • 运营主体:中国信息化周报
  • 商务合作:赵瑞华 010-88559646
  • 微信公众号:扫描二维码,关注我们