揭秘VDI存储测试:4节点SDS模拟12000虚拟桌面

  • 时间:
  • 浏览:0
  • 来源:万人牛牛APP下载_万人牛牛官方

使用Iometer在这里有一点小限制,所以我随机/顺序访问的比率精确也能0.1%,所以朋友 将对应几项的Random I/O比率提高到1%,实际测得的结果估计会比参考模型略低一点吧。

而且再看周一(首次)和周二(后续)登录测试,按照峰值IOPS推算每个虚机平均20.714.6 IOPS(朋友 的评估也是以此为基准),每虚机的登录时间都是20秒左右。

进一步分析速度单位,朋友 发现启动风暴时达到了9GB/s左右,距离第一篇评测中的S2D集群顺序读最大速度单位(见下图)而且相距不远。周二登录也是个典型代表,仅写入速度单位要素就超过了2.2GB/s,朋友 的S2D3副本配置。

下面是朋友 在微软S2D集群上的测试结果。

记得朋友 在第一篇评测中提到过你你是什么 非超融合的“Hyper-V集群和SOFS on S2D集群分离部署,应用主机和存储节点通过SMB3协议网络连接,依然都可不能能使用RDMA。”

继基础性能、SQL Server I/O模拟和邮件服务器BenchMark以后,本文将向朋友 介绍微软S2DStorage Spaces Direct)在VDI桌面虚拟化应用中的测试表现。

而且朋友 所有人测试的网络环境是“不差钱”的100Gb/s RDMA,有读者朋友 关心与10/25Gb之间的性能差别。嘴笨 朋友 不难 计算出2SATA SSD Cache盘的最大速度单位——我认为大多数混合配置下10Gb应该够用了;而若是用NVMe SSDCache而且全闪存的S2D,有条件情形下推荐用25G或以上的网络互连。

VDI启动风暴、登录阶段存储I/O“抽象化”

注:上表中数字为虚拟机内记录的满负载下延时

按照你你是什么 结果,我嘴笨 Hyper-V 2016 + RDS的速度单位还不错,物理机上的内存消耗都超过了100GB,达到稳态后的每用户平均IOPS3.xx

顶端你你是什么 表信息量一阵一阵大,咱们挑重点的说。首先,启动风暴期间峰值IOPS超过11万,平均每个虚机高达78.5Full Clone桌面的测试完成时间约12分钟。根据我就看的另一份4,000桌面Login VSI测试报告,Link Clone在峰值10IOPS下也能7分钟就都可不能能完成启动。

你你是什么 段的内容引用自《NetApp All Flash FASSolution for Persistent Desktops with VMware Horizon View》(tr-4540),而且也是而且跑虚拟机的服务器数量严重不足多,在该测试报告的结尾处列出了Login VSI测试过程中从Hypervisor层面下发、统计出的存储I/O负载模型

Login VSI测试验证了3种不同负载的虚拟桌面,平均每节点也能承载的VM数量分别为Task Worker——220个、Knowledge Worker——175个和Power Worker——155个,越来越 从3节点超融合集群的高度就应该乘以3

首先朋友 将引用一份Dell HCI参考架构文档中的测试结果,而且再来介绍所有人的测试内容。

朋友 知道,启动风暴(Boot Strom)和虚拟桌面集中登录是VDI应用中最考验存储性能,也是最容易影响用户体验的地方,所以被公认为Login VSI测试中的重点。

接上篇:《4节点近1100IOPSSDS/超融合测试也能只看数字

显然在超融合架构下S2D分布式存储软件还远未达到瓶颈,即使你上加全SSD,服务器上的CPU和内存仍然限制着承载的桌面数量。

由此朋友 认为,对于全闪存系统来说,VDI应用的存储瓶颈有而且再次出现在SSD及其接口速度单位上。而且换NVMe Flash那效果自不让说了:)

看看参考系统的平均IOPS和平均延时测试值,朋友 不难 估计出峰值IOPS时对应的延时范围吧?

这里的S2D Ready NodeB5”配置使用了Dell PowerEdge R740xd服务器,CPUXeon SP 5120 GoldMellanox ConnectX-4 LxQLogic 41262网卡支持25GbE,不过环境使用的交换机是Dell S4048万兆和S10048千兆,而且而且新一代25G交换机还越来越 正式上市销售。

上图是朋友 的S2D集群,在周二登录的模拟测试中,于Windows Server 2016物理机OS的监控截图,而且还都是最高峰值的以后。

你你是什么 头上的意味着应该是黄金镜像(Golden Image)的数据更容易被内存缓冲,所以链接克隆在启动风暴中每桌面的IO压力小所以

3、为那此说全闪存VDI系统,速度单位而且成为瓶颈?

全闪存VDI系统容易被忽略的速度单位瓶颈

这是一套3节点Windows Server2016 DataCenter超融合集群,存储要素用OS自带的S2D组建SSD+HDD混合存储池。每节点有2SSD用于Cache分层、4HDD作为容量分层,3副本镜像保护。节点间使用10GbRDMA万兆以太网互连。

嘴笨 理论上SOFS on S2D会比集群内访问会多一层开销,但朋友 本次模拟测试中Dell R6100服务器的CPU还远未成为瓶颈。而这所以我4节点总共28SATA SSD的表现(目前S2D最大支持16节点),软件定义存储的魅力要花费所以我越来越 吧:)

而根据我就看的另一份Login VSI报告,全闪存阵列在6,000用户测试中,链接克隆桌面在登录阶段产生的峰值IOPS要比完整篇 克隆高出一倍多。估计是磁盘碎片化意味着连续数据的分布被打散,同样数据量的访问时要更多次I/O。所以我嘴笨 你是什么磁盘分配法律辦法 应该区别对待,测试成绩不应混在一起做横向对比。

当然,朋友 要注意微软S2DRDMA下的表现会好不少,这方面我在第一篇中列出过对比数字。

当并发启动数千个桌面时存储压力嘴笨 很大,不过我就看有同行朋友 说Boot Storm都可不能能提前而且分批进行(比如设定在晚上而且周末重启)也是你是什么法律辦法 。另外虚拟机通常不让每天都重启,下班而且不让时都可不能能撤出 ,所以一点以后VDI批量登录(包括Windows而且还有Office等启动)的速度单位对用户影响更为直接,这要花费所以我“Login VSI”命名的由来吧:)

本文要点

NetApp获取你你是什么 负载模型的目的是验证更多存储系统,既然N厂授人以渔,朋友 也拿该法律辦法 评估下微软S2D集群。当然朋友 都是会用到越来越 多的虚拟机,你是什么你你是什么 测试的目的所以我要避开服务器的CPU和内存瓶颈。

12万邮箱ESRP测试:Exchange超融合存储设计漫谈

N厂使用的测试工具为VDBench,而且朋友 这次是Windows2016 Hyper-V环境,为方便起见选着了Iometer。而经过简单比较,你是什么压力工具测出的性能基本一致。

前面说过虚拟机通常不时要每天重启,所以在周二(Tuesday)及接下来几天登录时,大要素时要读的数据而且在服务器内存里了,这时4KB随机写操作占据 了所有存储I/O的一半。

而且按照你你是什么 176,242 IOPS来计算,而且达到1,100桌面参考系统的8,越来越 该4节点S2D配置是都是都可不能能支撑12,000虚拟桌面VDI的存储负载呢?

朋友 的测试只进行到周二登录,嘴笨 周三到周五也是例如的情形。我理解数据中心的服务器不让随便关机,所以VDI持久桌面用户每周重启一次Windows系统的应该占较大比例。在朋友 参考的文档中,N厂所以我以“周二上午登录”的模拟测试结果,来评估不同存储系统能支持的VDI桌面数量。

1、如何将VDI存储I/O行态抽象化?

为那此看重“周二上午登录”?

最后,再次感谢上海戴尔客户除理方案中心Tony Wang对本次测试的大力支持!

VDI周一(首次)登录模拟测试

计算存储分离的SDS用于较大规模部署

2Full CloneLink Clone桌面在启动和登录中的不同表现、成因分析

所谓周一上午(Monday morning)所以我第一次登录,这顶端比例最大的一项是4KB随机I/O,读只占36%了。当然16KB32KBI/O也还不少。

如上图,在虚拟桌面OS启动过程中存储读操作的比例相当大,其中最主要的一要素是较大数据块(64KB48KB)顺序读,而且是32KB读和4K随机I/O等。

Login VSI测试:每节点220桌面的超融合

该模型仅针对Full Clone(完整篇 克隆)VDI部署,下文中相同。而且是Link Clone(链接克隆)I/O行态将有所不同。

下图来自《Dell EMC Storage SpacesDirect (S2D) Ready Nodes for Microsoft Remote Desktop Services (RDS) –Reference Architecture

而且想跑更多虚拟桌面的Login VSI测试,几乎也能增加服务器。比如我就看一份100桌面的测试报告中就使用了16个服务器节点,以此类推本次朋友 所有人的测试(如上图4节点S2D集群)也面临同样难题报告 ,都可不能能把VDI测试中的存储I/O负载单独剥离出来呢?直到我就看一份来自NetApp的文档。

而且启动风暴压力都可不能能被规划、分摊在非工作时间,而且是重度VDI用户(每天重启一次的),按照顶端这张图中的225,582 IOPS,其首次登录性能应该也能达到10,000以上虚拟桌面的水平吧。

3节点超融合6100个虚拟桌面;到4节点SDS上万VM模拟测试验证。

本次测试环境,还是上海戴尔客户除理方案中心(CSC)的微软S2DStorage Spaces Direct)集群,部署在4Dell PowerEdge R6100服务器上,每个节点71.6TB SATA SSD,网络互连为100Gb/sRoCE

模拟第一次登录测试也超过了21IOPS,约为参考系统的7倍;后续登录测试达到16IOPS,而这里列出的还都是朋友 就看的峰值。

链接:http://en.community.dell.com/techcenter/extras/m/white_papers/20444551/download

如顶端图表,测试结果最高的一款全闪存阵列接近参考系统IOPS8倍,所以在这里被判定也能支持到11,000个虚拟桌面。

注:VDI不同的桌面分配法律辦法 ,完整篇 克隆、链接克隆持久化桌面,以及即时克隆/RDS产生的存储压力和IO模型所以我同,你你是什么 点顶端朋友 都是重点谈。

下面朋友 来看看N厂的1,100桌面Login VSI基准测试结果。传统存储和SDS人们个的特点及适用场景,朋友 本意也是以此作为参考而非比较,所以为了除理不让要的争议,以下统一称之为“参考平台”并尽量淡化品牌型号。

你你是什么 延时结果(毫秒)所以我对比现有的Login VSI报告看似不太漂亮,不过别忘了朋友 模拟的是峰值性能,也所以我说实际VDI测试过程中平均延都是低不少

一起朋友 拿到更进一步的对比数据(都是SSD+HDD混合配置):在虚拟机在线实时迁移上,S2D超融合而且具备RDMA网卡,所以VM迁移性能是以后的5倍。更重要的是虚拟机启动风暴的IOPS性能和平均延时对比,S2D也是大比例领先。100个桌面,S2D超融合要花费10分钟能完整篇 启动完成;而传统存储要花费时要40分钟也能完整篇 启动完成1100个桌面。S2D超融合的低延时和高IOPS给用户非常好的使用体验。

首先看IOPS,模拟启动风暴测试读写总和超过21万,要花费是上文中参考系统(Full Clone 1,100桌面)峰值的2倍。都可不能能预见的是,而且只考量这套S2D集群的存储性能,上加Link Clone语句能支持的桌面数量远不只3,000个。

这里的每主机桌面密度,与服务器CPU和内存配置直接相关

Full CloneLink CloneVDI启动和登录中的不同表现

上图引用自Microsoft Tech Summit 2017大会上分享的一页PPT,对比FC存储和S2D在每月第二周WnidowsUpdate大规模补丁更新时产生的IO压力,从数据中看出S2DIO性能是最好的。其中列出的测试数据是在实际生产环境中获得,供朋友 参考。

VDI周二登录模拟测试

HCI参考架构中测试的硬件配置