海外高防_国盾云孵化_免费试用-墨者安全-墨者盾
DDOS防御_CC防护_高防CDN服务器_【墨者安全】—墨者盾墨者盾—你的网站贴身保镖!

QQ:800185041
高防免费接入:400-0797-119

渠道合作:156 2527 6999

主页 > CC防护 > 海外高防_国盾云孵化_免费试用

海外高防_国盾云孵化_免费试用

小墨安全管家 2021-07-23 06:24 CC防护 89 ℃
DDoS防御
这篇文章最初出如今CUGC的博客上。正如我在2月份对于Silverton项目的更新中所同意的,"NetScaler VPX on HyperFlex"项目发展顺利,虽然比我预期的要慢。从某些方面来讲,这也许是一具奇怪的项目——怎么讲,几乎每一具现代的XenApp/XenDesktop部署都包含NetScaler,而无论使用的是VPX依旧物理设备。可是,那个项目为我们提供了一具机遇来探究当人们开始思量为Citrix工作负载投资新的内部虚拟基础设施时浮上的很多普遍咨询题。幸运的是,我有幸和网通大师合作。我基本部署了特别多如此的吸管,但从任何人的定义来看,我都不以为自个儿是NetScaler专家。你越深入地研究它们,你就越能意识到它们不仅功能强大,而且功能强大。你了解得越深,你就越能意识到还有特别多功能你一无所知。埃丝特平衡了我的技能,给我们提供了一具特别好的基础。在我们目前的技能下落的地点,防DDoS,我们都特别幸运有一具由Citrix内外的专家组成的社区来寻求建议。祝愿算在内!在我们打算那个项目时,我们确定了我们将尝试回答的以下咨询题:在HCI设备上运行NetScaler VPX是否正常?假如我在桌面/应用程序工作负载的并且运行它,它对可伸缩性/用户体验有啥阻碍?这些电器应该有多大?怎么配置它们以获得中意的结果?假如我以这种方式部署,我还应该关怀啥?正如你所料,我们在这段旅程中学到的不仅仅是我们所寻求的答案!看来我们基本能够写一本对于那个主题的书了,然而既然我们都有"日常工作",我们就必须满脚于把它们提炼成一小块一小块,我们能够在那个地点与大伙儿分享。不用多讲了,DDoS防御,我们开始吧!1–我们的打算我们的打算一开始特别简单,看起来像如此:创建一具可复制的基线工作负载,该工作负载将对由4个节点组成的Cisco HyperFlex群集造成压力(没有NetScaler)。测量那个基准工作量,找出我们的瓶颈所在。经过NetScaler设备(在HyperFlex集群上和之外运行)重新路由会话。衡量对基线工作量的阻碍。分享我们所学到的。随着我们旅程的细节展开,你会发觉我们走了特别多我们没有预料到的方向!2–我们的试验台我们的测试集群由4台服务器组成,这些服务器标识为"Cisco HX240c M4SX HyperFlex系统"。它们是2U"披萨盒"外形尺寸的主机,CC防御,由一对冗余的Cisco UCS 6248以上结构互连举行治理。这是一具很好的设置,值得一具后续博客给你详细的成品(物理齿轮,ESX安装/配置,SDS层安装/配置,等等)远不止这些部分的总和-它是一具配置很好,生产就绪的虚拟基础设施,随时预备答应您的任何投入。作为完整教程的替代,我将分享一些与我们的测试直截了当相关的其他相关配置细节。每台主机有两个Xeon E5-2630v3 CPU(2.40GHz各8个核)和256GB RAM(由多个32GB DDR4-2133-MHz RDIMM/PC4-17000/双列/x4/1.2v组成)。每个主机从一对镜像的64GB SD卡引导ESXi 6.0 Patch 3。存储配置特别有味——当我讲有味的时候,我是以积极的方式讲的(我讨厌处理存储!)。机箱内有一对(我相信)120GB驱动器,用于Cisco HX Data Platform storage controller VM(用于这些测试的版本为1.8.1.c),以及一组可外部访咨询的驱动器(包括一具1.6TB 2.5英寸企业性能6G SATA SSD和11个1.2 TB 12G SAS 10K RPM SFF HDD)。所有外部可访咨询的驱动器都由存储操纵器虚拟机治理,存储操纵器虚拟机从每个主机"收集"本地存储,将其集中到一大块可调配容量中,并将其作为简单的共享存储返回vSphere。关于那些讨厌考虑这些情况的人来讲,这简直太棒了。我所要做的算是点击一具简单的UI(差不多上,你想要多大的UI?)剩下的工作基本上为我完成的。太棒了——这也证明了那个平台可以打破IT部门的治理孤岛。3–我们的基准工作量在我2月份的Silverton项目更新中,我基本透露了工作负载配置的来源:经过MCS配置的带有Office 2016的服务器2012/R2。我们有特别多能够挑选的选项:我们基本经过自动化框架Eric Haavarstein(@xenapplog)为我们配置了多个操作系统选项,包括Server 2012/R2、Windows 10和Server 2016。此外,该框架使跨操作系统版本复制相同的软件堆栈变得特别容易。此外,该框架使跨多种不同的部署想法(包括传统完整克隆、MCS完整克隆、MCS非持久克隆和pv)更容易利用这些构建。Cisco HyperFlex gear还为我们提供了所有这些选项,因为它提供的存储是一流的—它的性能很好,容量充脚,重复数据消除率很高。我们挑选了经过MCS/non-persistent clones部署Office 2016的服务器2012/R2,缘由之一是Cisco为其最新的HyperFlex研究(8节点HyperFlex群集上有1200名XenApp用户)而运行的服务器,这为我们提供了一些有效的数字来检查我们的结果,也给了我们一些很聪慧的人,我们能够与他们举行比较并学习从。在我然后之前,请简要介绍一下服务器2012/R2上的软件堆栈。我们有意使其尽大概简单,排除了我真正想要的一些项目(例如ControlUp代理和Citrix工作区环境治理器代理),如此它不仅易于复制,而且能够最小化这些代理对可伸缩性或性能的阻碍。所以,我们的堆栈差不多上仅限于Citrix VDA、Office 2016、VMware Tools和LoginVSI宾客工具。从"添加/删除程序"中能够看到我们的完整堆栈,如下所示:4–我们的XenApp VM配置我们的下一具咨询题出如今我们试图决定应该运行多少个VM(哪些CPU/内存配置)来"适当地"饱和HyperFlex集群。我们大概会就此展开争论,DDoS高防,但我们利用思科的经验法则开始了这项工作。他们的规则:(包括超线程的内核总数)–(HyperFlex存储操纵器虚拟机使用的核心数)–(虚拟机监控程序的4个核心)=(XenApp虚拟机可用的核心数)我们的HyperFlex群集运行的是Intel Xeon E5-2630 v3。如前所述,我们测试群集中的4台主机中的每台都有两个8核CPU,这使我们在每个主机上总共有32个超线程CPU。HX数据平台安装程序用8个vCPU配置虚拟存储操纵器。假如我们留下4个vCPU供ESX使用,则剩下(32–8–4=)20个vCPU分配给XenApp server VM。请注意,思科最新的CVD利用了XeonE5-2690v4处理器,每个插槽有14个核,这是一具很有价值的升级投资!但正如那句老话所讲"乞丐不能挑胖拣瘦",于是我们测试了我们所拥有的…于是如今我们有了一具20个vCPU的每个主机的目标核心计数-接下来我们要回答的咨询题是"每个XenApp服务器有多少个vCPU?"以及"每台主机有多少台XenApp服务器?"因为这远远不是思科的第一具竞技,我们开始了他们的优化/测试配置6个vCPU和24GB的每个虚拟机内存。我们本能够就此罢休,但那太容易了…假如我们使用6个vCPU,那就意味着我们能够为每台主机"安装"3台XenApp服务器,总共消耗了18个vCPU。由于我们计算出有20个vCPU能够使用-这种配置也许会在桌面上留下一些处理能力…这让我们开始尝试为我们的设置验证"最佳"配置。我们思量了以下几点,但由于时刻限制,仅测试了三种配置中的2种:3台XenApp服务器/主机,每台服务器6台vCPU4台XenApp服务器/主机,每台服务器5个vCPU(未测试)5台XenApp服务器/主机,每台服务器4台vCPU对于VM/主机内存的一具简单讲明:我们集群中的每个主机都有256GB的2133GHz RAM,而每个存储操纵器VM都使用72GB的现成内存。关于第一轮测试,我们最多只能运行6个虚拟机,于是我们对内存分配并不是特别科学,因为我们估计在那个工作负载下,CPU会比内存消耗得快。Cisco的6 vCPU设置使用了24GB/XenApp服务器,所以我们坚持使用它,将其重新调整为20GB,用于4 vCPU配置。在今后的某个时候,我们会对内存的使用举行更科学的研究,然而思量到我们日常工作中的时刻竞争,我们临时就不谈了。需要注意的是,Cisco建议生产系统的内存永久不要过度订阅,这是我能够欣然答应的建议。5–我们的测试参数正如您所料,我们使用LoginVSI来生成和分析我们的测试。我们确定了他们预定义的"知识工人"工作负载,并在基准模式下运行测试以获得一致性和可重复性。所有会话基本上在48分钟的加速时刻内启动的,除非少于2%的会话失败,否则我们不大概"计算"一次运行是否成功,不管是否已达到VSIMax。关于那些爱慕在这类情况上玩的人,下面是一具常见测试用例的VSI摘要屏幕:还有一些值得分享的小道消息:我们会在那个地点分享他们的新奇血液。我们也一样

海外高防_国盾云孵化_免费试用


DDoS防御

当前位置:主页 > CC防护 > 海外高防_国盾云孵化_免费试用

标签列表
DDoS防御
网站分类
X
 

QQ客服

400-0797-119