❶ 华为fusion什么是vsan
随着VMware前发布VSAN 6.2及EMC联邦推首台超融合机VxRailVMware再发力超融合架构市场
VMware搭建超融合架构HCI自家用OEM厂家及集商放选择更加重要VMware创新超融合架构进步丰富并优化软件定义数据用户合作伙伴态我疑虑:能让VMware找咸鱼翻身机
VSAN 6.2哪些买点
VMware超融合架构集vSphere虚拟化管理软件、vCenter Server虚拟化环境管理平台及新版软件定义存储VSAN 6.2体本发布看点VSAN 6.2
VSAN 6.2能让VMware找咸鱼翻身机
VSAN 6.2VMware软件定义存储VSAN第四代发布具备企业级高性能存储且原于VMware旗舰产品vSphere向企业用户提供所要求优质超融合架构及架构内超级简单统站式管理且数据管理者所期望更视管理能力包括参数使用量监测
VSAN 6.2性能重升级包括新近线重复数据删除压缩压缩至七倍数据量减少CPU内存负担更加高效利用数据降设备投入本外增加磁盘组级别纠删码功能维持高水平数据修复能力变相于增加至两倍存储量
自身融合架构低本VMware特别强调优势并指目前VMware超融合架构基于全闪存优化系统本低至$1/GB比混合类超融合架构本低近50%比其全闪存类超融合架构本低60%外数据存储效率高提高十倍
据各调研数据显示超融合架构市场目前增快IT市场IDC预测今超融合架构市场达15亿美元Gartner说融合架构市场201950亿美元IDC全球融合系统厂家评估2014市场先锋新创公司NutanixSimpliVity等
VMware销售数据展示自该市场强劲势VMware指VSAN 销售非功市21月已经销往3000 用户
同Nutanix比较截止2015第四季度VMware超融合架构HCI客户数量、系统CPU单位部署数量收入增已经超Nutanix全球超融合架构市场龙
要超融合架构
VMware全球高级副总裁兼存储用性业务总经理李严冰指作新型架构超融合基础设施解决紧迫数据问题降低虚拟化环境存储本复杂性使客户能够获服务器虚拟化全部处根本立足点
VMware全球高级副总裁兼存储用性业务总经理李严冰
VMware先河vSphere重构服务器架构基础x86计算资源抽象化、虚拟化池化显着提高计算资源利用率减少物理服务器数量同极简化虚拟机运行工作负载初始配置续迁移
超融合架构代数据架构其优势于扩展模型并跨存储层受益超融合架构存储功能合并虚拟机管理程序并使用直连存储部署商品化价格x86硬件打造集体简单强存储虚拟化平台简化操作降低本提高灵性
融合模式搭建系统其系统设计、集测试都由供应商进行需顾客操理想超融合架构交付式由于需系统集商介入其客户通非简捷知流程充获超融合架构优势
三种入市路线何机
据解VMware超融合架构采用三种式进入市场
第硬件绪Virtual SAN Ready Nodes模式即由经测试认证硬件按核证解决案搭建超融合架构计划目前已经存现其扩展服务器OEM厂商授权预装软件绑定所必要许提供自服务支持
客户需求服务器OEM厂商必须同模式进行部署VMware提供超100种绪Virtual SAN Ready Nodes选择
目前批服务器OEM厂家先行已经获Virtual SAN Ready Nodes绪认证基于x86工业标准服务器厂家HPE、戴尔、联想、华、富士通、思科、立超微其戴尔、富士通超微第批进入市场
模式VMware给予合作伙伴放业务机用户直接服务器OEM厂家购买服务并获支持管硬件问题软件问题用户直接找服务器OEM厂家获支持服务
第二交钥匙项目产品由VMware 所属EMC联盟交付由EMC II旗融合平台业务部VCE品
EMC联邦2月16量跃迁揭幕超融合架构VxRailX神力本吧VMware超融合系统VMworld 2014发布EVO:RAIL概念先进系统呼声极高杂音少EVO:RAIL产品扩展及配置限制质疑提产品伙伴能够进行销售式或用户乐意购买式进行封装等
现估计随VxRail诞EVO:RAIL页翻即使EVO:RAIL继续存半VMware专注转移新VCE嫡系Virtual SAN Ready Nodes绪模式
第三面向EVO SDDC(软件定义数据)集系统VMware超融合架构云管理vRealize软件定义网络NSXEVO SDDC管理者等打包组集系统种市场模式选择限
VMware VSAN6.2预期今季度市标价起价每CPU 美元2,495 VMware VSAN桌面标价起价每用户美元50合作伙伴望今半内获VMware Virtual SAN Ready Nodes绪模式
❷ vsan网络分区组如何调整
一种解决方法:把vlan信息删掉,在虚拟交换机中把vlan标签删掉即可。 第二种解决方法:把交换机端口开启trunk即可。 Virtual SAN (VSAN) 可以为对象创建镜像。这种功能可在一种策略(即虚拟机存储策略,又称基于存储策略的管理)来定义。此时,您可以将名为“failures to tolerate(允许的故障数目)”的选项定义为 0和 3 之间的任意数字。默认情况下,此选项设置为 1。这意味着,数据会有两个副本。除了 VSAN 之外,还需要一个见证/仲裁,以帮助您确定发生事件后所有者是谁。那么,情况会是怎样的呢?请注意,在下图中,为了简单起见,我会使用术语“vmdk”和“见证”,实际上,这可以是虚拟机中的任何一种组件。
❸ vSphere 5.5 vSAN 见证是怎么部署的
见证(witness)和副本
副本是为虚拟机指定可用性功能时创建的虚拟机存储对象实例的备份。可用性功能决定了可创建的副本数量。在集群中出现主机、网络或磁盘故障时,此机制可使虚拟机使用一组完整的对象继续运行。
见证是每个存储对象的一部分。它们不包含数据,而仅包含元数据。,其目的是在必须做出可用性决策时(在Virtual SAN 群集中)充当打破平局组件,以避免裂脑行为并满足仲裁要求。见证在 VSAN 数据存储上占用大约 2 MB 的空间用于存储元数据。
注意 :要使某个对象在 VSAN 中可访问,则其 50% 以上的组成部分必须可供访问。
默认存储策略Witness部署逻辑: 允许的故障数目 (FTT) =1
VSAN Part 21 – What is a witness? 给了一个简单的例子。
我们以 VSAN 数据存储上部署的一个简单的虚拟机为例。即使我们没有创建策略,而是使用了默认策略,vSAN 数据存储上部署的这台虚拟机的磁盘 ( VMDK ) 也会获得允许的故障数目 (FTT) =1 的功能。这意味着这个 VMDK 将创建两个副本,每个副本放置在不同的 ESXi 主机上,使得数据在群集出现单个故障时仍有一个副本可用。这其中的每个副本都是 VM DK 存储对象的一个组件。下图是 vSphere 5.5 vSAN 简介及配置 中的默认存储策略
❹ exsi vsan 实际使用怎么样
首先就是根据上面所说的硬件条件创建3个虚拟机用来安装ESXi5.5u1。我的配置是每一台主机都包括: 4个CPU(最少2个) 8GB内存 3个硬盘,一个4GB(用来装系统)、一个40GB(模拟成SSD)、一个400GB(提供给vsan存放数据) 2个网络适配器
❺ vSphere 5.5 vSAN 见证是怎么部署的
你好,
现在的IT技术就是让人变傻,全部自动化,虚拟化。就像存储的自动分层,再也不需要精确计算数据的热度,应该分配到哪个存储层,也不需要建立RAID。买来盘,全部加入到池,要空间就从池子里化,够简单吧。但有的人就是喜欢较真,非要搞明白数据究竟用到了哪几块盘,比例怎样。这种要么就是技术控,要么就是控制狂,用现在的话就是no o no die。
经过了几次实验,发现 vSAN 配置和使用起来确实非常简单,在 vSphere 5.5 vSAN 虚拟机存储策略(VM Storage Policy) 中,我们看到了当改变虚拟机的存储策略时,虚拟机的存储对象会使用不同的 vSAN 组件(条带、副本和见证)。你可以选择不理不睬,但我今天就要较真一会,看看为什么要这样。
当然最简单的方法就是找来 vSAN 关于这一段的源代码或设计方案读一读就明白了,可惜我没有这个渠道,那就自己动手,上网找,搭环境测试了。主要参考这2篇文章:
VSAN Part 21 – What is a witness? 及其 中文翻译
VMware Virtual SAN: Witness Component Deployment Logic 及其 中文翻译
先上一段来自官网对于见证和副本的定义:
见证(witness)和副本
副本是为虚拟机指定可用性功能时创建的虚拟机存储对象实例的备份。可用性功能决定了可创建的副本数量。在集群中出现主机、网络或磁盘故障时,此机制可使虚拟机使用一组完整的对象继续运行。
见证是每个存储对象的一部分。它们不包含数据,而仅包含元数据。,其目的是在必须做出可用性决策时(在Virtual SAN 群集中)充当打破平局组件,以避免裂脑行为并满足仲裁要求。见证在 VSAN 数据存储上占用大约 2 MB 的空间用于存储元数据。
注意 :要使某个对象在 VSAN 中可访问,则其 50% 以上的组成部分必须可供访问。
默认存储策略Witness部署逻辑: 允许的故障数目 (FTT) =1
VSAN Part 21 – What is a witness? 给了一个简单的例子。
我们以 VSAN 数据存储上部署的一个简单的虚拟机为例。即使我们没有创建策略,而是使用了默认策略,vSAN 数据存储上部署的这台虚拟机的磁盘 ( VMDK ) 也会获得允许的故障数目 (FTT) =1 的功能。这意味着这个 VMDK 将创建两个副本,每个副本放置在不同的 ESXi 主机上,使得数据在群集出现单个故障时仍有一个副本可用。这其中的每个副本都是 VM DK 存储对象的一个组件。下图是 vSphere 5.5 vSAN 简介及配置 中的默认存储策略:
现在有两个问题需要提出:
第一,VSAN 如何处理裂脑/网络分区?
第二,我们如何才能确保主机/磁盘发生故障时这个 VM DK 对象有 50% 的组件可用?
这就是见证的角色。除了创建 VM DK的两个副本,系统也会创建对象的第三个组件。这就是见证磁盘。它是纯粹的元数据,只占用 2MB 的磁盘空间。现在,在一个 3 节点群集中,如果 VMDK 的副本放置在 host1 和 host2 上,则见证会被放置在 host3 上。这意味着,如果任何一个主机发生故障,我们仍有一份数据副本可用,我们仍有超过 50% 的组件可用。如果出现网络分区或裂脑,一侧分区有 2 个节点,另一侧分区有一个节点,那么仍然有一个分区会拥有超过 50% 的组件。下图所示为虚拟机上的一个VMDK(硬盘 1),该 VMDK 的允许的故障数目被设置为 1。
组件共有 3 个: 2 个副本,1 个见证。所有 3 个组件都放置在群集的不同的主机上。这就是一个最简单的示例。
如果使用 StripeWidth 功能或将 FFT 设置为大于 1 的值,许多人会发现系统创建了大量额外的见证。需要记住的一点是,虚拟机的虚拟机存储策略中功能要求不同,见证的数量也会发生改变,见证的分布也会不同。 怎么个不同法呢? 请看下文分晓。
自定义存储策略部署逻辑:允许故障数目 (FTT) =?
我们来看看 VMware Virtual SAN: Witness Component Deployment Logic 。Virtual SAN 见证组件以三种方式进行定义和部署:
Primary Witness初级见证
Secondary Witness次级见证
Tiebreaker Witness打破平局见证
Primary Witnesses:Need at least (2 * FTT) + 1 nodes in a cluster to be able to tolerate FTT number of node / disk failures. If after placing all the data components, we do not have the required number of nodes in the configuration, primary witnesses are on exclusive nodes until there are (2*FTT)+ 1 nodes in the configuration.
至少需要群集中 (2 * FTT) + 1 节点以便能容许 FTT 节点/磁盘故障数。如果安装了所有数据组件后,配置没有获得所需的节点数,则初级见证将位于独占节点直到配置中有 (2*FTT)+ 1 个节点。
什么意思呢?如果是2*FTT个节点的话,即虚拟机组件都保存了2个副本,如果发生脑裂的情况怎么办?到底有哪个副本来提供服务呢?需要一个第三方的仲裁机构来决定。
Secondary Witnesses:Secondary witnesses are created to make sure that every node has equal voting power towards quorum. This is important because every node failure should affect the quorum equally. Secondary witnesses are added so that every node gets equal number of component, this includes the nodes that only hold primary witnesses. So the total count of data component + witnesses on each node are equalized in this step.
创建次级见证的目的是确保每个节点在仲裁时有相同的投票权。这点很重要,因为每个节点故障都应对仲裁产生相同的影响。次级见证的添加应使每个节点都获得相同的组件数,包括仅拥有初级见证的节点。因此,这一步骤使得每个节点上的数据组件 + 见证组件的总数相同。
Tiebreaker witness:If after adding primary and secondary witnesses we end up with even number of total components (data + witnesses) in the configuration then we add one tiebreaker witnesses to make the total component count odd. 如果在添加初级见证和次级见证之后,配置中的组件总数是偶数(数据 + 见证数),那么,我们需要添加一个打破平局见证,使组件总数变为奇数。
实例分析
上面提到的默认存储策略,5台主机,只部署了 1 个见证,为什么?
初级见证:数据组件分布在 2 个节点上,没有大于 2*FTT+1,因此,我们需要一个初级见证。
次级见证:因为每个参与配置的节点都只有一个组件,因此,我们无需次级见证来平衡投票数。
打破平局见证:因为配置中的组件总数是 3,因此,我们不需要一个打破平局见证。
2. vSphere 5.5 vSAN 虚拟机存储策略(VM Storage Policy) 中第一次应用了虚拟机存储策略,5台主机,FTT=1,Stripe=3,部署了3个见证,为什么?
这里我们看到部分 RAID 0 条带在相同节点上,说实在的我也不知道为什么要这样。而且还有一台主机根本就没有参与。我在想,如果有6台主机,那应该数据组件会用到6台主机。我们来看看数据组件的分布情况:
2个数据组件在主机esx-01a上面
2个数据组件在主机esx-03a上面
1个数据组件在主机esx-04a上面
1个数据组件在主机esx-02a上面
我们来看看见证组件的计算方法:
初级见证:数据组件分布在 4 个节点间,大于 1*FTT+1。因此,不需要初级见证。
次级见证:因为两个节点每个都有 2 个投票,但有 2 个节点每个都只有一个投票,我们需要在下列节点上添加一个投票(见证):esx-04a,esx-02a。
打破平局见证:添加了上述两个见证后,配置中的组件总数为 8(6 数据 + 2 见证),我们需要一个打破平局见证,即第三个见证。在这个例子中,部署到了节点esx-01a。
3. vSphere 5.5 vSAN 虚拟机存储策略(VM Storage Policy) 中我修改了虚拟机存储策略,5台主机,FTT=1,Stripe=4,部署了1个见证,为什么?
这里我们看到部分 RAID 0 条带在相同节点上:
2个数据组件在主机esx-01a上面
2个数据组件在主机esx-03a上面
2个数据组件在主机esx-04a上面
2个数据组件在主机esx-02a上面
我们来看看见证组件的计算方法:
初级见证:数据组件分布在 4 个节点间,大于 1*FTT+1。因此,不需要初级见证。
次级见证:因为参与部署的每个节点每个都有 2 个投票,因此,我们无需次级见证来平衡投票数。。
打破平局见证:配置中的组件总数为 8(8 数据 + 0 见证),我们需要一个打破平局见证,即第三个见证。在这个例子中,部署到了节点esx-04a。
至此,你是不是完全明白了呢?
为了验证算法,我又重新删掉集群,打开vSAN,我们来看看新的部署情况。还是一样的存储策略,5台主机,FTT=1,Stripe=4,这次却部署了3个见证,为什么?自己想吧。
❻ 如查没有ssd硬盘,如何部署VSAN
虚拟机用来安装ESXi5.5u1。我的配置是每一台主机都包括:
4个CPU(最少2个)
8GB内存
3个硬盘,一个4GB(用来装系统)、一个40GB(模拟成SSD)、一个400GB(提供给vsan存放数据)
2个网络适配器,一个在子网192.168.10.x用于管理和虚拟机网络,一个在子网192.168.20.x,用于VSAN VMkernel
虚拟机版本10
注意,为了让ESXi客户机有2个网络适配器,在ESXi主机(本例中起名为esxi01)上的网络配置至少要配置2个不同的端口组,我将这2个端口组分别配置在了2个不同的vSwitch上:
vSwitch0,默认vSwitch,配置有管理网络(VMKernel)和VM Network 10端口组
vSwitch2,新增的vSwitch,配置有VM Network 20端口组
❼ vsan停机步骤
vsan停机步骤如下:
一、关闭:
1 关闭 vSAN 群集中运行的所有虚拟机的电源(除非群集中运行 vCenter Server)。
如果 vSAN 群集中托管 vCenter Server,请勿关闭 vCenter Server 虚拟机的电源。
2 确认所有重新同步任务已完成。
单击监控选项卡,然后选择 vSAN > 重新同步对象。
_
3 如果 vSAN 群集中托管 vCenter Server,请关闭 vCenter Server 虚拟机的电源。vSphere Client 将变得不可用。
注:在关闭vCenter Server前,最好先克隆一份vCenter存到本地硬盘上,以免重启后vSAN群集启不来时无法使用vCenter
4 将 ESXi 主机置于维护模式。
连接到主机并使用 Host Client 或 esxcli 命令将主机置于维护模式且不迁移数据(无操作)。
5 主机成功进入维护模式后,关闭主机电源。
二、启动:
6 打开 ESXi 主机的电源。
在安装 ESXi 的物理机箱上,按住电源按钮直至开始执行启动程序。
7 ESXi 主机启动后,用 Host Client 连接主机,将主机退出维护模式。
注:主机启动后,vSAN集群会自动创建,但需要将主机退出维护模式,vSAN才能正常使用,否则vSAN中的虚拟机处于无效状态。
8 vSAN启动后,查看虚拟机状态,待正常后,打开vCenter电源。
9 启动其他虚拟机
❽ 如何在一台ESXi主机上搭建一整套VSAN集群的环境
就来介绍下如何在一台ESXi主机上配置3个ESXi并组建一个VSAN集群。昨天,我介绍了如何在一台ESXi主机上安装ESXi的客户机(当然这些ESXi本身也是主机哦,还可以在其上部署虚拟机,虽然性能会比较差)。因此,首先就是根据上面所说的硬件条件创建3个虚拟机用来安装ESXi5.5u1。我的配置是每一台主机都包括:
4个CPU(最少2个)
8GB内存
3个硬盘,一个4GB(用来装系统)、一个40GB(模拟成SSD)、一个400GB(提供给vsan存放数据)
2个网络适配器,一个在子网192.168.10.x用于管理和虚拟机网络,一个在子网192.168.20.x,用于VSAN VMkernel
虚拟机版本10
注意,为了让ESXi客户机有2个网络适配器,在ESXi主机(本例中起名为esxi01)上的网络配置至少要配置2个不同的端口组,我将这2个端口组分别配置在了2个不同的vSwitch上:
vSwitch0,默认vSwitch,配置有管理网络(VMKernel)和VM Network 10端口组
vSwitch2,新增的vSwitch,配置有VM Network 20端口组
此外,我还因为有iSCSI存储,因此配置了2个iSCSI的VMKernel分别在vSwitch1和vSwitch2上。
vSwitch0和vSwitch2的配置截图如下:
这里有一点要说明的是,如果仅为了vsan网络的通信,vSwitch2可以没有上联的物理适配器,我的截图里面配置了上联的物理适配器是因为我还有一个iSCSI2的VMkernel需要使用。
安装3台虚拟机的过程就不赘述了,只要你按照我昨天的文章来操作,就可以顺利完成。安装完之后,照例是配置静态IP地址、FQDN主机名、禁用IPv6、DNS并开启SSH和ESXi SHELL以备之后在控制台输入命令行使用。
需要强调一次的是,在你的实验网络中,需要配置好一台域控制器,它同时也是DNS服务器,并事先在DNS服务器里面添加好静态的ESXi主机的DNS项。在我的实验环境中,它们是:
esxi55u01.home.lab – 192.168.10.31
esxi55u02.home.lab – 192.168.10.32
esxi55u03.home.lab – 192.168.10.33
请在黄色DCUI界面(安装完ESXi主机的初次配置界面)里面测试一下网络,如果主机域名也能顺利解析,那就说明网络配置都完备了。DNS对于正确配置VMware集群来说非常重要。
接下去就是用vSphere Web客户端再次连接到vCenter(我的是vCSA),把这几台新安装的ESXi主机添加进来,添加的时候要用FQDN,不能是IP地址。
现在让我们来看一看这些ESXi主机的磁盘情况(左边窗格点选主机,在右边窗格分别选择管理,存储器和存储设备,如图所示),可以看见置备的3个磁盘都是非SSD。下面要克服的问题是怎样欺骗ESXi,让它以为其中一块40GB的磁盘是SSD,这样才能满足VSAN配置的必要前提条件。
让我们进入到这台vSphere ESXi主机的管理控制台界面,在命令行里面输入下面的2条命令,就可以完成:
# esxcli storage nmp satp rule add --satp VMW_SATP_LOCAL --device mpx.vmhba1:C0:T1:L0 --option=enable_ssd
# esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T1:L0
注意,这里的设备ID要填写你所想要变成SSD的那个磁盘,设备ID就是长的像mpx.vmhba1.C0:T1:L0的那个。
输入命令后,如果没有填错,是不返回结果的。回到vSphere Web客户端,刷新一下,你就会发现那个40GB的磁盘的类型变成SSD了。
关于VSAN的配置,LeoXiao同学写的很不错,就不多罗嗦了。你可以参考他的文章。
我借个图说明下顺序:
多说一句,为了测试NIOC功能,而这个功能只有在分布式交换机上才有,所以,建议VSAN集群配置的时候先配置好分布式交换机,并且把VSAN专用的VMkernel建在分布式交换机上。
最后,给大家看一下,要搭建一个VSAN集群的测试环境,在一台主机上至少要配置并开启5台虚拟机——包括1台域控制器,1台vCenter和3台ESXi主机(每台都配了8GB内存哦)。
虽然还是有一些网络传输上不稳定的问题,不过vsan数据存储好歹是建起来了。