‘壹’ vsan停机步骤
vsan停机步骤如下:
一、关闭:
1 关闭 vSAN 群集中运行的所有虚拟机的电源(除非群集中运行 vCenter Server)。
如果 vSAN 群集中托管 vCenter Server,请勿关闭 vCenter Server 虚拟机的电源。
2 确认所有重新同步任务已完成。
单击监控选项卡,然后选择 vSAN > 重新同步对象。
_
3 如果 vSAN 群集中托管 vCenter Server,请关闭 vCenter Server 虚拟机的电源。vSphere Client 将变得不可用。
注:在关闭vCenter Server前,最好先克隆一份vCenter存到本地硬盘上,以免重启后vSAN群集启不来时无法使用vCenter
4 将 ESXi 主机置于维护模式。
连接到主机并使用 Host Client 或 esxcli 命令将主机置于维护模式且不迁移数据(无操作)。
5 主机成功进入维护模式后,关闭主机电源。
二、启动:
6 打开 ESXi 主机的电源。
在安装 ESXi 的物理机箱上,按住电源按钮直至开始执行启动程序。
7 ESXi 主机启动后,用 Host Client 连接主机,将主机退出维护模式。
注:主机启动后,vSAN集群会自动创建,但需要将主机退出维护模式,vSAN才能正常使用,否则vSAN中的虚拟机处于无效状态。
8 vSAN启动后,查看虚拟机状态,待正常后,打开vCenter电源。
9 启动其他虚拟机
‘贰’ vSphere 5.5 vSAN 见证是怎么部署的
见证(witness)和副本
副本是为虚拟机指定可用性功能时创建的虚拟机存储对象实例的备份。可用性功能决定了可创建的副本数量。在集群中出现主机、网络或磁盘故障时,此机制可使虚拟机使用一组完整的对象继续运行。
见证是每个存储对象的一部分。它们不包含数据,而仅包含元数据。,其目的是在必须做出可用性决策时(在Virtual SAN 群集中)充当打破平局组件,以避免裂脑行为并满足仲裁要求。见证在 VSAN 数据存储上占用大约 2 MB 的空间用于存储元数据。
注意 :要使某个对象在 VSAN 中可访问,则其 50% 以上的组成部分必须可供访问。
默认存储策略Witness部署逻辑: 允许的故障数目 (FTT) =1
VSAN Part 21 – What is a witness? 给了一个简单的例子。
我们以 VSAN 数据存储上部署的一个简单的虚拟机为例。即使我们没有创建策略,而是使用了默认策略,vSAN 数据存储上部署的这台虚拟机的磁盘 ( VMDK ) 也会获得允许的故障数目 (FTT) =1 的功能。这意味着这个 VMDK 将创建两个副本,每个副本放置在不同的 ESXi 主机上,使得数据在群集出现单个故障时仍有一个副本可用。这其中的每个副本都是 VM DK 存储对象的一个组件。下图是 vSphere 5.5 vSAN 简介及配置 中的默认存储策略
‘叁’ 如何在一台ESXi主机上搭建一整套VSAN集群的环境
就来介绍下如何在一台ESXi主机上配置3个ESXi并组建一个VSAN集群。昨天,我介绍了如何在一台ESXi主机上安装ESXi的客户机(当然这些ESXi本身也是主机哦,还可以在其上部署虚拟机,虽然性能会比较差)。因此,首先就是根据上面所说的硬件条件创建3个虚拟机用来安装ESXi5.5u1。我的配置是每一台主机都包括:
4个CPU(最少2个)
8GB内存
3个硬盘,一个4GB(用来装系统)、一个40GB(模拟成SSD)、一个400GB(提供给vsan存放数据)
2个网络适配器,一个在子网192.168.10.x用于管理和虚拟机网络,一个在子网192.168.20.x,用于VSAN VMkernel
虚拟机版本10
注意,为了让ESXi客户机有2个网络适配器,在ESXi主机(本例中起名为esxi01)上的网络配置至少要配置2个不同的端口组,我将这2个端口组分别配置在了2个不同的vSwitch上:
vSwitch0,默认vSwitch,配置有管理网络(VMKernel)和VM Network 10端口组
vSwitch2,新增的vSwitch,配置有VM Network 20端口组
此外,我还因为有iSCSI存储,因此配置了2个iSCSI的VMKernel分别在vSwitch1和vSwitch2上。
vSwitch0和vSwitch2的配置截图如下:
这里有一点要说明的是,如果仅为了vsan网络的通信,vSwitch2可以没有上联的物理适配器,我的截图里面配置了上联的物理适配器是因为我还有一个iSCSI2的VMkernel需要使用。
安装3台虚拟机的过程就不赘述了,只要你按照我昨天的文章来操作,就可以顺利完成。安装完之后,照例是配置静态IP地址、FQDN主机名、禁用IPv6、DNS并开启SSH和ESXi SHELL以备之后在控制台输入命令行使用。
需要强调一次的是,在你的实验网络中,需要配置好一台域控制器,它同时也是DNS服务器,并事先在DNS服务器里面添加好静态的ESXi主机的DNS项。在我的实验环境中,它们是:
esxi55u01.home.lab – 192.168.10.31
esxi55u02.home.lab – 192.168.10.32
esxi55u03.home.lab – 192.168.10.33
请在黄色DCUI界面(安装完ESXi主机的初次配置界面)里面测试一下网络,如果主机域名也能顺利解析,那就说明网络配置都完备了。DNS对于正确配置VMware集群来说非常重要。
接下去就是用vSphere Web客户端再次连接到vCenter(我的是vCSA),把这几台新安装的ESXi主机添加进来,添加的时候要用FQDN,不能是IP地址。
现在让我们来看一看这些ESXi主机的磁盘情况(左边窗格点选主机,在右边窗格分别选择管理,存储器和存储设备,如图所示),可以看见置备的3个磁盘都是非SSD。下面要克服的问题是怎样欺骗ESXi,让它以为其中一块40GB的磁盘是SSD,这样才能满足VSAN配置的必要前提条件。
让我们进入到这台vSphere ESXi主机的管理控制台界面,在命令行里面输入下面的2条命令,就可以完成:
# esxcli storage nmp satp rule add --satp VMW_SATP_LOCAL --device mpx.vmhba1:C0:T1:L0 --option=enable_ssd
# esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T1:L0
注意,这里的设备ID要填写你所想要变成SSD的那个磁盘,设备ID就是长的像mpx.vmhba1.C0:T1:L0的那个。
输入命令后,如果没有填错,是不返回结果的。回到vSphere Web客户端,刷新一下,你就会发现那个40GB的磁盘的类型变成SSD了。
关于VSAN的配置,LeoXiao同学写的很不错,就不多罗嗦了。你可以参考他的文章。
我借个图说明下顺序:
多说一句,为了测试NIOC功能,而这个功能只有在分布式交换机上才有,所以,建议VSAN集群配置的时候先配置好分布式交换机,并且把VSAN专用的VMkernel建在分布式交换机上。
最后,给大家看一下,要搭建一个VSAN集群的测试环境,在一台主机上至少要配置并开启5台虚拟机——包括1台域控制器,1台vCenter和3台ESXi主机(每台都配了8GB内存哦)。
虽然还是有一些网络传输上不稳定的问题,不过vsan数据存储好歹是建起来了。