『壹』 vsan停機步驟
vsan停機步驟如下:
一、關閉:
1 關閉 vSAN 群集中運行的所有虛擬機的電源(除非群集中運行 vCenter Server)。
如果 vSAN 群集中託管 vCenter Server,請勿關閉 vCenter Server 虛擬機的電源。
2 確認所有重新同步任務已完成。
單擊監控選項卡,然後選擇 vSAN > 重新同步對象。
_
3 如果 vSAN 群集中託管 vCenter Server,請關閉 vCenter Server 虛擬機的電源。vSphere Client 將變得不可用。
註:在關閉vCenter Server前,最好先克隆一份vCenter存到本地硬碟上,以免重啟後vSAN群集啟不來時無法使用vCenter
4 將 ESXi 主機置於維護模式。
連接到主機並使用 Host Client 或 esxcli 命令將主機置於維護模式且不遷移數據(無操作)。
5 主機成功進入維護模式後,關閉主機電源。
二、啟動:
6 打開 ESXi 主機的電源。
在安裝 ESXi 的物理機箱上,按住電源按鈕直至開始執行啟動程序。
7 ESXi 主機啟動後,用 Host Client 連接主機,將主機退出維護模式。
註:主機啟動後,vSAN集群會自動創建,但需要將主機退出維護模式,vSAN才能正常使用,否則vSAN中的虛擬機處於無效狀態。
8 vSAN啟動後,查看虛擬機狀態,待正常後,打開vCenter電源。
9 啟動其他虛擬機
『貳』 vSphere 5.5 vSAN 見證是怎麼部署的
見證(witness)和副本
副本是為虛擬機指定可用性功能時創建的虛擬機存儲對象實例的備份。可用性功能決定了可創建的副本數量。在集群中出現主機、網路或磁碟故障時,此機制可使虛擬機使用一組完整的對象繼續運行。
見證是每個存儲對象的一部分。它們不包含數據,而僅包含元數據。,其目的是在必須做出可用性決策時(在Virtual SAN 群集中)充當打破平局組件,以避免裂腦行為並滿足仲裁要求。見證在 VSAN 數據存儲上佔用大約 2 MB 的空間用於存儲元數據。
注意 :要使某個對象在 VSAN 中可訪問,則其 50% 以上的組成部分必須可供訪問。
默認存儲策略Witness部署邏輯: 允許的故障數目 (FTT) =1
VSAN Part 21 – What is a witness? 給了一個簡單的例子。
我們以 VSAN 數據存儲上部署的一個簡單的虛擬機為例。即使我們沒有創建策略,而是使用了默認策略,vSAN 數據存儲上部署的這台虛擬機的磁碟 ( VMDK ) 也會獲得允許的故障數目 (FTT) =1 的功能。這意味著這個 VMDK 將創建兩個副本,每個副本放置在不同的 ESXi 主機上,使得數據在群集出現單個故障時仍有一個副本可用。這其中的每個副本都是 VM DK 存儲對象的一個組件。下圖是 vSphere 5.5 vSAN 簡介及配置 中的默認存儲策略
『叄』 如何在一台ESXi主機上搭建一整套VSAN集群的環境
就來介紹下如何在一台ESXi主機上配置3個ESXi並組建一個VSAN集群。昨天,我介紹了如何在一台ESXi主機上安裝ESXi的客戶機(當然這些ESXi本身也是主機哦,還可以在其上部署虛擬機,雖然性能會比較差)。因此,首先就是根據上面所說的硬體條件創建3個虛擬機用來安裝ESXi5.5u1。我的配置是每一台主機都包括:
4個CPU(最少2個)
8GB內存
3個硬碟,一個4GB(用來裝系統)、一個40GB(模擬成SSD)、一個400GB(提供給vsan存放數據)
2個網路適配器,一個在子網192.168.10.x用於管理和虛擬機網路,一個在子網192.168.20.x,用於VSAN VMkernel
虛擬機版本10
注意,為了讓ESXi客戶機有2個網路適配器,在ESXi主機(本例中起名為esxi01)上的網路配置至少要配置2個不同的埠組,我將這2個埠組分別配置在了2個不同的vSwitch上:
vSwitch0,默認vSwitch,配置有管理網路(VMKernel)和VM Network 10埠組
vSwitch2,新增的vSwitch,配置有VM Network 20埠組
此外,我還因為有iSCSI存儲,因此配置了2個iSCSI的VMKernel分別在vSwitch1和vSwitch2上。
vSwitch0和vSwitch2的配置截圖如下:
這里有一點要說明的是,如果僅為了vsan網路的通信,vSwitch2可以沒有上聯的物理適配器,我的截圖裡面配置了上聯的物理適配器是因為我還有一個iSCSI2的VMkernel需要使用。
安裝3台虛擬機的過程就不贅述了,只要你按照我昨天的文章來操作,就可以順利完成。安裝完之後,照例是配置靜態IP地址、FQDN主機名、禁用IPv6、DNS並開啟SSH和ESXi SHELL以備之後在控制台輸入命令行使用。
需要強調一次的是,在你的實驗網路中,需要配置好一台域控制器,它同時也是DNS伺服器,並事先在DNS伺服器裡面添加好靜態的ESXi主機的DNS項。在我的實驗環境中,它們是:
esxi55u01.home.lab – 192.168.10.31
esxi55u02.home.lab – 192.168.10.32
esxi55u03.home.lab – 192.168.10.33
請在黃色DCUI界面(安裝完ESXi主機的初次配置界面)裡面測試一下網路,如果主機域名也能順利解析,那就說明網路配置都完備了。DNS對於正確配置VMware集群來說非常重要。
接下去就是用vSphere Web客戶端再次連接到vCenter(我的是vCSA),把這幾台新安裝的ESXi主機添加進來,添加的時候要用FQDN,不能是IP地址。
現在讓我們來看一看這些ESXi主機的磁碟情況(左邊窗格點選主機,在右邊窗格分別選擇管理,存儲器和存儲設備,如圖所示),可以看見置備的3個磁碟都是非SSD。下面要克服的問題是怎樣欺騙ESXi,讓它以為其中一塊40GB的磁碟是SSD,這樣才能滿足VSAN配置的必要前提條件。
讓我們進入到這台vSphere ESXi主機的管理控制台界面,在命令行裡面輸入下面的2條命令,就可以完成:
# esxcli storage nmp satp rule add --satp VMW_SATP_LOCAL --device mpx.vmhba1:C0:T1:L0 --option=enable_ssd
# esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T1:L0
注意,這里的設備ID要填寫你所想要變成SSD的那個磁碟,設備ID就是長的像mpx.vmhba1.C0:T1:L0的那個。
輸入命令後,如果沒有填錯,是不返回結果的。回到vSphere Web客戶端,刷新一下,你就會發現那個40GB的磁碟的類型變成SSD了。
關於VSAN的配置,LeoXiao同學寫的很不錯,就不多羅嗦了。你可以參考他的文章。
我借個圖說明下順序:
多說一句,為了測試NIOC功能,而這個功能只有在分布式交換機上才有,所以,建議VSAN集群配置的時候先配置好分布式交換機,並且把VSAN專用的VMkernel建在分布式交換機上。
最後,給大家看一下,要搭建一個VSAN集群的測試環境,在一台主機上至少要配置並開啟5台虛擬機——包括1台域控制器,1台vCenter和3台ESXi主機(每台都配了8GB內存哦)。
雖然還是有一些網路傳輸上不穩定的問題,不過vsan數據存儲好歹是建起來了。