- 論壇徽章:
- 0
|
昨天終于把虛擬機vmware下的solaris 10 x86 + vxvm + vcs 雙機給安裝起來了,還測試了一把NFS failover服務!折騰到半夜1點多,
總結的教訓就是沒細看隨軟件包文檔,走了一些彎路,特別是配置NFS 服務組的時候,online 資源發(fā)現(xiàn)一些問題,
現(xiàn)在都已經(jīng)完美解決了!廢話少說,把整個過程總結如下。
一、硬件環(huán)境配置
1). 筆記本, AMD Turion 64 CPU, 3G內(nèi)存,至少留20G空間安裝solaris x86 虛擬機.
二、軟件版本
1). VMWare workstation 6.5 for windows ---->網(wǎng)上可下載
2). solaris 10 x86 u6 版本 --->SUN網(wǎng)站下載
3). Veritas Storage Foundation HA 5.0 for solaris x86-64. 軟件包包含了VCS和VxVM. ---> Symantec 網(wǎng)站可以下載試用版。
需要另外具備vcs和vxvm liense key.
三、最終安裝結果
1). 虛擬出共享陣列/磁盤,并讓VxVM控制管理,在DG上劃出一個Volume,作為VCS雙機下NFS雙機共享目錄,實現(xiàn)Failover 機制。
四、安裝與配置過程
1 前提條件:
1). 如果機器CPU不是支持64位的,Veritas套件肯定是無法安裝起來的,我在symantec網(wǎng)站查閱過版本信息,目前還沒有支持x86 32位
的版本,如果您機器不是64位的,請立刻放棄這個想法,所有的后續(xù)安裝都是徒勞無功的。
2). 具備第一條件后,還需要vcs和vxvm的license,沒license就沒得用,不一定要正式的,demo的也行。
2 安裝Solaris系統(tǒng),配置共享磁盤
按照常規(guī)步驟安裝Solaris,一共裝2個做雙機。一個個安裝,復制的方式大概也行,我沒試過,很多人說不能用,
也許引起了沖突。所以安裝solaris別怕麻煩,耐心地安裝出2個系統(tǒng)。
2個系統(tǒng)都裝完后參考以下配置,沒列出的基本是默認,不指明了。簡稱A,B機
1) 增加網(wǎng)卡
A,B機配置
分別有4個虛擬網(wǎng)卡,全部Custom模式,選擇一個虛擬網(wǎng)絡,配置成host-only.
2) 創(chuàng)建虛擬共享磁盤/陣列
A,B系統(tǒng)全部停掉,在A系統(tǒng)上增加若干個磁盤,比如我增加了9個,挺爽!
最好都選scsi接口,并分配空間。然后在B系統(tǒng)上導入這些增加的磁盤,參數(shù)都選默認。
接下來要修改虛擬系統(tǒng)的參數(shù),首先退出vmware,進入到A,B系統(tǒng)的存放目錄,打開后綴名為 .vmx文件,
修改配置如下, 下面的配置只挑其中一個說明,另外一個參考此文件很容易改了。
說明:虛線內(nèi)的內(nèi)容復制到vmx文件
----------------
disk.locking = "FALSE"
diskLib.dataCacheMaxSize = "0"
----------------
scsi0.sharedBus = "virtual"
scsi0:1.present = "TRUE"
scsi0:1.fileName = "D:\shared_disks\coordinator01.vmdk"
說明:虛線內(nèi)的內(nèi)容復制到vmx文件
------------------------------
scsi0:1.mode = "persistent"
scsi0:1.shared = "TRUE"
scsi0:1.redo = ""
------------------------------
第二處增加的內(nèi)容要針對增加的scsi硬盤的掛載位置做相應修改。比如你增加的硬盤內(nèi)容如下
scsi1:3.present = "TRUE"
scsi1:3.fileName = "D:\shared_disks\coordinator01.vmdk"
那么就增加下面的三行
scsi1:3.mode = "persistent"
scsi1:3.shared = "TRUE"
scsi1:3.redo = ""
全部修改完成后,這些增加的虛擬硬盤就是作為共享陣列了!還弄不明白的,請搜索一下vmware相關資料。
啟動solaris系統(tǒng),vmware會報什么cluster功能不支持的錯誤,別管它,照樣玩的通!
3.安裝VxVM
最省時間的方法就是一次對A,B倆系統(tǒng)同時開始安裝VxVM,5.0版本是支持這樣做到。具體的配置說明這里就
不說了,總結一下就是
1) 要配置ssh 認證,修改/etc/ssh/sshd_config,允許root登錄,另外服務sftp是正常的。
PermitRootLogin yes
Subsystem sftp /usr/lib/ssh/sftp-server
2) 在存放安裝包的系統(tǒng),假設是A,生成dsa 驗證碼,并存到B上,這樣只要在A上開始安裝vxvm,B也可以被照顧到了。
# ssh-genkey -t dsa
把/.ssh/id_dsa.pub 文件傳到B上,內(nèi)容復制到/.ssh/authorized_keys 文件。
A系統(tǒng)執(zhí)行如下2個命令
# exec /usr/bin/ssh-agent $SHELL
# ssh-add
在A系統(tǒng)驗證ssh是否無需密碼可以直接登錄
# ssh -l root solB uname -a
如果上面的命令沒有提示密碼,恭喜!可以開始安裝VxVM了。請參考指導書安裝。
3) 安裝之后發(fā)現(xiàn)A,B兩個系統(tǒng)識別的共享盤有錯誤,A正常,B在vxdisk list顯示 udid_mismatch, 查證veritas
資料說是bug,要安裝MP3補丁,安裝之后果然都好了。
4)另外創(chuàng)建dg和劃volume都不說了吧,大把資料可以查,不是這里講的重點。劃出個vol1,然后A,B都deport,import
一下dg,同步信息。
4.安裝VCS
其實VxVM和VCS可以同時安裝,Storage Foundation的安裝菜單已經(jīng)有這樣的選項了,我擔心一個安裝不成功會干擾其他的,
所以是分開裝的。對ssh配置修改和VxVM的安裝是一模一樣的。指定了cluster的一些參數(shù),比如cluster name,心跳網(wǎng)卡,
安裝起來還是挺順利的。不知道為什么Windows Console客戶端連接不上VCS了,這個問題沒解決。web方式也聯(lián)不上,應該是
配置沒做好.
總結:心跳網(wǎng)卡一定要A,B各指定2個。
5.配置NFS雙機服務
NFS雙機服務是VCS完全支持的功能,系統(tǒng)自帶了agent,不需要額外再去寫啟動腳本了,唯一要做的就是把這個NFS通過命令
搭建出來。
需要創(chuàng)建、修改的東西
1) A,B兩邊都創(chuàng)建一個目錄,作為共享掛載。
# mkdir /nfsshare
2) 對卷vol1創(chuàng)建文件系統(tǒng)
# newfs /dev/vx/dsk/datadg/vol1
3) A,B系統(tǒng)上要禁止solaris控制nfs 服務,讓vcs來控制, 這步很重要,否則NFS雙機服務會很不穩(wěn)定。
# svccfg delete -f svc:/network/nfs/server:default
4) 使用腳本創(chuàng)建NFS,參考以下內(nèi)容, 符號--->后面都是命令解釋, 不屬于命令一部分.
# hagrp -add hanfs ----->創(chuàng)建service group
# haconf -makerw ----->配置文件可讀寫
# hagrp -modify hanfs SystemList solarisA 1 solarisB 2 ---->group在solarisA和solarisB上運行
# hagrp -autoenable hanfs -sys solarisA
# hares -add nfsNIC NIC hanfs
VCS NOTICE V-16-1-10242 Resource added. Enabled attribute must be set before agent monitors
# hares -modify nfsNIC Enabled 1
# hares -modify nfsNIC Device e1000g0 --->指定網(wǎng)卡,NFS的服務IP會掛在這個網(wǎng)卡上
# hares -modify nfsIP Enabled 1
# hares -modify nfsIP Device e1000g0
# hares -modify nfsIP Address 192.168.152.133 --->指定服務IP
# hares -modify nfsIP IfconfigTwice 1
# hares -add nfsDG DiskGroup hanfs ---->DG, 和vxvm的dg聯(lián)系起來
VCS NOTICE V-16-1-10242 Resource added. Enabled attribute must be set before agent monitors
# hares -modify nfsDG Enabled 1
# hares -modify nfsDG DiskGroup datadg ---->配置屬性
# hares -modify nfsDG StartVolumes 0
# hares -add nfsVOL Volume hanfs ---->增加一個Volume, vol1映射到這個resource
# hares -modify nfsVOL Enabled 1
# hares -modify nfsVOL Volume vol01 --->配置卷vol01
# hares -modify nfsVOL DiskGroup datadg
# hares -add nfsMOUNT Mount hanfs --->vol01掛載到/nfsshare
VCS NOTICE V-16-1-10242 Resource added. Enabled attribute must be set before agent monitors
# hares -modify nfsMOUNT Enabled 1
# hares -modify nfsMOUNT MountPoint /nfsshare
# hares -modify nfsMOUNT BlockDevice /dev/vx/dsk/datadg/vol01
# hares -modify nfsMOUNT FSType ufs --->指定掛載文件系統(tǒng)類型, 這步曾經(jīng)漏掉了,結果服務起不來
# hares -modify nfsMOUNT FsckOpt %-n ---->掛載上后不要fsck,這個參數(shù)也不能漏
# hares -add nfsNFS NFS hanfs --->增加一個NFS resource
VCS NOTICE V-16-1-10242 Resource added. Enabled attribute must be set before agent monitors
# hares -modify nfsNFS Enabled 1
# hares -modify nfsNFS Nservers 24
# hares -add nfsSHARE Share hanfs
VCS NOTICE V-16-1-10242 Resource added. Enabled attribute must be set before agent monitors
# hares -modify nfsSHARE Enabled 1
# hares -modify nfsSHARE PathName /nfsshare
# hares -modify nfsSHARE Options rw
# hares -link nfsIP nfsNIC ---->link確定resource父子關系
# hares -link nfsVOL nfsDG
# hares -link nfsMOUNT nfsVOL
# hares -link nfsSHARE nfsIP
# hares -link nfsSHARE nfsMOUNT
# hares -link nfsSHARE nfsNFS
# haconf -dump -makero
5) 測試NFS服務
測試過程比較枯燥,首先每個resource要probe一下,然后再online. 例如,
# hares -probe nfsDG -sys solarisA
# hares -online nfsDG -sys solarisA
把所有resource都這么做一次,在A機probe完了還要做B機的probe, 再online。這樣才能保證兩邊都可以正常切換。
測試過程中如果發(fā)現(xiàn)什么錯誤,可以在/var/VRTSvcs/log/目錄下查看日志。
6) 總結
有這么一套VCS虛擬雙機還是不錯滴,在上面可以慢慢玩,不用擔心別人和你搶雙機環(huán)境了!
就是很耗內(nèi)存,機器不夠強勁的,請謹慎安裝。
[ 本帖最后由 小鷺 于 2009-3-11 13:43 編輯 ] |
|