亚洲av成人无遮挡网站在线观看,少妇性bbb搡bbb爽爽爽,亚洲av日韩精品久久久久久,兔费看少妇性l交大片免费,无码少妇一区二区三区

  免費(fèi)注冊 查看新帖 |

Chinaunix

  平臺 論壇 博客 文庫
最近訪問板塊 發(fā)新帖
查看: 2753 | 回復(fù): 4
打印 上一主題 下一主題

rhcs中移動虛擬機(jī)服務(wù)問題. [復(fù)制鏈接]

論壇徽章:
0
跳轉(zhuǎn)到指定樓層
1 [收藏(0)] [報(bào)告]
發(fā)表于 2013-04-26 09:12 |只看該作者 |倒序?yàn)g覽
20可用積分
本帖最后由 seebise 于 2013-04-26 11:17 編輯

    我有兩臺HP DL 385 G6主機(jī)做rhcs,主機(jī)上主要跑虛擬機(jī)服務(wù),機(jī)器上接了eva 4400的存儲,劃了三塊100G的盤給兩個主機(jī),一塊盤用作虛擬機(jī)配置文件用,用了GFS2,其他兩塊盤分別給兩個虛擬機(jī)當(dāng)了硬盤,主要想實(shí)現(xiàn)宿主掛了以後虛擬機(jī)會自動跑到另一邊運(yùn)行達(dá)到HA的目的....


   中間遇到一個奇怪的問題,我在利用clusvcadm -M service -m node 這樣的指令把虛擬機(jī)移動到另一主機(jī)的時候,虛擬機(jī)已經(jīng)移動過去了,然後虛擬機(jī)就ping不通了,要過1分鐘左右才能恢復(fù), 在線遷移不是不會斷網(wǎng)嗎....或者丟包很少...,想請教有經(jīng)驗(yàn)的如何檢查這問題? 有可能是網(wǎng)絡(luò)設(shè)備的問題嗎?  

這問題折磨我好幾天了,受不了了.
這是我的測試機(jī),可以隨便搞...

用的宿主操作系統(tǒng):rhel 6.4
用的虛擬機(jī)操作系統(tǒng):rhel 6.3

[root@rhv1 yum.repos.d]# clustat -
Cluster Status for cluster_vm @ Thu Apr 25 20:24:09 2013
Member Status: Quorate

Member Name                                                     ID   Status
------ ----                                                     ---- ------
rhv1                                                                1 Online, Local, rgmanager
rhv2                                                                2 Online, rgmanager

Service Name                                                     Owner (Last)                                                     State
------- ----                                                     ----- ------                                                     -----
service:store_rv1                                                rhv1                                                             started
service:store_rv2                                                rhv2                                                             started
vm:vm0001-dev #一號虛擬機(jī)                                 rhv1                                                             started
vm:vm0003-dev #二號虛擬機(jī)                                  rhv2                                                             started

遷移成功
[root@rhv1 yum.repos.d]# clusvcadm  -M vm:vm0003-dev -m rhv1
Trying to migrate vm:vm0003-dev to rhv1...Success

就ping 不通了.

10.134.35.214 是虛擬機(jī)二號vm0003-dev





這是cluster.conf文件:
<?xml version="1.0"?>
<cluster config_version="49" name="cluster_vm">
        <clusternodes>
                <clusternode name="rhv1" nodeid="1">
                        <fence>
                                <method name="rhv1_fence">
                                        <device name="RHV1_ILO"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="rhv2" nodeid="2">
                        <fence>
                                <method name="RHV1_ILO">
                                        <device name="RHV2_ILO"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <fencedevices>
                <fencedevice agent="fence_ilo" ipaddr="10.134.35.211" login="root" name="RHV1_ILO" passwd="12345~"/>
                <fencedevice agent="fence_ilo" ipaddr="10.134.35.216" login="root" name="RHV2_ILO" passwd="12345~"/>
        </fencedevices>
        <fence_daemon post_join_delay="10"/>
        <rm>
                <failoverdomains>
                        <failoverdomain name="vm_fov1" nofailback="1" restricted="1">
                                <failoverdomainnode name="rhv1"/>
                        </failoverdomain>
                        <failoverdomain name="vm_fov2" nofailback="1" restricted="1">
                                <failoverdomainnode name="rhv2"/>
                        </failoverdomain>
                        <failoverdomain name="primary_an01" nofailback="1" ordered="1" restricted="1">
                                <failoverdomainnode name="rhv1" priority="1"/>
                                <failoverdomainnode name="rhv2" priority="2"/>
                        </failoverdomain>
                        <failoverdomain name="primary_an02" nofailback="1" ordered="1" restricted="1">
                                <failoverdomainnode name="rhv1" priority="2"/>
                                <failoverdomainnode name="rhv2" priority="1"/>
                        </failoverdomain>
                </failoverdomains>
                <resources>
                        <script file="/etc/init.d/clvmd" name="clvmd"/>
                        <script file="/etc/init.d/gfs2" name="gfs2"/>
                        <script file="/etc/init.d/libvirtd" name="libvirtd"/>
                </resources>
                <service domain="vm_fov2" name="store_rv2" recovery="restart">
                        <script ref="clvmd"/>
                        <script ref="gfs2"/>
                        <script ref="libvirtd"/>
                </service>
                <service domain="vm_fov1" name="store_rv1" recovery="restart">
                        <script ref="clvmd"/>
                        <script ref="gfs2"/>
                        <script ref="libvirtd"/>
                </service>
                <vm autostart="0" domain="primary_an01" max_restarts="2" name="vm0001-dev" path="/shared/definitions/" recovery="restart" restart_expire_time="600"/>
                <vm autostart="0" domain="primary_an02" max_restarts="2" name="vm0003-dev" path="/shared/definitions/" recovery="restart" restart_expire_time="600"/>
        </rm>
        <cman expected_votes="1" two_node="1"/>
</cluster>

論壇徽章:
0
2 [報(bào)告]
發(fā)表于 2013-04-26 11:11 |只看該作者
本帖最后由 seebise 于 2013-04-26 11:16 編輯

看起來是這樣嗎? 去抓了一下虛擬機(jī)包,發(fā)現(xiàn)有ARP請求后這個虛擬機(jī)才會通....對網(wǎng)絡(luò)不懂...求解...

10:55:49.453154 IP (tos 0x0, ttl 123, id 12829, offset 0, flags [none], proto ICMP (1), length 60)
    10.148.55.224 > 10.134.35.214: ICMP echo request, id 2, seq 17375, length 40
10:55:54.453140 IP (tos 0x0, ttl 123, id 12851, offset 0, flags [none], proto ICMP (1), length 60)
    10.148.55.224 > 10.134.35.214: ICMP echo request, id 2, seq 17376, length 40
10:55:54.455558 ARP, Ethernet (len 6), IPv4 (len 4), Request who-has 10.134.34.1 tell 10.134.35.214, length 46
10:55:54.456374 ARP, Ethernet (len 6), IPv4 (len 4), Reply 10.134.34.1 is-at 00:00:0c:07:ac:22 (oui Cisco), length 46

10.134.35.214 是虛擬機(jī)二號vm0003-dev
10.134.34.1 是網(wǎng)關(guān)。。。

論壇徽章:
0
3 [報(bào)告]
發(fā)表于 2013-05-06 13:18 |只看該作者
哥們,這不是在線遷移,你這只是用RHCS實(shí)現(xiàn)了集群的HA功能而已,這個切換是會重啟相關(guān)服務(wù)的,肯定會斷網(wǎng)。如果是大數(shù)據(jù)庫,斷網(wǎng)會更久,因?yàn)榇髷?shù)據(jù)庫,DB啟動會很慢。你說的在線遷移應(yīng)該是XEN下的live migration功能,這個遷移是在內(nèi)存中實(shí)現(xiàn)的,所以不會有停機(jī)時間,,具體你可以參考這個。
https://access.redhat.com/site/d ... live_migration.html

論壇徽章:
16
IT運(yùn)維版塊每日發(fā)帖之星
日期:2015-10-02 06:20:00IT運(yùn)維版塊每月發(fā)帖之星
日期:2015-09-11 19:30:52IT運(yùn)維版塊每周發(fā)帖之星
日期:2015-09-11 19:20:31IT運(yùn)維版塊每日發(fā)帖之星
日期:2015-08-26 06:20:00每日論壇發(fā)貼之星
日期:2015-08-20 06:20:00IT運(yùn)維版塊每日發(fā)帖之星
日期:2015-08-20 06:20:002015年辭舊歲徽章
日期:2015-03-03 16:54:15金牛座
日期:2014-05-04 16:58:09雙子座
日期:2013-12-17 16:44:37辰龍
日期:2013-11-22 15:20:59獅子座
日期:2013-11-18 22:55:08射手座
日期:2013-11-12 10:54:26
4 [報(bào)告]
發(fā)表于 2013-05-06 15:12 |只看該作者
esx也由online的migration

論壇徽章:
0
5 [報(bào)告]
發(fā)表于 2013-05-17 17:10 |只看該作者
kamui0523 發(fā)表于 2013-05-06 13:18
哥們,這不是在線遷移,你這只是用RHCS實(shí)現(xiàn)了集群的HA功能而已,這個切換是會重啟相關(guān)服務(wù)的,肯定會斷網(wǎng)。如 ...


可是就算把cluster 全部都關(guān)掉,用遷移指令或者圖形工具遷移還是一樣的情況.....鬱悶了。
您需要登錄后才可以回帖 登錄 | 注冊

本版積分規(guī)則 發(fā)表回復(fù)

  

北京盛拓優(yōu)訊信息技術(shù)有限公司. 版權(quán)所有 京ICP備16024965號-6 北京市公安局海淀分局網(wǎng)監(jiān)中心備案編號:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年舉報(bào)專區(qū)
中國互聯(lián)網(wǎng)協(xié)會會員  聯(lián)系我們:huangweiwei@itpub.net
感謝所有關(guān)心和支持過ChinaUnix的朋友們 轉(zhuǎn)載本站內(nèi)容請注明原作者名及出處

清除 Cookies - ChinaUnix - Archiver - WAP - TOP