- 論壇徽章:
- 0
|
原帖由 chenyajun5 于 2005-12-15 13:21 發(fā)表
我的是兩個節(jié)點的,是不是我cluquorumd有問題。我不明白Disk Tiebreaker和 network TieBreaker有啥區(qū)別,好像兩節(jié)點的ha cluster需要使用network TieBreaker,那么那個ip該怎么設(shè)置呢?
你的問題實際上回答了很多其他急沖沖要裝RHCS的人的問題.
我一直說不管RHCS還是 linux-ha 也好,采用的都是不太可靠的 Tiebreaking機制. 為什么RHCS v4你們看到了 PowerSwitch? 其實powerswitch從RHCS v2.1的時候就存在了,只不過在系統(tǒng)配置中一直保留不用而已. 5年前我研究Kimberlite 的時候就發(fā)現(xiàn)實際上,如果在2個node的HA集群環(huán)境中,如果發(fā)生heartbeat出現(xiàn)故障,互相不知對方節(jié)點狀態(tài)的情況下,按照競選機制,每一個node都要重新以自己為主建立一個新的集群,但是只有50%的票選,在這個時候,所有原本有序控制的共享資源,比如存儲,漂移IP之類的,全部會被競搶,出現(xiàn)了所謂的brain-split. Kimberlite很早就看到了這個問題,和我們熟悉的linux-ha.org的項目一樣,因為自身架構(gòu)上帶來的缺陷,只能通過2個手段來盡可能減少這種問題,一個手段就是linux-ha.org很有代表性的heartbeat 子項目,這也是linux-ha.org把heartbeat放在了一個很主要地位的原因,另外一個有代表性的手段就是kimberlite的powerswitch. 市面上其他的低端linux HA產(chǎn)品,比如rose ha之類的產(chǎn)品,在解決brainsplit的道路上,無外乎采用了這兩種手段之一。
發(fā)生brainsplit的時候, kimberlite 就通過一個后臺service, 強行控制一個node的powerswitch 然后poweroff一個node, 即便這個node reboot之后,也不會正常啟動cluster service, 這樣就保證了出現(xiàn) 50-50的資源競搶的時候,可以保護共享資源,并且讓一個優(yōu)先節(jié)點來重組cluster.
network tiebreaker 是很多高端ha系統(tǒng)廣泛采用的方法,通過把一個仲裁單位放在網(wǎng)絡(luò)的一個設(shè)備上(pc, pc server, server, network device),出現(xiàn)50-50的競搶之后,讓網(wǎng)絡(luò)上的這個設(shè)備來投票參與競搶,2對1的選擇的結(jié)果永遠不會出現(xiàn)50-50的brain-split.所以也比較可靠。
另外一種稍微差一點的做法是用Quorum LUN/disk, 一般用LUN的會多一點,這樣quorum不會出現(xiàn)單點故障. 微軟的MSCS用的就是這種方法。相對前面的network tiebreak來說 lun/disk tierbreaker成本相對比較低,可靠性也比較差.
你的這個httpd的問題,我覺得首先要做的就是你要仔細閱讀手冊,不要有遺漏。第二個是要嚴(yán)格檢查httpd service的配置. 不要有任何違反系統(tǒng)要求的配置項存在。 看我置頂?shù)奶,我認(rèn)為大部分的看似奇怪的問題,都是因為配置和環(huán)境與程序本身的要求不一致造成的。軟件本身的缺陷也是要考慮的因素之一。 |
|