| 導購 | 订阅 | 在线投稿
分享
 
 
 

Linux系統中集群技術及其配置實例

來源:互聯網  2008-05-21 04:46:39  評論

一、集群和Linux上的集群解決方案

集群系統(Cluster)主要解決下面幾個問題:

高可靠性(HA)。利用集群管理軟件,當主服務器故障時,備份服務器能夠自動接管主服務器的工作,並及時切換過去,以實現對用戶的不間斷服務。

高性能計算(HP)。即充分利用集群中的每一台計算機的資源,實現複雜運算的並行處理,通常用于科學計算領域,比如基因分析,化學分析等。

負載平衡。即把負載壓力根據某種算法合理分配到集群中的每一台計算機上,以減輕主服務器的壓力,降低對主服務器的硬件和軟件要求。

在實際應用中,最常見的情況是利用集群解決負載平衡問題,比如用于提供WWW服務。在這裏主要展示如何使用LVS(Linux Virtial Server)來實現實用的WWW負載平衡集群系統。

二、LVS簡介

LVS是章文嵩博士發起和領導的優秀的集群解決方案,許多商業的集群産品,比如RedHat的Piranha,TurboLinux公司的Turbo Cluster等,都是基于LVS的核心代碼的。在現實的應用中,LVS得到了大量的部署,請參考http: //www.linuxvirtualserver.org/deployment.html

關于Linux LVS的工作原理和更詳細的信息,請參考http://www.linuxvirtualserver.org。

三、LVS配置實例

通過Linux LVS,實現WWW,Telnet服務的負載平衡。這裏實現Telnet集群服務僅爲了測試上的方便。

LVS有三種負載平衡方式,NAT(Network Address Translation),DR(Direct Routing),IP Tunneling。其中,最爲常用的是DR方式,因此這裏只說明DR(Direct Routing)方式的LVS負載平衡。

1、網絡拓撲結構。

如圖1所示,爲測試方便,4台機器處于同一網段內,通過一交換機或者集線器相連。實際的應用中,最好能夠將虛擬服務器vs1和真實服務器rs1, rs2置于于不同的網段上,即提高了性能,也加強了整個集群系統的安全性。

2、服務器的軟硬件配置

首先說明,雖然本文的測試環境中用的是3台相同配置的服務器,但LVS並不要求集群中的服務器規格劃一,相反,可以根據服務器的不同配置和負載情況,調整負載分配策略,充分利用集群環境中的每一台服務器。

這3台服務器中,vs1作爲虛擬服務器(即負載平衡服務器),負責將用戶的訪問請求轉發到集群內部的rs1,rs2,然後由rs1,rs2分別處理。

client爲客戶端測試機器,可以爲任意操作系統。

4台服務器的操作系統和網絡配置分別爲:

vs1: RedHat 6.2, Kernel 2.2.19

vs1: eth0 192.168.0.1

vs1: eth0:101 192.168.0.101

rs1: RedHat 6.2, Kernel 2.2.14

rs1: eth0 192.168.0.3

rs1: dummy0 192.168.0.101

rs2: RedHat 6.2, Kernel 2.2.14

rs2: eth0 192.168.0.4

rs2: dummy0 192.168.0.101

client: Windows 2000

client: eth0 192.168.0.200

其中,192.168.0.101是允許用戶訪問的IP。

虛擬服務器的集群配置

大部分的集群配置工作都在虛擬服務器vs1上面,需要下面的幾個步驟:

重新編譯內核。

首先,下載最新的Linux內核,版本號爲2.2.19,下載地址爲:http://www.kernel.org/,解壓縮後置于/usr/src/linux目錄下。

其次需要下載LVS的內核補丁,地址爲:http://www.linuxvirtualserver.org/software/ipvs- 1.0.6-2.2.19.tar.gz。這裏注意,如果你用的Linux內核不是2.2.19版本的,請下載相應版本的LVS內核補丁。將ipvs- 1.0.6-2.2.19.tar.gz解壓縮後置于/usr/src/linux目錄下。

然後,對內核打補丁,如下操作:

[root@vs2 /root]# cd /usr/src/linux

[root@vs2 linux]# patch -p1 < ipvs-1.0.6-2.2.19/ipvs-1.0.6-2.2.19.patch

下面就是重新配置和編譯Linux的內核。特別注意以下選項:

1 Code maturity level options--->

*

[*]Prompt for development and/or incomplete code/drivers

2 Networking部分:

[*] Kernel/User netlink socket

[*] Routing messages

<*> Netlink device emulation

*

[*] Network firewalls

[*] Socket Filtering

<*> Unix domain sockets

*

[*] TCP/IP networking

[*] IP: multicasting

[*] IP: advanced router

[ ] IP: policy routing

[ ] IP: equal cost multipath

[ ] IP: use TOS value as routing key

[ ] IP: verbose route monitoring

[ ] IP: large routing tables

[ ] IP: kernel level autoconfiguration

*

[*] IP: firewalling

[ ] IP: firewall packet netlink device

*

[*] IP: transparent proxy support

*

[*] IP: masquerading

--- Protocol-specific masquerading support will be built as modules.

*

[*] IP: ICMP masquerading

--- Protocol-specific masquerading support will be built as modules.

*

[*] IP: masquerading special modules support

*

IP: ipautofw masq support (EXPERIMENTAL)(NEW)

*

IP: ipportfw masq support (EXPERIMENTAL)(NEW)

*

IP: ip fwmark masq-forwarding support (EXPERIMENTAL)(NEW)

*

[*] IP: masquerading virtual server support (EXPERIMENTAL)(NEW)

[*]

IP Virtual Server debugging (NEW)

<--最好選擇此項,以便觀察LVS的調試信息

*

(12) IP masquerading VS table size (the Nth power of 2) (NEW)

*

IPVS: round-robin scheduling (NEW)

*

IPVS: weighted round-robin scheduling (NEW)

*

IPVS: least-connection scheduling (NEW)

*

IPVS: weighted least-connection scheduling (NEW)

*

IPVS: locality-based least-connection scheduling (NEW)

*

IPVS: locality-based least-connection with replication scheduling (NEW)

*

[*] IP: optimize as router not host

*

IP: tunneling

IP: GRE tunnels over IP

[*] IP: broadcast GRE over IP

[*] IP: multicast routing

[*] IP: PIM-SM version 1 support

[*] IP: PIM-SM version 2 support

*

[*] IP: aliasing support

[ ] IP: ARP daemon support (EXPERIMENTAL)

*

[*] IP: TCP syncookie support (not enabled per default)

--- (it is safe to leave these untouched)

< > IP: Reverse ARP

[*] IP: Allow large windows (not recommended if <16Mb of memory)

< > The IPv6 protocol (EXPERIMENTAL)

上面,帶*號的爲必選項。

然後就是常規的編譯內核過程,不再贅述,請參考編譯 Linux 教程

在這裏要注意一點:如果你使用的是RedHat自帶的內核或者從RedHat下載的內核版本,已經預先打好了LVS的補丁。這可以通過查看/usr/src/linux/net/目錄下有沒有幾個ipvs開頭的文件來判斷:如果有,則說明已經打過補丁。

編寫LVS配置文件,實例中的配置文件如下:

#lvs_dr.conf (C) Joseph Mack mack@ncifcrf.gov

LVS_TYPE=VS_DR

INITIAL_STATE=on

VIP=eth0:101 192.168.0.101 255.255.255.0 192.168.0.0

DIRECTOR_INSIDEIP=eth0 192.168.0.1 192.168.0.0 255.255.255.0 192.168.0.255

SERVICE=t telnet rr rs1:telnet rs2:telnet

SERVICE=t www rr rs1:www rs2:www

SERVER_VIP_DEVICE=dummy0

SERVER_NET_DEVICE=eth0

#----------end lvs_dr.conf------------------------------------

將該文件置于/etc/lvs目錄下。

使用LVS的配置腳本産生lvs.conf文件。該配置腳本可以從http: //www.linuxvirtualserver.org/Joseph.Mack/configure-lvs_0.8.tar.gz 單獨下載,在ipvs-1.0.6-2.2.19.tar.gz包中也有包含。

腳本configure的使用方法:

[root@vs2 lvs]# configure lvs.conf

這樣會産生幾個配置文件,這裏我們只使用其中的rc.lvs_dr文件。

修改/etc/rc.d/init.d/rc.local,增加如下幾行:

echo 1 > /proc/sys/net/ipv4/ip_forward

echo 1 > /proc/sys/net/ipv4/ip_always_defrag

# 顯示最多調試信息

echo 10 > /proc/sys/net/ipv4/vs/debug_level

配置NFS服務。這一步僅僅是爲了方便管理,不是必須的步驟。

假設配置文件lvs.conf文件放在/etc/lvs目錄下,則/etc/exports文件的內容爲:

/etc/lvs ro(rs1,rs2)

然後使用exportfs命令輸出這個目錄:

[root@vs2 lvs]# exportfs

如果遇到什麽麻煩,可以嘗試:

[root@vs2 lvs]# /etc/rc.d/init.d/nfs restart

[root@vs2 lvs]# exportfs

這樣,各個real server可以通過NFS獲得rc.lvs_dr文件,方便了集群的配置:你每次修改lvs.conf中的配置選項,都可以即可反映在rs1,rs2的相應目錄裏。

修改/etc/syslogd.conf,增加如下一行: kern.*

/var/log/kernel_log

這樣,LVS的一些調試信息就會寫入/var/log/kernel_log文件中.

real server的配置

real server的配置相對簡單,主要是是以下幾點:

配置telnet和WWW服務。telnet服務沒有需要特別注意的事項,但是對于www服務,需要修改httpd.conf文件,使得apache在虛擬服務器的ip地址上監聽,如下所示:

Listen 192.168.0.101:80

關閉real server上dummy0的arp請求響應能力。這是必須的,具體原因請參見ARP problem in LVS/TUN and LVS/DR(http://www.linuxvirtualserver.org/arp.html)。關閉dummy0的arp響應的方式有多種,比較簡單地方法是,修改/etc/rc.d/rc.local文件,增加如下幾行: echo 1 > /proc/sys/net/ipv4/conf/all/hidden

ifconfig dummy0 up

ifconfig dummy0 192.168.0.101 netmask 255.255.255.0 broadcast 192.168.0.0 up

echo 1 > /proc/sys/net/ipv4/conf/dummy0/hidden

再次修改/etc/rc.d/rc.local,增加如下一行:(可以和步驟2合並)

echo 1 > /proc/sys/net/ipv4/ip_forward

四、LVS的測試

好了,經過了上面的配置步驟,現在可以測試LVS了,步驟如下:

分別在vs1,rs1,rs2上運行/etc/lvs/rc.lvs_dr。注意,rs1,rs2上面的/etc/lvs目錄是vs2輸出的。如果您的 NFS配置沒有成功,也可以把vs1上的/etc/lvs/rc.lvs_dr複制到rs1,rs2上,然後分別運行。

確保rs1,rs2上面的apache已經啓動並且允許telnet。

然後從client運行telnet 192.168.0.101,如果登錄後看到如下輸出就說明集群已經開始工作了:(假設以guest用戶身份登錄)

[guest@rs1 guest]$-----------說明已經登錄到服務器rs1上。

再開啓一個telnet窗口,登錄後會發現系統提示變爲:

[guest@rs2 guest]$-----------說明已經登錄到服務器rs2上。

然後在vs2上運行如下命令:

[root@vs2 /root]ipvsadm

運行結果應該爲:

IP Virtual Server version 1.0.6 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port Forward Weight ActiveConn InActConn

TCP

192.168.0.101:telnet rr

-> rs2:telnet Route

1

1

0

-> rs1:telnet Route

1

1

0

TCP

192.168.0.101:www rr

-> rs2:wwwRoute

1

0

0

-> rs1:wwwRoute

1

0

0

至此已經驗證telnet的LVS正常。

然後測試一下WWW是否正常:用你的浏覽器查看http://192.168.0.101/是否有什麽變化?爲了更明確的區別響應來自那個real server,可以在rs1,rs2上面分別放置如下的測試頁面(test.html):

我是real server #1 or #2

然後刷新幾次頁面(http://192.168.0.101/test.html),如果你看到“我是real server #1”和“我是real server #2”交替出現,說明www的LVS系統已經正常工作了。

但是由于Internet Explore 或者Netscape本身的緩存機制,你也許總是只能看到其中的一個。不過通過ipvsadm還是可以看出,頁面請求已經分配到兩個real server上了,如下所示:

IP Virtual Server version 1.0.6 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port Forward Weight ActiveConn InActConn

TCP

192.168.0.101:telnet rr

-> rs2:telnet Route

1

0

0

-> rs1:telnet Route

1

0

0

TCP

192.168.0.101:www rr

-> rs2:wwwRoute

1

0

5

-> rs1:wwwRoute

1

0

4

或者,可以采用linux的lynx作爲測試客戶端,效果更好一些。如下運行命令:

[root@client /root]while true; do lynx -dump http://10.64.1.56/test.html; sleep 1; done

這樣,每隔1秒鍾“我是realserver #1”和“我是realserver #2”就交替出現一次,清楚地表明響應分別來自兩個不同的real server。

五調試技巧

如果您的運氣不好,在配置LVS的過程中也許會遇到一些困難,下面的技巧或許有幫助:

首先確定網絡硬件沒有問題,尤其是網線,ping工具就足夠了。

使用netstat查看端口的活動情況。

使用tcpdump查看數據包的流動情況。

查看/var/log/kernel_log文件。

  一、集群和Linux上的集群解決方案   集群系統(Cluster)主要解決下面幾個問題:   高可靠性(HA)。利用集群管理軟件,當主服務器故障時,備份服務器能夠自動接管主服務器的工作,並及時切換過去,以實現對用戶的不間斷服務。   高性能計算(HP)。即充分利用集群中的每一台計算機的資源,實現複雜運算的並行處理,通常用于科學計算領域,比如基因分析,化學分析等。   負載平衡。即把負載壓力根據某種算法合理分配到集群中的每一台計算機上,以減輕主服務器的壓力,降低對主服務器的硬件和軟件要求。   在實際應用中,最常見的情況是利用集群解決負載平衡問題,比如用于提供WWW服務。在這裏主要展示如何使用LVS(Linux Virtial Server)來實現實用的WWW負載平衡集群系統。   二、LVS簡介   LVS是章文嵩博士發起和領導的優秀的集群解決方案,許多商業的集群産品,比如RedHat的Piranha,TurboLinux公司的Turbo Cluster等,都是基于LVS的核心代碼的。在現實的應用中,LVS得到了大量的部署,請參考http: //www.linuxvirtualserver.org/deployment.html   關于Linux LVS的工作原理和更詳細的信息,請參考http://www.linuxvirtualserver.org。   三、LVS配置實例   通過Linux LVS,實現WWW,Telnet服務的負載平衡。這裏實現Telnet集群服務僅爲了測試上的方便。   LVS有三種負載平衡方式,NAT(Network Address Translation),DR(Direct Routing),IP Tunneling。其中,最爲常用的是DR方式,因此這裏只說明DR(Direct Routing)方式的LVS負載平衡。   1、網絡拓撲結構。      如圖1所示,爲測試方便,4台機器處于同一網段內,通過一交換機或者集線器相連。實際的應用中,最好能夠將虛擬服務器vs1和真實服務器rs1, rs2置于于不同的網段上,即提高了性能,也加強了整個集群系統的安全性。   2、服務器的軟硬件配置   首先說明,雖然本文的測試環境中用的是3台相同配置的服務器,但LVS並不要求集群中的服務器規格劃一,相反,可以根據服務器的不同配置和負載情況,調整負載分配策略,充分利用集群環境中的每一台服務器。   這3台服務器中,vs1作爲虛擬服務器(即負載平衡服務器),負責將用戶的訪問請求轉發到集群內部的rs1,rs2,然後由rs1,rs2分別處理。   client爲客戶端測試機器,可以爲任意操作系統。   4台服務器的操作系統和網絡配置分別爲:   vs1: RedHat 6.2, Kernel 2.2.19   vs1: eth0 192.168.0.1   vs1: eth0:101 192.168.0.101   rs1: RedHat 6.2, Kernel 2.2.14   rs1: eth0 192.168.0.3   rs1: dummy0 192.168.0.101   rs2: RedHat 6.2, Kernel 2.2.14   rs2: eth0 192.168.0.4   rs2: dummy0 192.168.0.101   client: Windows 2000   client: eth0 192.168.0.200   其中,192.168.0.101是允許用戶訪問的IP。   虛擬服務器的集群配置   大部分的集群配置工作都在虛擬服務器vs1上面,需要下面的幾個步驟:   重新編譯內核。   首先,下載最新的Linux內核,版本號爲2.2.19,下載地址爲:http://www.kernel.org/,解壓縮後置于/usr/src/linux目錄下。   其次需要下載LVS的內核補丁,地址爲:http://www.linuxvirtualserver.org/software/ipvs- 1.0.6-2.2.19.tar.gz。這裏注意,如果你用的Linux內核不是2.2.19版本的,請下載相應版本的LVS內核補丁。將ipvs- 1.0.6-2.2.19.tar.gz解壓縮後置于/usr/src/linux目錄下。   然後,對內核打補丁,如下操作:   [root@vs2 /root]# cd /usr/src/linux   [root@vs2 linux]# patch -p1 < ipvs-1.0.6-2.2.19/ipvs-1.0.6-2.2.19.patch   下面就是重新配置和編譯Linux的內核。特別注意以下選項:   1 Code maturity level options--->   *   [*]Prompt for development and/or incomplete code/drivers   2 Networking部分:   [*] Kernel/User netlink socket   [*] Routing messages   <*> Netlink device emulation   *   [*] Network firewalls   [*] Socket Filtering   <*> Unix domain sockets   *   [*] TCP/IP networking   [*] IP: multicasting   [*] IP: advanced router   [ ] IP: policy routing   [ ] IP: equal cost multipath   [ ] IP: use TOS value as routing key   [ ] IP: verbose route monitoring   [ ] IP: large routing tables   [ ] IP: kernel level autoconfiguration   *   [*] IP: firewalling   [ ] IP: firewall packet netlink device   *   [*] IP: transparent proxy support   *   [*] IP: masquerading   --- Protocol-specific masquerading support will be built as modules.   *   [*] IP: ICMP masquerading   --- Protocol-specific masquerading support will be built as modules.   *   [*] IP: masquerading special modules support   *   IP: ipautofw masq support (EXPERIMENTAL)(NEW)   *   IP: ipportfw masq support (EXPERIMENTAL)(NEW)   *   IP: ip fwmark masq-forwarding support (EXPERIMENTAL)(NEW)   *   [*] IP: masquerading virtual server support (EXPERIMENTAL)(NEW)   [*]   IP Virtual Server debugging (NEW)   <--最好選擇此項,以便觀察LVS的調試信息   *   (12) IP masquerading VS table size (the Nth power of 2) (NEW)   *   IPVS: round-robin scheduling (NEW)   *   IPVS: weighted round-robin scheduling (NEW)   *   IPVS: least-connection scheduling (NEW)   *   IPVS: weighted least-connection scheduling (NEW)   *   IPVS: locality-based least-connection scheduling (NEW)   *   IPVS: locality-based least-connection with replication scheduling (NEW)   *   [*] IP: optimize as router not host   *   IP: tunneling   IP: GRE tunnels over IP   [*] IP: broadcast GRE over IP   [*] IP: multicast routing   [*] IP: PIM-SM version 1 support   [*] IP: PIM-SM version 2 support   *   [*] IP: aliasing support   [ ] IP: ARP daemon support (EXPERIMENTAL)   *   [*] IP: TCP syncookie support (not enabled per default)   --- (it is safe to leave these untouched)   < > IP: Reverse ARP   [*] IP: Allow large windows (not recommended if <16Mb of memory)   < > The IPv6 protocol (EXPERIMENTAL)   上面,帶*號的爲必選項。   然後就是常規的編譯內核過程,不再贅述,請參考編譯 Linux 教程   在這裏要注意一點:如果你使用的是RedHat自帶的內核或者從RedHat下載的內核版本,已經預先打好了LVS的補丁。這可以通過查看/usr/src/linux/net/目錄下有沒有幾個ipvs開頭的文件來判斷:如果有,則說明已經打過補丁。   編寫LVS配置文件,實例中的配置文件如下:   #lvs_dr.conf (C) Joseph Mack mack@ncifcrf.gov   LVS_TYPE=VS_DR   INITIAL_STATE=on   VIP=eth0:101 192.168.0.101 255.255.255.0 192.168.0.0   DIRECTOR_INSIDEIP=eth0 192.168.0.1 192.168.0.0 255.255.255.0 192.168.0.255   SERVICE=t telnet rr rs1:telnet rs2:telnet   SERVICE=t www rr rs1:www rs2:www   SERVER_VIP_DEVICE=dummy0   SERVER_NET_DEVICE=eth0   #----------end lvs_dr.conf------------------------------------   將該文件置于/etc/lvs目錄下。   使用LVS的配置腳本産生lvs.conf文件。該配置腳本可以從http: //www.linuxvirtualserver.org/Joseph.Mack/configure-lvs_0.8.tar.gz 單獨下載,在ipvs-1.0.6-2.2.19.tar.gz包中也有包含。   腳本configure的使用方法:   [root@vs2 lvs]# configure lvs.conf   這樣會産生幾個配置文件,這裏我們只使用其中的rc.lvs_dr文件。   修改/etc/rc.d/init.d/rc.local,增加如下幾行:   echo 1 > /proc/sys/net/ipv4/ip_forward   echo 1 > /proc/sys/net/ipv4/ip_always_defrag   # 顯示最多調試信息   echo 10 > /proc/sys/net/ipv4/vs/debug_level   配置NFS服務。這一步僅僅是爲了方便管理,不是必須的步驟。   假設配置文件lvs.conf文件放在/etc/lvs目錄下,則/etc/exports文件的內容爲:   /etc/lvs ro(rs1,rs2)   然後使用exportfs命令輸出這個目錄:   [root@vs2 lvs]# exportfs   如果遇到什麽麻煩,可以嘗試:   [root@vs2 lvs]# /etc/rc.d/init.d/nfs restart   [root@vs2 lvs]# exportfs   這樣,各個real server可以通過NFS獲得rc.lvs_dr文件,方便了集群的配置:你每次修改lvs.conf中的配置選項,都可以即可反映在rs1,rs2的相應目錄裏。   修改/etc/syslogd.conf,增加如下一行: kern.*   /var/log/kernel_log   這樣,LVS的一些調試信息就會寫入/var/log/kernel_log文件中.   real server的配置   real server的配置相對簡單,主要是是以下幾點:   配置telnet和WWW服務。telnet服務沒有需要特別注意的事項,但是對于www服務,需要修改httpd.conf文件,使得apache在虛擬服務器的ip地址上監聽,如下所示:   Listen 192.168.0.101:80   關閉real server上dummy0的arp請求響應能力。這是必須的,具體原因請參見ARP problem in LVS/TUN and LVS/DR(http://www.linuxvirtualserver.org/arp.html)。關閉dummy0的arp響應的方式有多種,比較簡單地方法是,修改/etc/rc.d/rc.local文件,增加如下幾行: echo 1 > /proc/sys/net/ipv4/conf/all/hidden   ifconfig dummy0 up   ifconfig dummy0 192.168.0.101 netmask 255.255.255.0 broadcast 192.168.0.0 up   echo 1 > /proc/sys/net/ipv4/conf/dummy0/hidden   再次修改/etc/rc.d/rc.local,增加如下一行:(可以和步驟2合並)   echo 1 > /proc/sys/net/ipv4/ip_forward   四、LVS的測試   好了,經過了上面的配置步驟,現在可以測試LVS了,步驟如下:   分別在vs1,rs1,rs2上運行/etc/lvs/rc.lvs_dr。注意,rs1,rs2上面的/etc/lvs目錄是vs2輸出的。如果您的 NFS配置沒有成功,也可以把vs1上的/etc/lvs/rc.lvs_dr複制到rs1,rs2上,然後分別運行。   確保rs1,rs2上面的apache已經啓動並且允許telnet。   然後從client運行telnet 192.168.0.101,如果登錄後看到如下輸出就說明集群已經開始工作了:(假設以guest用戶身份登錄)   [guest@rs1 guest]$-----------說明已經登錄到服務器rs1上。   再開啓一個telnet窗口,登錄後會發現系統提示變爲:   [guest@rs2 guest]$-----------說明已經登錄到服務器rs2上。   然後在vs2上運行如下命令:   [root@vs2 /root]ipvsadm   運行結果應該爲:   IP Virtual Server version 1.0.6 (size=4096)   Prot LocalAddress:Port Scheduler Flags   -> RemoteAddress:Port Forward Weight ActiveConn InActConn   TCP   192.168.0.101:telnet rr   -> rs2:telnet Route   1   1   0   -> rs1:telnet Route   1   1   0   TCP   192.168.0.101:www rr   -> rs2:wwwRoute   1   0   0   -> rs1:wwwRoute   1   0   0   至此已經驗證telnet的LVS正常。   然後測試一下WWW是否正常:用你的浏覽器查看http://192.168.0.101/是否有什麽變化?爲了更明確的區別響應來自那個real server,可以在rs1,rs2上面分別放置如下的測試頁面(test.html):   我是real server #1 or #2   然後刷新幾次頁面(http://192.168.0.101/test.html),如果你看到“我是real server #1”和“我是real server #2”交替出現,說明www的LVS系統已經正常工作了。   但是由于Internet Explore 或者Netscape本身的緩存機制,你也許總是只能看到其中的一個。不過通過ipvsadm還是可以看出,頁面請求已經分配到兩個real server上了,如下所示:   IP Virtual Server version 1.0.6 (size=4096)   Prot LocalAddress:Port Scheduler Flags   -> RemoteAddress:Port Forward Weight ActiveConn InActConn   TCP   192.168.0.101:telnet rr   -> rs2:telnet Route   1   0   0   -> rs1:telnet Route   1   0   0   TCP   192.168.0.101:www rr   -> rs2:wwwRoute   1   0   5   -> rs1:wwwRoute   1   0   4   或者,可以采用linux的lynx作爲測試客戶端,效果更好一些。如下運行命令:   [root@client /root]while true; do lynx -dump http://10.64.1.56/test.html; sleep 1; done   這樣,每隔1秒鍾“我是realserver #1”和“我是realserver #2”就交替出現一次,清楚地表明響應分別來自兩個不同的real server。   五調試技巧   如果您的運氣不好,在配置LVS的過程中也許會遇到一些困難,下面的技巧或許有幫助:   首先確定網絡硬件沒有問題,尤其是網線,ping工具就足夠了。   使用netstat查看端口的活動情況。   使用tcpdump查看數據包的流動情況。   查看/var/log/kernel_log文件。
󰈣󰈤
王朝萬家燈火計劃
期待原創作者加盟
 
 
 
>>返回首頁<<
 
 
 
 
 熱帖排行
 
 
 
靜靜地坐在廢墟上,四周的荒凉一望無際,忽然覺得,淒涼也很美
© 2005- 王朝網路 版權所有