用的着心跳线,1000M网卡和VERITAS吗?

王朝other·作者佚名  2008-05-19
窄屏简体版  字體: |||超大  

一、 现场条件

1、 硬件配置:

两台SUN F280R服务器(SPARC III+ 900MHz/8M Cache/2048M/2X36.4GHD)

一台SUN A1000磁盘阵列(SG-XARY171A-145G),总容量145G,出厂设好RAID5

我们的系统很大连了很多设备与终端

2、 软件版本:

Solaris 5.8

Oracle 8.1.7

oursoft V2.52.01c

3、 IP地址分配:

dbserver: 172.31.1.13 255.255.255.240

apserver: 172.31.1.14 255.255.255.240

MP1: 172.31.1.1

MP2: 172.31.1.9

MP3: 172.31.1.2

MP4: 172.31.1.10

Test IP: 172.31.1.201 (在客户端配两个IP地址用探针ProbeApp252.exe)

LMT IP: 172.31.1.221

Client PC: 172.31.1.12 255.255.255.240 + 172.31.1.201 255.255.255.0

4、 项目:OUR ITEM

OMCR(V2.0)系统分为三个功能模块,分别是应用服务器模块,数据库服务器模块和通讯服务器模块,在双机的情况下,上述三个模块可以相互组合,分别运行在两台服务器中,其中将数据库服务器模块独立出来,形成数据库/应用服务器组(通讯服务器与应用服务器合并)的架构,这种架构在实际运行过程中显得比较合理

两台服务器分别运行数据库分为模块和应用+通讯服务模块。磁盘阵列同时连接在两台服务器上,磁盘阵列不是必备的设备,但推荐使用。数据库服务器上必须安装ORACLE服务器软件,应用服务器中可以只安装ORACLE客户端(安装ORACLE服务器也是可以的);OMCR(V2.0)软件必须完整的安装在两台服务器上。如果配置了磁盘阵列,则OMCR的数据文件推荐安装在磁盘阵列上,否则需要安装在数据库服务器中。

上述结构可以实现双机运行的负荷分担,以及在一台服务器中OMCR进程全部异常时的进程迁移,但是在一台服务器完全宕机的情况下,迁移不能保证OMCR系统的正确运行。

根据印度SPICE项目的现场条件决定在两台服务器内置硬盘中做RAID1镜像,将RAID 5磁阵连数据服务器,并安装数据库实例omc于其中。

二、 先不连磁阵分别在应用服务器和数据服务器上安装Solaris 5.8

分区时只对c1t0d0一块硬盘进行分区,并将c1t0d0s7预留给metadb

选择custom自定义安装,并选中Solstice DiskSuite 4.2.1 (做RAID 1用)

Solaris装完后

#format时看到的两块内置硬盘:

Searching for disks...done

AVAILABLE DISK SELECTIONS:

0. c1t0d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107

/pci@8,600000/SUNW,qlc@4/fp@0,0/ssd@w21000004cffa0f5d,0

1. c1t1d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107

/pci@8,600000/SUNW,qlc@4/fp@0,0/ssd@w21000004cfc34a4a,0

format0

formatp

其中第一块硬盘c1t0d0分区表如下:

partitionp

Part Tag Flag Cylinders Size Blocks

0 root wm 0 - 1088 1.50GB (1089/0/0) 3146121

1 swap wu 1089 - 3992 4.00GB (2904/0/0) 8389656

2 backup wm 0 - 24619 33.92GB (24620/0/0) 71127180

3 var wm 3993 - 4355 512.06MB (363/0/0) 1048707

4 usr wm 4356 - 6533 3.00GB (2178/0/0) 6292242

5 unassigned wm 6534 - 8711 3.00GB (2178/0/0) 6292242

6 home wm 8712 - 22181 18.56GB (13470/0/0) 38914830

7 unassigned wm 0 0 (0/0/0) 0

安装完后再给Solaris打补丁

三、 做内置硬盘的镜像RAID 1

1、格式化c1t0d0s7分区

#format

选c1t0d0

查看分区表(结果就是上面列出来的表)

formatp

选预留的c1t0d0s7

partition7

Enter partition id tag[unassigned]:

Enter partition permission flags[wm]:

开始柱面紧接c1t0d0s6后下一柱面

start cyl 22182

大小用总数24619减c1t0d0s6最后一个柱面

size 2438c

标识并命名(要用“ ”号括起来)

partitionlabel

partitionname

partitionq

分区表存盘退出

formatsave

formatq

2、按c1t0d0同样的分区表对另一块硬盘c1t1d0进行分区

#prtvtoc /dev/rdsk/c1t0d0s2 | fmthard -s - /dev/rdsk/c1t1d0s2

3、在两块硬盘的最后分区中各建4个镜像库

#metadb -af -c 4 c1t0d0s7

#metadb -af -c 4 c1t1d0s7

建完后可以查看

# metadb

flags first blk block count

a u 16 1034 /dev/dsk/c1t0d0s7

a u 1050 1034 /dev/dsk/c1t0d0s7

a u 2084 1034 /dev/dsk/c1t0d0s7

a u 3118 1034 /dev/dsk/c1t0d0s7

a u 16 1034 /dev/dsk/c1t1d0s7

a u 1050 1034 /dev/dsk/c1t1d0s7

a u 2084 1034 /dev/dsk/c1t1d0s7

a u 3118 1034 /dev/dsk/c1t1d0s7

4、做镜像分区

#metainit -f d51 1 1 c1t0d0s0

#metainit d52 1 1 c1t1d0s0

#metainit d1 -m d51

#metainit -f d53 1 1 c1t0d0s1

#metainit d54 1 1 c1t1d0s1

#metainit d2 -m d53

#metainit -f d55 1 1 c1t0d0s3

#metainit d56 1 1 c1t1d0s3

#metainit d3 -m d55

#metainit -f d57 1 1 c1t0d0s4

#metainit d58 1 1 c1t1d0s4

#metainit d4 -m d57

#metainit -f d59 1 1 c1t0d0s5

#metainit d60 1 1 c1t1d0s5

#metainit d5 -m d59

#metainit -f d61 1 1 c1t0d0s6

#metainit d62 1 1 c1t1d0s6

#metainit d1 -m d51

5、定义启动引导分区

#metaroot d1

6、改文件/etc/vfstab内容为:

#/dev/dsk/c1d0s2 /dev/rdsk/c1d0s2 /usr ufs 1 yes -

fd - /dev/fd fd - no -

/proc - /proc proc - no -

/dev/md/dsk/d2 - - swap - no -

/dev/md/dsk/d1 /dev/md/rdsk/d1 / ufs 1 yes -

/dev/md/dsk/d4 /dev/md/rdsk/d4 /usr ufs 1 yes -

/dev/md/dsk/d3 /dev/md/rdsk/d3 /var ufs 1 yes -

/dev/md/dsk/d6 /dev/md/rdsk/d6 /export/home ufs 2 yes -

/dev/md/dsk/d5 /dev/md/rdsk/d5 /opt ufs 2 yes -

swap - /tmp tmpfs - yes -

lock所有已mounted的UFS文件系统

#lockfs -fa

7、关机重启

#sync

#shutdown -g0 -y -i6

然后会看到类似:

forceload of misc/md_trans failed

forceload of misc/md_raid failed

forceload of misc/md_hotspares failed

的提示信息(执行/etc/profile时产生),这是正常的,因为现在还不需要这些模块。

8、连接mirror分区到第二块硬盘

#metattach d1 d52

#metattach d2 d54

#metattach d3 d56

#metattach d4 d58

#metattach d5 d60

#metattach d6 d62

9、查看镜像情况

#metastat

这时mirror会自动同步,能观察到硬盘读写频繁,此时若执行操作机器反应速度会变慢,是正常的,最后d6同步完100%结束。

四、 安装StorEdge Raid Manager 6.22

在服务器上可用#admintool 或#/usr/sbin/swmtool图形化安装

在TELNET终端上可用

#/usr/sbin/pkgadd ?d /cdrom/raid_manager_6_22/Product安装

完成安装下次启动后生效

#sync

#shutdown ?g0 ?y ?i5

五、 安装外置磁阵

先对照随机资料检查磁阵,主要是看SCSI号的设置,有的型号是用DIP开关,对照文档确认左边和右边的硬盘没有冲突(除了磁阵的安装手册外还另有几页纸注明安装手册第X页的第X张表需要更正),印度现场磁阵箱的背面有Scroll式switch(SCSI ID=4),只有两个SCSI口。

如果需要安装SCSI卡或网卡,就先关机插上SCSI卡和网卡。

如是SUN的卡,Solaris应可自动识别,其它的卡随机会有驱动程序和手册。

在断电情况下连磁阵背面SCSI口到一台服务器,另一个SCSI口接上TERMINAL终端电阻。

磁阵加电,服务器加电,开机时STOP+A,然后

ok probe-scsi-all

如果正确列出内置硬盘、磁阵(如磁阵已做好RAID 5,只能看到一个)、光驱就说明Solaris可正确识别。否则:

ok set-defaults (eeprom中所用参数用默认值)

ok setenv auto-boot? false (或#eeprom auto-boot?=false让机器启动时自动停在eeprom状态)

ok reset-all

如果还不行,就试着:

ok setenv scsi-initiator-id 6 (如需将磁阵连两台服务器,在连第二台服务时要修改此值)

再 ok probe-scsi-all

如果还不能正确列出Targets,最后只有换拔码了,总之probe正常, #format时才能看到,才可以使用。正常后:

ok boot ?r

启动时能看到Raid 的守护进程载入内存及Raid初始化的信息。

启动好后执行

#dmesg|more

可以看到以下字样:

Jun 1 13:23:13 dbserver scsi: [ID 365881 kern.info] <Symbios-StorEDGEA1000-0

301 cyl 52037 alt 2 hd 64 sec 64

运行Raid Manager 6.22

#/usr/lib/osa/bin/rm6

能识别出磁阵RAID的名称,识

 
 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
 
 
© 2005- 王朝網路 版權所有 導航