Linux:笔者使用的是RedHat Linux AS3。请使用AS2.1以上版本的linux。因为AS2.1以下的版本假如要
支持RAC需要进行很多额外的配置,比如watchdog之类的,到了AS2.1以后缺省都不使用了,而是使用hangcheck,假如要使用watchdog,需要进行很多不必要的配置。安装介质可以是光盘,也可以是ISO文件。笔者使用的是ISO文件。
Oracle:笔者使用的是oracle 9204 for linux,可以直接从oracle的官方网站上下载。笔者是从oracle官方网站上下载下来的三个压缩包。 ;主要的预备工作就是这些,当然安装过程中可能还会需要其他的一些软件,比如plainmaker等。在需要的时候,笔者也会说明如何使用这些软件的。 3.安装虚拟节点 ;3.1 创建虚拟节点 ;VMware安装好以后,进入主界面,我们就可以创建两个虚拟节点。点击File->New Virtual Machine…,在打开的窗口中,在选择所安装的操作系统时,我们选择RedHat Enterprise Linux 3,其他都选择缺省值,点击next,一直到让你输入disk size时,缺省事4G,我们改成8G,最后点击finish。这样就创建好了一个虚拟节点,取名为linux1。同样的方法,我们创建第二个虚拟节点,取名为linux2。 ;3.2安装linux ;创建完两个虚拟节点以后,我们要开始安装linux了。在窗口的左边的Inventory框里,右键节点linux1,选择virtual machine settings…,在弹出的框中,我们选中CD-ROM,然后选择Use ISO Image,并输入相应的linux安装介质的第一个ISO文件的位置,如下图所示。选择ok以后,点击Power->Power On,相当于为节点
;
;4.3 配置共享磁盘 ;把共享存储添加到两个节点以后,还不算完,必须修改两个虚拟机的配置文件。在每个节点所在目录下都存在一个后缀名为vmx的文件,这就是虚拟机的配置文件了,用notepad打开,把下面三行记录添加进去。注重,这三行中的每一行都不能重复,所以仔细检查一下vmx文件,确保这三行记录唯一。每个节点的配置文件都必须添加这三行记录。 ;disk.locking = FALSE
scsi1.sharedBus = "virtual"
scsi1:0.mode = "persistent" ;到这里,我们才算是为两个节点都配置好了共享存储。分别启动两个linux节点以后,进入linux,我们可以使用如下命令来确定两个节点是否都能够找到该存储了。假如提示出有设备,则表示能够识别共享存储。fdisk –l /dev/sdb ;5.设置两个节点的互相信任机制 ;由于RAC的节点之间需要完全无障碍的访问,因此需要设定主机名互相访问以及互相信任机制。注重:以下所有步骤都必须在两台节点上各自完成。 ;5.1 设置主机名 ;首先,RAC之间互相不能通过ip来访问,而必须使用主机名来访问,因此需要设定hosts内容。笔者设定的是节点linux1的内部访问主机名为linux1-prv,而外部访问节点名为linux1;节点linux2的内部访问主机名为linux2-prv,而外部访问节点名为linux2。需要将这些信息添加到/etc/hosts文件里去,如下所示。注重,要将127.0.0.1原来所对应的linux1改名为localhost。 ;# Do not remove the following line, or various programs
;# that require network functionality will fail.
127.0.0.1localhostlocalhost.localdomainlocalhost
134.251.114.140 linux1
134.251.114.141 linux2
134.251.0.140linux1-prv
134.251.0.141linux2-prv ;同样的,修改linux2的/etc/hosts文件,也要将127.0.0.1原来所对应的linux2改名为localhost。其他设置与linux1节点一样。设置好以后,在linux1上ping linux2,在linux2上也ping linux1,假如都通的话,说明设置无误。 ;5.2 设置telnet访问 ;(1)通常缺省都会安装telnet-client。主要确定是否安装了telnet-server软件。 [root@linux1 root]# rpm –qa grep telnet ;(2)假如没有安装,则从AS3安装介质上找到该rpm包,并进行安装。 ;(3)安装好以后,需要启动telnet服务。输入以下命令,并从弹出的框中选中telnet后确认。 [root@linux1 root]# ntsysv ;(4)激活telnet服务 [root@linux1 root]# service xinetd restart ;(5)设置答应root进行telnet登录 [root @linux1 /root]# vi /etc/pam.d/login ;将authrequiredpam_securetty.so这一行开头添加#,从而注释该行。 ;5.3 设置rlogin、rsh ;由于在第一个节点上安装oracle软件时,oracle会自动将第一个节点上安装完毕的文件拷贝到第二个节点上,因此需要配置rlogin和rsh以及rcp等。 ;(1)确定是否安装了rsh-server软件。 [root@linux1 root]# rpm –qa grep rsh ;(2)假如没有安装,则从AS3安装介质上找到该rpm包,并进行安装。 ;(3)安装好以后,需要启动rsh、rlogin、rexec服务。输入以下命令,并从弹出的框中选中rsh、rlogin、rexec后确认。 [root@linux1 root]# ntsysv ;(4)激活rsh、rlongin服务 [root@linux1 root]# service xinetd restart ;(5)修改/etc/securetty [root@linux1 root]# echo "rexec" >> /etc/securetty;echo "rlogin" >> /etc/securetty;echo "rsh" >> /etc/securetty ;(6)设置答应root进行rsh、rlogin [root @linux1 /root]# vi /etc/pam.d/rlogin ;将authrequiredpam_securetty.so这一行开头添加#,从而注释该行。 ;(7)在/etc目录下建立hosts.equiv文件,表示两台linux节点互相信任。 [root @linux1 /root]# vi /etc/hosts.equiv ;在该文件里添加如下内容: ;linux1
;linux2
linux1-prv
linux2-prv ;(8)在root的$HOME目录下,建立.rhosts文件。 [root @linux1 /root]# vi .rhosts ;在该文件里添加如下内容。这样,root用户就可以直接rlogin、rsh而不用输入密码。 ;linux1 root
linux2 root
linux1-prv root
linux2-prv root ;(9)配置完以后,我们可以测试一下是否成功。 [root @linux1 /root]# rlogin linux2 [root @linux1 /root]# rsh –l root linux2 cat /etc/hosts [root @linux1 /root]# rcp /tmp/testlinux2:/tmp 6.修改linux内核参数以及其他相应配置 [root @linux1 /root]# vi /etc/sysctl.conf ;在该文件末尾添加如下内容:
kernel.shmmax = 2147483648
kernel.shmmni = 4096
kernel.shmall = 2097152
kernel.sem = 250 32000 100 128
fs.file-max = 65536
这里,对每个参数值做个简要的解释和说明。 ;(1)shmmax:该参数定义了共享内存段的最大尺寸(以字节为单位)。缺省为32M,对于oracle来说,该缺省值太低了,通常将其设置为2G。
(2)shmmni:这个内核参数用于设置系统范围内共享内存段的最大数量。该参数的默认值是 4096 。通常不需要更改。
(3)shmall:该参数表示系统一次可以使用的共享内存总量(以页为单位)。缺省值就是2097152,通常不需要修改。
(4)sem:该参数表示设置的信号量。
(5)file-max:该参数表示文件句柄的最大数量。文件句柄设置表示在linux系统中可以打开的文件数量。 ;修改好内核以后,执行下面的命令使新的配置生效。 [root @linux1 /root]# /sbin/sysctl -p ;通常,出于性能上的考虑,还需要进行如下的设定,以便改进Oracle用户的有关 nofile(可打开的文件描述符的最大数)和nproc(单个用户可用的最大进程数量)。方法如下: [root @linux1 /root]# vi /etc/security/limits.conf ;在该文件里添加如下内容: ;oracle soft nofile 65536
;oracle hard nofile 65536
oracle soft nproc 16384
oracle hard nproc 16384 7.配置 hangcheck-timer 内核模块 ;Oracle9202以前,都是使用watchdog来检查系统是否挂起。从9202以后,oracle使用hangcheck-timer模块。hangcheck-timer模块被加载到内核中,能够定时检查系统是否挂起。有个可配置的参数用来表示多少时间以后系统没响应就认为是挂起。该模块在AS3中是自带的。 ;使用如下命令检查该模块是否存在: [root @linux1 /root]# find /lib/modules -name "hangcheck-timer.o" ;使用相应的参数加载该模块: [root @linux1 /root]# /sbin/insmod hangcheck-timer hangcheck_tick=30 hangcheck_margin=180 ;这里解释一下两个参数的含义: ;hangcheck_tick:该参数定义了模块启动的间隔时段。其默认值为 60 秒。 Oracle建议将其设置为 30 秒。
hangcheck_margin:该参数定义了多少时间以后系统没响应就认为是挂起。以秒为单位。其默认值为 180秒。Oracle 建议将其设置为 180 秒。 ;检查该模块是否被成功加载: [root @linux1 /root]# grep Hangcheck /var/log/messages ;为了在linux重启以后,自动加载该模块,可以将加载模块的命令添加到/etc/modules.conf中 [root @linux1 /root]# echo "options hangcheck-timer hangcheck_tick=30 hangcheck_margin=180" >> /etc/modules.conf 8.创建oracle用户和dba组 [root @linux1 /root]# groupadd dba [root @linux1 /root]# useradd –g dba oracle [root @linux1 /root]# passwd oracle ;创建安装oracle所需要的目录。 [root @linux1 /root]# mkdir –p /oracle/ora9/prodUCt/9.2 [root @linux1 /root]# chown –R oracle.dba /oracle/ora9 ;;为oracle用户配置.bashrc文件。 [root @linux1 /root]# su – oracle [oracle@linux1 oracle]$ vi .bashrc ;将以下内容添加到.bashrc文件里。 eXPort LD_ASSUME_KERNEL=2.4.1 export ORACLE_BASE=/oracle/ora9 export ORACLE_HOME=/oracle/ora9/product/9.2 export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/Apache/Apache/bin:$PATH export ORACLE_OWNER=oracle export ORACLE_SID=rac9i1 export ORACLE_TERM=vt100 export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib: /usr/local/lib:$LD_LIBRARY_PATH ;以上步骤必须在两个节点上分别完成。 ;注重: 红色部分,在节点linux1上ORACLE_SID=rac9i1,而在节点linux2上则为ORACLE_SID=rac9i2。而蓝色部分,很多资料上只是说LD_LIBRARY_PATH=$ORACLE_HOME/lib即可。但是经过笔者测试,只写这些是不够的,在下面srvconfig –init时会报错。必须按照上面蓝色部分的内容进行配置。 ;9.为共享设备划分裸设备 ;通常,对于RAC,我们都会使用裸设备来存放数据文件等需要共享的数据库文件。这就需要我们对共享存储划分出若干的裸设备,每个裸设备对应一个文件。 ;9.1 磁盘分区 ;我们要对共享存储进行分区,该步骤只需要在其中一个节点上完成即可。笔者划分了3个主分区(primary)和一个包含11个分区的扩展分区(extend)。注重,linux上最多只能划分15个分区。超过的部分,linux是无法识别的。对每个分区的规划如下所示: ;分区名尺寸存放的文件
;/dev/sdb110M用于存放Cluster Manager Quorum文件
/dev/sdb2350M回滚段表空间1:Undotbs1
/dev/sdb3350M回滚段表空间1:Undotbs2
/dev/sdb5500M系统表空间:system
/dev/sdb610MSpfile
/dev/sdb7300M临时表空间:temp
/dev/sdb8300M用户表空间:user和indx,也可以不设置该分区
/dev/sdb910M控制文件:control file
/dev/sdb1010M控制文件:control file
/dev/sdb1120M第一个节点的第一组联机日志文件
/dev/sdb1220M第一个节点的第二组联机日志文件
/dev/sdb1320M第二个节点的第一组联机日志文件
/dev/sdb1420M第二个节点的第二组联机日志文件
/dev/sdb15100MSrvconfig模块所需要的Shared Configuration文件 ;规划好以后,我们可以开始实际创建这些分区了。进入linux,执行如下命令进入分区界面。 [root @linux1 /root]# fdisk /dev/sdb ;首先输入n,然后输入p,再输入1,回车接受缺省值,再输入+10M,这样我们就创建了/dev/sdb1。同样的方法,我们可以创建sdb2和sdb3。再次输入n,然后输入e,回车接受缺省值,再回车接受缺省值,这样,我们就创建了扩展分区sdb4,同时把剩下的空间全都给了sdb4。接下来,我们输入n,然后回车接受缺省值,再输入+500M,这样,我们就创建了sdb5。同样的方法,我们可以把剩下的所有分区都创建出来。 ;创建完毕以后,输入p,显示我们刚才所创建的所有分区,确认无误以后,输入w,从而保存我们所创建的分区,并更新分区表。 ;9.2 挂载裸设备 ;该步骤需要在两个节点分别进行。对裸设备的规划如下: ;裸设备文件名挂载的分区存放的文件
/dev/raw/raw1/dev/sdb1Cluster Manager Quorum
/dev/raw/raw2/dev/sdb2Undotbs1
/dev/raw/raw3/dev/sdb3Undotbs2
/dev/raw/raw4/dev/sdb5system
/dev/raw/raw5/dev/sdb6Spfile
/dev/raw/raw6/dev/sdb7temp
/dev/raw/raw7/dev/sdb8user和indx
/dev/raw/raw8/dev/sdb9control file
/dev/raw/raw9/dev/sdb10control file
/dev/raw/raw10/dev/sdb11Log1-thread1
/dev/raw/raw11/dev/sdb12Log2-thread1
/dev/raw/raw12/dev/sdb13Log3-thread2
/dev/raw/raw13/dev/sdb14Log4-thread2
/dev/raw/raw14/dev/sdb15Shared Configuration ;确定了裸设备的规划以后,将以下内容添加到/etc/rc.local文件。
raw /dev/raw/raw1 /dev/sdb1# Cluster Manager Quorum
raw /dev/raw/raw2 /dev/sdb2#undotbs1
raw /dev/raw/raw3 /dev/sdb3#undotbs2
raw /dev/raw/raw4 /dev/sdb5#sys01
raw /dev/raw/raw5 /dev/sdb6#spfile
raw /dev/raw/raw6 /dev/sdb7#temp01
raw /dev/raw/raw7 /dev/sdb8#user01&indx01
raw /dev/raw/raw8 /dev/sdb9#ctl1
;raw /dev/raw/raw9 /dev/sdb10#ctl2
raw /dev/raw/raw10 /dev/sdb11#log1-thread1
raw /dev/raw/raw11 /dev/sdb12#log2-thread1
raw /dev/raw/raw12 /dev/sdb13#log3-thread2
raw /dev/raw/raw13 /dev/sdb14#log4-thread2
raw /dev/raw/raw14 /dev/sdb15#share configuration file ;检查无误后,修改/dev/raw1、/dev/raw/raw2一直到/dev/raw/raw15这15个裸设备文件的宿主为oracle。 [root @linux1 /root]# chown oracle.dba /dev/raw/raw1 [root @linux1 /root]# chown oracle.dba /dev/raw/raw2 。。。。。。。 [root @linux1 /root]# chown oracle.dba /dev/raw/raw15 ;分别重新启动两个节点。启动完毕以后,运行如下命令确定裸设备的配置情况。 [root @linux1 /root]# raw -aq ;10.检查安装oracle所需要的linux模块以及补丁 ;在两个节点上分别确定以下这些rpm包是否都存在。 ;make-3.79
binutils-2.11
openmotif-2.2.2-16
setarch-1.3-1 compat-gcc-c++-7.3-2.96.122
compat-libstdc++-7.3-2.96.122
compat-gcc-7.3-2.96.122
compat-db-4.0.14-5
compat-libstdc++-devel-7.3-2.96.122 ;假如没有,则从AS3的安装介质上找到这些包并加以安装。安装好上面这些模块以后,需要打补丁,补丁号为:3006854。可以到oracle官方网站下载该补丁,发送到两个节点上以后,执行:
[root @linux1 /root]# sh rhel3_pre_install.sh ;11.安装Oracle Cluster Manager ;11.1 生成OCM治理文件 ;该OCM治理文件必须位于共享存储上,按照我们的规划,应该放在/dev/raw/raw1上。该步骤只需要在其中一个节点上执行即可。 [root @linux1 /root]# su - oracle [oracle@linux1 oracle]$ dd if=/dev/zero of=/dev/raw/raw1 bs=1024 count=1024 ;11.2 安装OCM [oracle@linux1 oracle]$ su - root [root @linux1 /root]# mv /usr/bin/gcc /usr/bin/gcc323 [root @linux1 /root]# ln -s /usr/bin/gcc296 /usr/bin/gcc [root @linux1 /root]# mv /usr/bin/g++ /usr/bin/g++323 [root @linux1 /root]# ln -s /usr/bin/g++296 /usr/bin/g++ ;检验一下gcc和g++的版本。 [root@linux1 root]# gcc -v Reading specs from /usr/lib/gcc-lib/i386-redhat-linux7/2.96/specs gcc version 2.96 20000731 (Red Hat Linux 7.3 2.96-122) [root@linux1 root]# g++ -v Reading specs from /usr/lib/gcc-lib/i386-redhat-linux7/2.96/specs gcc version 2.96 20000731 (Red Hat Linux 7.3 2.96-122) ;将下载下来的oracle安装介质(笔者下载的是ship_9204_linux_disk1.cpio.gz、ship_9204_linux_disk2.cpio.gz和ship_9204_linux_disk3.cpio.gz)拷贝到其中一个节点上。可以通过FTP拷贝也可以通过samba服务来拷贝。笔者个人倾向samba,很方便。拷贝完毕以后,使用如下命令解压。 [root @linux1 /setup]# gunzip ship_9204_linux_disk1.cpio.gz [root @linux1 /setup]# gunzip ship_9204_linux_disk2.cpio.gz [root @linux1 /setup]# gunzip ship_9204_linux_disk3.cpio.gz [root @linux1 /setup]# cpio -idmv < ship_9204_linux_disk1.cpio [root @linux1 /setup]# rm –f ship_9204_linux_disk1.cpio [root @linux1 /setup]# cpio -idmv < ship_9204_linux_disk2.cpio [root @linux1 /setup]# rm –f ship_9204_linux_disk2.cpio [root @linux1 /setup]# cpio -idmv < ship_9204_linux_disk3.cpio [root @linux1 /setup]# rm –f ship_9204_linux_disk3.cpio ;解压完毕,在当前目录下有三个目录:Disk1、Disk2、Disk3。修改宿主信息。 [root @linux1 /setup]# chown –R oracle.dba Disk1 [root @linux1 /setup]# chown –R oracle.dba Disk2 [root @linux1 /setup]# chown –R oracle.dba Disk3 ;;设置xhost + [root @linux1 /setup]# xhost + ;开始安装OCM [root @linux1 /setup]# su - oracle [oracle@linux1 oracle]$ /oracle/setup/Disk1/runInstall.sh ;在界面上,选择安装oracle cluster manager。点击next,会要求你输入public node,这时你分两行输入linux1和linux2。点击next,会要求你输入private node,这时你分两行输入linux1-prv和linux2-prv。点击next,会要求输入Quorum文件,这时输入/dev/raw/raw1。点击next开始安装cluster manager软件。这个软件很小,安装很快就会结束。 ;11.3 配置OCM [oracle@linux1 oracle]$ cd $ORACLE_HOME/oracm/admin [oracle@linux1 admin]$ cp cmcfg.ora.tmp cmcfg.ora [oracle@linux1 admin]$ vi cmcfg.ora ;将该文件内容修改为如下内容: ;HeartBeat=15000
;ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=20
PrivateNodeNames=linux1-prv linux2-prv
PublicNodeNames=linux1 linux2
ServicePort=9998
HostName=linux1
CmDiskFile=/dev/raw/raw1 ;11.4 启动OCM [oracle@linux1 oracle]$ rm $ORACLE_HOME/oracm/log/*.ts [oracle@linux1 oracle]$ cd $ORACLE_HOME/oracm/bin [oracle@linux1 bin]$ ./ocmstart.sh [oracle@linux1 bin]$ ps –efgrep oracm ;;假如没有发现oracm进程,则检查$ORACLE_HOME/oracm/log/下的cm.log文件,查看错误消息。 ; ;12.安装Oracle软件 [oracle@linux1 oracle]$ /oracle/setup/Disk1/runInstall.sh ;安装过程比较简单,也没有出现任何错误。注重选择只安装oracle软件,不要安装数据库。 ;13.初始化Shared Configuration文件 ;Oracle软件安装完毕以后,开始设置Shared Configuration文件。 [oracle@linux1 oracle]$ su - root [root @linux1 /root]# mkdir -p /var/opt/oracle [root @linux1 /root]# touch /var/opt/oracle/srvConfig.loc [root @linux1 /root]# chown oracle:dba /var/opt/oracle/srvConfig.loc [root @linux1 /root]# chmod 755 /var/opt/oracle/srvConfig.loc ;在srvConfig.loc文件中添加Shared Configuration文件所在的路径。而笔者的Shared Configuration文件位于共享存储上,对应/dev/raw/raw14。 [root @linux1 /root]# echo “srvconfig_loc=/dev/raw/raw14” >> /var/opt/oracle/srvConfig.loc ;创建该Shared Configuration文件。 [root @linux1 /root]# su - oracle [oracle@linux1 oracle]$ dd if=/dev/zero of=/dev/raw/raw14 bs=1024 count=102400 ;;初始化该Shared Configuration文件 [oracle@linux1 oracle]$ srvconfig -init ;笔者一开始执行报错,结果把环境变量$LD_LIBRARY_PATH在.bashrc中设置为如下值后,再启动就不会报错了:$ORACLE_HOME/lib:/lib:/usr/lib:/usr/local/lib:$LD_LIBRARY_PATH。 ;14.创建数据库 ;使用dbca创建数据库还是很简单的。不过,笔者还是走了些弯路。主要是undotbs1不能太小,笔者一开始设置为240M,结果建库时总是报错。后来加大到350M后,成功建库。启动dbca前,要先在两个节点上分别启动gsd进程。 [oracle@linux1 oracle]$ $ORACLE_HOME/bin/gsdctl start ;然后启动dbca。 [oracle@linux1 oracle]$ dbca ;选择创建cluster database,点击next,把所有可以不选的组件都不选,点击next后,在初始化参数设置的地方,修改spfile的路径为:/dev/raw/raw5。然后点击next,直到最后界面,笔者把表空间indx、users、tools都删除了,为了建库干净。然后按照前面的规划,分别把裸设备文件名填写到对应的文件上去。注重,每个文件都不要设定autoextend on。最后选择生成脚本,点击finish。 ;当脚本生成完毕时,先别急着点ok。进入脚本所在目录,检查一下init.ora.xxxxxxxxxxxxx文件(这里xxxxxxxxxxxxx为随即序列号)。着重检查最后几行,不知为何,自动生成的init.ora文件会有点问题。比如,笔者这里生成的init.ora.7232006164055内容为: ;rac9i1.instance_name=rac9i
;rac9i2.instance_name=rac9i2
rac9i1.instance_number=1
rac9i2.instance_number=2
rac9i2.local_listener=LISTENER_RAC9I
rac9i1.local_listener=LISTENER_RAC9I1
rac9i2.thread=2
rac9i1.thread=1
rac9i2.undo_tablespace=UNDOTBS2
rac9i1.undo_tablespace=UNDOTBS1 ;笔者用红色标示出来的地方是有问题的,按照这样的初始化参数建立起来的RAC数据库,第二个节点没有办法通过负载均衡来访问。同时,最好把local_listener和remote_listener修改掉。最后修改后的这块内容为: ;rac9i1.instance_name=rac9i1
rac9i2.instance_name=rac9i2
rac9i1.instance_number=1
rac9i2.instance_number=2
rac9i2.local_listener='(address=(protocol=tcp)(host=linux2)(port=1521))'
rac9i2.remote_listener='(address=(protocol=tcp)(host=linux1)(port=1521))'
rac9i1.local_listener='(address=(protocol=tcp)(host=linux1)(port=1521))'
rac9i1.remote_listener='(address=(protocol=tcp)(host=linux2)(port=1521))'
rac9i2.thread=2
rac9i1.thread=1
rac9i2.undo_tablespace=UNDOTBS2
rac9i1.undo_tablespace=UNDOTBS1
修改完这些内容以后,回到原来的dbca界面,点击ok,就开始数据库的正式安装了。当然,也可以在dbca创建好数据库以后再修改这些内容也是可以的。创建完数据库以后,第二个节点的实例也会自动启动。这时,整个RAC数据库环境就已经搭建完毕了。 ;15.验证并测试RAC数据库 ;在服务器端,执行如下语句。观察是否有两个实例在运行。 SQL> select INSTANCE_NUMBER, STATUS,HOST_NAME from gv$instance; INSTANCE_NUMBER STATUSHOST_NAME --------------- ------------ ------------------ 1OPENlinux1 2OPENlinux2 ;15.1 测试负载均衡 ;在客户端上修改tnsnames.ora文件,添加如下内容:
rac =
(DESCRIPTION =
;(ADDRESS_LIST =
(ADDRESS = (PROTOCOL = TCP)(HOST = linux2)(PORT = 1521))
(ADDRESS = (PROTOCOL = TCP)(HOST = linux1)(PORT = 1521))
)
(CONNECT_DATA =
(service_name = rac9i)
(failover_mode=(type=select)(method=basic))
)
(LOAD_BALANCE=ON)
(FAILOVER=ON)
) ;然后,为了能识别主机名linux1和linux2,笔者还修改了C:WINDOWSsystem32driversetc目录下的hosts文件,添加如下内容: ;134.251.114.140linux1
134.251.114.141linux2 ;最后,在命令窗口执行tnsping rac来检验是否能够连通。检测无误以后,开始测试。分两种方法,第一种方法是开两个命令行窗口,在一个窗口中分别输入如下的命令,然后再在另外一个窗口也输入如下的命令。 D:>sqlplus /nolog SQL> connect sys/hanson@rac as sysdba SQL> select instance_name from v$instance; SQL> exit ;但是,从结果看起来,并没有实现负载均衡。两个窗口出现的都是rac9i1。而不是笔者想象中的一个窗口是rac9i1,另一个窗口是rac9i2。笔者又开了一个命令行窗口,再次重复执行上面的命令,仍然显示rac9i1。 ;换第二种测试方法,建立一个test.sql文件,内容如下: connect test/test@rac; select instance_name from v$instance; exit ;然后,打开一个命令行窗口,反复执行如下命令: D:>sqlplus /nolog @c:test.sql ;这时,显示出来的实例名确实是负载均衡了,rac9i1和rac9i2交替出现。笔者认为,这样的负载均衡意义似乎不是很大。 ;15.2 测试failover ;实现failover,需要在客户端的tnsnames.ora文件的CONNECT_DATA节点里添加如下行: ;(failover_mode=(type=select)(method=basic)) ;进入命令行窗口。 D:>sqlplus /nolog SQL> connect sys/hanson@rac as sysdba SQL> select instance_name from v$instance; INSTANCE_NAME --------------- rac9i1 ;这时,进入linux1节点,shutdown实例以后,再次回到上面的命令行窗口,再次执行如下语句: SQL> select instance_name from v$instance; INSTANCE_NAME --------------- rac9i2 ;;从结果可以看到,确实自动切换到了rac9i2实例上。说明failover起作用了。