Instalação de Oracle RAC em Linux com VMware
Como usuário oracle:
Copiar 10201_clusterware_linux32.zip para o RAC1, descompactar.
Copiar 10201_database_linux32.zip para o RAC1, descompactar.
Verificar no /etc/hosts se a linha abaixo está ok, no RAC1:
127.0.0.1 rac1.localdomain rac1 localhost.localdomain localhost
Verificar no /etc/hosts se a linha abaixo está ok, no RAC2:
127.0.0.1 rac2.localdomain rac2 localhost.localdomain localhost
Instalar o cvuqdisk no RAC1, como root:
rpm -Uvh /home/oracle/clusterware/rpm/cvuqdisk-1.0.1-1.rpm
Copiar o rpm do cvuqdisk para o RAC2 e instalar, como root.
Verificar as opções do cluvfy, com o usuário oracle, no RAC1:
/home/oracle/clusterware/cluvfy/runcluvfy.sh stage -help
Validar sua instalação com o cluvfy, com o usuário oracle, no RAC1:
/home/oracle/clusterware/cluvfy/runcluvfy.sh stage -pre -crsinst -n rac1,rac2
Logar no ambiente gráfico do RAC1 com o usuário oracle:
export $ORACLE_HOME=$CRS_HOME
/home/oracle/clusterware/runInstaller.sh
Veja abaixo as telas a configuração do OCR, Voting Disk e Interfaces de Rede (a Pública e o Interconnect), direcionada apra os Raw Devices criados nos passos anteriores.
Quando o último check acusar problemas, configurar os VIPs com o VIPCA em outro terminal, dentro do mesmo ambiente gráfico, antes de prosseguir.
Após rodar o VIPCA, volte para a tela de instalação do Clusterware, clique em Retry.
Aí a instalação deve finalizar com sucesso !
[…] Parte I Parte II Parte III Parte IV Parte V Parte VI Parte VII Parte VIII […]
Caro Portilho,
na validação das configurações para instalação do RAC, ocorreu o seguinte erro:
[oracle@racno1 cluvfy]$ ./runcluvfy.sh stage -pre crsinst -n racno1,racno2 -verbose
Performing pre-checks for cluster services setup
Checking node reachability…
Check: Node reachability from node “racno1”
Destination Node Reachable?
———————————— ————————
racno1 yes
racno2 yes
Result: Node reachability check passed from node “racno1”.
Checking user equivalence…
Check: User equivalence for user “oracle”
Node Name Comment
———————————— ————————
racno2 failed
racno1 failed
Result: User equivalence check failed for user “oracle”.
ERROR:
User equivalence unavailable on all the nodes.
Verification cannot proceed.
Pre-check for cluster services setup was unsuccessful on all the nodes.
[oracle@racno1 cluvfy]$
Todos os passos que vc descreveu foram seguidos nos dois nós:
[oracle@racno1 cluvfy]$ id oracle
uid=500(oracle) gid=500(oinstall) groups=500(oinstall),501(dba),502(oper)
[oracle@racno1 cluvfy]$
[root@racno2 ~]# id oracle
uid=500(oracle) gid=500(oinstall) groups=500(oinstall),501(dba),502(oper)
[root@racno2 ~]#
Me ajude pois já deletei os usuários e recriei novamente mas o erro continua.
Atenciosamente,
Henry.
Oi Henry.
Várias coisas podem dar errado neste ponto.
O mais comum é que um nó não consiga acessar o outro nó sem senha (rlogin ou ssh).
Dê uma olhada no troubleshooting deste item do CLUVFY:
http://download-uk.oracle.com/docs/cd/B19306_01/install.102/b14205/crsunix.htm#sthref809
Ola Portilho,
seguinte, o problema continua na validaçao das contas de usuário. Na minha opnião acho era pra ser uma coisa simples já que só foi criada esta conta oracle e os grupos relacionados, mas memso assim não obtenho sucesso.
-Já havia olhado este doc de troubleshooting e efetuado as modificações do path do ssh e scp. Compactei novamente os diretorios . O processo do script runcluvfy.sh só foi mais rápido pois o caminho estava mesmo errado.
-As duas maquinas trocam arquivos com o ssh pois esta configurado inclusive com a key de autenticaçao.
[oracle@racno2 ~]$ ssh racno1 date
oracle@racno1’s password:
Tue Sep 1 13:33:30 BRT 2009
[oracle@racno2 ~]$
-Como disse anteriormente os usuarios e grupos foram recriadas.
[oracle@racno1 cluvfy]$ id oracle
uid=500(oracle) gid=500(oinstall) groups=500(oinstall),501(dba),502(oper)
[oracle@racno1 cluvfy]$
[root@racno2 ~]# id oracle
uid=500(oracle) gid=500(oinstall) groups=500(oinstall),501(dba),502(oper)
[root@racno2 ~]#
-O Ping em todos os hosts funcionam menos no virtual:
[oracle@racno2 ~]$ cat /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 racno2.certant.com.br racno2 localhost.localdomain localhost
# Public
192.168.153.81 racno1.certant.com.br racno1
192.168.153.82 racno2.certant.com.br racno2
# Private
192.168.154.82 racno2-priv.certant.com.br racno2-priv
192.168.154.81 racno1-priv.certant.com.br racno1-priv
# Virtual
192.168.153.182 racno2-vip.certant.com.br racno2-vip
192.168.153.181 racno1-vip.certant.com.br racno1-vip
[oracle@racno2 ~]$ ping racno1
PING racno1.certant.com.br (192.168.153.81) 56(84) bytes of data.
64 bytes from racno1.certant.com.br (192.168.153.81): icmp_seq=0 ttl=64 time=1708 ms
64 bytes from racno1.certant.com.br (192.168.153.81): icmp_seq=1 ttl=64 time=707 ms
— racno1.certant.com.br ping statistics —
3 packets transmitted, 2 received, 33% packet loss, time 2000ms
rtt min/avg/max/mdev = 707.944/1208.146/1708.349/500.203 ms, pipe 3
[oracle@racno2 ~]$ ping racno1-priv
PING racno1-priv.certant.com.br (192.168.154.81) 56(84) bytes of data.
64 bytes from racno1-priv.certant.com.br (192.168.154.81): icmp_seq=0 ttl=64 time=22.1 ms
64 bytes from racno1-priv.certant.com.br (192.168.154.81): icmp_seq=1 ttl=64 time=0.139 ms
— racno1-priv.certant.com.br ping statistics —
2 packets transmitted, 2 received, 0% packet loss, time 1000ms
rtt min/avg/max/mdev = 0.139/11.147/22.155/11.008 ms, pipe 2
[oracle@racno2 ~]$ ping racno1-vip
PING racno1-vip.certant.com.br (192.168.153.181) 56(84) bytes of data.
From racno2.certant.com.br (192.168.153.82) icmp_seq=0 Destination Host Unreachable
From racno2.certant.com.br (192.168.153.82) icmp_seq=1 Destination Host Unreachable
From racno2.certant.com.br (192.168.153.82) icmp_seq=2 Destination Host Unreachable
— racno1-vip.certant.com.br ping statistics —
4 packets transmitted, 0 received, +3 errors, 100% packet loss, time 3002ms
, pipe 4
[oracle@racno2 ~]$
No aguardo e agradeço a atençao,
Henry,
Eu também estava com este problema, garimpando no google descobri que a equivalência deve ser também no próprio nó, ou seja, você deve tentar executar o ssh para o mesmo servidor. Exemplo:
[oracle@rac1 ~]$ ssh rac1 date
The authenticity of host ‘rac1 (170.10.200.190)’ can’t be established.
RSA key fingerprint is 44:0b:82:6b:2f:6e:5b:17:d4:3a:8c:59:59:f9:9d:36.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added ‘rac1,170.10.200.190’ (RSA) to the list of known hosts.
Write failed: Broken pipe
[oracle@rac1 ~]$ ssh rac1 date
Ter Set 22 11:23:13 BRT 2009
Depois de fazer isso, a verificação de equivalência não deu mais problemas.
[…] Parte I Parte II Parte III Parte IV Parte V Parte VI Parte VII Parte VIII […]
[…] Parte I Parte II Parte III Parte IV Parte V Parte VI Parte VII Parte VIII […]
[…] Parte I Parte II Parte III Parte IV Parte V Parte VI Parte VII Parte VIII […]
Oi Anselmo !
ão era para isso acontecer, pois neste tutorial estamos utilizando rlogin r rsh, ao invés de ssh. Mas se funcionou, beleza !
Abraço !
Oi Ricardo Tudo bem
No meu caso apresentou a mesma mensagem.
No boot.local coloquei /etc/init.d/xinetd start , para que quando a maquina desse boot o serviço subisse de forma automática.
Não tive mais problemas para executar o runcluvfy.sh.
Obrigado
Atenciosamente
Anderson
Oi Anderson. Blz?
Na parte III eu altero os serviços que iniciam automaticamente. Não mexi no xinetd porque o default dele é ON para o 4.7.
Abraço !
Olá, gostaria de saber se vc já fez alguma instalação do Oracle ClusterWare no windows 2003. Estou meio perdido quanto a instalação e configuração.
Grato.
Oi Hugo !
Não, infelizmente nunca usei Clusterware em Windows.
Abraço !
Oi Erick.
Acho que algo do passo a passo foi feito incorretamente. Te sugiro refazer revendo todos os passos. Se vocÊ tiver acesso, pegue o tutorial na SQL Magazine, que está mais detalhado.
Abraço !