Rac 10gr2 eb Linux 3.0

Download Report

Transcript Rac 10gr2 eb Linux 3.0

Procedimiento de Instalación RAC 10gr2 en Linux 3.0

Paso a paso como :

Creación de Storage Slide (2) - Formateo de Storage dentro del S.O. Slide (28) Verificación de nuestra red Slide (29) - Instalando ClusterWare Slide (37) - Instalando motor Oracle Creación de ASM en RAC Creación de BD en RAC Slide (73) Slide (89) Slide (103)

Documento preparado por Hector Gabriel Ulloa Ligarius

1

Para http://www.oracleyyo.com

Pantalla de inicio de la máquina virtual nodo1

Se levanta el otro nodo, con las mismas características físicas 3

Verificamos los niveles de RAM que cada máquina virtual tendrá Y seleccionamos ADD para añadir Storage compartido a nuestro RAC 4

Procedemos a añadir un disco para ello en la pantalla anterior presionamos ADD 5

Seleccionamos disco duro En esta operación lo que vamos a crear será el Storage necesario para el RAC 6

Creamos un disco nuevo 7

De tipo SCSI, se recomienda por sobre el IDE 8

Le damos una cantidad X de GB , y ojalá lo creemos con particiones de 2GB, esto es para un mejor manejo por parte del Sistema Operativo 9

Ubicamos la carpeta donde dejaremos nuestro Storage compartido 10

Le damos un nombre acorde, para el caso nuestro Storage_Compartido 11

Una vez indicado el nombre del Storage , presionamos Finalizar, con lo cual se comienza a generar el disco 12

Aparece la pantalla de creación del Storage 13

Y el disco aparece en nuestra máquina virtual 14

Seleccionamos propiedades del disco, y dentro de esas opciones , le indicamos que Debe ser independiente, con esto provocamos que el disco pueda ser escrito desde 2 máquinas virtuales distintas 15

Le indicamos que es independiente y persistente, esta última opción indica que los cambios se mantendrán a pesar de reiniciar la máquina 16

La configuración del nodo1 debiese quedar como sigue 17

La configuración del nodo2 debiese quedar como sigue 18

Verificamos los niveles de RAM que cada máquina virtual tendrá Y seleccionamos ADD para añadir Storage compartido a nuestro RAC, pero un storage ya generado 19

Bienvenidos al asistente 20

Le añadimos el storage correspondiente 21

Le indicamos que será uno existente 22

Buscamos el disco inicial del Storage generado desde el nodo1 23

Validamos la ruta 24

Y así aparece el Storage 25

Le indicamos desde el nodo 2 que será independiente y persistente, para que siempre funcione compartido y que sus características prevalezcan aunque se resetee el nodo 26

Así debiese visualizarse el Storage desde el nodo2 27

Acá esta el formateo del Storage

Sólo haz CLICK en el comentario 28

Verificamos nuestras interfaces de red, siempre 3 por nodo La interfase virtual debe estar en el segmento público 29

Para verificar que realmente sean esas nuestras Ips y que el hostname este correcto , buscamos NETWORK en el menú de linux 30

Se verifican las tarjetas de red, junto con sus IPs 31

Se modifica el hostname si corresponde 32

Se verifican las IPs 33

Esto se debe hacer para las 2 interfases, una privada y otra pública 34

Se reinician los servicios de red en /etc/init.d/network restart 35

Y se validan las tarjetas , las Ips , el nombre de las interfases para cada uno de los nodos 36

Una vez que este todo configurado con respecto a la interfaces de red , procedemos a verificar los instaladores.

Acá se ven los instaladores de la base de datos, el ASM , el clusterware y el parche de base de datos 37

Típica pantalla de bienvenida 38

En este punto debemos generar los certificados para la conexión entre los nodos, para ello , podemos ver el siguiente link http://www.oracleyyo.com/index.php/2009/10/07/creacion-de-certificados-para-un-rac 39

Se especifica la ruta del inventario 40

Entregamos el Oracle Home del CRS (Clusterware) La recomendación es que este lo mas cercano a la raíz 41

Se lleva a cabo el prechequeo, típico… 42

Y acá nos enseña los nodos que van a conformar el rac, en donde nosotros debemos agregar el nodo con el comando add 43

Cuando presionamos el botón Add , nos enseña una pantalla en donde podemos ingresar el nodo que irá en el RAC, acá ingresamos el alias de las IP pública, virtual y privada 44

Una vez ingresado el nodo al RAC, aparecerá de la siguiente forma 45

Después muestra las interfaces de red, pero acá un gran detalle, muestra ambos segmentos como privados, ya que para Oracle las IPs 172* y 10* son privadas, lo que hay que hacer es cambiar una de ellas a PUBLIC 46

Hacemos Edit en la interface eth0 donde corre nuestra IP pública y le indicamos a Oracle que esa será nuestra interfaz pública.

47

Nuestra eth0 aparece como pública una vez que hemos realizado el cambio 48

Acá le indicamos el dispositivo Raw a utilizar para nuestro archivo OCR, sólo ocupamos 1 , sin multiplexar 49

Acá le indicamos el dispositivo Raw a utilizar para nuestro archivo Voting Disk, sólo ocupamos 1 , sin multiplexar 50

Pantalla de resumen de instalación, acá hay que seleccionar la + donde aparece Cluster Nodes y Remotes Nodes, sólo para validar los componentes 51

Comienza la instalación 52

Llega a un punto la instalación donde comienza con las operaciones remota, Y acá en este punto copia los binarios 53

Cuando hay diferencias de fecha , aparece este grosero mensaje, la instalación puede seguir pero una vez que se sincronicen las fechas 54

Sincronización de las fechas con el comando date –s (se debe hacer con root) 55

Cuando se muestra esta pantalla , lo que se debe hacer en forma ordenada es ejecutar los scripts de a uno en cada nodo, sin saltarse ninguno y esperando que el anterior finalice 56

Se ejecutan los archivos anteriores con root 57

Y se sigue con el siguiente archivo en orden, el root.sh agrega y formatea el voting disk y el OCR 58

Después el root.sh en el segundo nodo y acá un pequeño inconveniente con la VIPCA 59

Cuando se ejecuta root.sh en el segundo nodo, en forma silenciosa se ejecuta el utilitario Vipca, lo que hace es que se ejecuta de modo background un asistente para generar los componente (aplications) del Clusterware.

Esta vipca al no ser levantado con el root.sh , se debe ejcutar de forma manual con el Usuario root.sh desde el nodo2 y así levantar el asistente 60

Verificamos que estemos con root Vamos al home del clusterware en el nodo2 y ejecutamos vipca 61

Aparece la pantalla de bienvenida del Vipca 62

Nos muestra las interfaces disponibles , de las cuales se debe seleccionar la etho que es nuestra interface pública 63

Ingresamos el alias de la vip, al ingresar y presionar TAB nos rellena todas las celdas de forma automática 64

Después nos proporciona una pantalla de resumen con respecto a las ips que utilizarán 65

Comienza la generación de los componentes con los cuales trabajará el Clusterware 66

Y avanzando en la instalación llegamos a un 100% Donde en este punto se generan todos los servicios del Clusterware 67

Como resultado de la instalación nos muestra las VIP generadas 68

Para finalizar , debemos ejecutar las shell que aparecen en el cuadro , de forma extricta, la número 1 en el nodo1 y nodo2 y la número 2 en el nodo1 y nodo2 69

Después de haber ejecutado las shell , nos presenta una pantalla de asistentes en donde se deben ejecutar todos de forma obligatoria 70

Todos felices cuando termina nuestra instalación de forma exitosa 71

Verificamos con el comando crs_stat –t como quedan nuestros componentes en el clusterware 72

Después de lo anterior, procedemos a descomprimir el instalador para el motor Oracle 73

1.-Se debe bajar el software desde la siguiente ruta http://www.oracle.com/technology/products/database/clusterin g/cvu/cvu_download_homepage.html

Obs : El ideal es que sea la versión 11g 2.- Se descomprime el archivo con unzip 3.- Se ejecuta con un ./cluvfy stage -post crsinst -n raca,racb –verbose –r 10Gr2 74

Se ejecuta el comando del cluvfy 75

Y una vez validados todos los prerequisitos antes de la instalación , ejecutamos el instalador para crear nuestro motor Oracle 76

La típica pantalla de bienvenida 77

Seleccionamos Enterprise Edition 78

Y le indicamos el lugar donde albergaremos el motor Oracle 79

Como ya está el Clusterware instalado y lo servicios corriendo, el instalador nos pregunta si instalaremos en cluster el motor o de forma standalone, claramente elegimos cluster 80

Se chequean los prerequisitos, deben estar todos correctos, sino, no se debiese avanzar en la instalación 81

Sólo vamos a generar la instalación de los binarios, no vamos a crear la base de datos 82

Un resumen de lo que instalaremos 83

Y comienza nuestra instalación 84

En las operaciones remotas, lo que hace el instalador es copiar los binarios mediante scp a las otras máquinas que componen nuestro RAC 85

Se nos pide ejecutar la shell root.sh en el mismo orden en que aparece en la pantalla, o sea, nodo1 y nodo2 86

La salida de la ejecución en el nodo1 y algo similar se verá en el nodo2 87

Al final de la instalación, todo es abrazos… 88

Ejecutamos nuevamente el instalador del motor, pero está vez para generar el motor del ASM 89

Pantalla de bienvenida 90

Veificamos el tipo de instalación , claramente elegimos Enterprise Edition 91

Y le indicamos donde estará nuestro home para el ASM 92

Nos pregunta si es en modo cluster o en modo standalone, si elegimos cluster debemos seleccionar los nodos que participarán de esta instalación 93

Se chequean los prerequisitos, los cuales deben ser cumplidos a cabalidad 94

Y elegimos configurar una instancia ASM, en este punto le indicamos la password con la cual nos vamos a conectar a la instancia ASM 95

Una vez levantada la instancia ASM , nos preguntará por el diskgroup a generar, nos muestra todos los discos que son candidatos a formar parte del diskgroup , los seleccionamos y le indicamos un nombre de Diskgroup 96

La pantalla de resumen, en donde siempre se debe seleccionar “Cluster Nodes” y “Remote Nodes” , con el fin de validar los nodos participantes y el tamaño para la instalación que posee el nodo remoto 97

Comienza nuestra instalación 98

Y en operaciones remotas, se lleva a cabo la copia de los binarios a los otros nodos 99

Se ejecuta la shell root.sh en el nodo1 y nodo2 100

Y de nuevo abrazos por el fin de la instalación 101

Volvemos a ejecutar el comando crs_stat –t desde cualquiera de los nodos y nos debiese mostrar los siguientes recursos en cluster 102

Lo único que nos queda es crear la instancia, para ello ejecutamos el dbca desde cualquiera de los nodos y elegimos base de datos en cluster 103

Elegimos crear base de datos 104

Y seleccionamos los nodos donde queremos que se creen instancias para nuestra base de datos en RAC 105

Elegimos cualquier template, total después vamos a modificar los parámetros de incialización de estas instancias 106

Le damos el nombre a nuestra base de datos, recordar que se le agrega un correlativo por cada nodo a este nombrey con ellos se crea el nombre de la instancia 107

Elegimos generar la consola para administrar nuestra base de datos 108

Password de nuestros esquemas 109

Y acá le indicamos que el almacenamiento será mediante ASM 110

Seleccionamos el diskgroup que ya habíamos generado con anterioridad 111

Seleccionamos OMF y el diskgroup generado 112

Y procedemos a generar nuestro nuevo diskgroup para contener la FRA 113

El instalador genera el diskgroup 114

Y una vez generado , nos muestra los diskgroups disponibles con todas sus características 115

Al momento de especificar la FRA de nuestra base de datos, debemos seleccionar el diskgroup que acabamos de generar con el nombre de FRA 116

Seleccionamos el diskgroup 117

Y nos muestra la información por pantalla 118

La verdad no es necesario cargar los esquemas de ejemplo , pero si quieren lo pueden hacer 119

Aparece la pantalla de servicios, en este punto no vamos a generar nada, sólo vamos a dar next 120

Las especificaciones típicas de memoria 121

Las especificaciones de Storage, acá no hacemos nada..

122

Acá seleccionamos crear la base de datos y que genere los scripts de la base 123

Nos muestra la pantalla de definiciones de nuestra base 124

Lo primero que se ejecuta es la creación de los scripts y después viene la creación de las instancias 125

Comienza la copia de los datafiles de nuestra base de datos 126

Y una vez finalizado, nos muestra la pantalla final de creación de nuestra base de datos 127

En este punto se comienzan a generar nuestras instancias en RAC Y con esto se llega al fin de nuestra instalación 128