Servicios

Web hosting
Ver »
Páginas Web
Ver »
Soporte UNIX
Ver »
UNIX TIPS
Ver »

MOVER ZONAS ENTRE SERVERS "Zpools"

Esta prueba de mover zonas entre Server fue trasparente puesto que las zona reside en un Zpool el cual se exporta en un server e importa en otro.
No se da mas detalle de configuracion de "Zones, Zfs o Zpool" puesto que para hacer esta prueba se debe tener los conocimientos requeridos.
Ambos servers deben de estar conectados al mismo Storage y tener configurados los mismos Discos o Luns. Solo un server puede usar los recursos de Storage en este caso accesar a la informacion de los disco.
La prueba se realizo entre dos plataformas SF25K con Version de "Solaris 10 1/06 s10s_u1wos_19a SPARC" con nivel de parches 147440-10.

1. La Zona test01 se encuentra Up and Running en server mxprosdb.

root@mxprosdb # zoneadm list -cv
ID NAME STATUS PATH BRAND IP
0 global running / native shared
5 test01 running /cluster_zone/test01 native shared
root@mxprosdb #

2. Accesar a la zona para validar recursos de FS que tenga montados.

root@mxprosdb # zlogin test01
[Connected to zone 'test01' pts/2]
Last login: Thu Feb 23 14:42:48 from 172.19.197.41
Sun Microsystems Inc. SunOS 5.10 Generic January 2005

root@test01 $ uptime
5:00pm up 2:20, 1 user, load average: 0.07, 0.06, 0.06
root@test01 $

Como esta zona es de prueba no cuenta con FS adicionales.

root@test01 $ df -h
Filesystem size used avail capacity Mounted on
/ 0K 5.3G 15G 27% /
/dev 20G 5.3G 15G 27% /dev
proc 0K 0K 0K 0% /proc
ctfs 0K 0K 0K 0% /system/contract
mnttab 0K 0K 0K 0% /etc/mnttab
objfs 0K 0K 0K 0% /system/object
swap 69G 288K 69G 1% /etc/svc/volatile
fd 0K 0K 0K 0% /dev/fd
swap 69G 0K 69G 0% /tmp
swap 69G 16K 69G 1% /var/run
root@test01 $

3. Detener la zona en el server MXPROSDB.

root@mxprosdb # zoneadm -z test01 halt
root@mxprosdb #

Validar que se encuentre abajo la zona.
root@mxprosdb # zoneadm list -cv
ID NAME STATUS PATH BRAND IP
0 global running / native shared
- test01 installed /cluster_zone/test01 native shared

Copiar el archivo index que mantiene el status de la zona y el archivo xml de la configuracion de la zona test01 en el otro server donde importaremos el Zpool e attacharemos la zona.
root@mxprosdb # cd /etc/zones

root@mxprosdb # ls -l
total 8
-r--r--r-- 1 root bin 392 Aug 8 2007 SUNWblank.xml
-r--r--r-- 1 root bin 562 Aug 8 2007 SUNWdefault.xml
-rw-r--r-- 1 root sys 360 Feb 23 14:37 index
-rw-r--r-- 1 root root 340 Feb 23 14:37 test01.xml

root@mxprosdb # zoneadm list -cv
ID NAME STATUS PATH BRAND IP
0 global running / native shared
- test01 installed /cluster_zone/test01 native shared


4. Realizar detach de la zone para deportar el zpool.

root@mxprosdb # zoneadm -z test01 detach

root@mxprosdb # zoneadm list -cv
ID NAME STATUS PATH BRAND IP
0 global running / native shared
- test01 configured /cluster_zone/test01 native shared
root@mxprosdb #

5. Se copian los archivos de la configuracion y status de la zona en el otro server.

root@mxprosdb # scp index 172.19.202.111:/etc/zones/

root@mxprosdb # scp test01.xml 172.19.202.111:/etc/zones/

6. Validar el status del zpool a exportar

root@mxprosdb # zpool status
pool: cluster_zone
state: ONLINE
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
cluster_zone ONLINE 0 0 0
c12t50000972082055A8d30 ONLINE 0 0 0

errors: No known data errors

7. Exportar el Zpool para que pueda ser importado en el otro Server

root@mxprosdb # zpool export cluster_zone


8. Validar el status del pool que ya no se vea disponible

root@mxprosdb # zpool status
no pools available
root@mxprosdb #


9. Accesar al otro server e importar el zpool

root@mxg5app05 # zpool import
pool: cluster_zone
id: 17156156916478783846
state: ONLINE
status: The pool is formatted using an older on-disk version.
action: The pool can be imported using its name or numeric identifier, though
some features will not be available without an explicit 'zpool upgrade'.
config:

cluster_zone ONLINE
c2t5000097208205519d11 ONLINE
root@mxg5app05 #


10. Importar el zpool puede ser por nombre del pool o identificador.

root@mxg5app05 # zpool import 17156156916478783846


11. Validar status del pool ya en online.

root@mxg5app05 # zpool status
pool: cluster_zone
state: ONLINE
status: The pool is formatted using an older on-disk format. The pool can
still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'. Once this is done, the
pool will no longer be accessible on older software versions.
scan: none requested
config:

NAME STATE READ WRITE CKSUM
cluster_zone ONLINE 0 0 0
c2t5000097208205519d11 ONLINE 0 0 0

errors: No known data errors
root@mxg5app05 #

12. Verificar que en automatico monto el FS del Pool.

root@mxg5app05 # zfs list
NAME USED AVAIL REFER MOUNTPOINT
cluster_zone 5.29G 27.7G 23K /cluster_zone
cluster_zone/test01 5.29G 14.7G 5.29G legacy
root@mxg5app05 #

13. Crear home donde reside la zona.

root@mxg5app05 # mkdir -p /cluster_zone/test01

14 Asignar permisos adecuados al home de la zona.

root@mxg5app05 # chmod 700 /cluster_zone/test01

15 Montar manualmente el FS de la zona.

root@mxg5app05 # mount -F zfs cluster_zone/test01 /cluster_zone/test01


16 Validar que todo este correctamente para attachar la zona.

root@mxg5app05 # df -h
Filesystem size used avail capacity Mounted on
/dev/md/dsk/d30 30G 14G 15G 50% /
/devices 0K 0K 0K 0% /devices
ctfs 0K 0K 0K 0% /system/contract
proc 0K 0K 0K 0% /proc
mnttab 0K 0K 0K 0% /etc/mnttab
swap 45G 1.5M 45G 1% /etc/svc/volatile
objfs 0K 0K 0K 0% /system/object
sharefs 0K 0K 0K 0% /etc/dfs/sharetab
fd 0K 0K 0K 0% /dev/fd
/dev/md/dsk/d33 30G 9.7G 20G 34% /var
swap 45G 80K 45G 1% /tmp
swap 45G 32K 45G 1% /var/run
/dev/md/dsk/d60 30G 1.8G 27G 7% /opt/Oracle
/dev/md/dsk/d34 20G 37M 19G 1% /var/audit
cluster_zone 33G 23K 28G 1% /cluster_zone
cluster_zone/test01 20G 5.3G 15G 27% /cluster_zone/test01
root@mxg5app05 #

17. Attachar la zona.

root@mxg5app05 # zoneadm -z test01 attach -F

18. Validar el status de la zona al termino del proceso de attach.

root@mxg5app05 # zoneadm list -cv
ID NAME STATUS PATH BRAND IP
0 global running / native shared
- test01 installed /cluster_zone/test01 native shared

19. Levantar la zona y accesar para validar que no exista problemas.

root@mxg5app05 # zoneadm -z test01 boot
zoneadm: zone 'test01': WARNING: ce2:1: no matching subnet found in netmasks(4) for 172.19.200.59; using
default of 255.255.0.0.
root@mxg5app05 # zlogin test01

root@mxg5app05 # zlogin test01
[Connected to zone 'test01' pts/3]
Last login: Thu Feb 23 17:00:02 on pts/2
Sun Microsystems Inc. SunOS 5.10 Generic January 2005

root@test01 $ df -h
Filesystem size used avail capacity Mounted on
/ 0K 5.3G 15G 27% /
/dev 20G 5.3G 15G 27% /dev
proc 0K 0K 0K 0% /proc
ctfs 0K 0K 0K 0% /system/contract
mnttab 0K 0K 0K 0% /etc/mnttab
objfs 0K 0K 0K 0% /system/object
swap 44G 208K 44G 1% /etc/svc/volatile
fd 0K 0K 0K 0% /dev/fd
swap 44G 0K 44G 0% /tmp
swap 44G 0K 44G 0% /var/run

root@test01 $ uptime
5:23pm up 1 min(s), 1 user, load average: 0.28, 0.21, 0.16
root@test01 $

Ha terminado la prueba de mover una Zona entre Servers sin problema alguno.


Test Adicional: Crear nuevos ZFS para la zona migrada.

Listar ZFS actuales.

root@mxg5app05 # zfs list
NAME USED AVAIL REFER MOUNTPOINT
cluster_zone 5.30G 27.7G 23K /cluster_zone
cluster_zone/test01 5.29G 14.7G 5.29G legacy

Crear ZFS u01.

root@mxg5app05 # zfs create cluster_zone/u01

Listar el ZFS creado.

root@mxg5app05 # zfs list
NAME USED AVAIL REFER MOUNTPOINT
cluster_zone 5.30G 27.7G 23K /cluster_zone
cluster_zone/test01 5.29G 14.7G 5.29G legacy
cluster_zone/u01 21K 27.7G 21K /cluster_zone/u01
root@mxg5app05

En automatico monta el ZFS en la zona global.

root@mxg5app05 # zfs list
NAME USED AVAIL REFER MOUNTPOINT
cluster_zone 5.30G 27.7G 23K /cluster_zone
cluster_zone/test01 5.29G 14.7G 5.29G legacy
cluster_zone/u01 21K 27.7G 21K /cluster_zone/u01
root@mxg5app05 #

Asignar permisos para delegar el automount a la zona.

root@mxg5app05 # zfs set mountpoint=legacy cluster_zone/u01


Validar permisos sean correctos.

root@mxg5app05 # zfs list
NAME USED AVAIL REFER MOUNTPOINT
cluster_zone 5.30G 27.7G 24K /cluster_zone
cluster_zone/test01 5.29G 14.7G 5.29G legacy
cluster_zone/u01 21K 27.7G 21K legacy
root@mxg5app05 #

Asignar tamano de FS en este caso 1G.

root@mxg5app05 # zfs set quota=1G cluster_zone/u01


Crear el punto de montaje en la zona para el nuevo ZFS.

root@mxg5app05 # mkdir -p /cluster_zone/test01/root/u01


Montar el nuevo ZFS a la zona.

root@mxg5app05 # mount -F zfs cluster_zone/u01 /cluster_zone/test01/root/u01

root@mxg5app05 # zoneadm list -cv
ID NAME STATUS PATH BRAND IP
0 global running / native shared
5 test01 running /cluster_zone/test01 native shared


Validar el nuevo ZFS dentro de la zona.

root@mxg5app05 # zlogin test01
[Connected to zone 'test01' pts/3]
Last login: Thu Feb 23 17:23:01 on pts/3
Sun Microsystems Inc. SunOS 5.10 Generic January 2005

root@test01 $

root@test01 $ df -h
Filesystem size used avail capacity Mounted on
/ 0K 5.3G 15G 27% /
/dev 20G 5.3G 15G 27% /dev
proc 0K 0K 0K 0% /proc
ctfs 0K 0K 0K 0% /system/contract
mnttab 0K 0K 0K 0% /etc/mnttab
objfs 0K 0K 0K 0% /system/object
swap 44G 208K 44G 1% /etc/svc/volatile
fd 0K 0K 0K 0% /dev/fd
swap 44G 0K 44G 0% /tmp
swap 44G 0K 44G 0% /var/run
cluster_zone/u01 0K 21K 1.0G 1% /u01

root@test01 $

Agregar la configuracion del nuevo ZFS para que la zona tenga permanente y automatico el montaje del nuevo FS.

# zonecfg -z test01


zonecfg:test01> add fs
zonecfg:test01:fs> set dir=/u01
zonecfg:test01:fs> set special=cluster_zone/u01
zonecfg:test01:fs> set type=zfs
zonecfg:test01:fs> end
zonecfg:test01> verify
zonecfg:test01> commit
zonecfg:test01>

Reiniciar la zona para verificar los cambios sean correctos.

root@mxg5app05 # zlogin test01
[Connected to zone 'test01' pts/2]
Last login: Thu Feb 23 17:35:44 on pts/3
Sun Microsystems Inc. SunOS 5.10 Generic January 2005


Validar el FS sea montado despues del reinicio de la zona.

root@test01 $ df -h
Filesystem size used avail capacity Mounted on
/ 0K 5.3G 15G 27% /
/dev 20G 5.3G 15G 27% /dev
cluster_zone/u01 0K 21K 1.0G 1% /u01
proc 0K 0K 0K 0% /proc
ctfs 0K 0K 0K 0% /system/contract
mnttab 0K 0K 0K 0% /etc/mnttab
objfs 0K 0K 0K 0% /system/object
swap 44G 208K 44G 1% /etc/svc/volatile
fd 0K 0K 0K 0% /dev/fd
swap 44G 0K 44G 0% /tmp
swap 44G 0K 44G 0% /var/run
root@test01 $

La prueba ha terminado, bajamos la zona.

root@mxg5app05 # zoneadm -z test01 halt

Importante: Para que la zona levante en automatico despues de un reboot a la zona global o server.
Agregar en /etc/vfstab la linea para su montaje

EDIT VFSTAB FOR LEGACY ZFS

#device device mount FS fsck mount mount
#to mount to fsck point type pass at boot options
#
cluster_zone/test01 - /cluster_zone/test01 zfs - yes -

Regresar


Random TIPS

MONTAR UNA IMAGEN ISO EN SOLARIS 10 COMO UN LOOPBACK FS PARA ZONE

1. En Zona Global ubicar el path de la imagen ISO y montarla.

# /usr/sbin/lofiadm -a /opt/netbackup/NBU7.1_CLIENTES.iso /dev/lofi/1
# mount -F hsfs -o ro /dev/lofi/1 /mnt

2. Crear punto de montaje en Zona.
# mkdir -p /export/zones/foij-2/root/mediaNB

3. Montar en Zona
# mount -F lofs /mnt /export/zones/foij-2/root/mediaNB

4. Verificamos en la Zona el FS montado de la ISO.
# zlogin foij-2
foij-2 # df -h /mediaNB
Filesystem size used avail capacity Mounted on
/mediaNB 3.2G 3.2G 0K 100% /mediaNB
foij-2 #

free counters