viernes, 8 de abril de 2011

Manejo de LVM / VxFS y OnlineJFS

Manejo de LVM / VxFS y OnlineJFS

HP-UX soporta 3 formas de gestionar discos:
  • Disco entero
  • LVM
  • VxVM
Las desventajas de utilizar disco entero, son mas que evidentes, por eso se implemento LVM. LVM es la forma clásica que tiene HP-UX para poder hacer una gestión de discos eficiente.
La descripción de VxVM están fuera de alcance y merece una entrada aparte en el blog.

Con LVM podemos:
  • Agrupar 1 o mas discos y usar ese espacio para generar un LV que exceda el tamaño de un disco
  • Ampliar/Reducir el espacio que ocupa un LV, puede que luego necesitemos redimensionar el FS
  • Facilita la administración cuando se tienen muchos discos
  • Permite hacer mirror por software mediante el producto MirrorUX
  • La creación de snapshots para point in time recovery
 A un nivel macro LVM se basa en las siguientes estructuras

Volume Group (VG)
Es la estructura que agrupa uno o mas discos (PVs). El espacio disponible se usa para crear los logical volumes

Physical Volume (PV)
Es un disco o LUN inicializado con una cabecera de LVM

Logical Volume (LV)
Se conforman con el espacio disponible de los VGs, luego los LVs contendrán FSs o serán usados como RAW devices.

De forma sencilla el concepto es el siguiente, se agrupan los discos en un VG, el espacio utilizable del VG es
la suma del espacio de cada uno de los discos, de esta forma se elimina la limitante del disco físico. Luego a
partir del espacio libre del VG se generan los LVs

Inicializacion de un PV

Para poder controlar una disco mediante LVM primero se le deben crear una cabecera con estructuras de control mediante el comando pvcreate <caracter device special file>

#pvcreate /dev/rdisk/disk5
Physical volume "/dev/rdisk/disk5" has been successfully created.

Si el disco ya estuvo bajo control de LVM y tiene una cabecera LVM, el comando fallara, para poder reescribir la cabecera para poder reutilizar el disco se debe utilizar el flag -f

Creación de un VG

Cuando creamos un VG, el LVM divide a los discos que lo integran en porciones de igual tamaño llamadas physical extents, estas porciones conforman la mínima unidad de asignación de espacio en disco. Por default el tamaño de los PE es de 4MB. Ahora procedemos con la creación del VG, en este caso vamos a armar un vg con Layout 1.0, para ver como se realiza con layout 2.x hacer click aqui de todas formas aconsejo primero leer los conceptos de esta nota primero.

#mkdir /dev/vg01
#mknod /dev/vg01/group c 64 0x010000
#vgcreate /dev/vg01 /dev/disk/disk5
Volume group "/dev/vg01" has been successfully created.
Volume Group configuration for /dev/vg01 has been saved in /etc/lvmconf/vg01.conf

De esta forma tenemos creado nuestro nuevo vg. Antes de verificar

Para ver el estado del VG y sus características usamos el comando vgdisplay

#vgdisplay vg01
--- Volume groups ---
VG Name                     /dev/vg01
VG Write Access             read/write
VG Status                   available
Max LV                      255
Cur LV                      0
Open LV                     0
Max PV                      16
Cur PV                      1
Act PV                      1
Max PE per PV               1016
VGDA                        2
PE Size (Mbytes)            4
Total PE                    499
Alloc PE                    0
Free PE                     499
Total PVG                   0
Total Spare PVs             0
Total Spare PVs in use      0
VG Version                  1.0
VG Max Size                 65024m
VG Max Extents              16256

Parámetros de un VG

PE Size, es el tamaño del PE, por default de 4MB, se puede especificar con la opción -s del vgcreate.
Max PE per PV, que define la cantidad máxima de PE por disco, si en este caso solo puedo direccionar 4GBs por disco,si quisiera colocar un disco de mayor tamaño debería recrear el VG y especificar un tamaño adecuado de Max PE per PV se especifica con la opción -e del vgcreate.
Max LV, la cantidad máxima de LVs que puede alojar el VG, se especifica con la opción -l del vgcreate.
Max PV, la cantidad máxima de discos que puedo agregar al VG, se especifica con la opción -p del vgcreate.


Para ver el espacio libre que tengo en el VG multiplico el Tamaño del PE por la cantidad de PE libres, en este caso
4*499=1996MB

Creación de un LV

Así como los PV están compuestos de PE, los LV están compuestos de Logical extents (LE). Los LE están asociados a los PE, si el disco no tiene mirror un LE esta asociado a un PE, si tenemos mirroreado el LV un LE esta asociado a 2 PE uno de cada disco.

Para crear un LV corremos el comando lvcreate

#lvcreate -L 100 -n mylv vg01
Logical volume "/dev/vg01/mylv" has been successfully created with
character device "/dev/vg01/rmylv".
Logical volume "/dev/vg01/mylv" has been successfully extended.
Volume Group configuration for /dev/vg01 has been saved in /etc/lvmconf/vg01.conf

Donde -L es el tamaño en MB -n es el nombre del LV, si no se especifica se le asigna automaticamente un nombre y por ultimo se indica cual es el vg en donde se creara el LV

En este caso el tamaño de mi PE es de 16MB y quiero crear un LV de 100MB

#lvcreate -L 100 -n mylv vg01
Warning: rounding up logical volume size to extent boundary at size "112" MB.
Logical volume "/dev/vg01/mylv" has been successfully created with
character device "/dev/vg00/rmylv".
Logical volume "/dev/vg01/mylv" has been successfully extended.
Volume Group configuration for /dev/vg00 has been saved in /etc/lvmconf/vg01.conf

Como 100 no es multiplo de 16, el sistema redondea hacia arriba el tamaño especificado al multiplo de 16 mas cercano

Tambien se puede especificar el tamaño del lv en extents con la opción -l

Para ver el estado del LV y su configuración corremos el comando lvdisplay

#lvdisplay /dev/vg01/mylv
--- Logical volumes ---
LV Name                     /dev/vg01/mylv
VG Name                     /dev/vg01
LV Permission               read/write
LV Status                   available/syncd
Mirror copies               0
Consistency Recovery        MWC
Schedule                    parallel
LV Size (Mbytes)            100
Current LE                  25
Allocated PE                25
Stripes                     0
Stripe Size (Kbytes)        0
Bad block                   on
Allocation                  strict
IO Timeout (Seconds)        default

Creacion de un FS

#newfs -F vxfs -b 8192 /dev/vg01/rmylv
    version 7 layout
    102400 sectors, 12800 blocks of size 8192, log size 128 blocks
    largefiles supported

Una vez que se le dio formato al logical volume se puede montar el FS.

#mkdir /fs1
#mount /dev/vg01/mylv /fs1

Para verificar puedo correr el comando bdf

#bdf
Filesystem          kbytes    used   avail %used Mounted on
/dev/vg00/lvol3     671744  396864  272848   59% /
/dev/vg00/lvol1    1081344  347656  728032   32% /stand
/dev/vg00/lvol8    4042752 1740360 2288608   43% /var
/dev/vg00/lvol5    4927488 2107168 2798360   43% /usr
/dev/vg00/lvol4     131072   30592   99824   23% /tmp
/dev/vg00/lvol7    5484544 3427176 2041376   63% /opt
/dev/vg00/lvol6     102400    5464   96184    5% /home
/dev/vg01/mylv      102400    2288   99344    2% /fs1

Para hacer persistente este cambio debo editar el archivo /etc/fstab

/dev/vg01/mylv /fs1 vxfs delaylog 0 2

donde el indico el LV que contiene el FS, el tipo de FS, opciones de montaje, campo reservado y el nro de secuencia en el que se hacer el chequeo de consistencia al inicio del equipo.

Con la incorporacion de OnlineJFS se puede redimensionar un FS en linea

Ampliación de un FS

Si es que hay espacio disponible en VG extendemos el tamaño del LV,

Verifico que haya espacio en el VG

#vgdisplay vg01 |egrep -e "PE Size" -e "Free PE"
PE Size (Mbytes)            4
Free PE                     474

Vemos que tenemos 1896MB disponibles en el VG. Ahora voy a extender mi LV de 100MBs a 250MBs

#lvextend -L 256 /dev/vg01/mylv
Logical volume "/dev/vg01/mylv" has been successfully extended.
Volume Group configuration for /dev/vg01 has been saved in /etc/lvmconf/vg01.conf
#lvdisplay  /dev/vg01/mylv
--- Logical volumes ---
LV Name                     /dev/vg01/mylv
VG Name                     /dev/vg01
LV Permission               read/write
LV Status                   available/syncd
Mirror copies               0
Consistency Recovery        MWC
Schedule                    parallel
LV Size (Mbytes)            256
Current LE                  64
Allocated PE                64
Stripes                     0
Stripe Size (Kbytes)        0
Bad block                   on
Allocation                  strict
IO Timeout (Seconds)        default

La salida del lvdisplay nos muestra reflejado el cambio en el LV, que pasa si corro un bdf ahora

#bdf /fs1
Filesystem          kbytes    used   avail %used Mounted on
/dev/vg01/mylv      102400    2288   99344    2% /fs1

Vemos que el tamaño del FS no se incremento, para ello debo correr un fsadm

#fsadm -F vxfs -b 262144 /fs1
UX:vxfs fsadm: INFO: V-3-25942: /dev/vg01/rmylv size increased from 102400 sectors to 262144 sectors

El parámetro -F indica el tipo de FS, -b indica en bloques de 1K el nuevo tamaño al cual quiero extender el FS. Para verificar corro nuevamente bdf

#bdf /fs1
Filesystem          kbytes    used   avail %used Mounted on
/dev/vg01/mylv      262144    2288  257840    1% /fs1

Reducir el tamaño de un FS en linea

El procedimiento es similar pero de manera inversa, primero se achica el FS y luego se reduce el LV. Siempre se recomienda tener un backup de los datos del FS antes de reducirlo.

Como ejemplo vamos a reducir el /fs1 a 128MBs

#fsadm -F vxfs -b 131072  /fs1
UX:vxfs fsadm: INFO: V-3-23586: /dev/vg01/rmylv is currently 262144 sectors - size will be reduced

Verificamos el FS con un bdf

#bdf /fs1
Filesystem          kbytes    used   avail %used Mounted on
/dev/vg01/mylv      131072    2288  127792    2% /fs1

Reducimos el LV para recuperar el espacio al VG

#lvreduce -L 128 /dev/vg01/mylv
When a logical volume is reduced useful data might get lost;
do you really want the command to proceed (y/n) : y
Logical volume "/dev/vg01/mylv" has been successfully reduced.
Volume Group configuration for /dev/vg01 has been saved in /etc/lvmconf/vg01.conf

Se puede verificar el estado del lv como se hizo cuando se extendió con un lvdisplay

#lvdisplay /dev/vg01/mylv
--- Logical volumes ---
LV Name                     /dev/vg01/mylv
VG Name                     /dev/vg01
LV Permission               read/write
LV Status                   available/syncd
Mirror copies               0
Consistency Recovery        MWC
Schedule                    parallel
LV Size (Mbytes)            128
Current LE                  32
Allocated PE                32
Stripes                     0
Stripe Size (Kbytes)        0
Bad block                   on
Allocation                  strict
IO Timeout (Seconds)        default

Ampliacion sin OnlineJFS


Si no se posee OnlineJFS se puede extender un FS pero para ello necesitamos desmontarlo. En principio se extiende el LV como vimos antes, luego desmontamos el FS y por ultimo ejecutamos extendfs.

Ejemplo, extenderemos el /fs1 a 512MB

#lvextend -L 512 /dev/vg01/mylv
Logical volume "/dev/vg01/mylv" has been successfully extended.
Volume Group configuration for /dev/vg01 has been saved in /etc/lvmconf/vg01.conf
#umount /fs1
#extendfs /dev/vg01/rmylv
#mount /fs1
#bdf /fs1
Filesystem          kbytes    used   avail %used Mounted on
/dev/vg01/mylv      524288    2304  517920    0% /fs1

Borrado de un LV

Si no necesitamos mas un LV y queremos recuperar su espacio, podemos removerlo. Primero es una buena norma tomarun backup de los datos que contiene, desmontarlo y luego removerlo.

#mount /fs1
#lvremove /dev/vg01/mylv
The logical volume "/dev/vg01/mylv" is not empty;
do you really want to delete the logical volume (y/n) : y
Logical volume "/dev/vg01/mylv" has been successfully removed.
Volume Group configuration for /dev/vg01 has been saved in /etc/lvmconf/vg01.conf

Borrado de un VG

Cuando no necesitemos mas un VG podemos borrarlo, existen dos maneras:
  • vgremove
  •  vgexport
Con vgremove, debemos primero remover todos los LV que existan en el VG

Con vgexport no es necesario borrar ningún LV del VG y corremos con la ventaja que si nos equivocamos y necesitamos recuperar el VG, solo debemos importarlo nuevamente. Específicamente cuando exportamos un VG preservamos la estructura de LVM de los discos este procedimiento quita la vinculacion de OS con el VG.

Para borrar el VG

Una vez borrados los LV corremos el vgremove

#vgremove vg01
Volume group "vg01" has been successfully removed.

Para exportar el VG

#vgchange -a n vg01
Volume group "vg01" has been successfully changed.
#vgexport vg01
vgexport: Volume group "vg01" has been successfully removed.

Si necesito volver a importar el vg corro lo siguiente

#vgimport vg01 /dev/disk/disk5
vgimport: Volume group "/dev/vg01" has been successfully created.
Warning: A backup of this volume group may not exist on this machine.
Please remember to take a backup using the vgcfgbackup command after activating the volume group.
#vgchange -a y vg01
Activated volume group.
Volume group "vg01" has been successfully changed.

Si el VG tuviera FSs ya se podrían montar y usar.

Extender un VG

Cuando nos estamos quedando sin espacio en un VG podemos extenderlo agregándole otro PV, el comando a utilizar se llama vgextend, los pasos son identificar el nuevo disco, inicializarlo y agregarlo al VG

ioscan -fnNC disk
Class     I  H/W Path  Driver S/W State   H/W Type     Description
===================================================================
disk      2  64000/0xfa00/0x0  esdisk   CLAIMED     DEVICE       HP      Virtual NullDVD
                      /dev/disk/disk2   /dev/rdisk/disk2
disk      3  64000/0xfa00/0x1  esdisk   CLAIMED     DEVICE       HP      Virtual LvDisk
                      /dev/disk/disk3      /dev/disk/disk3_p2   /dev/rdisk/disk3     /dev/rdisk/disk3_p2
                      /dev/disk/disk3_p1   /dev/disk/disk3_p3   /dev/rdisk/disk3_p1  /dev/rdisk/disk3_p3
disk      5  64000/0xfa00/0x5  esdisk   CLAIMED     DEVICE       HP      Virtual LvDisk
                      /dev/disk/disk5   /dev/rdisk/disk5
disk      7  64000/0xfa00/0x6  esdisk   CLAIMED     DEVICE       HP      Virtual LvDisk
                      /dev/disk/disk7   /dev/rdisk/disk7


En este caso el disco nuevo es el disk7

#pvcreate /dev/rdisk/disk7
Physical volume "/dev/rdisk/disk7" has been successfully created.
#vgextend vg01 /dev/disk/disk7
Volume group "vg01" has been successfully extended.
Volume Group configuration for /dev/vg01 has been saved in /etc/lvmconf/vg01.conf

Para verificar y chequear el estado del VG corremos un vgdisplay

<root@test2:/dev>vgdisplay vg01
--- Volume groups ---
VG Name                     /dev/vg01
VG Write Access             read/write
VG Status                   available
Max LV                      255
Cur LV                      0
Open LV                     0
Max PV                      16
Cur PV                      2
Act PV                      2

Max PE per PV               1016
VGDA                        4
PE Size (Mbytes)            4
Total PE                    998
Alloc PE                    0
Free PE                     998
Total PVG                   0
Total Spare PVs             0
Total Spare PVs in use      0
VG Version                  1.0
VG Max Size                 65024m
VG Max Extents              16256

Aqui vemos que la tanto la cantidad de discos como el espacio libre ha aumentado.

Algunas cajas de disco pueden extender el tamaño de la LUN,  HP-UX 11v3 tiene la capacidad de notar ese cambio y reflejarlo en las estructuras de LVM.

Extension dinamica de una LUN (Dynamic LUN Expansion DLE)

Para esto primero necesitamos que nos agranden la LUN que estamos usando. Luego que nos hayan extendido la LUN corremos un vgmodify de la siguiente forma

 vgmodify -a -E /dev/vg01

miércoles, 6 de abril de 2011

Patch management con SWA



Los parches para los equipos HP-UX se deben bajar de la web http://www.itrc.hp.com para ello deben dar de alta un user dentro de la misma pagina y vinclularlo con un contrato de soporte activo.


Instalacion de SWA

Bajar el soft de www.hp.com/go/swa-download la ultima version de swa actualmente es la C.02.85
Una que lo bajamos y copiamos al equipo procedemos a la instalacion

<root@test2:/tmp>swinstall -s /tmp/SwAssistant_C.02.85_HP-UX_B.11.23_IA_PA.depot

Luego de la instalacion verificamos el estado del producto

<root@test2:/tmp>swverify SWA


=======  03/30/11 10:24:11 SAT  BEGIN swverify SESSION
         (non-interactive) (jobid=test2-0038)


       * Session started for user "root@test2".


       * Beginning Selection
       * Target connection succeeded for "test2:/".
       * Software selections:
           + Jre15.JRE15,l=/opt/java1.5,r=1.5.0.19.00,a=HP-UX_B.11.11_32/64,v=HP,fr=1.5.0.19.00,fa=HP-UX_B.11.31_IA
           + Jre15.JRE15-COM,l=/opt/java1.5,r=1.5.0.19.00,a=HP-UX_B.11.11_32/64,v=HP,fr=1.5.0.19.00,fa=HP-UX_B.11.11_32/64
           + Jre15.JRE15-COM-DOC,l=/opt/java1.5,r=1.5.0.19.00,a=HP-UX_B.11.11_32/64,v=HP,fr=1.5.0.19.00,fa=HP-UX_B.11.11_32/64
           + Jre15.JRE15-IPF32,l=/opt/java1.5,r=1.5.0.19.00,a=HP-UX_B.11.11_32/64,v=HP,fr=1.5.0.19.00,fa=HP-UX_B.11.22_IA
           + Jre15.JRE15-IPF32-HS,l=/opt/java1.5,r=1.5.0.19.00,a=HP-UX_B.11.11_32/64,v=HP,fr=1.5.0.19.00,fa=HP-UX_B.11.22_IA
           + Jre15.JRE15-IPF64,l=/opt/java1.5,r=1.5.0.19.00,a=HP-UX_B.11.11_32/64,v=HP,fr=1.5.0.19.00,fa=HP-UX_B.11.22_IA
           + Jre15.JRE15-IPF64-HS,l=/opt/java1.5,r=1.5.0.19.00,a=HP-UX_B.11.11_32/64,v=HP,fr=1.5.0.19.00,fa=HP-UX_B.11.22_IA
           + Judy-lib.JUDY,l=/,r=B.11.31.04.18,a=HP-UX_B.11.31_IA/PA,v=HP,fr=B.11.31.04.18,fa=HP-UX_B.11.31_IA
           + Judy-lib.JUDY-COMMON,l=/,r=B.11.31.04.18,a=HP-UX_B.11.31_IA/PA,v=HP,fr=B.11.31.04.18,fa=HP-UX_B.11.31_IA/PA
             SWA.SWA-JAR,l=/,r=C.02.85,a=HP-UX_B.11.23_IA/PA,v=HP,fr=C.02.85,fa=HP-UX_B.11.23_IA/PA
             SWA.SWA-MX,l=/,r=C.02.85,a=HP-UX_B.11.23_IA/PA,v=HP,fr=C.02.85,fa=HP-UX_B.11.23_IA/PA
             SWA.SWA-REPORT,l=/,r=C.02.85,a=HP-UX_B.11.23_IA/PA,v=HP,fr=C.02.85,fa=HP-UX_B.11.23_IA/PA
             SWA.SWA-SH,l=/,r=C.02.85,a=HP-UX_B.11.23_IA/PA,v=HP,fr=C.02.85,fa=HP-UX_B.11.23_IA/PA
           + SwaMin.SWA-RUN,l=/,r=C.02.85,a=HP-UX_B.11.23_IA/PA,v=HP,fr=C.02.85,fa=HP-UX_B.11.23_IA
       * A "+" indicates an automatic selection due to dependency or
         the automatic selection of a patch or reference bundle.
       * Selection succeeded.




       * Beginning Analysis
       * Session selections have been saved in the file
         "/.sw/sessions/swverify.last".
       * The analysis phase succeeded for "test2:/".
       * Verification succeeded.




NOTE:    More information may be found in the agent logfile using the
         command "swjob -a log test2-0038 @ test2:/".


=======  03/30/11 10:24:24 SAT  END swverify SESSION (non-interactive)
         (jobid=test2-0038)

Luego de instalar y verificar el estado del SWA, vamos a configurarlo para eso copiaremos el archivo de template swa.conf.template a swa.conf y luego lo editaremos

<root@test2:/etc/opt/swa>cp swa.conf.template swa.conf

En este caso vamos hacer una configuracion sencilla mediante proxy para ello solo necesitaremos el ID y Passwd de itrc (asociados a un contrato de soporte) y por ultimo la configuracion del proxy

hp_id=<ITRC_User>
hp_pw=<ITRC_Passwd>
proxy=http://proxy_user:user_passwd@proxy:port

Las demas opciones por ahora las dejaremos con los valores default

Ahora tenemos la configuracion lista para correr el reporte inicial

<root@corona:/var/adm/crash/Patch>swa report


=======  03/30/11 15:04:59 SAT  BEGIN Report on Issues and New Software
         (user=root)  (jobid=corona)


       * Gathering Inventory
       * Using existing inventory for host "corona"
       * Getting Catalog of Recommended Actions and Software
       * Using existing local catalog file
       * Performing Analysis
       * Generating Reports
NOTE:    See HTML-formatted report "/.swa/report/swa_report.html"
                             Software Assistant
                                Action Report


Assessment Profile


Inventory Source
   Name: corona
   OS: HP-UX B.11.31
   Model: 9000/800/rp4440
   Inventory File: /.swa/cache/swa_inventory_1985086693.xml
   Inventory Date: 30 March 2011 08:59:29 GMT-03:00


Catalog Information
   Catalog File: /.swa/cache/swa_catalog.xml
   Catalog Date: 29 March 2011 22:32:08 GMT-03:00


Analysis Information
   Analysis File: /.swa/cache/swa_analysis.xml
   Analysis Date: 30 March 2011 15:05:14 GMT-03:00
   Ignore Files: /.swa/ignore
   Issues Ignored: 0


Selected Analyzers
   QPK: latest Quality Pack bundle
   SEC: security bulletins
   PCW: patches with critical warnings




Recommended Actions


Patch Bundles


   The following bundles are recommended by HP. The patches delivered in these
   patch bundles might include fixes for patches not listed in this report. If
   you will not install the patch bundles listed here, rerun the
   analysis without the "QPK" analyzer and generate a new report to obtain
   a full list of patches.


   Bundle        Revision          Description
   ------        --------          -----------
   QPK1131       B.11.31.1103.361  Quality Pack Depot for 11i v3, March 2011
      With bundle QPKAPPS revision B.11.31.1103.361
      With bundle QPKBASE revision B.11.31.1103.361




Patches


   See the Detail or HTML report for more links to patch details such as
   special installation instructions, patch quality rating, patch reboot,
   and other dependencies.
   Patches followed by an asterisk (*) or a plus sign (+) meet a dependency
   for one or more of the recommended patches listed.
   * identifies a patch dependency missing from the system.
   + identifies a patch dependency already installed on the system or
   satisfied by an installed superseding patch.


   Patch ID     Date        Description
   --------     ----        -----------
   PHKL_40944   2010-06-22  fs_filedscrp cumulative patch
   PHKL_41796   2011-02-17  VRTS 5.0 MP1P4 VRTSvxfs Kernel Patch
   PHSS_41535   2010-10-15  Serviceguard A.11.19.00
   PHSS_41556   2010-12-10  OV EMANATE15.3 PA-RISC Consolidated Patch 8
   PHSS_41557   2010-12-10  OV EMANATE15.3 IA-64 Consolidated Patch 8
   PHSS_41775   2011-01-07  KRB5-Client Version 1.3.5.03 Cumulative patch




Manual Actions


   See the Detail or HTML report for more information on each action.
   The following Detection Confidence (DC) levels are used:
     D - Detection confidence is "definite" and based on specific revisions
         of installed software.
     R - Detection confidence is "relevant" and based on installed software
         but can not determine if action has been taken.
     U - Detection confidence is "unknown" and based only on operating
         system version.


   Issue     DC  Date        Description
   -----     --  ----        -----------
   02351r6   D   2010-12-15  For NameService, install revision C.9.3.2.8.0 or
                             subsequent
   02411r1   D   2009-03-10  For Jdk15, install revision 1.5.0.21.00 or
                             subsequent
   02411r1   D   2009-03-10  For Jdk60, install revision 1.6.0.09.00 or
                             subsequent
   02411r1   D   2009-03-10  For Jre60, install revision 1.6.0.09.00 or
                             subsequent
   02415r1   D   2009-04-07  For PAM-Kerberos, install revision D.01.25 or
                             subsequent
   02418r1   D   2009-03-31  For openssl, install revision A.00.09.08q.003 or
                             subsequent
   02429r2   D   2009-06-02  For Jdk14, install revision 1.4.2.26.00 or
                             subsequent
   02429r2   D   2009-06-02  For Jre14, install revision 1.4.2.26.00 or
                             subsequent
   02465r1   D   2009-10-22  For hpuxwsAPACHE, install revision B.2.0.63.01 or
                             subsequent
   02479r1   D   2010-01-28  For CIFS-Server, install revision A.02.04.01 or
                             subsequent
   02479r1   D   2010-01-28  For CIFS-CFSM, install revision A.02.03.05 or
                             subsequent
   02509r1   D   2010-03-26  For NFS, install revision B.11.31.09 or subsequent
   02525r1   D   2010-04-27  For SysMgmtDB, install revision C.06.00.00.00 or
                             subsequent
   02541r1   D   2010-06-17  For hpuxwsTOMCAT, install revision B.5.5.29.01 or
                             subsequent
   02332r2   R   2008-05-20  For hpuxwsAPACHE, restart Apache
   02335r2   R   2008-05-27  For OS-Core, verify group id and home directory for
                             all accounts
   02342r2   R   2008-06-23  For hpuxwsAPACHE, restart Apache
   02351r6   R   2010-12-15  For NameService, remove "query-source port" and
                             "query-source-v6 port" options in /etc/named.conf.
   02355r2   R   2009-11-02  For OS-Core, uRL http://itrc.hp.com
   02355r2   R   2009-11-02  For ProgSupport, uRL http://itrc.hp.com
   02365r1   R   2008-08-28  For hpuxwsAPACHE, restart Apache
   02366r2   R   2009-05-08  For OS-Core, verify group id and home directory for
                             all accounts
   02380r2   R   2008-11-10  For SysMgmtHomepage, install 2.2.9.1 or subsequent
   02418r1   R   2009-03-31  For fips_1_1_2, install revision
                             FIPS-OPENSSL-1.1.2.048 or subsequent
   02421r2   R   2009-10-01  For KRB5-Client, uRL http://itrc.hp.com
   02435r1   R   2009-06-09  For fips_1_1_2, install revision
                             FIPS-OPENSSL-1.1.2.051 or subsequent
   02440r1   R   2009-07-01  For NFS, install revision ONCplus B.11.31.07.01
   02445r1   R   2009-07-29  For SG-Manager, install Serviceguard Manager
                             A.05.02 or subsequent
   02445r1   R   2009-07-29  For SG-Manager-Addon, install Serviceguard Manager
                             A.05.02 or subsequent
   02451r4   R   2010-12-16  For NameService, install
                             HPUX-NameServer_C.9.3.2.8.0_HP-UX_B.11.31_IA_PA.depot
   02457r1   R   2009-09-22  For RBAC, uRL http://itrc.hp.com
   02508r2   R   2010-04-21  For Sendmail, install C.8.13.3.5 or subsequent
   02514r1   R   2010-03-27  For OS-Core, uRL http://itrc.hp.com
   02514r1   R   2010-03-27  For ProgSupport, uRL http://itrc.hp.com
   02520r1   R   2010-05-11  For SysMgmtServer, install Hot Fix Update Kit for
                             HP SIM 5.3 - HP-UX
   02520r1   R   2010-05-11  For SysMgmtServer, install Hot Fix Update Kit for
                             HP SIM 6.0 - HP-UX
   02523r2   R   2010-05-29  For NFS, install revision ONCplus B.11.31.09.01 or
                             subsequent
   02543r1   R   2010-06-17  For hpuxwsAPACHE, hP-UX Web Server Suite v3.10
   02544r1   R   2010-06-24  For KRB5-Client, uRL http://itrc.hp.com
   02546r1   R   2010-09-16  For NameService, install C.9.3.2.8.0
   02547r1   R   2010-07-12  For SysMgmtServer, update to HP SIM v6.1 or
                             subsequent
   02590r1   R   2010-10-13  For SysMgmtServer, install the appropriate hotfix
   02591r1   R   2010-10-18  For SysMgmtServer, install HP SIM v6.2 or
                             subsequent
   02592r1   R   2010-10-18  For SysMgmtServer, install HP SIM v6.2 or
                             subsequent
   02309r1   U   2008-02-06  Upgrade Select Identity software if in use.
   02317r1   U   2008-04-01  Upgrade Select Identity software if in use.
   02490r2   U   2010-04-02  Install SOAS_0017 or subsequent URL
                             http://support.openview.hp.com/selfsolve/patches
   02490r2   U   2010-04-02  Install SOAS_0018 or subsequent URL
                             http://support.openview.hp.com/selfsolve/patches
   02596r1   U   2010-10-18  If AssetManager is installed, apply the appropriate
                             patch
   02627r1   U   2011-01-31  Apply the "5.41.002 piweb HF02" hotfix if HP
                             OpenView Performance Insight Server is installed
   02633r1   U   2011-02-24  Update using FPUpdater if Java is installed




SEE ALSO


   swa "issue", "detail", and "html" reports, swa-report(1m).


=======  03/30/11 15:05:17 SAT  END Report on Issues and New Software
         succeeded. (user=root)  (jobid=corona)


NOTE:    More information may be found in the Software Assistant logfile
         "/var/opt/swa/swa.log".
<root@corona:/var/adm/crash/Patch>

luego hacemos el swa get -t <target_depot >

y por ultimo instalamos los parches  con un swinstall interactivo

swinstall -s <full_path_to_target_depot>

Configuración de Auto Port Aggregation en HP-UX

Configuración de APA (en modo Etherchannel)

Configurar el archivo /etc/rc.config.d/hp_apaconf de la sig manera

#Parametros globales
HP_APA_DEFAULT_PORT_MODE=FEC_AUTO
HP_APA_USE_SYSLOG=1

#Parametros propios del canal que estamos configurando
HP_APA_INTERFACE_NAME[0]=lan900
HP_APA_LOAD_BALANCE_MODE[0]=LB_MAC
HP_APA_GROUP_CAPABILITY[0]=900

En el archivo /etc/rc.config.d/hp_apaportconf configuramos el grupo de placas que queremos agregar al FEC

HP_APAPORT_INTERFACE_NAME[0]=lan0
HP_APAPORT_GROUP_CAPABILITY[0]=900
HP_APAPORT_CONFIG_MODE[0]=FEC_AUTO


HP_APAPORT_INTERFACE_NAME[1]=lan1
HP_APAPORT_GROUP_CAPABILITY[1]=900
HP_APAPORT_CONFIG_MODE[1]=FEC_AUTO

Cambiar el /etc/rc.config.d/netconf para agregar la ip del host a la nueva interfaz (lan900)

Desconfigurar las placas

ifconfig lan0 down
ifconfig lan0 unplumb
ifconfig lan1 down
ifconfig lan1 unplumb

Ahora activamos el canal

/sbin/init.d/hpapa stop
/sbin/init.d/hpapa start

Para verificar la configuración del aggregate

#nwmgr


Name/          Interface Station          Sub-   Interface      Related
ClassInstance  State     Address        system   Type           Interface
============== ========= ============== ======== ============== =========
lan0           UP        0x00156004DF18 iether   1000Base-T     lan900
lan1           UP        0x00156004DF18 iether   1000Base-T     lan900
lan900         UP        0x00156004DF18 hp_apa   hp_apa
lan901         DOWN      0x000000000000 hp_apa   hp_apa
lan902         DOWN      0x000000000000 hp_apa   hp_apa
lan903         DOWN      0x000000000000 hp_apa   hp_apa
lan904         DOWN      0x000000000000 hp_apa   hp_apa

Ahí se ven las placas lan0 y lan1 relacionadas a la interfaz logica lan900

Podemos ver las estadisticas del canal con el siguiente comando

#nwmgr --stats -c lan900 -S apa
***          lan900 64 bit MIB statistics:
Interface Name               = lan900
PPA Number                   = 900
Description                  = lan900 Hewlett-Packard LinkAggregate Interface
MTU Size                     = 1500
Speed                        = 2 Gbps
Station Address              = 0x00156004DF18
Administration Status        = UP
Operation Status             = UP
Last Change                  = Tue Apr  5 19:12:23 2011
Inbound Octets               = 484137017609
Inbound Unicast Packets      = 529789946
Inbound Multicast Packets    = 82138
Inbound Broadcast Packets    = 20172
Inbound Discards             = 185249404
Inbound Errors               = 0
Inbound Unknown Protocols    = 4114
Outbound Octets              = 243664086310
Outbound Unicast Packets     = 254243264
Outbound Multicast Packets   = 4114
Outbound Broadcast Packets   = 341
Outbound Discards            = 0
Outbound Errors              = 0
Counter Discontinuity Time   = Tue Apr  5 18:54:03 2011
Physical Promiscuous Mode    = TRUE
Physical Connector Present   = FALSE
Interface Alias              =
Link Up/Down Trap Enable     = Enabled

Podemos observar que el ancho de banda se duplico a 2GBs