Bienvenidos

Todos estos pasos descriptos fueron probados en ambientes productivos

miércoles, 31 de mayo de 2017

Desinstalar y upgradear el agente de monitoreo de HP, OVO

Para poder hacer un upgrade del agente de monitoreo OVO, se necesita tener solo una instancia corriendo a la vez,asi que primero, necesitamos desinstalar los siguientes paquetes , en el orden descripto a continuacion :
pkgrm HPOvEaAgt
 pkgrm HPOvPetc
pkgrm HPOvPCO
pkgrm HPOvPacc
pkgrm HPOvPerlA
pkgrm HPOvSecCC
pkgrm HPOvConf                        
pkgrm HPOvDepl
pkgrm HPOvCtrl
pkgrm HPOvBbc
pkgrm HPOvSecCo                       
pkgrm HPmwa
pkgrm HParm
pkgrm  HPOvPacc
pkgrm HPOvXpl

Luego , podemos ejecutar la instalacion dela siguiente manera :
./oasetup.sh -install -minprecheck  -management_server  -certificate_server –f

Error ANS1051I Invalid password en job de TSM

Cuando me dio este error en tsm ,
En los logs dice que no levanta por Invalid password
ANS1051I Invalid password
Please enter your user id :
Please enter password for user id "CTRL_PARK_COLD":
ANS1025E Session rejected: Authentication failure

Me conecto al servidor de tsm, en este caso al equipo aix05 y correr

aix05:/home/root>dsmadmc -se=corpov7 -id=cone -pass=password
IBM Tivoli Storage Manager
Command Line Administrative Interface - Version 6, Release 2, Level 1.0
(c) Copyright by IBM Corporation and other(s) 1990, 2010. All Rights Reserved.

Session established with server CORPO: AIX
  Server Version 7, Release 1, Level 5.0
  Server date/time: 08/31/16   22:22:49  Last access: 08/23/16   16:26:04


tsm: CORPO>q n centr*

Node Name                     Platform     Policy Domain      Days Since     Days Since     Locked?
                                           Name               Last Acce-       Password
                                                                      ss            Set
-------------------------     --------     --------------     ----------     ----------     -------
CTRL_PARK_COLD             SUN SOL-     UNIX                       <1 54="" nbsp="" no="" p="">                               ARIS
CTRL_PARK_RMAN             TDP Ora-     ORACLE                     <1 nbsp="" no="" p="">                               cle SUN

tsm: CORPO>upd n CTRL_PARK_COLD empresa
ANR2063I Node CTRL_PARK_COLD updated.

tsm: CORPO>

luego conectarme al solaris sun5002  y  correr un

root@sun5002 # dsmc q sched -se=CTRL_PARK_COLD
IBM Tivoli Storage Manager
Command Line Backup-Archive Client Interface
  Client Version 7, Release 1, Level 4.0
  Client date/time: 08/31/16   10:24:56 PM
(c) Copyright by IBM Corporation and other(s) 1990, 2015. All Rights Reserved.
Node Name: CTRL_PARK_COLD
Session established with server CORPO: AIX
  Server Version 7, Release 1, Level 5.0
  Server date/time: 08/31/16   10:24:52 PM  Last access: 08/31/16   09:35:32 PM

    Schedule Name: SELECTIVE_CTRL_PARK
      Description: selective.Semanal CTRL_PARK
   Schedule Style: Classic
           Action: Selective
          Options: -su=yes
          Objects: /app/parque/batch/ /export/home/x302168/ /interfaz/parque/ /TSM_Backup_CPARK/BIN/ /x00/ /x01/ /x02/ /x03/ /x04/ /x05/ /x06/
         Priority: 5
   Next Execution: 79 Hours and 45 Minutes
         Duration: 10 Hours
           Period: 1 Day
      Day of Week: Sunday
            Month:
     Day of Month:
    Week of Month:
           Expire: Never

root@sun5002 #

entonces lo que hice fue correr el comando  tal como lo ejecuta en el script del cluster /TSM_Backup_CPARK/ tsm_CTRL_PARK_COLD.scr
root@sun5002 # ulimit unlimited
root@sun5002 # nohup dsmc sched -se=CTRL_PARK_COLD -optfile=/TSM_Backup_CPARK/dsm.opt < /dev/null >> /dev/null 2>&1 &
[1]     12286
root@sun5002 # ps -ef|grep dsm
    root  1037     1   0   Aug 30 ?           0:05 dsmc sched -se=CT_COLD -optfile=/TSM_Backup_CT/dsm.opt
    root 12286  3256   0 22:32:36 pts/12      0:00 dsmc sched -se=CTRL_PARK_COLD -optfile=/TSM_Backup_CPARK/dsm.opt
    root 29922     1   0   Aug 30 ?          16:44 dsmc sched -se=CT -optfile=/TSM_Backup_CT/dsm.opt
    root 12425  3256   0 22:32:49 pts/12      0:00 grep dsm
root@sun5002 #

Agregar discos a un zpool

Me asignaron 2 discos ( c0t60050768018086DC3800000000000303d0 y c0t60050768018086DC3800000000000304d0 ) e hice esto

root@sunips1:~# zpool add BACKUPS c0t60050768018086DC3800000000000303d0
root@sunips1:~# zpool status -v BACKUPS
  pool: BACKUPS
state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        BACKUPS                                  ONLINE       0     0     0
          c0t60050768018086DC38000000000002F5d0  ONLINE       0     0     0
          c0t60050768018086DC38000000000002F4d0  ONLINE       0     0     0
          c0t60050768018086DC380000000000019Cd0  ONLINE       0     0     0
          c0t60050768018086DC380000000000019Bd0  ONLINE       0     0     0
          c0t60050768018086DC3800000000000303d0  ONLINE       0     0     0

errors: No known data errors
root@sunips1:~# zpool status -v | grep c0t60050768018086DC3800000000000304
root@sunips1:~# zpool add BACKUPS c0t60050768018086DC3800000000000304d0
root@sunips1:~# zpool status -v BACKUPS
  pool: BACKUPS
state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        BACKUPS                                  ONLINE       0     0     0
          c0t60050768018086DC38000000000002F5d0  ONLINE       0     0     0
          c0t60050768018086DC38000000000002F4d0  ONLINE       0     0     0
          c0t60050768018086DC380000000000019Cd0  ONLINE       0     0     0
          c0t60050768018086DC380000000000019Bd0  ONLINE       0     0     0
          c0t60050768018086DC3800000000000303d0  ONLINE       0     0     0
          c0t60050768018086DC3800000000000304d0  ONLINE       0     0     0

errors: No known data errors
root@sunips1:~#
luego hice  un df -h /BACKUPS y lo agrando solo
~

Poco frecuente, pero nos paso, error fisico de Fibra

En un t5-2 , con 1 pci, con dos FC, nos asignaron luns.
En el messages del equipo nos arrojaba estos errores de timeout
May 12 13:12:49 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625f (ssd47): Command Timeout on path fp3/ssd@w50001442a01f6201,2
May 12 13:13:21 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625e (ssd40): Command Timeout on path fp3/ssd@w50001442b01f7a01,9
May 12 13:14:05 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625f (ssd47): Command Timeout on path fp3/ssd@w50001442a01f6201,2
May 12 13:14:27 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625e (ssd40): Command Timeout on path fp3/ssd@w50001442b01f7a01,9
May 12 13:16:17 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625e (ssd40): Command Timeout on path fp3/ssd@w50001442b01f7a01,9
May 12 13:16:34 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625f (ssd47): Command Timeout on path fp3/ssd@w50001442a01f6201,2
May 12 13:17:29 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625e (ssd40): Command Timeout on path fp3/ssd@w50001442b01f7a01,9
May 12 13:17:46 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625f (ssd47): Command Timeout on path fp3/ssd@w50001442b01f7a01,2
May 12 13:18:46 t5-2-coneja   /scsi_vhci/ssd@g600014400000001070211e0f481e625f (ssd47): Command Timeout on path fp3/ssd@w50001442b01f7a01,2

< Corto la salida de error porque es muy extensa >

El comando format quedaba colgado

Cualquier operacion que se quiera hacer sobre los discos del ldom del t5-2, tardan muchisimo.
Lo primero que hice fue hacer un format, se quedaba colgado.
Googlee ese caso y coincide con https://support.symantec.com/en_US/article.TECH225180.html que basicamente dice que
Para que no se cuelgue el format previamente tenes que hacer esto ( lo hice y funciono ) dice que esta solucion aplica si tenes el parche  118833-36 (or
higher)  o superior y en nuestro caso SI lo tenenmos
# NOINUSE_CHECK=1
# export NOINUSE_CHECK
# format

Pero cuando quiero hacer un newfs al d100 ( disco c0d2s0 )
Tarda casi 4 minutos para un newfs de un disco de 30gb
[sunt100] / # time newfs /dev/md/rdsk/d100
newfs: construct a new file system /dev/md/rdsk/d100: (y/n)? y
Warning: 2048 sector(s) in last cylinder unallocated
/dev/md/rdsk/d100:      62906368 sectors in 10239 cylinders of 48 tracks, 128 sectors
        30716.0MB in 640 cyl groups (16 c/g, 48.00MB/g, 5824 i/g)
super-block backups (for fsck -F ufs -o b=#) at:
32, 98464, 196896, 295328, 393760, 492192, 590624, 689056, 787488, 885920,
Initializing cylinder groups:
............
super-block backups for last 10 cylinder groups at:
61938464, 62036896, 62135328, 62233760, 62332192, 62430624, 62529056,
62627488, 62725920, 62824352

real    3m38.99s
user    0m0.74s
sys     0m0.20s
[sunt100] / #

Por otro lado, vi que se solucionaba con un FAST REBOOT, lo hicimos y se soluciono el tema del format.

Despues de encontrar el error de timeout, trate de buscar donde estaba.
Asi que revise los errores en los hba y me encontre con esto. El primer port estaba OK el segundo con errores de tx y de crc.

root@t5-2-coneja # fcinfo hba-port -l 2100000e1e2871f0
HBA Port WWN: 2100000e1e2871f0
        Port Mode: Initiator
        Port ID: 700300
        OS Device Name: /dev/cfg/c6
        Manufacturer: QLogic Corp.
        Model: 7023303
        Firmware Version: 7.05.01
        FCode/BIOS Version:  BIOS: 3.19; fcode: 4.02; EFI: 5.36;
        Serial Number: 463916R+1525264578
        Driver Name: qlc
        Driver Version: 150505-5.03b
        Type: N-port
        State: online
        Supported Speeds: 4Gb 8Gb 16Gb
        Current Speed: 16Gb
        Node WWN: 2000000e1e2871f0
        Link Error Statistics:
                Link Failure Count: 1
                Loss of Sync Count: 0
                Loss of Signal Count: 0
                Primitive Seq Protocol Error Count: 0
                Invalid Tx Word Count: 0
                Invalid CRC Count: 0
        Max NPIV Ports: 254
        NPIV port list:
root@t5-2-coneja # fcinfo hba-port -l 2100000e1e2871f1
HBA Port WWN: 2100000e1e2871f1
        Port Mode: Initiator
        Port ID: 710300
        OS Device Name: /dev/cfg/c7
        Manufacturer: QLogic Corp.
        Model: 7023303
        Firmware Version: 7.05.01
        FCode/BIOS Version:  BIOS: 3.19; fcode: 4.02; EFI: 5.36;
        Serial Number: 463916R+1525264578
        Driver Name: qlc
        Driver Version: 150505-5.03b
        Type: N-port
        State: online
        Supported Speeds: 4Gb 8Gb 16Gb
        Current Speed: 16Gb
        Node WWN: 2000000e1e2871f1
        Link Error Statistics:
                Link Failure Count: 1
                Loss of Sync Count: 0
                Loss of Signal Count: 0
                Primitive Seq Protocol Error Count: 0
                Invalid Tx Word Count: 189
                Invalid CRC Count: 5988
        Max NPIV Ports: 254
        NPIV port list:

Conclusion  hasta ese momento, es el gbic o el cable de fibra o el gbic del lado del switch.
Solucion temporaria para que no explote todo. desconfigure la /dev/cfg/c7

cfgadm -f -c unconfigure c7

Habiendo cambiado el gbic para descartar que ese sea el problema , la solucion temporaria , pero nos quedamos sin multipath, es quedar funcionando con so
lo una fibra conectada al port c6 y pedir el recableado de fibras.
******La solucion definitiva, fue cambiar el cable fisico de Fibra

martes, 30 de mayo de 2017

Para cambiar ip o setear la ip e un t5220 o t71/2


Primero configurar al SP ( Service Processor ) para que la Ip sea estatica
-> set /SP/network pendingdiscovery=static

Seteo la direccion IP para la SP
-> set /SP/network pendingipaddress=10.67.33.115

Setear la direccion IP del gateway
-> set /SP/network pendingipgateway=10.67.33.1

Setear el netmask para la SP
-> set /SP/network pendingipnetmask=255.255.255.0

*** las ip son a modo de ejemplo, tanto la de gateway como la del SP y netmask

Instalacion del Agente de Control M , Version 9.0.00 y su Fix Pack

Para la instalacion vamos a crear previamente el usuario que definimos con anterioridad, x300168 y el grupo controlm
El directorio de instalacion sera el mismo del usuario, para el caso que definimos es el /export/home/x300168
Los servidores de ControlM  tienen como hostname controlm .

-rwxr-xr-x   1 root     root         99M Jul 12  2016 PAKAI.9.0.00.200_Solaris_INSTALL.BIN

[sun5004] NUEVO /export/home/x300168 # ls -ltr
total 152
-rwxr-xr-x   1 root     root        6656 Jun  9  2014 setup.sh
-rwxrwxrwx   1 root     root       66064 Jun  8  2015 setup.exe
drwxr-xr-x  10 root     root         512 Jun  9  2015 UNIX
drwxr-xr-x   4 root     root         512 Jun  9  2015 Windows
drwxr-xr-x   5 root     root         512 Jun  9  2015 FORMS
drwxr-xr-x   6 root     root         512 Mar 17 10:33 OLD
[sun5004] NUEVO /export/home/x300168 # sh setup.sh
Starting graphical user interface...

The $DISPLAY environment variable is not defined.

Install will continue in non graphical mode.
Are you sure you want to continue?
== No   Yes ==

Enter command:

=== Control-M/Agent 9.0.00 Installation ===


=== License Agreement ===


END USER LICENSE AGREEMENT
BY OPENING THE PACKAGE, INSTALLING, PRESSING "AGREE" OR "YES" OR USING THE PRODUCT, THE ENTITY OR INDIVIDUAL ENTERING INTO THIS AGREEMENT AGREES TO B
E BOUND BY THE FOLLOWING TERMS. IF YOU DO NOT AGREE WITH ANY OF THESE TERMS, DO NOT INSTALL OR USE THE PRODUCT, PROMPTLY RETURN THE PRODUCT TO BMC OR
 YOUR BMC RESELLER, AND IF YOU RETURNED THE LICENSE WITHIN 15 DAYS OF THE DATE OF YOUR ORDER, CONTACT BMC OR YOUR BMC RESELLER FOR A REFUND OF LICENS
E FEES PAID. IF YOU REJECT THIS AGREEMENT, YOU WILL NOT ACQUIRE ANY LICENSE TO USE THE PRODUCT.
This Agreement ("Agreement") is between the entity or individual entering into this Agreement ("Customer") and the BMC Entity for the applicable Regi
on where Customer acquired the License as described in Section 18 ("BMC").

Press to continue or to skip:
Press to continue or to skip:   S

Do you accept and agree to the terms of this Software License Agreement (Y/N)?Y
=== Control-M/Agent 9.0.00 Installation ===


=== Product Settings : Control-M/Agent parameters ===


1 : Primary Control-M/Server host:

2 : Authorized Control-M/Server hosts:

3 : Agent-to-Server port number: 7005

4 : Server-to-Agent port number: 7006


== Cancel Previous Panel / Next Panel ==

Enter command or item number you wish to change: 1

Enter a new value for Primary Control-M/Server host: controlm
=== Control-M/Agent 9.0.00 Installation ===


=== Product Settings : Control-M/Agent parameters ===


1 : Primary Control-M/Server host: controlm
2 : Authorized Control-M/Server hosts:

3 : Agent-to-Server port number: 7005

4 : Server-to-Agent port number: 7006


== Cancel Previous Panel / Next Panel ==

Enter command or item number you wish to change: 2

Enter a new value for Authorized Control-M/Server hosts: controlm
=== Control-M/Agent 9.0.00 Installation ===


=== Summary ===


  You are about to install Control-M/Agent version 9.0.00

Destination Folder: /export/home/x300168

Primary Control-M/Server Host: controlm

Control-M/Server Hosts: controlm

Agent To Server Port: 7005

Server To Agent Port: 7006

Agent will be started as: Root

== Cancel Previous Panel / Install Generate an automatic installation configuration file ==

Enter command:
=== Control-M/Agent 9.0.00 Installation ===


=== Installation ===


[ Starting to unpack ]
[ Processing package: Check pre-requirements for Control-M/Agent ]
[ Processing package: Control-M/Agent files ]
\
[ Processing package: Configure Control-M/Agent ]
[ Processing package: Create softlinks for Control-M/Agent ]
[ Processing package: Start and enable Control-M Agent ]
[ Processing package: The installed-versions.txt update. ]
[ Processing package: Write uninstaller ]


=== Control-M/Agent 9.0.00 Installation ===


=== Installation Result - Success ===


Installation has completed successfully.

Note:

1. To start working with Control-M/Agent 9.0.00, you must close
the current session and open a new one.

2. If you want the agent to start automatically when the host is restarted,
implement the '/export/home/x300168/ctm/scripts/rc.agent_user' script
or replace any existing startup script with it.
For more information, refer to the Installation Guide.

Debo exportar la variableCONTROLM con el directorio donde se instalara el producto
[sun5004] NUEVO /export/home/x300168 # export CONTROLM=/export/home/x300168/ctm
Ahora si, ejecuto el script de instalacion del FixPack
[sun5004] NUEVO /export/home/x300168 # ./PAKAI.9.0.00.200_Solaris_INSTALL.BIN
Extracting files...
Succeeded in extracting files to /tmp/PAKAI.9.0.00.200_Solaris_INSTALL.BIN_root.

Initiating installer, please wait...

Starting installation of Control-M/Agent 9.0.00 Fix Pack 2
Are you sure you want to install Control-M/Agent 9.0.00 Fix Pack 2? [y/n]: y
Copy WinInstallHelper
Updating settings...
Updating configurations...
Copying files...
Create exe_900fp2 directory
Copy exe directory
Updating settings...
Moving files...
Updating settings...
Copying files...
Updating configurations...
Moving files...
Change binaries ownership
Sending ping to the server
Update Symbolic Link
Creating Job Snapshot file
Chown Job Snapshot file
Renaming Folder name...
Deleting files...
Updating configurations...
Create ctmaggetcm Symbolic Link
Change backup folder ownership
Copy WinInstallHelper To Data
Updating configurations...

Control-M/Agent 9.0.00 Fix Pack 2 installation completed successfully.

Log file:
/export/home/x300168/ctm/install/PAKAI.9.0.00.200/trace.log
[sun5004] NUEVO /export/home/x300168 #

Agregar Filesystem al Sun Cluster 3.3


La finalidad es agregar el filesystem /u27 al Cluster ( conviene hacerlo con la BD baja)
1) Descubro los discos en Solaris
cfgadm -f -c configure c(nro de controladora)
devfsadm -C ( -C significa modo Clean Up )
devfsadm ( crea special files en el /devices y logical links en /dev )
scdidadm -C ( remueve todas las referencias DID de todos los dispositivos Detachados )
scdidadm -r ( reconfiguro los DID ) (en ambos nodos )
scgdevs ( updatea el /globaldevices )
scdpm -p all:all ( chequea que este bien el did en ambos nodos del cluster, suele demorar un rato , no menos de 5 minutos dependiendo la cantidad de discos que tenga)

OJO: Los comandos arriba mencionados,Deben ser ejecutados en AMBOS nodos del cluster

vxdctl enable
agrego los discos en el Veritas ( uso por ejemplo el vxdiskadm menu opcion 1 )


# vxdisk list
# vxassist -g CCtdg make vol27 51687m layout=stripe CCtdg26 CCtdg27 CCtdg28

cldevicegroup sync CCtdg

newfs /dev/vx/rdsk/CCtdg/vol27
Poner el NUEVO FILESYSTEM en el /etc/vfstab de AMBOS NODOS
Conviene poner el cluster en modo mantenimiento, para poder bajar y subir la base de datos, las veces que se necesite y que no se migre el cluster.

clrg suspend cct-rg

Ahora puedo agregar el nuevo filesystem al control del cluster

clrs set -g cct-rg -p FileSystemMountPoints+="/u27"  cct-hastp-rs
clrs show -v   cct-hastp-rs

Luego , poner el cluster en modo normal
clrg resume cct-rg

Capturando paquetes en un puerto en particular, con el comando snoop

El equipo en cuestion, tiene una zona global y 6 zonas no globales. 
Quiero saber si alguno de los containers recibe paquetes por el puerto 4175
La zona global se llama sunp008 y las no globales, sunpc18,sunpc28,sunpc38,sunpc48 y sunpc58

Desde la zona global
root@sunp008-ldm # snoop -o /usr/scripts/snoop4175.txt -vd vnet150000 port 4175
Using device vnet150000 (promiscuous mode)
0
10 ^C


Y se lee con el comando  snoop –i

root@sunp008-ldm # snoop -i snoop4175.txt
  1   0.00000   10.24.2.94 -> sunpc48.coneja.com.ar UDP D=4175 S=51980 LEN=422
  2 378.84111 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  3   0.00375 sunpc58.conneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  4  50.00006 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  5   0.00394 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  6  49.98555 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  7   0.00401 sunpc58.coneja.com.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  8  50.37636 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
  9   0.00396 sunpc58.coneja.com.ar -> 172.18.4.174 ICMP Destination unreachable (UDP port 8122 unreachable)
10   0.70132   10.24.2.94 -> sunpc48.coneja.com.ar UDP D=4175 S=56099 LEN=279
root@sunp008-ldm #

martes, 23 de mayo de 2017

Ver y Crear copia de la configuracion de los LDOM's

Esta configuracion conviene mantenerla actualizada, sobre todo luego de hacer cambios sobre los Logical Domains.
root@m5-2-pdom # ldm list-spconfig
factory-default
io-domain
08072016
19052017
20052017 [next poweron]
root@m5-2-pdom #

Con el siguiente comando creo una copia de configuracion de los  Logical Domains
**** Suele demorar unos 10/15 segundos
El formato que le voy a dar es dia mes año

root@m5-2-pdom # ldm add-spconfig 23052017
Chequeo para ver como quedo
root@m5-2-pdom #  ldm list-spconfig
factory-default
io-domain
08072016
19052017
20052017
23052017 [current]
root@m5-2-pdom #