Bienvenidos

Todos estos pasos descriptos fueron probados en ambientes productivos

sábado, 16 de marzo de 2024

Falla control-m luego de actualizacion de centrify

 

Cuando fallan las conexiones del control-m por actualización o parcheo del centrify. Esta acción la tiene que hacer SI pero por las dudas aca queda.

Control-m usa algoritmo de sssh antiguo que no contemplan las nuevas versiones de ssh

editar:
/etc/centrifydc/ssh/sshd_config

agregar al final:
KexAlgorithms +diffie-hellman-group14-sha1

reiniciar:
centrify-sshd


Verificar en que Switch y puerto esta conectado un Linux

 

# tcpdump -vvi em3| grep -ib5 pac
tcpdump: listening on em3, link-type EN10MB (Ethernet), capture size 262144 bytes
108221-   0x0000:  0078
108238- Port Description TLV (4), length 41: topology/pod-1/paths-209/pathep-[eth1/10]
108318-   0x0000:  746f 706f 6c6f 6779 2f70 6f64 2d31 2f70
108370-   0x0010:  6174 6873 2d32 3039 2f70 6174 6865 702d
108422-   0x0020:  5b65 7468 312f 3130 5d
108457: System Name TLV (5), length 21: PAC-L209.datanet.corp

La opcion del tcpdump fue, –vvi nombre de la placa en linux | grep -ib5, esto es 5 lineas before , si le pusiera -ia5 significa 5 lineas after y pac es porque se que el switch se llama pac-algo

Otra opcion que puedo poner, si no conozco el nombre del switch es buscar por System Name

# tcpdump -vvi eth0| grep -ib5 "System Name"

tcpdump: WARNING: eth0: no IPv4 address assigned
tcpdump: listening on eth0, link-type EN10MB (Ethernet), capture size 65535 bytes
20452741-       Port Description TLV (4), length 54: topology/pod-1/paths-217/extpaths-105/pathep-[eth1/15]
20452834-         0x0000:  746f 706f 6c6f 6779 2f70 6f64 2d31 2f70
20452886-         0x0010:  6174 6873 2d32 3137 2f65 7874 7061 7468
20452938-         0x0020:  732d 3130 352f 7061 7468 6570 2d5b 6574
20452990-         0x0030:  6831 2f31 355d
20453017:       System Name TLV (5), length 21: PAC-L217.datanet.corp
20453072-         0x0000:  5041 432d 4c32 3137 2e64 6174 616e 6574
20453124-         0x0010:  2e63 6f72 70
20453149-       System Description TLV (6), length 23
20453188-         topology/pod-1/node-217
20453215-         0x0000:  746f 706f 6c6f 6779 2f70 6f64 2d31 2f6e
^C81230 packets captured
81272 packets received by filter
36 packets dropped by kernel

martes, 15 de agosto de 2023

BUG 35280225 - libdiskmgt inuse_vxvm() falsely reports disk is part of a VxVM volume

Escenario:
- pdom nombre m8pdom02 SRU (Oracle Solaris 11.4.59.144.2).
- ldom nombre ldom08 SRU (Oracle Solaris 11.4.56.138.2).
- System Configuration:  Oracle Corporation  sun4v SPARC M8-8

Descripcion de la Tarea:
Tenia que quitar el zpool "dump" y generar un nuevo zpool "dump1" con un disco nuevo de mayor tamaño
En uno de los pasos me encontre con un BUG al querer agregar un disco al zpool.

Problema: 

BUG 35280225 - libdiskmgt inuse_vxvm() falsely reports disk is part of a VxVM volume

Solucion :
- Fix has been integrated in to the Solaris development trunk build version that is tentatively scheduled to
  be branched from and released as Solaris 11.4 SRU 60 in mid to late August 2023.
- In the interim use the workaround to disable in use checking by the Solaris disk management library
  with NOINUSE_CHECK=1.


Paso a Paso :
en el pdom ,
root@m8pdom02:# zfs create -V300gb ldoms/ldom08_dump2
root@m8pdom02:# ldm add-vdsdev /dev/zvol/dsk/ldoms/ldom08_dump2 ldom08_dump2@primary-vds0
root@m8pdom02:# ldm add-vdisk dump2 ldom08_dump2@primary-vds0 ldom08
en el ldom

chequee con el comando format, cual era el nombre del disco que asigne al ldom y es c1d2
 c1d2 <SUN-DiskImage-300GB cyl 8531 alt 2 hd 96 sec 768>
          /virtual-devices@100/channel-devices@200/disk@2

Cuando quiero crear el zpool dump1 con el disco c1d2 me da el error siguiente y es donde aparece el BUG
root@ldom08:M8:~# zpool create dump1 c1d2
vdev verification failed: use -f to override the following errors:
/dev/dsk/c1d2s0 is part of a VxVM volume.
/dev/dsk/c1d2s1 is part of a VxVM volume.
/dev/dsk/c1d2s2 is part of a VxVM volume.
/dev/dsk/c1d2s3 is part of a VxVM volume.
/dev/dsk/c1d2s4 is part of a VxVM volume.
/dev/dsk/c1d2s5 is part of a VxVM volume.
/dev/dsk/c1d2s6 is part of a VxVM volume.
/dev/dsk/c1d2s7 is part of a VxVM volume.
Unable to build pool from specified devices: device already in use
root@ldom08:M8:~#
##### Aca aplico la Solucion y me deja crear el zpool
root@ldom08:M8:~# NOINUSE_CHECK=1 zpool create dump1 c1d2
root@ldom08:M8:~# zpool status dump1
    pool: dump1
      id: 17187728778697848574
   state: ONLINE
    scan: none requested
  config:

        NAME    STATE      READ WRITE CKSUM
        dump1   ONLINE        0     0     0
          c1d2  ONLINE        0     0     0

  errors: No known data errors
root@ldom08a:M8:~#
root@ldom08a:M8:# zfs create -V270gb dump1/dump1
root@ldom08a:M8:# zfs list dump1
NAME   USED  AVAIL  REFER  MOUNTPOINT
dump1  279G  14.8G   288K  /dump1
root@ldom08a:M8:#
##### ACA tambien aparece el BUG, cuando quiero usar el dumpadm
root@ldom08a:M8:# dumpadm -d /dev/zvol/dsk/dump1/dump1
dumpadm: /dev/zvol/dsk/dump1/dump1 is part of a VxVM volume.
root@ldom08a:M8:#
### ACA vuelvo a aplicar la solucion
root@ldom08a:M8:# NOINUSE_CHECK=1 dumpadm -d /dev/zvol/dsk/dump1/dump1

Dump content      : kernel without ZFS metadata
Dump device       : /dev/zvol/dsk/dump1/dump1 (dedicated)
Savecore directory: /var/crash
Savecore enabled  : no
Save compressed   : on
Deferred Dump     : on
root@ldom08a:M8:#
root@ldom08a:M8:# zfs destroy dump/dump
root@ldom08a:M8:# zfs get volsize dump1/dump1
NAME         PROPERTY  VALUE  SOURCE
dump1/dump1  volsize   270G   local
root@ldom08a:M8:#

root@ldom08a:M8:~# zpool destroy dump

En el pdom
### ACA me encuentro con otro error y es que realmente lo tiene tomao el VERITAS, con el multipath
root@m8pdom02:# ldm list-constraints ldom08|grep dump1
    dump1        ldom08_dump1@primary-vds0      1
root@m8pdom02:# ldm rm-vdisk dump1 ldom08
Guest LDom returned the following reason for failing the operation:

   Resource            Information
--------------  -------------------------
/dev/dsk/c1d1   Device being used by VxVM
VIO operation failed because device is being used in LDom ldom08
Failed to remove vdisk instance
root@m8pdom02:#
Lo tuvimos que excluir del veritas dentro del ldom

root@ldom08a:M8:~# vxdisk list
DEVICE          TYPE            DISK         GROUP        STATUS
c1d0         auto:ZFS        -            -            ZFS
c1d1         auto:ZFS        -           -            ZFS    <<---- quiero sacar este disco
hitachi_vspg1k0_360a auto:cdsdisk    SSD001       TEST1        online thinrclm
hitachi_vspg1k0_360b auto:cdsdisk    SSD002       TEST1        online thinrclm
hitachi_vspg1k0_360c auto:cdsdisk    SSD003       TEST2        online thinrclm
root@ldom08a:M8:~#
root@ldom08a:M8:~# vxdisk rm c1d1
root@ldom08a:M8:~# vxdisk list
DEVICE          TYPE            DISK         GROUP        STATUS
c1d0         auto:ZFS        -            -            ZFS
hitachi_vspg1k0_360a auto:cdsdisk    SSD001       TEST1        online thinrclm
hitachi_vspg1k0_360b auto:cdsdisk    SSD002       TEST1        online thinrclm
hitachi_vspg1k0_360c auto:cdsdisk    SSD003       TEST2        online thinrclm
root@ldom08a:M8:~#
root@ldom08a:M8:~# vxdmpadm getsubpaths
NAME         STATE[A]   PATH-TYPE[M] DMPNODENAME  ENCLR-NAME   CTLR           ATTRS      PRIORITY
=================================================================================================
c2t50060E800750BC62d0 ENABLED(A)   -          hitachi_vspg1k0_360a hitachi_vspg1k0 c2              -         -
c3t50060E800750BC72d0 ENABLED(A)   -          hitachi_vspg1k0_360a hitachi_vspg1k0 c3              -         -
c4t50060E800750BC64d0 ENABLED(A)   -          hitachi_vspg1k0_360a hitachi_vspg1k0 c4              -         -
c5t50060E800750BC74d0 ENABLED(A)   -          hitachi_vspg1k0_360a hitachi_vspg1k0 c5              -         -
c2t50060E800750BC62d1 ENABLED(A)   -          hitachi_vspg1k0_360b hitachi_vspg1k0 c2              -         -
c3t50060E800750BC72d1 ENABLED(A)   -          hitachi_vspg1k0_360b hitachi_vspg1k0 c3              -         -
c4t50060E800750BC64d1 ENABLED(A)   -          hitachi_vspg1k0_360b hitachi_vspg1k0 c4              -         -
c5t50060E800750BC74d1 ENABLED(A)   -          hitachi_vspg1k0_360b hitachi_vspg1k0 c5              -         -
c2t50060E800750BC62d2 ENABLED(A)   -          hitachi_vspg1k0_360c hitachi_vspg1k0 c2              -         -
c3t50060E800750BC72d2 ENABLED(A)   -          hitachi_vspg1k0_360c hitachi_vspg1k0 c3              -         -
c4t50060E800750BC64d2 ENABLED(A)   -          hitachi_vspg1k0_360c hitachi_vspg1k0 c4              -         -
c5t50060E800750BC74d2 ENABLED(A)   -          hitachi_vspg1k0_360c hitachi_vspg1k0 c5              -         -
c1d0         ENABLED(A)   -          c1d0         other_disks  c1              -         -
c1d1         ENABLED(A)   -          c1d1         other_disks  c1              -         -
root@ldom08a:M8:~# vxdmpadm exclude path=c1d1

Ahora si, en el pdom
root@m8pdom02:# ldm rm-vdisk dump1 ldom08
root@m8pdom02:# ldm rm-vdsdev ldom08_dump1@primary-vds0
root@m8pdom02:# zfs list|grep ldom08
ldoms/ldom08_dump1                103G   1.9T   800M  -
ldoms/ldom08_dump2                309G   2.1T  47.5M  -
ldoms/ldom08_vol1                 155G  1.85T   101G  -

root@m8pdom02:# zfs destroy ldoms/ldom08_dump1
root@m8pdom02:# zfs list|grep ldom08
ldoms/ldom08_dump2                309G   2.2T  47.5M  -
ldoms/ldom08_vol1                 155G  1.95T   101G  -
ldoms/ldom08_vol1.old             155G  2.04T  10.4G  -
root@m8pdom02:#

jueves, 27 de julio de 2023

Cear una virtual machine, en un X8

 La finalidad es Crear  una virtual machine, en un server X8-2L .

Ambiente:  X8-2L, con Oracle Linux 9.2 cuyo dominio principal se llama x8dom1

Estos son los pasos para crear una maquina virtual  de nombre Linux1, con 65gb de ram, 8 vcpu, modo bridge , con la vlan 1510 usando de instalacion un Oracle 9.2

Desde el x8dom1 ejecutar:

virt-install --name Linux1 --memory 65536 --vcpus 8 --graphics vnc,listen=0.0.0.0,password=Cerv3z4 --disk size=50 --network bridge=BRIDGE,type=direct,source=br1510 --location /home/isos/OracleLinux-R9-U2-x86_64-dvd.iso --osinfo ol9.2

 Para ver cuantas vm instaladas,  se ejecuta :

# virsh list
 Id   Name    State
-----------------------
 2    Linux1   running
 5    Linux2  running
 6    Linux3   running

Para stopear una vm 

# virsh shutdown nombredelaVM
** para que el shutdown funcione correctamente, los agentes de apagado tienen que estar instalados.

La otra forma de stopearla si no estan los agentes instalados es

# virsh destroy  nombredelaVM 

* esto detiene la vm en forma abrupta, como si fuese un corte de energia.
 

virsh pool-list     # Listar pools de almacenamiento
virsh vol-list      # Listar volúmenes de almacenamiento

Una vez creada la vm e instalado el linux dentro de ellas, se debe instalar los agentes de apagado
sudo dnf install acpid qemu-guest-agent
Habilita y arranca los agentes de apagado: Una vez que los agentes de apagado estén instalados, hay que habilitarlos y arrancarlos en la máquina virtual.Ejecutar los siguientes comandos dentro de la máquina virtual:
Para acpid:
sudo systemctl enable acpid
sudo systemctl start acpid

Para qemu-guest-agent:
sudo systemctl enable qemu-guest-agent
sudo systemctl start qemu-guest-agent

Verificar la comunicación con el hipervisor: Para asegurar de que los agentes de apagado están funcionando correctamente y se pueden comunicar con el hipervisor  ejecutar el siguiente comando en la máquina virtual :
sudo systemctl status qemu-guest-agent
Debería mostrar que el servicio está activo y en ejecución sin errores.
Una vez que hayamos instalado y configurado los agentes de apagado en las máquinas virtuales,se puede usar el comando "virsh shutdown" en el host de KVM para apagar o reiniciar las máquinas virtuales de forma adecuada, lo que permitirá que se realice un apagado o reinicio limpio de las mismas

Para conectarme con vncviewer a los equipos, puedo consultar con el comando

# virsh domdisplay --type vnc Linux1
vnc://localhost:0
#

# virsh domdisplay --type vnc Linux2
vnc://localhost:1
#

# virsh domdisplay --type vnc Linux3
vnc://localhost:2
#

O el comando 

# virsh vncdisplay Linux1

:0

# virsh vncdisplay Linux2

:1

# virsh vncdisplay Linux3

:2

 

Desde afuera del equipo, podemos conectarnos a la virtual Linux1 asi

#vncviewer x8dom1:0


miércoles, 26 de julio de 2023

Procedimiento uso archiveadm, para copiar un ldom de un equipo a otro

 Finalidad: Tengo que migrar un ldom (llamado ldom03) de un equipo M6-32 a otro equipo M8-32, manteniendo el mismo release de sistema operativo.

A tener en cuenta:

**Como el archiveadm genera un snapshot en el root zfs, verificar que haya suficiente espacio en el rpool del equipo origen.
**Si hay backups en los boot environment, mirarlo con beadm -l y dejar solo el ultimo

*** Ver a lo ultimo de este documento, ya que archiveadm tiene un BUG y puede NO funcionar en alguna version de solaris 11.


**luego ver que este actualizado con el comando pkg refresh solaris 

En mi caso, estaba desactualizado, asi que me copie de un equipo donde tengo los certificados, los archivos cert
parado en milinux, hacer :
cd /root/certs
scp pkg.oracle.com.certificate.pem ldom03:/root/certs/
scp pkg.oracle.com.key.pem ldom03:/root/certs/ 

Ahora parado en ldom03 del equipo M6-32, hacer:

pkg set-publisher -k ~/certs/pkg.oracle.com.key.pem -c ~/certs/pkg.oracle.com.certificate.pem -G "*" -g https://pkg.oracle.com/solaris/support --proxy http://ip_del_proxy:3128 solaris

** el comando de arriba tiene la opcion --proxy ya que desde el servidor no tengo salida directa 


archiveadm create -r --root-only /software/archiveadm/ldom03.uar

Logging to /system/volatile/archive_log.16859

  0% : Beginning archive creation: /software/archiveadm/ldom03.uar
  6% : Executing dataset discovery...
 10% : Dataset discovery complete
 10% : Executing staging capacity check...
 11% : Staging capacity check complete
 15% : Creating zone media: UnifiedArchive [1159acb1-6666-41a4-978b-451e57e642c4]
 53% : CreateZoneMedia: UnifiedArchive [1159acb1-6666-41a4-978b-451e57e642c4] complete
 55% : Preparing archive image...
 73% : Archive image preparation complete
 75% : Beginning archive stream creation...
 93% : Archive stream creation complete
 93% : Beginning archive descriptor creation...
 94% : Archive descriptor creation complete
 95% : Beginning final archive assembly...
100% : Archive assembly complete

 
Con este comando veo la informacion del .uar que acabo de generar

archiveadm info -v /software/archiveadm/ldom03.uar

Con este otro comando genero el booteable en base al .uar que genere anteriormente

archiveadm create-media -f usb -o /software/archiveadm/ldom03.usb /software/archiveadm/ldom03.uar 

Logging to /system/volatile/archive_log.2884

  0% : Beginning media creation...
  5% : Transferring AI source...
 10% : Transfer AI source complete
 11% : Adding archive content...
 20% : Add archive content complete
 28% : Creating USB image...
100% : USB image creation complete

Listo, ahora me llevo ambos archivos (.usb y .uar ) al pdom destino (m8pdom0)

scp /software/archiveadm/ldom03.* root@m8pdom0:/backups/uar

Ahora,  parado en el PDOM del equipo M8-32...voy a generar el ldom03 vacio.

 ldm add-domain ldom03
ldm set-core 4 ldoms03
ldm set-memory 64G ldom03
ldm set-var auto-boot?=false ldom03
ldm add-vnet pvid=1516  vnet0 primary-vsw0 ldom03
ldm add-vdsdev /dev/zvol/dsk/ldoms/ldom03_vol1 ldom03_vol1@primary-vds0
ldm add-vdisk disk0 ldom03_vol1@primary-vds0
** ldm add-vdsdev /dev/zvol/dsk/ldoms/ldom03_dump1 ldom03_dump1@primary-vds0
** ldm add-vdisk dump1 ldom03_dump1@primary-vds0
* este  lo tuvimos que sacar y agregarlo al final de la instalación, porque por default trato de  instalar el sistema operativo en el dump1, asi que lo tuvimos que borrar y volver a lanzar la instalación.
ldm add-io /SYS/CMIOU4/PCIE2/IOVFC.PF0.VF2 ldom03
ldm add-io /SYS/CMIOU5/PCIE2/IOVFC.PF0.VF2 ldom03

ldm add-vdsdev /backups/uar/ldom03.usb ldom03-back@primary-vds0
ldm add-vdisk usb0 ldom03-back@primary-vds0 ldom03

ldm bind ldom03
ldm start ldom03
ldm ls
telnet localhost 5002   ( para conectarnos a este nuevo ldom creado)

se posiciona en OBP , ejecutar

boot usb0

 Remounting root read/write
Probing for device nodes ...
Preparing image for use
Done mounting image
Configuring devices.
Hostname: solaris
Jun  9 14:40:14 svc.startd[12]: svc:/network/rpc/gss:default: Method "/usr/lib/gss/gssd --ccache_patterns=/tmp/krb5cc_%{uid}" failed with exit status 1.
Jun  9 14:40:14 svc.startd[12]: svc:/network/rpc/gss:default: Method "/usr/lib/gss/gssd --ccache_patterns=/tmp/krb5cc_%{uid}" failed with exit status 1.

SUNW-MSG-ID: SMF-8000-YX, TYPE: Defect, VER: 1, SEVERITY: Major
EVENT-TIME: Fri Jun  9 14:40:15 UTC 2023
PLATFORM: unknown, CSN: unknown, HOSTNAME: solaris
SOURCE: software-diagnosis, REV: 0.2
EVENT-ID: e94ad62c-4c48-41f9-8ac6-f06db7ad953b
DESC: Service svc:/network/tnctl:default failed - a start, stop or refresh method failed.
AUTO-RESPONSE: The service has been placed into the maintenance state.
IMPACT: svc:/network/tnctl:default is unavailable.
REC-ACTION: Run 'svcs -xv svc:/network/tnctl:default' to determine the generic reason why the service failed, the location of any logfiles, and a list of other services impacted. Please refer to the associated reference document at http://support.oracle.com/msg/SMF-8000-YX for the latest service procedures and policies regarding this diagnosis.
FRU-LOCATION:
Using the default install manifest for installation.


Auto-installer disabled. Enable the auto-installer service
by running the following command:
    svcadm enable svc:/application/auto-installer:default




solaris console login:

 Ingresar la clave de root , y ejecutar

svcadm enable svc:/application/auto-installer:default
 

Luego que levante el solaris, 

hacer un borrado de las ip , e ipmp viejas
svcadm disable cron
svcadm disable samba

 ipadm create-addr -T static -a 76.234.130.151/25 net0
route -p delete default 76.250.63.1  (borramos ruta vieja)
route -p add default 76.234.130.129
***con estos comandos creamos el dump que no creamos en el procedimiento que comente anteriormente
zpool create dump c1d1
  zpool list
  zfs list
  zfs create -V 18gb dump/dump
  zfs list
 dumpadm
 dumpadm -d /dev/zvol/dsk/dump/dump
  zfs list
    zfs destroy rpool/dump
 zfs list


***** IMPORTANTE --- Existe un BUG en Solaris 11, donde el SRU tiene que ser mas nuevo que el SRU35, sino el archiveadm no genera bien el archivo booteable.

 https://docs.oracle.com/en/virtualization/oracle-vm-server-sparc/ldoms-relnotes/resolved-issues-oracle-solaris-11.4-sru-36-release.html#GUID-BF1DA349-DE53-40D2-A160-526B6A3F230B

Basicamente en ese link, dice:

Resolved Issues in the Oracle Solaris 11.4 SRU 36 Release

31989198

archiveadm create-media -f usb generated file fails to boot using 11.4 SRU 23


*** La opcion para realizar un movimiento de ldom entre equipos que usamos en reemplazo del archiveadm en equipos con el SRU menor a 35, fue con el comando zfs send .


jueves, 1 de septiembre de 2022

Si NO funciona el rescan ( linux )

for s in $(ls /sys/class/scsi_host) 
 do 
 FILE="/sys/class/fc_host/$s/issue_lip" 
 if [ -f $FILE ];
 then 
 echo $s "lip"
 echo "1" > /sys/class/fc_host/$s/issue_lip 
 #else 
 #echo "File $FILE no existe" 
 fi 
 FILE="/sys/class/scsi_host/$s/scan" 
 if [ -f $FILE ]; 
 then 
 echo $s "scan" 
 echo "- - -" > /sys/class/scsi_host/$s/scan 
 #else 
 #echo "File $FILE does not exist." 
 fi 
 sleep 3 
 done

jueves, 16 de julio de 2020

Luego de extender el Almacenamiento de bloques en Oracle Cloud

La finalidad es agrandar el filesystem /backup, que actualmente tiene 100gb, llevarlo a 200gb.
Primero , desde la consola del cloud, tenemos  2 opciones
La primera y  mas facil es agregar una lun ( un disco) y luego desde el Sistema operativo, la rescaneamos y hacemos todo el procedimiento para agregar el disco, extender el logical volume, y agrandar el filesystem.
La segunda opcion, es agrandar el almacenamiento de bloques desde la consola del OCI.
En este doc, voy a describir los pasos que debo hacer en el sistema operativo, luego de agrandar el disco desde el cloud.


[root@datawarehouse ~]# df -h /backup
Filesystem                                         Size    Used  Avail Use% Mounted on
/dev/mapper/vg_backup-lv_backup  100G   76G   25G  76% /backup

[root@datawarehouse ~]#

Chequeo de cuanto es el physical volume actual que contiene el fs /backup
[root@datawarehouse ~]# pvs
  PV         VG        Fmt  Attr PSize    PFree
  /dev/sda1  vg_Swap   lvm2 a--   50.00g 30.00g

  /dev/sdb1  vg_backup lvm2 a--  100.00g      0

  /dev/sdc1  vg_u02    lvm2 a--  200.00g      0

  /dev/sdd1  vg_u01    lvm2 a--  100.00g      0

[root@datawarehouse ~]# fdisk -l |grep /dev/sd

Disk   /dev/sdb: 107.4 GB, 107374182400 bytes, 209715200 sectors
/dev/sdb1            2048   209715199   104856576   8e  Linux LVM
Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors
/dev/sda1            2048   104857599    52427776   8e  Linux LVM
Disk /dev/sdd: 107.4 GB, 107374182400 bytes, 209715200 sectors
/dev/sdd1            2048   209715199   104856576   8e  Linux LVM
Disk /dev/sdc: 214.7 GB, 214748364800 bytes, 419430400 sectors
/dev/sdc1            2048   419430399   209714176   8e  Linux LVM

Con estos 2 comandos ( que Oracle llama "comandos de nueva exploracion") releemos el tamaño de los discos
[root@datawarehouse ]# dd iflag=direct if=/dev/oracleoci/oraclevdc of=/dev/null count=1
1+0 records in
1+0 records out
512 bytes (512 B) copied, 0.000854999 s, 599 kB/s
[root@datawarehouse ~]# echo "1" | sudo tee /sys/class/block/`readlink /dev/oracleoci/oraclevdc | cut -d'/' -f 2`/device/rescan

Vuelvo a chequear con fdisk y veo que  ya  lo agrego
[root@datawarehouse ~]# fdisk -l |grep /dev/sd
Disk /dev/sdb: 214.7 GB, 214748364800 bytes, 419430400 sectors
/dev/sdb1            2048   209715199   104856576   8e  Linux LVM

Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors
/dev/sda1            2048   104857599    52427776   8e  Linux LVM
Disk /dev/sdd: 107.4 GB, 107374182400 bytes, 209715200 sectors
/dev/sdd1            2048   209715199   104856576   8e  Linux LVM
Disk /dev/sdc: 214.7 GB, 214748364800 bytes, 419430400 sectors
/dev/sdc1            2048   419430399   209714176   8e  Linux LVM
Disk /dev/sde: 107.4 GB, 107374182400 bytes, 209715200 sectors
/dev/sde1               1    97677311    48838655+  ee  GPT
[root@datawarehouse ~]#
Con el lsblk veo que todavia el disco sdb esta en 100gb

[root@datawarehouse DMP]# ls -l /dev/oracleoci/oraclevd*
lrwxrwxrwx. 1 root root 6 May 12 07:48 /dev/oracleoci/oraclevda -> ../sde
lrwxrwxrwx. 1 root root 7 May 12 07:48 /dev/oracleoci/oraclevda1 -> ../sde1
lrwxrwxrwx. 1 root root 7 May 12 07:48 /dev/oracleoci/oraclevda2 -> ../sde2
lrwxrwxrwx. 1 root root 7 May 12 07:48 /dev/oracleoci/oraclevda3 -> ../sde3
lrwxrwxrwx. 1 root root 6 May 12 07:48 /dev/oracleoci/oraclevdb -> ../sdd
lrwxrwxrwx. 1 root root 7 May 12 07:48 /dev/oracleoci/oraclevdb1 -> ../sdd1
lrwxrwxrwx. 1 root root 6 May 12 07:48 /dev/oracleoci/oraclevdc -> ../sdb
lrwxrwxrwx. 1 root root 7 May 12 07:48 /dev/oracleoci/oraclevdc1 -> ../sdb1
lrwxrwxrwx. 1 root root 6 May 12 07:48 /dev/oracleoci/oraclevdd -> ../sdc
lrwxrwxrwx. 1 root root 7 May 12 07:48 /dev/oracleoci/oraclevdd1 -> ../sdc1
lrwxrwxrwx. 1 root root 6 May 12 07:48 /dev/oracleoci/oraclevde -> ../sda
lrwxrwxrwx. 1 root root 7 May 12 07:48 /dev/oracleoci/oraclevde1 -> ../sda1
[root@datawarehouse DMP]# lsblk /dev/sdb
NAME                    MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sdb                       8:16   0  210G  0 disk
└─sdb1                    8:17   0  100G  0 part
  └─vg_backup-lv_backup 252:0    0  100G  0 lvm  /backup
[root@datawarehouse ]# 

Ahora, si, me anoto los sectores que ocupa ahora el /dev/sdb, debo anotar en que sector empieza y en cual termina.
[root@datawarehouse ]# parted /dev/sdb
GNU Parted 3.1
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) unit s
(parted) print
Model: ORACLE BlockVolume (scsi)
Disk /dev/sdb: 440401920s
Sector size (logical/physical): 512B/4096B
Partition Table: msdos
Disk Flags:

Number  Start  End         Size        Type     File system  Flags
 1      2048s  209715199s  209713152s  primary               lvm

(parted)

Con estos datos voy a hacer un parted al disco que quiero agrandar y un mkpart
Primero hay que tomar nota de los valores de las columnas Número, Inicio y Sistema de archivos de la partición raíz.
Ejecuto el siguiente comando para eliminar la partición raíz existente:
(parted) rm <partition_number>
<partition_number> es el valor de la columna Número.
Ejecute el siguiente comando para volver a crear la partición:
(parted) mkpart
En la petición de datos Start?, especifique el valor de la columna Inicio. En la petición de datos File system type?, especifique el valor de la columna Sistema de archivos. Especifique 100 % para la petición de datos End?.
Ejecute el siguiente comando para salir de parted:
(parted) quit

Aca abajo estan los ejemplo con datos reales
[root@datawarehouse]# parted /dev/sdb
GNU Parted 3.1
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) unit s
(parted) print
Model: ORACLE BlockVolume (scsi)
Disk /dev/sdb: 440401920s
Sector size (logical/physical): 512B/4096B
Partition Table: msdos
Disk Flags:

Number  Start  End         Size        Type     File system  Flags
 1      2048s  209715199s  209713152s  primary               lvm

(parted) rm 1
Error: Partition(s) 1 on /dev/sdb have been written, but we have been unable to inform the kernel of the change, probably because it/they are in use.  As a
result, the old partition(s) will remain in use.  You should reboot now before making further changes.
Ignore/Cancel? Cancel
(parted) p
Model: ORACLE BlockVolume (scsi)
Disk /dev/sdb: 440401920s
Sector size (logical/physical): 512B/4096B
Partition Table: msdos
Disk Flags:

Number  Start  End  Size  Type  File system  Flags

(parted) quit
Information: You may need to update /etc/fstab.

[root@datawarehouse]#

Ahora por ultimo, modifico el tamaño del disco y demas datos.

[root@datawarehouse /]# parted /dev/sdb
GNU Parted 3.1
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print
Model: ORACLE BlockVolume (scsi)
Disk /dev/sdb: 225GB
Sector size (logical/physical): 512B/4096B
Partition Table: msdos
Disk Flags:

Number  Start  End  Size  Type  File system  Flags

(parted) unit s
(parted) mkpart
Partition type?  primary/extended? primary
File system type?  [ext2]? xfs
Start? 2048
End? 419430398    --->> este dato lo saque multiplicando x 2 los sectores que ocupaba antes el disco de 100gb, pude haber puesto  100%  y era lo mismo
(parted) quit
Information: You may need to update /etc/fstab.

Listo , ahora chequeamos con lsblk,que  realmete haya agregado esos 100+ al sdb1
[root@datawarehouse /]# lsblk /dev/sdb
NAME                    MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sdb                       8:16   0  210G  0 disk
└─sdb1                    8:17   0  200G  0 part
  └─vg_backup-lv_backup 252:0    0  100G  0 lvm
[root@datawarehouse /]#

Ahora queda desmontar el fs /backup, hacer un xfs_repair 
[root@datawarehouse /]# umount /backup
[root@datawarehouse /]# xfs_repair /dev/mapper/vg_backup-lv_backup
Phase 1 - find and verify superblock...
Phase 2 - using internal log
        - zero log...
        - scan filesystem freespace and inode maps...
        - found root inode chunk
Phase 3 - for each AG...
        - scan and clear agi unlinked lists...
        - process known inodes and perform inode discovery...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
        - process newly discovered inodes...
Phase 4 - check for duplicate blocks...
        - setting up duplicate extent list...
        - check for inodes claiming duplicate blocks...
        - agno = 0
        - agno = 2
        - agno = 3
        - agno = 1
Phase 5 - rebuild AG headers and trees...
        - reset superblock...
Phase 6 - check inode connectivity...
        - resetting contents of realtime bitmap and summary inodes
        - traversing filesystem ...
        - traversal finished ...
        - moving disconnected inodes to lost+found ...
Phase 7 - verify and correct link counts...
done
[root@datawarehouse /]#

Por ultimo, un pvresize , y un lvextend 
[root@datawarehouse /]# pvresize /dev/sdb1
  Physical volume "/dev/sdb1" changed
  1 physical volume(s) resized or updated / 0 physical volume(s) not resized
[root@datawarehouse /]# pvs
  PV         VG        Fmt  Attr PSize    PFree
  /dev/sda1  vg_Swap   lvm2 a--   <50 .00g="" div="" g="">
  /dev/sdb1  vg_backup lvm2 a--  <200 .00g="" 100.00g="" font="">
  /dev/sdc1  vg_u02    lvm2 a--  <200 .00g="" 0="" div="" nbsp="">
  /dev/sdd1  vg_u01    lvm2 a--  <100 .00g="" 0="" div="" nbsp="">
[root@datawarehouse /]# lvextend -L+100G /dev/mapper/vg_backup-lv_backup
  Size of logical volume vg_backup/lv_backup changed from <100 .00="" div="" extents="" gib="" to="">
  Logical volume vg_backup/lv_backup successfully resized.
[root@datawarehouse /]# xfs_growfs -d /backup
meta-data=/dev/mapper/vg_backup-lv_backup isize=256    agcount=4, agsize=6553344 blks
         =                       sectsz=4096  attr=2, projid32bit=1
         =                       crc=0        finobt=0 spinodes=0 rmapbt=0
         =                       reflink=0
data     =                       bsize=4096   blocks=26213376, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=12799, version=2
         =                       sectsz=4096  sunit=1 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 26213376 to 52427776
[root@datawarehouse /]# df -h /backup
Filesystem                       Size  Used Avail Use% Mounted on
/dev/mapper/vg_backup-lv_backup  200G   76G  125G  38% /backup
[root@datawarehouse /]#



jueves, 24 de octubre de 2019

Borrar fallas en ILOM del T5-2

Este es el error que me da al intentar encender el T5 desde la ILOM
System faults or hardware configuration prevents power on

-> reset /System/
Are you sure you want to reset /System (y/n)? y
Performing reset on /System
reset: Target already stopped
Performing reset on /System failed

-> start /System/
Are you sure you want to start /System (y/n)? y
start: System faults or hardware configuration prevents power on.

-> start /SP/console
Are you sure you want to start /SP/console (y/n)? y

Serial console started.  To stop, type #.

Serial console stopped.

-> start /SP/faultmgmt/shell
Are you sure you want to start /SP/faultmgmt/shell (y/n)? y

faultmgmtsp>  fmadm faulty
------------------- ------------------------------------ -------------- --------
Time                UUID                                 msgid          Severity
------------------- ------------------------------------ -------------- --------
2019-10-23/04:16:05 7d375caa-0c4f-e9e6-cd92-eeb12b3d3bf6 SPT-8000-DH    Critical

Problem Status    : open
Diag Engine       : fdd 1.0
System
   Manufacturer   : Oracle Corporation
   Name           : SPARC T5-2
   Part_Number    : 33595397+1+1
   Serial_Number  : AK00315371

----------------------------------------
Suspect 1 of 1
   Fault class  : fault.chassis.voltage.fail
   Certainty    : 100%
   Affects      : /SYS/MB
   Status       : faulted

   FRU
      Status            : faulty
      Location          : /SYS/MB
      Manufacturer      : Oracle Corporation
      Name              : ASY,MB+TRAY+CPU,T5-2
      Part_Number       : 7302920
      Revision          : 02
      Serial_Number     : 465769T+1515UL0KGC
      Chassis
         Manufacturer   : Oracle Corporation
         Name           : SPARC T5-2
         Part_Number    : 33595397+1+1
         Serial_Number  : AK00313371

Description : A chassis voltage supply is operating outside of the
              allowable range.

Response    : The system will be powered off. The chassis-wide service
              required LED will be illuminated.

Impact      : The system is not usable until repaired. ILOM will not allow
              the system to be powered on until repaired.

Action      : Please refer to the associated reference document at
              http://support.oracle.com/msg/SPT-8000-DH for the latest
              service procedures and policies regarding this diagnosis.

faultmgmtsp> exit
-> set /SYS/MB clear_fault_action=true
Are you sure you want to clear /SYS/MB (y/n)? y
Set 'clear_fault_action' to 'true'

-> start /SP/faultmgmt/shell
Are you sure you want to start /SP/faultmgmt/shell (y/n)? y

faultmgmtsp> fmadm repair /SYS/MB
faultmgmtsp>  fmadm faulty
No faults found
faultmgmtsp> exit
->  start /SYS
Are you sure you want to start /SYS (y/n)? y
Starting /SYS

->
-> start /HOST/console
Are you sure you want to start /HOST/console (y/n)? y

Serial console started.  To stop, type #.

Serial console started.  To stop, type #.
2019-10-23 12:09:57  0:00:0> NOTICE:  Initializing MCU 0 Memory Link 0
2019-10-23 12:10:13  0:00:0> NOTICE:  Initializing MCU 0 Memory Link 1
2019-10-23 12:10:30  0:00:0> NOTICE:  Initializing MCU 1 Memory Link 0
2019-10-23 12:10:47  0:00:0> NOTICE:  Initializing MCU 1 Memory Link 1
2019-10-23 12:11:03  0:00:0> NOTICE:  Initializing MCU 2 Memory Link 0
2019-10-23 12:11:20  0:00:0> NOTICE:  Initializing MCU 2 Memory Link 1
2019-10-23 12:11:37  0:00:0> NOTICE:  Initializing MCU 3 Memory Link 0
2019-10-23 12:11:53  0:00:0> NOTICE:  Initializing MCU 3 Memory Link 1
2019-10-23 12:12:13  0:00:0> NOTICE:  Pausing for 120 seconds for Coherence Link tuning
2019-10-23 12:14:13  0:00:0> NOTICE:  Found optimal settings
2019-10-23 12:15:37  0:00:0> NOTICE:  Booting config = ldom-22102018
[CPU 00:00:0] Hypervisor version: @(#)Hypervisor 1.15.1.a 2015/09/09 12:51
2019-10-23 12:04:39      SP> NOTICE:  Start Host in progress: Step 5 of 7
2019-10-23 12:04:39      SP> NOTICE:  Start Host in progress: Step 6 of 7
NOTICE: Entering OpenBoot.
NOTICE: 2019-10-23 12:05:05      SP> NOTICE:  Start Host in progress: Step 7 of 7
Fetching Guest MD from HV.
NOTICE: Starting additional cpus.
NOTICE: Initializing LDC services.
NOTICE: Probing PCI devices.
NOTICE: Finished PCI probing.

SPARC T5-2, No Keyboard
Copyright (c) 1998, 2015, Oracle and/or its affiliates. All rights reserved.
OpenBoot 4.38.1, 32.0000 GB memory available, Serial #108418372.
Ethernet address 0:10:e0:76:55:44, Host ID: 86765544.



{0} ok

martes, 29 de agosto de 2017

Upgrade Firmware M5000

Estos son los pasos que realizados para el upgrade de Firmware de un M5000
Bajar el archivo FFXCP1123.tar.gz ( 1123 es la ultima al momento de creacion de este doc )
Copiar el archivo a un pendrive
*** Muy importante: en el pendrive el archivo tiene que quedar dentro de un directorio images/ ***

El equipo al que estoy haciendo el upgrade es nuevo, no esta conectado  a la red, asi que tengo dos opciones para conectarme y pasarle el archivo del pendrive y poder actualizar.

Tenia dos opciones, ambas mediante notebook directa al M5000, una opcion via modo grafico mediante el ILOM, y la otra via cli ( linea de comando )
Elegi como siempre la linea de comando, aca muestro las 2 opciones

Opcion ILOM ,  que no me resulto comoda, tarda mucho mas, y no podemos ver el status de lo que va realizando  .

Conecte un cable de red desde mi notebook a la XSCF del M5000, en minotebook, con virtualbox  levante una virtual de Solaris x86, al cual le configure una ip del mismo rango que tiene configurada la XSCF, abri un browser https://10.29.14.235 , usuario y password, luego en el frame izquierdo, en Menu, Utilities, Firmware Update, nos conecta a un menu central, donde en XCP import, indicamos la ubicacion del archivo FFXCP1123.tar.gz y le doy Upload.
El paso siguiente seria , XCP Update.
En mi caso, aborte esta opcion, porque habia transcurrido mas de 40 minutos y estaba siempre igual. tal cual lo muestro en la foto de abajo.















La opcion que finalmente utilize, y es para mi la mas comoda es cia linea de comando, como muestro a continuacion

Similar a la anterior solo que sin Cable de red , ni levantando una virtual, solo con un cable serial de mi notebook al serial de la XSCF del equipo .
Inserte el pendrive en el USB de la XSCF.
Donde esta el USB? entre el port serial y port de red, como muestro a continuacion

























Desde la notebook , minicom -D /dev/ttyUSB0

Usuario eis-installer y su password.

Verifico la version actual del Firmware
XSCF> version -c xcp -v -t
Luego copio el contenido del pendrive 
XSCF> getflashimage file:///media/usb_msd/images/DCXCP1123.tar.gz
XSCF> flashupdate -c check -m xcp -s 1123
Ahora si , actualizo el firmware
XSCF> flashupdate -c update -m xcp -s 1123
Este proceso realiza 2 reboot de la XSCF.

A continuacion, las fotos de los comandos descriptos arriba
















Aca se muestra como luego del primer reboot, se sigue actualizando.













Luego de 20 minutos aprox, vemos el tan ansiado XCP has been completed
Chequeo como quedo con version -c xcp -v -t









viernes, 28 de julio de 2017

Sendmail, solo funciona con el usuario root ?

Nooo, si funciona con root, puede funcionar con cualquier usuario.

Pero con un usuario distinto a root , me tira el sig error :

WARNING: RunAsUser for MSP ignored, check group ids (egid=0, want=25)
can not chdir(/var/spool/clientmqueue/): Permission denied
Program mode requires special privileges, e.g., root or TrustedUser.

Obviamente como el error lo dice, es un tema de permisos.

La Error en este caso se daba Aqui:
root # ls -ltr /usr/lib/sendmail
-r-xr-sr-x   1 root     root     1056324 Sep 22  2010 /usr/lib/sendmail
root #

El grupo del ejecutable sendmail, estaba como root,y debe ir smmsp.

la Solucion fue
root # chown root:smmsp /usr/lib/sendmail

root # ls -ltr /usr/lib/sendmail
-r-xr-sr-x   1 root     smmsp    1056324 Sep 22  2010 /usr/lib/sendmail
root #

No fue necesario realizar un restart del servicio.

Por las dudas dejo de ejemplo, como deben estar los permisos en todo lo que respecta a sendmail

root # ls -ld /var/spool/mqueue
drwxr-x---   2 root     bin          512 Jul 28 09:31 /var/spool/mqueue
root # ls -ld /var/spool/clientmqueue
drwxrwx---   2 smmsp    smmsp        512 Jul 28 09:31 /var/spool/clientmqueue
root #
root # ls -ltr /etc/mail/sendmail.cf
-r--r--r--   1 root     bin        40277 Apr  7  2016 /etc/mail/sendmail.cf
root #
root # ls -ltr /usr/sbin/sendmail
lrwxrwxrwx   1 root     root          15 Apr  6  2016 /usr/sbin/sendmail -> ../lib/sendmail
root # ls -ltr /usr/lib/sendmail
-r-xr-sr-x   1 root     smmsp    1073396 Nov 24  2014 /usr/lib/sendmail
root #

lunes, 10 de julio de 2017

Arreglar un DiskGroup cuando falla porque tiene discos con udid_mismatch


root@sun5004-ldm #   vxdg import VARIOS
VxVM vxdg ERROR V-5-1-10978 Disk group VARIOS: import failed:
No valid log copies in disk group

root@sun5004-ldm #  vxdisk -o alldgs list
DEVICE       TYPE            DISK         GROUP        STATUS
emc0_0       auto:cdsdisk    ZONASdg01    ZONASdg      online thinrclm
emc0_1       auto:ZFS        -            -            ZFS
emc0_2       auto:none       -            -            online invalid
emc0_3       auto:none       -            -            online invalid
emc0_4       auto:cdsdisk    MOTOR01      MOTOR        online thinrclm
emc0_26      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_27      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_28      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_29      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_30      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_31      auto:cdsdisk    PRUEBA01     PRUEBA       online thinrclm
emc0_67      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_68      auto:cdsdisk    -            (VARIOS)     online thinrclm udid_mismatch
emc0_69      auto:ZFS        -            -            ZFS
emc0_70      auto:cdsdisk    -            (VARIOS)     online
emc0_71      auto:cdsdisk    -            (VARIOS)     online
emc0_72      auto:cdsdisk    -            (VARIOS)     online
emc0_73      auto:cdsdisk    -            (VARIOS)     online
emc0_74      auto:cdsdisk    -            (VARIOS)     online
emc0_75      auto:cdsdisk    -            (VARIOS)     online
emc0_76      auto:cdsdisk    -            (VARIOS)     online
emc0_77      auto:cdsdisk    -            (VARIOS)     online
emc0_78      auto:cdsdisk    -            (VARIOS)     online

root@sun5004-ldm #


Esto con cada uno de los discos con udid mismatch
-------------------------------
root@sun5004-ldm #  vxdisk updateudid emc0_26

root@sun5004-ldm # vxdisk -e list
.
emc0_26      auto:cdsdisk   -            -           online clone_disk thinrclm c5t60000970000295700635533030433136d0s2 -
.
root@sun5004-ldm #  vxdisk set emc0_26 clone=off

root@sun5004-ldm # vxdisk -o alldgs list | grep VARIOS
emc0_26      auto:cdsdisk    -            (VARIOS)     online thinrclm

root@sun5004-ldm #  vxdg -Cf import VARIOS
root@sun5004-ldm # vxdg list
NAME         STATE           ID
ZONASdg      enabled,cds          1488805372.11.sun5004-ldm
MOTOR        enabled,cds          1489175938.98.sun5004-ldm
PRUEBA       enabled,cds          1415799954.92.sun5004
VARIOS       enabled,cds          1350498026.360.sun5004



NOTAS: Esto nos paso con Veritas version 5.0 MP3

Documento realizado por mi colega @nicomorono

miércoles, 7 de junio de 2017

Oracle Linux Server 6.7 sobre un LDOM en Ultra Sparc T5


En este Articulo, se detalla un paso a paso , para la creacion de un ldom sobre un T5 , y posteriormente la instalacion de Oracle Linux Server 6.7, partiendo de la base que ya tenemos un PDOM con otros LDOMS creados, si tiene que crear un ldom paso a paso lea Este Articulo

El nombre que voy a usar de aqui en adelante para el zpool,hostname y todo lo relacionado a este ldom con oracle linux es "dorclx01" el nombre es por   d=desarrollo, orc=oracle lx=linux 01=Primer Ldom con linux

Primero creo un ZPOOL para el disco del SO
root@t5-2 # zpool create dorclx01_so c0t60050768018107A79000000000000CF3d0
root@t5-2 # zpool list
NAME          SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT

dorclx01_so  79.5G   126K  79.5G   0%  1.00x  ONLINE  -
laboratorio   199G  10.7G   188G   5%  1.00x  ONLINE  -
rpool         278G   102G   176G  36%  1.00x  ONLINE  -
root@t5-2 #
Le agrego el valor "none" al mountpoint para que No monte el zfs en el PDOM
root@t5-2 # zfs set mountpoint=none dorclx01_so
Creo un Volumen vol01, dentro del Zpool dorclx01 el cual luego lo usare para pasarselo al ldom y este sera visto como un disco, en el cual instalare el Sistema Operativo
root@t5-2 # zfs create -V 75g dorclx01_so/vol01

Ahora creo el LDOM
root@t5-2 # ldm add-domain dorclx01
root@t5-2 # ldm set-vcpu 8 dorclx01
root@t5-2 # ldm set-mem 8g dorclx01
root@t5-2 # ldm ls
NAME             STATE      FLAGS   CONS    VCPU  MEMORY   UTIL  NORM  UPTIME
primary          active     -n-cv-  UART    8     16G      0.4%  0.4%  274d 1h
net1002         active     -n----  5002    8     8G       1.1%  1.1%  271d 1h
sunlab1          bound      ------  5000    8     8G
dorclx01         inactive   ------          8     8G
root@t5-2 #
Agrego la placa de red y el switch al ldom
root@t5-2 # ldm add-vnet vnet1 vsw4 dorclx01
root@t5-2 # ldm add-vds dorclx01-vds0 primary
Agrego el virtual device ( el volumen que cree unas lineas mas arriba )
root@t5-2 #  ldm add-vdsdev /dev/zvol/dsk/dorclx01_so/vol01 vol01@dorclx01-vds0
Agrego los Virtual disk al ldom
root@t5-2 #  ldm add-vdisk vdisk1 vol01@dorclx01-vds0 dorclx01
Agrego la imagen ISO al primary
root@t5-2 # ldm add-vdsdev /sun/OL-201705232017-R6-U7-sparc-dvd.iso oracle-linux@primary-vds0
Agrego la imagen ISO al ldom
root@t5-2 # ldm add-vdisk oracle-linux oracle-linux@primary-vds0 dorclx01
Agrego el autoboot en False para que quede en OBP cuando bootee
root@t5-2 # ldm add-variable auto-boot?=false dorclx01
Le doy start al LDOM
root@t5-2 # ldm start dorclx01
LDom dorclx01 started
root@t5-2 #
Me conecto a la Consola del nuevo LDOM ,
root@t5-2 # telnet 0 5001
Trying 0.0.0.0...
Connected to 0.
Escape character is '^]'.

Connecting to console "dorclx01" in group "dorclx01" ....
Press ~? for control options ..

{0} ok  boot

A partir de aqui, se muestra la salida de lo que va mostrando en el booteo, la recorto y modifico porque es muy larga y no aporta mucho a este documento"


PROMLIB: Sun IEEE Boot Prom 'OBP 4.38.3 2015/11/11 10:38'
PROMLIB: Root node compatible: sun4v
Initializing cgroup subsys cpuset
Initializing cgroup subsys cpu
Initializing cgroup subsys cpuacct
Linux version 4.1.12-94.3.4.el6uek.sparc64 (mockbuild@sparc-ol6-builder-04.us.oracle.com) (gcc version 4.4.7 20120313 (Red Hat 4.4.7-16.0.6) (GCC) ) #1 SMP Mon May 15 1
3:52:26 PDT 2017
bootconsole [earlyprom0] enabled
ARCH: SUN4V
...........................
Initializing cgroup subsys cpu
Initializing cgroup subsys cpuacct
Linux version 4.1.12-94.3.4.el6uek.sparc64 (mockbuild@sparc-ol6-builder-04.us.oracle.com) (gcc 
.......................
Greetings.
anaconda installer init version 13.21.215 starting
mounting /proc filesystem... done
creating /dev filesystem... done
starting udev...udevd[86]: error setting /sys/class/firmware/timeout: No such file or directory
done
mounting /dev/pts (unix98 pty) filesystem... done
mounting /sys filesystem... done
anaconda installer init version 13.21.215 using a serial console
trying to remount root filesystem read write... done
mounting /tmp as tmpfs... done
running install...
running /sbin/loader
detecting hardware...
waiting for hardware to initialize...
detecting hardware...
waiting for hardware to initialize...
Welcome to Oracle Linux Server for sparc64




Luego, por ultimo, al darle a la opcion Reboot, queda en el OBP ( porque lo configuramos asi en el boot?=false ) 
terminating anaconda...done
sending termination signals...done
sending kill signals...done
disabling swap...
        /dev/dm-1
unmounting filesystems...
        /mnt/runtime done
        disabling /dev/loop0
        /dev/pts done
        /selinux done
        /mnt/sysimage/boot done
        /mnt/sysimage/dev/pts done
        /mnt/sysimage/dev/shm done
        /mnt/sysimage/dev done
        /mnt/sysimage/proc done
        /mnt/sysimage/sys done
        /mnt/sysimage/selinux done
        /mnt/sysimage done
waiting for mdraid sets to become clean...
rebooting system
reboot: Restarting system
NOTICE: Entering OpenBoot.
NOTICE: Fetching Guest MD from HV.
NOTICE: Starting additional cpus.
NOTICE: Initializing LDC services.
NOTICE: Probing PCI devices.
NOTICE: Finished PCI probing.

SPARC T5-2, No Keyboard
Copyright (c) 1998, 2015, Oracle and/or its affiliates. All rights reserved.
OpenBoot 4.38.3, 8.0000 GB memory available, Serial #83429474.
Ethernet address 0:14:4f:f9:8:62, Host ID: 84f90862.



{0} ok
 Para finalizar, le damos boot , y queda bootedo con Oracle linux sobre SPARC 
 ****** Corto la salida, dejo lo que me parece mas  importante para mostrar ****

                          GNU GRUB  version 2.02~beta3

 +----------------------------------------------------------------------------+
 |*Oracle Linux Server GNU/Linux                                |
 | Advanced options for Oracle Linux Server GNU/Linux           
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 |                                                                            |
 +----------------------------------------------------------------------------+

      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, `e' to edit the commands
      before booting or `c' for a command-line.
   The highlighted entry will be executed automatically in 0s.
  Booting `Oracle Linux Server GNU/Linux'

Loading Linux 4.1.12-94.3.4.el6uek.sparc64 ...
Loading initial ramdisk ...

PROMLIB: Sun IEEE Boot Prom 'OBP 4.38.3 2015/11/11 10:38'
PROMLIB: Root node compatible: sun4v
Initializing cgroup subsys cpuset
Initializing cgroup subsys cpu
Initializing cgroup subsys cpuacct
Linux version 4.1.12-94.3.4.el6uek.sparc64 (mockbuild@sparc-ol6-builder-04.us.oracle.com) (gcc version 4.4.7 20120313 (Red Hat 4.4.7-16.0.6) (GCC) ) #1 SMP Mon May 15 13:52:26 PDT 2017
bootconsole [earlyprom0] enabled
ARCH: SUN4V
Ethernet address: 00:14:4f:f9:08:62
MM: PAGE_OFFSET is 0xfff8000000000000 (max_phys_bits == 47)
MM: VMALLOC [0x0000000100000000 --> 0x0006000000000000]
MM: VMEMMAP [0x0006000000000000 --> 0x000c000000000000]
Kernel: Using 4 locked TLB entries for main kernel image.
Remapping the kernel... done.
OF stdout device is: /virtual-devices@100/console@1
PROM: Built device tree with 46376 bytes of memory.
MDESC: Size is 14704 bytes.
PLATFORM: banner-name [SPARC T5-2]
PLATFORM: name [ORCL,SPARC-T5-2]
PLATFORM: hostid [84f90862]
PLATFORM: serial# [0099f9b8]
PLATFORM: stick-frequency [3b9aca00]
PLATFORM: mac-address [144ff90862]
PLATFORM: watchdog-resolution [1000 ms]
PLATFORM: watchdog-max-timeout [31536000000 ms]
PLATFORM: max-cpus [1024]
Top of RAM: 0x22ffee000, Total RAM: 0x1ffa62000
Memory hole size: 773MB
Allocated 24576 bytes for kernel page tables.
Zone ranges:
  Normal   [mem 0x0000000030400000-0x000000022ffedfff]
Movable zone start for each node
Early memory node ranges
  node   0: [mem 0x0000000030400000-0x000000006fefffff]
  node   0: [mem 0x000000006ff80000-0x000000006ff8bfff]
  node   0: [mem 0x0000000070000000-0x000000022ff3ffff]
  node   0: [mem 0x000000022ffc0000-0x000000022ffcdfff]
  node   0: [mem 0x000000022ffe6000-0x000000022ffedfff]
Initmem setup node 0 [mem 0x0000000030400000-0x000000022ffedfff]
Booting Linux...
CPU CAPS: [flush,stbar,swap,muldiv,v9,blkinit,n2,mul32]
CPU CAPS: [div32,v8plus,popc,vis,vis2,ASIBlkInit,fmaf,vis3]
CPU CAPS: [hpc,ima,pause,cbcond,aes,des,kasumi,camellia]
CPU CAPS: [md5,sha1,sha256,sha512,mpmul,montmul,montsqr,crc32c]
PERCPU: Embedded 10 pages/cpu @fff800021e000000 s38080 r8192 d35648 u131072
SUN4V: Mondo queue sizes [cpu(131072) dev(16384) r(8192) nr(256)]
Built 1 zonelists in Node order, mobility grouping on.  Total pages: 1038645
Policy zone: Normal
Kernel command line: BOOT_IMAGE=/vmlinuz-4.1.12-94.3.4.el6uek.sparc64 root=/dev/mapper/VolGroup-lv_root ro
log_buf_len individual max cpu contribution: 4096 bytes
log_buf_len total cpu_extra contributions: 4190208 bytes
log_buf_len min size: 1048576 bytes
log_buf_len: 8388608 bytes
early log buf free: 1038696(99%)
PID hash table entries: 4096 (order: 2, 32768 bytes)
Sorting __ex_table...
Memory: 8092632K/8382856K available (6226K kernel code, 2345K rwdata, 2856K rodata, 624K init, 2489K bss, 290224K reserved, 0K cma-reserved)
Hierarchical RCU implementation.
        RCU restricting CPUs from NR_CPUS=2048 to nr_cpu_ids=1024.
RCU: Adjusting geometry for rcu_fanout_leaf=16, nr_cpu_ids=1024
NR_IRQS:2048 nr_irqs:2048 1
SUN4V: Using IRQ API major 3, cookie only virqs enabled
clocksource stick: mask: 0xffffffffffffffff max_cycles: 0x1cd42e4dffb, max_idle_ns: 881590591483 ns
Console: colour dummy device 80x25
bootconsole [earlyprom0] disabled
PROMLIB: Sun IEEE Boot Prom 'OBP 4.38.3 2015/11/11 10:38'
PROMLIB: Root node compatible: sun4v
Linux version 4.1.12-94.3.4.el6uek.sparc64 (mockbuild@sparc-ol6-builder-04.us.oracle.com) (gcc version 4.4.7 20120313 (Red Hat 4.4.7-16.0.6) (GCC) ) #1 SMP Mon May 15 13:52:26 PDT 2017
bootconsole [earlyprom0] enabled
ARCH: SUN4V
Ethernet address: 00:14:4f:f9:08:62
Kernel: Using 4 locked TLB entries for main kernel image.
Remapping the kernel... done.
OF stdout device is: /virtual-devices@100/console@1
PROM: Built device tree with 46376 bytes of memory.
MDESC: Size is 14704 bytes.
PLATFORM: banner-name [SPARC T5-2]
PLATFORM: name [ORCL,SPARC-T5-2]
PLATFORM: hostid [84f99862]
PLATFORM: serial# [099f9b8]
Memory hole size: 773MB
Allocated 24576 bytes for kernel page tables.
Zone ranges:
Early memory node ranges
Booting Linux...
PERCPU: Embedded 10 pages/cpu @fff800021e000000 s38080 r8192 d35648 u131072
SUN4V: Mondo queue sizes [cpu(131072) dev(16384) r(8192) nr(256)]
Built 1 zonelists in Node order, mobility grouping on.  Total pages: 1038645
Policy zone: Normal
Kernel command line: BOOT_IMAGE=/vmlinuz-4.1.12-94.3.4.el6uek.sparc64 root=/dev/mapper/VolGroup-lv_root ro
log_buf_len min size: 1048576 bytes
log_buf_len: 8388608 bytes
early log buf free: 1038696(99%)
PID hash table entries: 4096 (order: 2, 32768 bytes)
Memory: 8092632K/8382856K available (6226K kernel code, 2345K rwdata, 2856K rodata, 624K init, 2489K bss, 290224K reserved, 0K cma-reserved)
Hierarchical RCU implementation.
 SUN4V: Using IRQ API major 3, cookie only virqs enabled
Brought up 8 CPUs
devtmpfs: initialized
Performance events:
Testing NMI watchdog ... OK.
Supported PMU type is 'niagara5'
VIO: Adding device channel-devices (tx_ino = ffffffffffffffff, rx_ino = ffffffffffffffff)
VIO: Adding device vnet-port-0-0 (tx_ino = 0, rx_ino = 1)
VIO: Adding device vnet-port-0-1 (tx_ino = 2, rx_ino = 3)
VIO: Adding device vnet-port-0-2 (tx_ino = 4, rx_ino = 5)
VIO: Adding device vdc-port-0-0 (tx_ino = 6, rx_ino = 7)
VIO: Adding device vdc-port-1-0 (tx_ino = 8, rx_ino = 9)
SCSI subsystem initialized
TCP established hash table entries: 65536 (order: 6, 524288 bytes)
TCP bind hash table entries: 65536 (order: 7, 1048576 bytes)
TCP: Hash tables configured (established 65536 bind 65536)
NET: Registered protocol family 1
Trying to unpack rootfs image as initramfs...
Freeing initrd memory: 29416K (fff8000071000000 - fff8000072cba000)
futex hash table entries: 262144 (order: 11, 16777216 bytes)
console [ttyHV0] enabled
Serial: 8250/16550 driver, 4 ports, IRQ sharing enabled
NET: Registered protocol family 17
rtc-sun4v rtc-sun4v: setting system clock to 2017-06-07 18:15:07 UTC (1496859307)
device-mapper: ioctl: 4.31.0-ioctl (2015-3-12) initialised: dm-devel@redhat.com
sunvdc: vdiska: 157286400 sectors (76800 MB) protocol 1.3
 vdiska: vdiska1 vdiska2 vdiska3
sunvdc: Virtual CDROM vdiskb
sunvdc: vdiskb: 1413328 sectors (690 MB) protocol 1.3
 vdiskb: vdiskb1
sunvnet.c:v1.0 (June 25, 2007)
vnet_port vnet-port-0-0 eth0: Sun LDOM vnet 00:14:4f:fb:b9:68
sunvnet: eth0: PORT ( remote-mac 00:14:4f:f8:53:33 switch-port )
sunvnet: eth0: PORT ( remote-mac 00:14:4f:f9:68:7c )
sunvnet: eth0: PORT ( remote-mac 00:14:4f:fa:75:19 )
udev: starting version 147
dracut: Starting plymouth daemon
aes_sparc64: Using sparc64 aes opcodes optimized AES implementation
sha256_sparc64: Using sparc64 sha256 opcode optimized SHA-256/SHA-224 implementation
dracut: Scanning devices vdiska3  for LVM volume groups
random: lvm urandom read with 6 bits of entropy available
dracut: Found volume group "VolGroup" using metadata type lvm2
dracut: 2 logical volume(s) in volume group "VolGroup" now active
EXT4-fs (dm-0): mounted filesystem with ordered data mode. Opts: (null)
dracut: Mounted root filesystem /dev/mapper/VolGroup-lv_root
dracut: Loading SELinux policy
audit: type=1404 audit(1496859308.368:2): enforcing=1 old_enforcing=0 auid=4294967295 ses=4294967295
SELinux:  Permission execmod in class dir not defined in policy.
SELinux:  Permission execmod in class lnk_file not defined in policy.
SELinux:  Permission attach_queue in class tun_socket not defined in policy.
SELinux:  Class binder not defined in policy.
SELinux: the above unknown classes and permissions will be allowed
audit: type=1403 audit(1496859308.740:3): policy loaded auid=4294967295 ses=4294967295
EXT4-fs (dm-0): re-mounted. Opts: (null)
kjournald starting.  Commit interval 5 seconds
EXT3-fs (vdiska1): using internal journal
EXT3-fs (vdiska1): mounted filesystem with ordered data mode
Adding 7864312k swap on /dev/mapper/VolGroup-lv_swap.  Priority:-1 extents:1 across:7864312k FS
NET: Registered protocol family 10
ip6_tables: (C) 2000-2006 Netfilter Core Team
nf_conntrack version 0.5.0 (65536 buckets, 262144 max)
ip_tables: (C) 2000-2006 Netfilter Core Team
audit: type=1305 audit(1496859318.384:4): audit_pid=988 old=0 auid=4294967295 ses=4294967295 subj=system_u:system_r:auditd_t:s0 res=1
vldc.c:v1.0

Oracle Linux Server release 6.7
Kernel 4.1.12-94.3.4.el6uek.sparc64 on a sparc64

localhost.localdomain login:

Para terminar de configurar, lo basico, como ser  el nombre del host, la ip , netmask , consultar el documento Configuracion Basica de Oracle Linux, Post instalación.

*********** LISTO, tenemos instalado un Oracle Linux sobre SPARC T5  ******* 

Luego desde el PDOM, si quiero conectarme hago
root@t5-2 # telnet 0 5001
Trying 0.0.0.0...
Connected to 0.
Escape character is '^]'.

Connecting to console "dorclx01" in group "dorclx01" ....
Press ~? for control options ..

{0} ok


NOTA: Esta instalacion la realizamos con mi colega Nicolas Morono @nicomorono