Bienvenidos
Todos estos pasos descriptos fueron probados en ambientes productivos
jueves, 11 de agosto de 2011
NFS LOCO
Problema del NFS
Tenia que hacer un servidor centralizadode backups, en el cual compartiera por NFS, un FS /BACKUP , y ahi alojar los ufsdump de distintos equipos.
La idea era que por cron una vez por semana, desde los solaris que no tenian unidad de cinta, hiciera un ufsdump del fs barra ( / ) a este
servidor que exportaba el NFS.
Pero... cuando queria sobreescribir el archivo me daba un error, abajo lo describo en detalle y como lo solucione.
Equipo Anfitrion: ( Solaris 10 rel 8/07 )
Desde este equipo, exporto un fs /BACKUP por nfs
share -F nfs -o anon=0 -d "Fs Backups" /BACKUPS
Desde otros solaris, con distintos releases, incluso con distintas versiones, monto el fs /BACKUP en /mnt
Hago el ufsdump 0uf /BACKUP/”nombredelequipoclienteNFS”/BARRA.DMP
Esto lo hace perfecto. Graba el archivo sin inconvenientes.
El problema es cuando, a la semana siguiente se ejecuta de nuevo el script, y este va a sobreescribir el archivo BARRA.DMP, me dice que
No puede sobreescribirlo porque el usuario no es uid 0 or 0 .
Este error solo me lo da con el release 1/06 de Solaris 10.
Me fije, en unos de los que si funcionaba, y tenia comentada esa variable (NFSMAPID_DOMAIN=domain ).
Lo que hice fue lo siguiente :
En los equipos que serian los clientes de nfs con Solaris 10, comente esa variable en /etc/default/nfs y ahora funcionan ok.
miércoles, 10 de agosto de 2011
prstat : not enough memory : Not enough space ( encontre la solucion al problema de la resaca)
prstat not enough memory ??? si hay un monton de memoria libre, swap libre, que raro, bueno, el problema eran los fucking file descriptors
coneja] / # prstat
prstat: not enough memory: Not enough space
Tenia 4096 fd y lo cambie para probar en 1024 ( que es el default)
[coneja] / # ulimit -a
time(seconds) unlimited
file(blocks) unlimited
data(kbytes) unlimited
stack(kbytes) 8192
coredump(blocks) unlimited
nofiles(descriptors) 4096
vmemory(kbytes) unlimited
[coneja] / # ulimit -n 1024
[coneja] / # ulimit -a
time(seconds) unlimited
file(blocks) unlimited
data(kbytes) unlimited
stack(kbytes) 8192
coredump(blocks) unlimited
nofiles(descriptors) 1024
vmemory(kbytes) unlimited
Y.... Arranco
[coneja] / # prstat
PID USERNAME SIZE RSS STATE PRI NICE TIME CPU PROCESS/NLWP
26465 x300106 651M 613M sleep 60 0 1:17:33 8.0% oracle/11
14553 x300106 638M 610M sleep 0 0 0:45:13 7.4% oracle/11
14549 20443050 51M 45M sleep 0 0 0:29:12 4.7% m_clonacion/1
14165 sshd 981M 967M cpu33 0 0 0:00:55 3.7% oracle/1
20669 2046 544M 516M sleep 60 4 0:00:44 3.0% oracle/1
10331 2046 549M 521M sleep 60 4 0:05:20 1.9% oracle/1
24179 20443085 621M 176M sleep 59 0 6:10:30 1.5% hedgehog/5
13536 20443082 817M 368M sleep 59 0 12:43:26 0.9% hedgehog/5
12723 2015 2003M 1957M sleep 26 0 0:04:28 0.6% oracle/11
1068 784 1050M 110M sleep 59 0 17:52:57 0.5% hedgehog/5
22401 784 1081M 247M sleep 59 0 2:28:27 0.5% hedgehog/5
7764 root 18M 5560K sleep 40 0 33:06:19 0.5% scopeux/1
1064 784 1049M 185M sleep 59 0 13:47:23 0.4% hedgehog/5
19111 sshd 983M 957M sleep 40 0 2:07:08 0.4% oracle/1
20081 2016 942M 320M sleep 59 0 13:44:33 0.4% hedgehog/5
26495 20443085 657M 88M sleep 59 0 9:01:23 0.3% hedgehog/5
12870 x300106 647M 565M sleep 59 0 3:09:33 0.2% oracle/14
26350 2016 1953M 100M sleep 59 0 0:01:26 0.2% hedgehog/5
12862 x300106 641M 558M sleep 51 0 0:51:01 0.2% oracle/258
12866 x300106 641M 557M sleep 59 0 0:50:02 0.2% oracle/258
30 2016 561M 59M sleep 59 0 0:16:58 0.2% hedgehog/5
12868 x300106 641M 557M sleep 56 0 0:50:06 0.2% oracle/258
1067 784 569M 94M sleep 59 0 5:57:39 0.2% hedgehog/5
12860 x300106 641M 570M sleep 59 0 0:50:05 0.2% oracle/258
18619 2046 545M 474M sleep 42 4 0:02:33 0.1% oracle/258
21887 sshd 985M 962M sleep 51 0 0:08:52 0.1% oracle/29
19597 2035 937M 821M sleep 59 0 21:19:20 0.1% oracle/1
18617 2046 545M 478M sleep 41 4 0:02:38 0.1% oracle/258
18621 2046 551M 478M sleep 47 4 0:12:33 0.1% oracle/13
7737 root 1256K 136K sleep 49 0 7:16:29 0.1% perf64/1
18675 2046 562M 502M sleep 41 4 0:02:21 0.1% oracle/11
18677 2046 551M 488M sleep 43 4 0:02:00 0.1% oracle/18
3073 root 15M 11M sleep 59 0 4:44:48 0.1% discusge/1
12872 x300106 646M 578M sleep 59 0 0:07:04 0.1% oracle/20
12878 x300106 636M 588M sleep 55 0 0:11:12 0.1% oracle/1
22683 root 2528K 2128K cpu32 50 0 0:00:00 0.1% prstat/1
892 sshd 981M 950M sleep 59 0 0:14:33 0.1% oracle/1
19715 2035 933M 870M sleep 59 0 9:29:46 0.1% oracle/1
18633 2046 539M 490M sleep 47 4 0:11:06 0.0% oracle/1
16193 sshd 981M 951M sleep 59 0 0:02:29 0.0% oracle/1
19571 2035 935M 850M sleep 59 0 5:36:40 0.0% oracle/1
8075 root 66M 5256K sleep 59 0 1:59:37 0.0% seosd/1
22644 2015 1877M 1845M sleep 52 0 0:00:00 0.0% oracle/1
8933 root 66M 5096K sleep 59 0 1:38:38 0.0% seosd/1
18623 2046 550M 491M sleep 47 4 0:03:50 0.0% oracle/15
17055 sshd 981M 960M sleep 59 0 0:00:46 0.0% oracle/1
16185 sshd 982M 952M sleep 59 0 0:01:26 0.0% oracle/1
2810 root 66M 6696K sleep 59 0 2:13:10 0.0% seosd/1
17051 sshd 982M 961M sleep 59 0 0:00:27 0.0% oracle/1
22738 root 48M 17M sleep 43 0 0:13:30 0.0% opcmona/8
4237 sshd 534M 504M sleep 59 0 0:10:41 0.0% oracle/1
18831 root 48M 16M sleep 54 0 0:11:36 0.0% opcmona/8
19665 root 215M 10M sleep 59 0 2:21:47 0.0% coda/9
Total: 767 processes, 6676 lwps, load averages: 3.84, 4.56, 4.67
[coneja] / #
El equipo donde tirana el error era :
[coneja] / # prtdiag -v|more
System Configuration: Sun Microsystems sun4u Sun Fire E25K
System clock frequency: 150 MHz
Memory size: 32768 Megabytes
lunes, 8 de agosto de 2011
Prtdiag ( cortito y al pie )
Cuando no refresca el prtdiag -v , se debe restartear el picld
svcadm restart picld
doc id que avala esto es 212205
viernes, 5 de agosto de 2011
Problema instalando una zona
Instalando una zona desde cero , me encontre con este error y la solucion es artesanal, aca dejo el paso a paso.
[coneja]# zonecfg -z zona1 -f /usr/scripts/creaZONA1.ksh
[coneja]# zoneadm list -cv
ID NAME STATUS PATH BRAND IP
0 global running / native shared
- zona1 configured /export/zona1 native shared
[coneja]# chmod 700 /export/zona1
[coneja]# zoneadm -z zona1 install
Preparing to install zone
Creating list of files to copy from the global zone.
Copying <139425> files to the zone.
Initializing zone product registry.
Determining zone package initialization order.
Preparing to initialize <1171> packages on the zone.
Initialized <1171> packages on zone. [[2;5~
Zone
Installation of <12> packages was skipped.
The file contains a log of the zone installation.
HASTA ACA VENIA TODO PERFECTO........
[coneja]# zoneadm -z zona1 ready
[coneja] # zoneadm list -cv
ID NAME STATUS PATH BRAND IP
0 global running / native shared
1 zona1 ready /export/zona1 native shared
[coneja] # zoneadm -z zona1 boot
[coneja]# zlogin zona1 ( Cuando Quiero loguearme a la zona, que instale recien, no levantaban servicios)
# svcs -xv
svc:/system/sysidtool:net (sysidtool)
State: offline since Mon May 18 10:02:53 2009
Reason: Start method is running.
See: http://sun.com/msg/SMF-8000-C4
See: man -M /usr/man -s 1M sysidtool
See: /var/svc/log/system-sysidtool:net.log
Impact: 28 dependent services are not running:
svc:/network/rpc/bind:default
Recorté la salida de los logs del svcs -xv
See: /var/svc/log/application-print-ppd-cache-update:default.log
Impact: This service is not running.
#
LO UNICO LOCO QUE VEO ES en el /ETC
-rw-r--r-- 1 root other 0 May 18 09:44 .UNCONFIGURED
-rw-r--r-- 1 root other 40 May 18 09:51 .sysidconfig.apps
# more .sysidconfig.apps
/usr/sbin/sysidkbd
/lib/svc/method/sshd
LUEGO APLICO la SOLUCION de la Ing SCIARRILLO
# rm .UNCONFIGURED
# rm .sysidconfig.apps
# reboot ( reboot de la zona)
[Connection to zone 'zona1' pts/2 closed]
[coneja]# zoneadm list -cv
ID NAME STATUS PATH BRAND IP
0 global running / native shared
2 zona1 running /export/zona1 native shared
[coneja] /usr/scripts #
Ejecuto esto
/usr/sbin/sysidnet
/usr/sbin/sysidns
/usr/sbin/sysidsys
/usr/sbin/sysidroot
/usr/sbin/sysidpm
/usr/sbin/sysidnfs4
/usr/sbin/sysidkbd
y Salio Andando 10 PuntoS
Suscribirse a:
Entradas (Atom)