04-25-2021 04:05 PM
Buenas tardes estimados,
Tenía una mensaje de alerta en la gui del Cisco Prime Infrastructure con el siguiente mensaje:
Prime Infrastructure Server Backup failed: Error: There
is a problema with operating Database. Please check
oracle database documentation for more details.
Realicé los siguientes comandos:
ncs stop y luego ncs start, sin embargo luego ya no subieron los servicios y salió el mensaje de error:
cat: write error: no space left on device
FATAL ERROR: Could not start display service
Alguna idea o problema relacionado con este caso?.
Le he hecho un reload pero el problema persiste.
Saludos,
Johnny Rivero
Solved! Go to Solution.
04-26-2021 12:14 AM
Es probable que un sistema de archivos esté lleno; utilice la siguiente guía para solucionar problemas. El documento practica la limpieza / opción, pero también puede usar los mismos ejemplos para otros sistemas de archivos.
M.
04-26-2021 12:14 AM
Es probable que un sistema de archivos esté lleno; utilice la siguiente guía para solucionar problemas. El documento practica la limpieza / opción, pero también puede usar los mismos ejemplos para otros sistemas de archivos.
M.
04-26-2021 07:30 AM
Hola Marce1000,
Gracias por tu respuesta, revisando los filesystem tengo lo siguiente:
Noto que el smosvg-varvol está al 100%, podría ser este la causa del problema.
Saludos,
Johnny Rivero
04-26-2021 08:58 AM
Está bien. use el mismo documento al que me referí anteriormente también, y sustituya /opt por /dev/mapper /smosvg-varvol
M.
04-29-2021 11:34 AM
Estimado marce1000 buenas tardes,
Se tuvo apoyo del TAC al caso en donde se ejecutó un script (el cual no está documentado) y se aplicó un reinicio desde el vmware ya que nuestro Prime es virtual y subieron los servicio y se limpió el vol var.
Comparto parte de la salida de CLI realizada:
main() {
trunk_and_compare
insert_here
disable_serial_console
remove_dirs_suppress_logs
clean_clientmqueue
VAR_SIZE=$(df -h | grep /var | awk '{$1=$1;printf $4}')
echo " /var volume has "$VAR_SIZE" available"
}
#====| Execute }==========================================================>
# Functions
#=========================================================================>
main
#====| End Script }=======================================================>
# Cleanup
#=========================================================================>
echo
echo " If this is an HA pair, run ncs ha status. Check if HA is Manual or Auto. "
echo " Run this script on BOTH servers "
echo
echo "To completely resolve the issue, stop and start the NCS service OR reload the machine "
echo "ncs stop & ncs start verbose "
echo
echo "This script resolves CSCvp17013 & CSCvo65492 & CSCvr53612 & CSCvu05246 & CSCvu35406 & CSCvv32128"
echo
echo "Log Cleanup Script successfully finished on `date` "
echo
echo
trap finish exit 0
[root@ltdpwec-040 ~]# chmod u+x ./VAR_CEALUP.sh
[root@ltdpwec-040 ~]# ./VAR_CEALUP.sh
./VAR_CEALUP.sh: line 1: t: command not found
./VAR_CEALUP.sh: line 1: Cisco: command not found
./VAR_CEALUP.sh: line 1: VAR_CLEANUP.sh: command not found
/var clean up script was started on Thu Apr 29 12:20:45 -05 2021
Checking dependencies ...
Truncating /var/log/wtmp then updating owner and group
Owner:Group on file /var/log/wtmp is root:root
Truncating /var/log/messages then updating owner and group
Owner:Group on file /var/log/messages is root:root
Truncating /var/log/maillog then updating owner and group
Owner:Group on file /var/log/maillog is root:root
Truncating /var/log/secure then updating owner and group
Owner:Group on file /var/log/secure is root:root
Truncating /etc/logrotate.conf then updating owner and group
Owner:Group on file /etc/logrotate.conf is root:root
Removed symlink /etc/systemd/system/getty.target.wants/serial-getty@ttyS0.service.
Removed symlink /etc/systemd/system/getty.target.wants/serial-getty@ttyS1.service.
serial console ttyS0 and ttyS1 have been disabled
removing directories with bad permissions
suppressing messages from syslog
restarting rsyslog daemon
removing files from /var/spool/clientmqueue
/var volume has 3.4G available
If this is an HA pair, run ncs ha status. Check if HA is Manual or Auto.
Run this script on BOTH servers
To completely resolve the issue, stop and start the NCS service OR reload the machine
ncs stop & ncs start verbose
This script resolves CSCvp17013 & CSCvo65492 & CSCvr53612 & CSCvu05246 & CSCvu35406 & CSCvv32128
Log Cleanup Script successfully finished on Thu Apr 29 12:20:51 -05 2021
Removing the script ./VAR_CEALUP.sh
[root@ltdpwec-040 ~]# du -h /var --max-depth=6 | egrep '[0-9](G|M)' | sort -k2
225M /var
8.5M /var/cache
1.5M /var/cache/man
7.0M /var/cache/yum
7.0M /var/cache/yum/x86_64
7.0M /var/cache/yum/x86_64/7Server
7.0M /var/cache/yum/x86_64/7Server/primerepo
6.5M /var/cache/yum/x86_64/7Server/primerepo/gen
141M /var/lib
133M /var/lib/rpm
8.2M /var/lib/yum
1.4M /var/lib/yum/history
6.7M /var/lib/yum/yumdb
1.5M /var/lib/yum/yumdb/l
1.1M /var/lib/yum/yumdb/p
60M /var/log
2.7M /var/log/ade
2.0M /var/log/anaconda
38M /var/log/audit
12M /var/spool
12M /var/spool/mail
3.9M /var/tmp
3.7M /var/tmp/oradiag_root
3.7M /var/tmp/oradiag_root/diag
3.7M /var/tmp/oradiag_root/diag/clients
3.7M /var/tmp/oradiag_root/diag/clients/user_root
3.7M /var/tmp/oradiag_root/diag/clients/user_root/host_67880744_80
[root@ltdpwec-040 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/smosvg-rootvol 3.8G 46M 3.6G 2% /
devtmpfs 5.9G 0 5.9G 0% /dev
tmpfs 5.9G 0 5.9G 0% /dev/shm
tmpfs 5.9G 633M 5.3G 11% /run
tmpfs 5.9G 0 5.9G 0% /sys/fs/cgroup
/dev/mapper/smosvg-usrvol 6.7G 1.4G 5.0G 22% /usr
/dev/sda2 93M 1.6M 87M 2% /storedconfig
/dev/mapper/smosvg-recvol 93M 1.6M 87M 2% /recovery
/dev/mapper/smosvg-altrootvol 93M 1.6M 87M 2% /altroot
/dev/mapper/smosvg-optvol 203G 78G 115G 41% /opt
/dev/mapper/smosvg-home 93M 1.9M 86M 3% /home
/dev/mapper/smosvg-localdiskvol 44G 3.7G 38G 9% /localdisk
/dev/sda1 477M 150M 302M 34% /boot
/dev/mapper/smosvg-tmpvol 1.9G 3.1M 1.8G 1% /tmp
/dev/mapper/smosvg-storeddatavol 9.5G 1.9G 7.2G 21% /storeddata
/dev/mapper/smosvg-varvol 3.8G 233M 3.4G 7% /var
[root@ltdpwec-040 ~]# /opt/CSCOlumos/bin/wcsadmin.sh status
Gracias por tu tiempo en las respuestas.
Saludos,
Johnny Rivero
Discover and save your favorite ideas. Come back to expert answers, step-by-step guides, recent topics, and more.
New here? Get started with these tips. How to use Community New member guide