Inicio / Comunidad / Blog

Este articulo es el cuarto dedicado a la instalación y configuración de servidores de red basado en Ubuntu Server 12.04, en esta ocasión dedicaremos tiempo a realizar las tareas de configuración avanzada post instalación, al realizar estas tareas dejaremos un ambiente funcional y personalizado para que sea integrarlo a cualquier ambiente con requisitos de tipo empresarial.

Para ver la primera parte hacer clic aquí, la segunda la puedes encontrar aquí y para ver la tercer parte haz clic aquí.

Las tareas de configuración avanzada del servidor que vamos a realizar son las siguientes:

  • Configurar los parámetros de red TCP/IP del sistema.
  • Actualizar el sistema desde Internet usando las herramientas APT.
  • Instalar el conjunto de paquetes base para la administración de servidores.
  • Configurar el servicio NTP para mantener sincronizado el reloj del sistema.
  • Configurar el servidor syslog con archivos locales y servidor remoto.
  • Configurar y asegurar el servidor de acceso remoto SSH.
  • Configurar el agente SNMP para monitorizar el uso de recursos de sistema.
  • Configurar las herramientas sysstat para análisis de rendimiento del sistema.
  • Configurar la herramienta vnstat para generar estadísticas de uso de ancho de banda.
  • Configurar el servicio SMTP con Postfix en modo smarthost para enviar notificaciones de sistema.
  • Configurar la herramienta apticron para el envío de notificaciones de actualizaciones de paquetes
  • Configurar la herramienta LogWatch para el envío de reportes de análisis de logs de sistema

Al final los lectores aprenderán a personalizar no solo el sistema si no también algunas de las herramientas que facilitan la administración del mismo.

El documento es algo extenso y por lo tanto lo he publicado en formato HTML para que lo lean en línea y en formato PDF para descargarlo.

Para leer el documento en línea en formato HTML ir siguiente URL: http://docs.sistemaslinuxred.com.mx/guia-de-configuracion-avanzada-de-servidor-linux-basado-en-ubuntu-server-1204-lts/html/.

Para descargar el documento en formato PDF ir al siguiente URL: http://docs.sistemaslinuxred.com.mx/guia-de-configuracion-avanzada-de-servidor-linux-basado-en-ubuntu-server-1204-lts/pdf/.

El documento esta en su primer versión y creo que le hacen falta más explicaciones y ejemplos, si te interesa el documento y quieres darme tus comentarios no dudes en contactarme que seguro podremos mejorarlo.

Este articulo es el tercero dedicado a la instalación y configuración de servidores de red basado en Ubuntu Server 12.04, en esta ocasión dedicaremos tiempo a realizar las tareas de configuración básicas post instalación, al realizar estas tareas dejaremos un ambiente funcional y personalizado para que sea posible desarrollar de forma eficiente diferentes actividades ya sea desde desarrollo, administración y soporte de sistemas.

Para ver la primera parte hacer clic aquí, la segunda la puedes encontrar aquí.

Las tareas de configuración básica del servidor que vamos a realizar son las siguientes:

  • Introducir sudo para ejecutar tareas como administrador.
  • Definir y configurar la localización del sistema.
  • Configurar la zona horaria y el reloj del sistema.
  • Configurar de forma personalizada el entorno del shell bash.
  • Inicializar la base de datos indexada de manuales.
  • Configurar entorno del editor de textos vim.
  • Configurar un mensaje previo al inicio de sesión por red.
  • Configurar la herramienta GNU screen para tener múltiples ventanas de shell.
  • Configurar la herramienta de visualización de múltiples logs multitail.

Al final los lectores aprenderán a personalizar no solo el sistema si no también algunas de las herramientas que facilitan la administración del mismo.

El documento es algo extenso y por lo tanto lo he publicado en formato HTML para que lo lean en línea y en formato PDF para descargarlo.

Para leer el documento en línea en formato HTML ir siguiente URL: http://docs.sistemaslinuxred.com.mx/guia-de-configuracion-basica-de-servidor-linux-basado-en-ubuntu-server-1204-lts/html/.

Para descargar el documento en formato PDF ir al siguiente URL: http://docs.sistemaslinuxred.com.mx/guia-de-configuracion-basica-de-servidor-linux-basado-en-ubuntu-server-1204-lts/pdf/.

El documento esta en su primer versión y creo que le hacen falta más explicaciones y ejemplos, si te interesa el documento y quieres darme tus comentarios no dudes en contactarme que seguro podremos mejorarlo.

Esta es la segunda parte de una serie de 4 artículos que estaré publicando acerca de GNU/Linux en servidores de red, para ver la primera parte hacer clic aquí.

En este articulo mostrare como realizar una instalación básica del sistema operativo Ubuntu Server 12.04 LTS. Ubuntu Server es una distribución GNU/Linux optimizada para funcionar como servidor de red cubriendo tanto instalaciones de servidores caseros, servidores de tipo empresarial tales como, granjas o clusters de servidores hasta como infraestructura base para una nube publica o privada de servidores Linux.

Las actividades que describiré a detalle son las siguientes:

  • Definición de Requisitos.
  • Tipos de instalación de Ubuntu Server.
  • Obteniendo la media de instalación de Ubuntu Server.
  • Arranque del servidor.
  • Procedimiento de instalación atendida.
  • Validación de la instalación.

El documento es algo extenso y por lo tanto lo he publicado en formato HTML para que lo lean en línea y en formato PDF para descargarlo.

Para leer el documento en línea en formato HTML ir siguiente URL: http://docs.sistemaslinuxred.com.mx/guia-de-instalacion-de-servidor-linux-basado-en-ubuntu-server-1204-lts/html/.

Para descargar el documento en formato PDF ir al siguiente URL: http://docs.sistemaslinuxred.com.mx/guia-de-instalacion-de-servidor-linux-basado-en-ubuntu-server-1204-lts/pdf/

El documento esta en su primer versión y creo que le hacen falta más explicaciones y ejemplos, si te interesa el documento y quieres darme tus comentarios no dudes en contactarme que seguro podremos mejorarlo.

Introducción

En este articulo explicare porque recomendamos usar GNU/Linux como sistema operativo para servidores de red, ya sea para uso personal o empresarial.

Empezaremos hablando de analizar los requisitos para implementar un servidor de red, porque usar GNU/Linux, y al final porque usar la distribución Ubuntu Server para servidores de red.

Analizando los requisitos para la implementación de un servidor de red

Antes de ponerse a instalar un sistema operativo en un servidor es recomendable hacer una pausa y pensar en los requisitos del cliente, donde el cliente podemos ser nosotros mismos, nuestros jefes en la oficina o algún cliente de otra empresa. Es decir, debemos realizar un análisis de requisitos.

Es importante dejar bien en claro y por escrito (el inicio de la documentación) cuales son los requisitos, tanto los funcionales y los no funcionales, se debe establecer cuales son los problemas que se quieren resolver, de ser necesario cuales son los requisitos del negocio y también los requisitos técnicos.

Algunos de los requisitos de negocio más comunes pueden ser:

  • Reducir los costos de operación en relación a la infraestructura de TI.
  • Interconectar los equipos de computo usando una infraestructura de TI abierta y estándar la cual permita hacer un uso más eficiente de los recursos.
  • Centralizar el almacenamiento de los documentos de oficina y datos de aplicaciones de la empresa.
  • Controlar el acceso de usuarios y grupos a los recursos compartidos en la red de forma eficiente y segura.
  • Mejorar la colaboración entre usuarios usando el servicio de compartición de archivos e impresoras en red.
  • Mejorar las comunicaciones entre los colaboradores usando el servicio de correo electrónico.

Lo anterior se puede traducir en los siguientes requisitos técnicos:

  • Crear una red LAN para conectar los equipos de computo y otros dispositivos de red, de forma que los usuarios puedan mejorar la productividad colaborando de forma eficiente con el uso de las tecnologías de la información y comunicaciones.
  • Implementar los servicios de infraestructura de red básicos para el control lógico de la red.
  • Implementar un sistema controlador de dominio para centralizar la administración de usuarios y grupos, así como el acceso a los recursos de la red.
  • Implementar un servidor para ofrecer servicios de compartición de archivos e impresoras en red.
  • Implementar un servidor de red para ofrecer servicios de correo electrónico.

Después de tener bien claros los requisitos, solo entonces podemos empezar a pensar en el diseño de la red, y planificar la instalación de servidores y servicios de red.

Porque usar el sistema operativo GNU/Linux para un servidor de red

Los sistemas operativos GNU/Linux están basados en los principios del software libre, dicho software respeta la libertad de los usuarios y la comunidad, ofreciendo las siguientes libertades:

  • La libertad de ejecutar el programa como se desea, con cualquier propósito (libertad 0).
  • La libertad de estudiar cómo funciona el programa, y cambiarlo para que haga lo que usted quiera (libertad 1). El acceso al código fuente es una condición necesaria para ello.
  • La libertad de redistribuir copias para ayudar a su prójimo (libertad 2).
  • La libertad de distribuir copias de sus versiones modificadas a terceros (libertad 3). Esto le permite ofrecer a toda la comunidad la oportunidad de beneficiarse de las modificaciones. El acceso al código fuente es unacondición necesaria para ello.

En grandes líneas, significa que los usuarios tienen la libertad para ejecutar, copiar, distribuir, estudiar, modificar y mejorar el software. Es decir, el «software libre» es una cuestión de libertad, no de precio. Para entender el concepto, piense en «libre» como en «libre expresión», no como en «barra libre».

Además de esto, el kernel Linux es el proyecto de software que ha unido a más gente en la historia de la humanidad como ningún otro proyecto. Esto significa que alrededor del mundo hay miles de programadores, usuarios, educadores, comerciantes y toda clase de personas dedicadas a fomentar el uso de las tecnologías abiertas y los principios del software libre, todo para el beneficio de la humanidad.

Al tener a tanta gente trabajando en el mismo objetivo obtenemos un sistema operativo que ofrece las siguientes funcionalidades:

  • Escalabilidad: Los sistemas GNU/Linux permiten escalar para ofrecer servicios para usuarios en casa, empresas de todos tamaños, y hasta para trabajos científicos.
  • Disponibilidad: Los sistemas GNU/Linux ofrecen tasas de disponibilidad para soportar todo tipo de demanda.
  • Rendimiento: Los sistemas GNU/Linux ofrecen un buen rendimiento de forma predeterminada, pero además permiten optimizarlos para todo tipo de demandas.
  • Seguridad: Los sistemas GNU/Linux son seguros de forma predeterminada, y cuando se presenta un problema de seguridad, la comunidad los arregla rápidamente teniendo las correcciones en poco tiempo.
  • Administrabilidad: Los sistemas GNU/Linux permite ser administrados usando diferentes métodos, tanto en línea de comandos como con interfaces gráficas, o incluso usando herramientas dedicadas a configuraciones centralizadas y automatizadas.
  • Facilidad de Uso: A pesar de la mala fama, los sistemas GNU/Linux son fáciles de usar, siempre y cuando se tenga la formación adecuada.
  • Adaptabilidad: Los sistemas GNU/Linux pueden adaptarse a los cambios continuos que se presentan cada día.
  • Asequible: Los sistemas GNU/Linux, al ser software libre no tienen costos de licencias.
  • Balance: Los sistemas GNU/Linux ofrecen el mejor balance costo beneficio.

Porque elegir la distribución GNU/Linux Ubuntu Server para un servidor de red

Algunas de las razones por las que Ubuntu Server Edition es recomendado para servidores de red:

  • Ubuntu Server Edition es una distribución GNU/Linux orientada a servidores, esta basado en Debian y soporta los mismos paquetes y configuraciones.
  • Ubuntu Server Edition esta respaldado y soportado por la empresa Canonical.
  • El equipo de Ubuntu Server mantiene ciclos de control de calidad adicionales a los de Debian.
  • Ubuntu Server LTS tiene un ciclo de vida de 5 años con soporte de actualizaciones de seguridad.
  • Ubuntu server esta certificado para servidores DELL PowerEdge y HP Proliant entre otras marcas.
  • El equipo de Ubuntu Security se encarga de desarrollar e integrar herramientas de seguridad a nivel kernel y aplicación, darle seguimiento a las vulnerabilidades de seguridad que afectan los paquetes soportados realizando auditorías, rastreos, corrección y pruebas.
  • Ubuntu Server incluye soporte completo de virtualización basada en KVM el cual soporta la mayoría de funciones incluidas en Xen.
  • Ubuntu Server LTS tiene herramientas para integrar plataformas Cloud privadas basadas en KVM.

Para conocer más acerca de Ubuntu server les recomiendo leer los brochures para las últimas versiones LTS.

Referencias

Requisitos no funcionales:

http://es.wikipedia.org/wiki/Requisito_no_funcional

Requisitos funcionales:

http://es.wikipedia.org/wiki/Requisito_funcional

Que es el software libre?:

http://www.gnu.org/philosophy/free-sw.es.html

Kernel Linux:

https://www.kernel.org/

Why Linux is Better?:

http://www.whylinuxisbetter.net/

Ubuntu Server:

http://www.ubuntu.com/server

Introducción

virtualbox-logo

Tengo una máquina virtual que cree para realizar algunas pruebas de integración con una red y sistemas homogeneos, está VM la cree usando un disco duro virtual dinámico, lo cual para las pruebas fue bien, sin embargo, la VM la estoy usando cada vez más y noto que está algo lenta.

Usando programas de línea de comandos realizaremos la conversión del disco duro virtual de la VM de la variante Dynamic a Fixed.

Otras configuraciones las realizaremos usando el programa VirtualBox, desde el cual se gestionan las máquinas virtuales.

Preparativos

Lo primero que debemos hacer es localizar el archivo del disco duro virtual. En mi caso tuve que entrar al modo gráfico, ver las configuraciones de la VM, ir a la sección de Almacenamiento y dar clic sobre el disco duro virtual, ahí viene la ruta.

En este caso el directorio es ~/VirtualBox VMs/JMW7. Veamos el archivo de disco virtual origen:

# ls -lh
...
...
...
-rw------- 1 jmedina jmedina 21G jun 17 15:53 JMW7-disk0.vdi

El archivo JMW7-disk0.vdi mide 21GB.

Veamos el tipo de archivo:

# file JMW7-disk0.vdi
JMW7-disk0.vdi: VDI Image version 1.1 (<<< Oracle VM VirtualBox Disk Image >>>), 26843545600 bytes

Es importante señalar que vamos a necesitar suficiente espacio en disco para colocar el nuevo archivo de la máquina virtual, en este caso requerimos más de 30GB disponibles.

Procedimiento

Usando el programa VBoxManage y la opción clonehd, realizamos la conversión:

# VBoxManage clonehd JMW7-disk0.vdi JMW7-disk0-fixed.vdi --format VDI --variant Fixed
0%...10%...20%...30%...40%...50%...60%...70%...80%...90%...100%
Clone hard disk created in format 'VDI'. UUID: 4cb335c3-b35f-4013-a8d9-205094e54372

Ahora veamos el resultado del archivo convertido:

# ls -lh JMW7-disk0-fixed.vdi
-rw------- 1 root root 26G jun 17 16:21 JMW7-disk0-fixed.vdi

El nuevo disco mide 26GB.

Ahora que la máquina virtual JMW7 use este disco tenemos que realizar los siguientes pasos:

- Renombramos el disco dinamico:

# mv JMW7-disk0.vdi JMW7-disk0-old.vdi

- Quitar disco de la VM.

- Quitar el disco desde el administrador de medios.

- Renombrar disco nuevo:

# mv JMW7-disk0-fixed.vdi JMW7-disk0.vdi

- Agregar el disco nuevo a la VM y arrancarla.

Referencias

VBoxManager clonehd:
http://www.virtualbox.org/manual/ch08.html#vboxmanage-clonevdi

Si te encuentras en la situación en la que tienes que instalar algún programa desde las fuentes, tendrás que tener instalados los programas y herramientas para compilar e instalar programas desde las fuentes o incluso para programar.

En lugar de tener que instalar programa por programa, uno a uno, mejor instalaremos los grupos de paquetes que ya proveen los sistemas de gestión de paquetes de las diferentes distribuciones.

En sistmas RHEL o CentOS instalamos el grupo de paquetes Development Tools:

# yum groupinstall "Development Tools"

En sistemas Ubuntu instalamos el metapaquete build-essential:

# apt-get install build-essential

Espero que este tipo les sea de utilidad.

Introducción

En este articulo hablare un poco sobre IMPI, IPMItool y conexiones de administración out-of-band a las consolas ILO de servidores HP.

IMPI o Intelligent Platform Management Interface es una interfaz estandarizada usada por administradores de sistmeas para administración out-of-band de equipos de computo y monitorización de la operación. Permite administrar computadoras que pudieran estár apagadas o no responden, a través de una conexión a el hardware en lugar de el sistema operativo o un login shell.

La herramienta IPMItool provee una interfaz de línea de comandos simple hacía dispositivos con soporte IPMI a través de interfaces IPMIv1.5 o interfaz IPMIv2.0 LAN o un driver del kernel de Linux.

Objetivo

En este documento se describe como configurar la herramienta ipmitool para realizar conexiones a las interfaces ILO de servidores HP, esto con la intención de realizar tareas administrativas en los servidores HP.

En especifico veremos como consultar información desde la consola ILO, como cambiar el orden de arranque para iniciar el sistema por red vía PXE, además de como apagar o reiniciar los equipos de forma remota.

Instalación de herramienta IPMITool

En la estación de trabajo del administrador, instalar el programa ipmitool:

$ sudo aptitude install ipmitool
[sudo] password for jmedina:
Se instalarán los siguiente paquetes NUEVOS:
ipmitool libopenipmi0{a} openipmi{a}

NOTA: El programa ipmitool puede ser ejecutado como usuario no privilegiado, no es necesario ejecutarlo como root.

Para facilitar la conexión a las consolas ILO3 he agregado los nombres de los servidores en el archivo/etc/hosts de mi equipo:

$ cat /etc/hosts
...
...
...
# Consolas HP ILO3 hosts Producción
192.110.82.150 ilo-host01-mx
191.110.82.192 ilo-host02-mx
192.110.82.23 ilo-host03-mx
192.110.83.54 ilo-host04-mx
192.110.83.40 ilo-host05-mx
192.110.83.58 ilo-host06-mx
192.110.83.63 ilo-host07-mx
192.110.83.79 ilo-host08-mx

Lanzando consultas vía IPMI

En esta sección veremos algunos comandos que podemos usar para realizar las tareas de operación de rutina contra servidores HP con consola ILO3.

Los ejemplos son usados para lanzar comandos a un servidor o a varios servidores a la vez.

Ver la información de un servidor

Ejecutamos una consulta sobre el servidor:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin mc info
Password:
Device ID : 19
Device Revision : 1
Firmware Revision : 1.55
IPMI Version : 2.0
Manufacturer ID : 11
Manufacturer Name : Hewlett-Packard
Product ID : 8224 (0x2020)
Product Name : Unknown (0x2020)
Device Available : yes
Provides Device SDRs : no
Additional Device Support :
Sensor Device
SDR Repository Device
SEL Device
FRU Inventory Device
Chassis Device
Aux Firmware Rev Info :
0x00
0x00
0x00
0x13

Consultando el estado chassis

Lanzamos una consulta al servidor para ver el estado del chassis:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin chassis status
Password:
System Power : on
Power Overload : false
Power Interlock : inactive
Main Power Fault : false
Power Control Fault : false
Power Restore Policy : always-on
Last Power Event :
Chassis Intrusion : inactive
Front-Panel Lockout : inactive
Drive Fault : false
Cooling/Fan Fault : false
Front Panel Control : none

Consultando información de sensores

Lanzamos una consulta al servidor para ve información de los sensores:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin sensor list
Password:
UID Light | 0x0 | discrete | 0x0080| na | na | na | na | na | na
Health LED | 0x0 | discrete | 0x0080| na | na | na | na | na | na
VRM 1 | 0x0 | discrete | 0x0280| na | na | na | na | na | na
VRM 2 | 0x0 | discrete | 0x0280| na | na | na | na | na | na
VRM 3 | 0x0 | discrete | 0x0280| na | na | na | na | na | na
VRM 4 | 0x0 | discrete | 0x0280| na | na | na | na | na | na
Inlet Ambient | 14.000 | degrees C | ok | na | na | na | na | 42.000 | 46.000
System Board | 23.000 | degrees C | ok | na | na | na | na | 85.000 | 90.000
CPU 1 | 18.000 | degrees C | ok | na | na | na | na | 75.000 | 80.000
CPU 2 | 18.000 | degrees C | ok | na | na | na | na | 75.000 | 80.000
CPU 3 | 13.000 | degrees C | ok | na | na | na | na | 75.000 | 80.000
CPU 4 | 16.000 | degrees C | ok | na | na | na | na | 75.000 | 80.000
DIMMs 1 | 29.000 | degrees C | ok | na | na | na | na | 87.000 | 92.000
DIMMs 2 | 27.000 | degrees C | ok | na | na | na | na | 87.000 | 92.000
DIMMs 3 | 23.000 | degrees C | ok | na | na | na | na | 87.000 | 92.000
DIMMs 4 | 25.000 | degrees C | ok | na | na | na | na | 87.000 | 92.000
Mem 1 1-4 Zone | 38.000 | degrees C | ok | na | na | na | na | 85.000 | 90.000
Mem 1 5-8 Zone | 39.000 | degrees C | ok | na | na | na | na | 85.000 | 90.000
Mem 2 1-4 Zone | 28.000 | degrees C | ok | na | na | na | na | 85.000 | 90.000
Mem 2 5-8 Zone | 32.000 | degrees C | ok | na | na | na | na | 85.000 | 90.000
Mem 3 1-4 Zone | 20.000 | degrees C | ok | na | na | na | na | 85.000 | 90.000
Mem 3 5-8 Zone | 21.000 | degrees C | ok | na | na | na | na | 85.000 | 90.000
Mem 4 1-4 Zone | 20.000 | degrees C | ok | na | na | na | na | 85.000 | 90.000
Mem 4 5-8 Zone | 22.000 | degrees C | ok | na | na | na | na | 85.000 | 90.000
IOH 1 | 66.000 | degrees C | ok | na | na | na | na | 100.000 | 105.000
IOH 2 | 51.000 | degrees C | ok | na | na | na | na | 100.000 | 105.000
NIC Zone | 66.000 | degrees C | ok | na | na | na | na | 90.000 | 95.000
Mezz Zone | 57.000 | degrees C | ok | na | na | na | na | 90.000 | 95.000
Chassis Exit | 67.000 | degrees C | ok | na | na | na | na | 100.000 | 105.000
HDD Max | 35.000 | degrees C | ok | na | na | na | na | 60.000 | 65.000
ProcHot | 0x0 | discrete | 0x0280| na | na | na | na | na | na
Virtual Fan | 27.048 | percent | ok | na | na | na | na | na | na
Enclosure Status | 0x0 | discrete | 0x0080| na | na | na | na | na | na
Power Meter | 284 | Watts | ok | na | na | na | na | na | na
Memory Status | 0x0 | discrete | 0x4080| na | na | na | na | na | na
Cntlr 1 Bay 1 | 0x1 | discrete | 0x0180| na | na | na | na | na | na
Cntlr 1 Bay 2 | 0x1 | discrete | 0x0180| na | na | na | na | na | na
Cntlr 1 Bay 3 | 0x0 | discrete | 0x0080| na | na | na | na | na | na
Cntlr 1 Bay 4 | 0x0 | discrete | 0x0080| na | na | na | na | na | na

Esta es otra forma:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin sdr list
Password:
UID Light | 0x00 | ok
Health LED | 0x00 | ok
VRM 1 | 0x00 | ok
VRM 2 | 0x00 | ok
VRM 3 | 0x00 | ok
VRM 4 | 0x00 | ok
Inlet Ambient | 14 degrees C | ok
System Board | 23 degrees C | ok
CPU 1 | 18 degrees C | ok
CPU 2 | 18 degrees C | ok
CPU 3 | 13 degrees C | ok
CPU 4 | 16 degrees C | ok
DIMMs 1 | 29 degrees C | ok
DIMMs 2 | 27 degrees C | ok
DIMMs 3 | 23 degrees C | ok
DIMMs 4 | 25 degrees C | ok
Mem 1 1-4 Zone | 38 degrees C | ok
Mem 1 5-8 Zone | 39 degrees C | ok
Mem 2 1-4 Zone | 28 degrees C | ok
Mem 2 5-8 Zone | 32 degrees C | ok
Mem 3 1-4 Zone | 20 degrees C | ok
Mem 3 5-8 Zone | 21 degrees C | ok
Mem 4 1-4 Zone | 20 degrees C | ok
Mem 4 5-8 Zone | 22 degrees C | ok
IOH 1 | 66 degrees C | ok
IOH 2 | 51 degrees C | ok
NIC Zone | 66 degrees C | ok
Mezz Zone | 57 degrees C | ok
Chassis Exit | 67 degrees C | ok
HDD Max | 35 degrees C | ok
ProcHot | 0x00 | ok
Virtual Fan | 27.05 percent | ok
Enclosure Status | 0x00 | ok
Power Meter | 284 Watts | ok
Memory Status | 0x00 | ok
Cntlr 1 Bay 1 | 0x01 | ok
Cntlr 1 Bay 2 | 0x01 | ok
Cntlr 1 Bay 3 | 0x00 | ok
Cntlr 1 Bay 4 | 0x00 | ok

Control de encendido, reinicio y apagado

Aquí mostramos algunos ejemplos de tareas que podemos usar para controlar el encendido, reinicio y apagado de servidores vía ILO3.

Encender un servidor:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin chassis power on

Reiniciar un servidor:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin chassis power cycle

Apagar un servidor:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin chassis power off

Cambio de opciones de arranque

Para decirle a un servidor que el siguiente reinicio sea por red vía PXE:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin chassis bootdev pxe

Para decirle a un servidor que el siguiente reinicio sea el predeterminado:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin chassis bootdev none

Conexión desatendida (sin pasar contraseña)

Creamos un archivo de texto plano con la contraseña:

$ cat ilo-hosts-pass
s3c3t$$$

Lazamos la consulta desatendida:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin -f ilo-hosts-pass mc info
Device ID : 19
Device Revision : 1
Firmware Revision : 1.55
IPMI Version : 2.0
Manufacturer ID : 11
Manufacturer Name : Hewlett-Packard
Product ID : 8224 (0x2020)
Product Name : Unknown (0x2020)
Device Available : yes
Provides Device SDRs : no
Additional Device Support :
Sensor Device
SDR Repository Device
SEL Device
FRU Inventory Device
Chassis Device
Aux Firmware Rev Info :
0x00
0x00
0x00
0x13

Conectandonos a la consola serial del sistema Linux

Si deseamos conectarnos desde la ILO a la consola de un servidor Linux debemos de realizar los siguientes pasos:

Configurar grub /boot/grub/menu.lst para redireccionar mensajes al puerto serial:

serial -unit=0 -speed=115200
terminal -timeout=10 serial console

Agregar el parámetro de consola serial a la línea del kernel console=ttyS1,115200, por ejemplo:

title SUSE Linux Enterprise Server 11 SP2 - 3.0.93-0.5
root (hd0,0)
kernel /boot/vmlinuz-3.0.93-0.5-default root=/dev/cciss/c0d0p1 ramdisk_blocksize=4096 resume=/dev/system/swapvol splash=silent crashkernel= showopts vga=normal console=ttyS1,115200
initrd /boot/initrd-3.0.93-0.5-default

Redireccionar la salida de login al puerto serial:

host08:~ # grep ttyS /etc/inittab
S0:12345:respawn:/sbin/agetty -L 115200 ttyS0 vt102

La configuración de la consola ILO de la velocidad se define en la consola web de laILO=>Administration=Access Settings=>Access Options=>Serial Command Line Interface Speedigual 115200.

Actualizamos los cambios:

host08:~ # init q

También se deben de dar permisos a root por la terminal serial:

host08:~ # echo ttyS0 > /etc/securetty

Hacemos una prueba:

$ ssh admin@ilo-host01-mx
Enter passphrase for key '/home/jmedina/.ssh/id_dsa':
admin@ilo-host01-mx's password:
User:admin logged-in to ILOUSE250P8VX.(ilo-host01-mx / fe80::2a92:4aff:fe2f:99ac)
iLO 3 Standard Blade Edition 1.55 at Jan 24 2013
Server Name: linux
Server Power: On
hpiLO-> vsp
Virtual Serial Port Active: COM1
Starting virtual serial port.
Press 'ESC (' to return to the CLI Session.

IMPORTANTE: Para desconectarse usar: ESC+ (.

Reseteando una consola HP ILO3

Si se quiere resetear la consola usamos:

hpiLO-> cd /map1
status=0
status_tag=COMMAND COMPLETED
hpiLO-> reset
status=0
status_tag=COMMAND COMPLETED
Resetting iLO.
CLI session stopped

Este procedimiento también se puede hacer vía web llendo a Information => Diagnostico => Reset.

Reinicio manual de un servidor

Configuramos el arranque vía PXE del servidor host01:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin -f ilo-hosts-pass chassis bootdev pxe
Set Boot Device to pxe

Reiniciamos el servidor host01 para que arranque vía PXE:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin -f ilo-hosts-pass chassis power cycle
Chassis Power Control: Cycle

Regresamos el arranque al default del servidor host01:

$ ipmitool -H ilo-host01-mx -I lanplus -U admin-f ilo-hosts-pass chassis bootdev none
Set Boot Device to none

Para ver el arranque del sistema solo se puede hacer por la consola virtual desde la consola ILO.

Reinicio automático de todos los servidores

Configuramos el arranque vía PXE de los servidores 1 al 7:

$ for i in `seq 1 7`; do ipmitool -H ilo-host0$i-mx -I lanplus -U admin -f ilo-hosts-pass chassis bootdev pxe; done
Set Boot Device to pxe
Set Boot Device to pxe
Set Boot Device to pxe
Set Boot Device to pxe
Set Boot Device to pxe
Set Boot Device to pxe
Set Boot Device to pxe
Set Boot Device to pxe

Reiniciamos los servidores 1 al 7:

$ for i in `seq 1 8`; do ipmitool -H ilo-host0$i-mx -I lanplus -U admin -f ilo-hosts-pass chassis power cycle; done
Chassis Power Control: Cycle
Chassis Power Control: Cycle
Chassis Power Control: Cycle
Chassis Power Control: Cycle
Chassis Power Control: Cycle
Chassis Power Control: Cycle
Chassis Power Control: Cycle
Chassis Power Control: Cycle

Cuando los servidores se hayan reinstalado, regresamos el arranque al default de los servidores 1 al 7:

$ for i in `seq 1 7`; do ipmitool -H ilo-host0$i-mx -I lanplus -U admin -f ilo-hosts-pass chassis bootdev none; done

Referencias

Introducción

Actualmente uso una Laptop con dos discos duros internos, un disco es SSD de 32 GB que uso para almacenar el sistema operativo Kubuntu 14.04, y un disco SATA de 500 GB que uso para almacenar datos personales. El disco de datos ya esta llegando al 80% de su capacidad máxima, por lo que es buen tiempo de mover datos a un medio externo.

Para un proyecto de trabajo requiero tener un disco duro externo para almacenar los datos del proyecto, principalmente almacenare las configuraciones y discos duros virtuales de un entorno de máquinas virtuales que uso para laboratorios de estudio e investigación. Para esto quiero usar un disco duro USB externo, prepararlo e intercambiar los accesos del disco local al externo.

Objetivos

En este articulo voy a describir como preparar un disco duro USB externo para utilizarlo como medio de almacenamiento adicional a mi Laptop y sincronizar datos de diferentes volúmenes. Describiremos procedimientos a detalle usando diferentes programas en la línea de comandos y además mostramos las referencias a documentación del sistema acerca de los diferentes programas utilizados.

El articulo lo dividimos en las siguientes secciones:

  • Requerimientos de sistema
  • Conociendo el disco duro externo
  • Revisando el disco vía SMART
  • Particionando el disco
  • Configurando los volúmenes lógicos LVM
  • Creando los sistemas de archivos en los volúmenes lógicos LVM
  • Montando temporalmente los sistemas de archivos de los volúmenes lógicos LVM
  • Asignando permisos
  • Sincronizando los archivos
  • Intercambiamos acceso a datos desde el disco externo
  • Conclusiones
  • Referencias

Requerimientos de sistema

Antes de empezar a particionar y crear sistemas de archivos, he definido los siguientes requerimientos de sistema:

  • Los datos del disco deben de estar disponibles para cualquier equipo GNU/Linux reciente.
  • Usar el tipo de tabla de particiones GPT para soporte de particiones mayor a 4TB.
  • En lugar de usar particiones nativas voy a usar volúmenes lógicos LVM para mayor control.
  • Los sistemas de archivos será ext4 y btrfs, no requiero acceso a clientes Windows.
  • Sincronizar de forma intacta los datos del volumen local al volumen del disco duro externo.
  • En un futuro debería de poder conectar el disco a un equipo Raspberry PI para convertirlo en NAS.

Teniendo bien definidos los requerimientos veamos como realizar nuestro objetivo.

Conociendo el disco duro externo

Tengo el siguiente disco duro externo, el cual es un disco SATA de 320 GB, a continuación muestro la información del disco usando diferentes herramientas de línea de comandos.

Veamos la información de los discos SATA usando el comando lsscsi(8):

# lsscsi
[0:0:0:0] disk ATA ST500LM012 HN-M5 2AR1 /dev/sda
[1:0:0:0] disk ATA SanDisk SSD U100 10.5 /dev/sdb
[2:0:0:0] cd/dvd MATSHITA DVD-RAM UJ8C2 S 1.00 /dev/sr0
[6:0:0:0] disk TOSHIBA MK3276GSX GS00 /dev/sdc

El disco es un TOSHIBA modelo MK3276GSX GS00, y el sistema lo identifica como /dev/sdc.

Ahora veamos la información de capacidades y particiones con el comando fdisk(8):

# fdisk -l /dev/sdc
Disco /dev/sdc: 320.1 GB, 320072933376 bytes
255 cabezas, 63 sectores/pista, 38913 cilindros, 625142448 sectores en total
Unidades = sectores de 1 * 512 = 512 bytes
Tamaño de sector (lógico / físico): 512 bytes / 512 bytes
Tamaño E/S (mínimo/óptimo): 512 bytes / 512 bytes
Identificador del disco: 0x00000000
El disco /dev/sdc no contiene una tabla de particiones válida

En la salida del comando fdisk podemos ver la cantidad de cabezas, sectores, pistas, cilindros, ver las unidades y el detalle de la tabla de particiones y las particiones.

El disco duro está vacío, no tiene ninguna tabla de particiones, por lo que está bueno para iniciar desde el principio a preparar este disco.

Revisando el disco vía SMART

Es importante revisar la buena salud del disco duro, y estarlo revisando periodicamente para asegurarnos que almacenamos nuestra información en un medio confiable, para esto, usaremos las herramientas smartmontools para revisar la información S.M.A.R.T del disco.

Primero instalamos las herramientas:

# apt-get install smartmontools

Ahora ejecutamos el comando smartctl con la opción -i para ver la información general:

# smartctl  -i /dev/sdc
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-32-generic] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net
=== START OF INFORMATION SECTION ===
Device Model:     ST31000524AS
Serial Number:    5VP8BVRV
LU WWN Device Id: 5 000c50 03809a021
Firmware Version: JC45
User Capacity:    1,000,204,886,016 bytes [1.00 TB]
Sector Size:      512 bytes logical/physical
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   8
ATA Standard is:  ATA-8-ACS revision 4
Local Time is:    Tue Jan  8 14:29:00 2013 CST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

Ahora ejecutamos un test de saludo general:

# smartctl -H /dev/sdc
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-32-generic] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

Como se puede ver en la última línea, el disco paso las pruebas sin errores.

Y en caso de que queramos estar completamente seguros de que el disco duro tiene una buena salud, podemos ejecutar un test completo:

# smartctl -a /dev/sdc

O también podemos ejecutar un test corto:

# smartctl -t short /dev/sdc

Si quiere ver el estado del test, cuando éste aun está en ejecución:

# smartctl -l selftest /dev/sdc

Particionando el disco

Para crear las particiones en el disco usaremos el programa parted(8), el cual nos permitirá crear una tabla de particiones de tipo GUID Partition Table o GPT, el cual no tiene el limitante de 15 números de particiones.

# parted /dev/sdc
(parted) print
Error: /dev/sdc: etiqueta de disco no reconocida
(parted) mklabel gpt
(parted) print
Modelo: TOSHIBA MK3276GSX (scsi)
Disco /dev/sdc: 320GB
Tamaño de sector (lógico/físico): 512B/512B
Tabla de particiones. gpt
Numero Inicio Fin Tamaño Sistema de archivos Nombre Banderas
(parted) mkpart primary 0% 100%
(parted) print
Modelo: TOSHIBA MK3276GSX (scsi)
Disco /dev/sdc: 320GB
Tamaño de sector (lógico/físico): 512B/512B
Tabla de particiones. gpt
Numero Inicio Fin Tamaño Sistema de archivos Nombre Banderas
1 1049kB 320GB 320GB ext3 primary
(parted) set 1 lvm on
(parted) print
Modelo: TOSHIBA MK3276GSX (scsi)
Disco /dev/sdc: 320GB
Tamaño de sector (lógico/físico): 512B/512B
Tabla de particiones. gpt
Numero Inicio Fin Tamaño Sistema de archivos Nombre Banderas
1 1049kB 320GB 320GB ext3 primary lvm
(parted) quit

El dispositivo ya tiene una tabla de particiones, ahora procederemos a configurar los volúmenes lógicos LVM.

Configurando los volúmenes lógicos LVM

Instalamos las herramientas para administrar volúmenes lógicos LVM:

# aptitutde install lvm2

Ahora, con el programa pvcreate(8) convertimos la partición /dev/sdc1 en un dispositivo físico o PV:

# pvcreate /dev/sdc1
Physical volume "/dev/sdc1" successfully created

Con el programa pvdisplay(8) vemos los detalles del dispositivo físico:

# pvdisplay /dev/sdc1
"/dev/sdc1" is a new physical volume of "298,09 GiB"
--- NEW Physical volume ---
PV Name /dev/sdc1
VG Name
PV Size 298,09 GiB
Allocatable NO
PE Size 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID 3nkpbK-yJB5-4Ejj-baB9-LUId-dUfW-fOut7M

Con el programa pvs(8) podemos ver un listado más simple de los dispositivos físicos:

# pvs
PV VG Fmt Attr PSize PFree
/dev/sda1 jmdata lvm2 a-- 465,76g 45,76g
/dev/sdc1 lvm2 a-- 298,09g 298,09g

Ahora, con el programa vgcreate(8) creamos un grupo de volúmenes o VG y le asignamos el dispositivo físico /dev/sdc1:

# vgcreate vgedata /dev/sdc1
Volume group "vgedata" successfully created

Con el comando vgdisplay(8) vemos la información del volume group vgedata:

# vgdisplay vgedata
--- Volume group ---
VG Name vgedata
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size 298,09 GiB
PE Size 4,00 MiB
Total PE 76310
Alloc PE / Size 0 / 0
Free PE / Size 76310 / 298,09 GiB
VG UUID BrYvOz-TrNi-qljU-7WOf-JYSt-QoVL-ZN5tx3

Con el comando vgs(8) podemos ver un listado más sencillo de los volume groups, y sus capacidades:

# vgs
VG #PV #LV #SN Attr VSize VFree
jmdata 1 2 0 wz--n- 465,76g 45,76g
vgedata 1 0 0 wz--n- 298,09g 298,09g

Y por último crearemos un par de volúmenes lógicos sobre el VG vgedata.

Con el comando lvcreate(8) creamos un LV de 200 GB llamado velab:

# lvcreate -L 200GB vgedata -n velab
Logical volume "velab" created

Y otro de 50GB llamado vebackup:

# lvcreate -L 50GB vgedata -n vebackup
Logical volume "vebackup" created

Con el comando lvdisplay(8) mostramos la información del volumen lógico:

# lvdisplay /dev/vgedata/velab
--- Logical volume ---
LV Path /dev/vgedata/velab
LV Name velab
VG Name vgedata
LV UUID MNUXi9-hFf2-0fak-1LlB-41xQ-W0go-ifw2C6
LV Write Access read/write
LV Creation host, time jmubook, 2014-05-17 20:01:45 -0500
LV Status available
# open 0
LV Size 200,00 GiB
Current LE 51200
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:2

También la información del volumen vebackup:

# lvdisplay /dev/vgedata/vebackup
--- Logical volume ---
LV Path /dev/vgedata/vebackup
LV Name vebackup
VG Name vgedata
LV UUID RvGFWi-Fb8B-UZCo-cCwV-4NMa-nW0R-sIsvrk
LV Write Access read/write
LV Creation host, time jmubook, 2014-05-18 01:07:07 -0500
LV Status available
# open 0
LV Size 50,00 GiB
Current LE 12800
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:3

Con el comando lvs(8) podemos ver un listado de los volúmenes lógicos en el VG vgedata:

# lvs vgedata
LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert
vebackup vgedata -wi-a---- 50,00g
velab vgedata -wi-ao--- 200,00g

Por último mostramos un listado del VG vgedata para ver que se refleja el uso:

# vgs vgedata
VG #PV #LV #SN Attr VSize VFree
vgedata 1 2 0 wz--n- 298,09g 48,09g

También se ve reflejado en la salida de pvs:

# pvs /dev/sdc1
PV VG Fmt Attr PSize PFree
/dev/sdc1 vgedata lvm2 a-- 298,09g 48,09g

A continuación crearemos un sistema de archivos sobre el recién volumen lógico.

Creando los sistemas de archivos en los volúmenes lógicos LVM

Con el programa mkfs.ext4(8) crearemos los sistema de archivos ext4 sobre los volumen lógicos velab y vebackup:

# mkfs.ext4 -L velab -m 1 /dev/vgedata/velab
mke2fs 1.42.9 (4-Feb-2014)
Etiqueta del sistema de ficheros=velab
OS type: Linux
Tamaño del bloque=4096 (bitácora=2)
Tamaño del fragmento=4096 (bitácora=2)
Stride=0 blocks, Stripe width=0 blocks
13107200 inodes, 52428800 blocks
524288 blocks (1.00%) reserved for the super user
Primer bloque de datos=0
Número máximo de bloques del sistema de ficheros=4294967296
1600 bloque de grupos
32768 bloques por grupo, 32768 fragmentos por grupo
8192 nodos-i por grupo
Respaldo del superbloque guardado en los bloques:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872
Allocating group tables: hecho
Escribiendo las tablas de nodos-i: hecho
Creating journal (32768 blocks): hecho
Escribiendo superbloques y la información contable del sistema de ficheros: hecho

Y también creamos el sistema de archivos para el volumen vebackup:

# mkfs.ext4 -L vebackup -m 1 /dev/vgedata/vebackup
mke2fs 1.42.9 (4-Feb-2014)
Etiqueta del sistema de ficheros=vebackup
OS type: Linux
Tamaño del bloque=4096 (bitácora=2)
Tamaño del fragmento=4096 (bitácora=2)
Stride=0 blocks, Stripe width=0 blocks
3276800 inodes, 13107200 blocks
131072 blocks (1.00%) reserved for the super user
Primer bloque de datos=0
Número máximo de bloques del sistema de ficheros=4294967296
400 bloque de grupos
32768 bloques por grupo, 32768 fragmentos por grupo
8192 nodos-i por grupo
Respaldo del superbloque guardado en los bloques:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424
Allocating group tables: hecho
Escribiendo las tablas de nodos-i: hecho
Creating journal (32768 blocks): hecho
Escribiendo superbloques y la información contable del sistema de ficheros: 0/hecho

Usamos el comando blkid(8) para ver los dispositivos de bloque:

# blkid
/dev/sda1: UUID="5SgakS-YpVQ-7mgA-esNg-s2Ml-z5Fk-g254cI" TYPE="LVM2_member"
/dev/sdb1: UUID="e24f9b67-c130-4f18-82e8-3ac2ec6336a7" TYPE="ext4"
/dev/sdb2: UUID="8eb3deac-e519-4bb0-b482-e1d0ae855947" TYPE="swap"
/dev/sdb5: UUID="2731afeb-8f9e-4bbe-8125-e1d1784cd272" TYPE="ext4"
/dev/sdb6: UUID="3987f2c1-f73f-46ab-bda5-a101d84d686c" TYPE="ext4"
/dev/mapper/jmdata-jmhome: UUID="4c9d2c65-380c-494a-a6f4-052a4e76c49e" TYPE="ext4"
/dev/mapper/jmdata-jmvlabs: UUID="5374d4bd-b90b-41ab-90c3-2fe860825abf" TYPE="ext4"
/dev/sdc1: UUID="3nkpbK-yJB5-4Ejj-baB9-LUId-dUfW-fOut7M" TYPE="LVM2_member"
/dev/mapper/vgedata-velab: LABEL="velab" UUID="24cfeffa-f2eb-4835-a1f8-baf6af5c0730" TYPE="ext4"
/dev/mapper/vgedata-vebackup: LABEL="vebackup" UUID="65c886ec-a1e8-4a36-bcf9-01e4db1fb81c" TYPE="ext4"

Continuamos con los montajes y permisos.

Montando temporalmente los sistemas de archivos de los volúmenes lógicos LVM

Creamos un punto de montaje temporal para el volumen velab:

# mkdir /media/labs

Con el comando mount(8) montamos el volumen:

# mount /dev/vgelab/velab /media/labs

Ahora seguiremos con la asignación de privilegios y sincronización de datos.

Asignando permisos

Asociamos el dueño y grupo al directorio:

# chown -R jmedina:jmedina /media/labs

Y cambio los permisos de acceso:

# chmod 770 /media/labs

Validamos la asignación de permisos:

# ls -ld /media/labs
drwxrwx--- 8 jmedina jmedina 4096 may 17 17:39 /media/labs

Sincronizando los archivos

Como definimos en los objetivos, necesitamos hacer una sincronización intacta de los archivos en el disco de datos hacía el disco externo.

Usando el comando lsof validamos que no haya procesos accediendo a los archivos del directorio origen:

# lsof /labs

En caso de que aparezcan archivos abiertos, identificar los procesos y terminarlos.

Ahora que el sistema de archivos está montado, usamos el programa rsync(1) para sincronizar los archivos que queramos mover:

# rsync -avP /labs/ /media/labs/

Si ya no se van a copiar o crear nuevos archivos desmontamos el volumen:

# umount /media/labs

Ahora que los datos están sincronizados

Intercambiamos acceso a datos desde el disco externo

Desmontamos la partición o volumen actual:

# umount /labs

Desactivamos el montaje anterior de /labs y configuramos el montaje no automático en fstab(5):

# vim /etc/fstab
...
...
...
# Disco externo USB
#/dev/jmdata/jmvlabs /labs ext4 defaults,noatime 0 2
/dev/vgedata/velab /labs ext4 noauto,defaults,noatime,nodiratime 0 2

Montamos el volúmen:

# mount /labs

Vemos su uso:

# df -h
---
---
---
/dev/mapper/vgedata-velab 197G 95G 100G 49% /labs

En caso de que se vaya a desconectar, validamos con lsof(8) que no haya procesos ocupando los archivos, y entonces de forma segura desmontamos el volumen:

# umount /labs

Notas sobre la conexión y desconexión del disco externo y volúmenes lógicos LVM

Cuando conectamos el disco duro a el equipo, el sistema automáticamente tratara de detectar los volúmenes físicos LVM, activarlo, lo mismo para los grupos de volúmenes y los volúmenes lógicos.

Si al conectar el disco no están disponibles los volúmenes lógicos entonces ejecute:

# vgimport -a

y

# vgchange -a y /dev/vgedata

Sin embargo, cuando desconectamos el disco debemos de avisar al sistema que los volúmenes lógicos del disco externo ya no existen, de lo contrario, al volver a conectar el disco habrá un conflicto, para evitarlo es importante que, después de desmontar los sistemas de archivos, desactivemos los volúmenes del disco externo:

# vgchange -a -n /dev/vgedata

Y también:

# vgexport -a

Con esto el sistema desactivará los volúmenes lógicos del volume group especificado.

Conclusiones

Después de haber terminado con el procedimiento anterior resumido que hemos log.ado lo siguiente:

  • Identificado el disco duro y sus capacidades con los programas lsscsi y fdisk.
  • Revisar la información S.M.A.R.T del disco duro,
  • Particionado un disco duro usando el tipo GPT y partición tipo LVM con el programa parted
  • Creado volúmenes físicos PV, grupos de volumen VG, y volúmenes lógivos LV basados en LVM.
  • Creado sistemas de archivos ext4 sobre volúmenes lógicos LVM.
  • Montado sistemas de archivos temporalmente con el programa mount y definiendolos en fstab.
  • Configurado permisos a directorios con los programas chown y chmod.
  • Sincronizado intacto de archivos usando el programa rsync.
  • Intercambiar el acceso a los datos hacía el volumen del disco duro externo.

Espero que el articulo les sea de utilidad, si alguien encuentra algún error o mala referencia no dude en enviarme un mensaje
y lo corregiré.

Referencias

Mon Tue Wed Thu Fri Sat Sun
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31