Diferències

Ací es mostren les diferències entre la revisió seleccionada i la versió actual de la pàgina.

Enllaç a la visualització de la comparació

Ambdós costats versió prèvia Revisió prèvia
Següent revisió
Revisió prèvia
info:cursos:pue:lpic2-2021:s6 [18/02/2021 12:34] – [LVM] mateinfo:cursos:pue:lpic2-2021:s6 [18/09/2022 23:47] (actual) – [LPIC2 2021 Sesión 6 (2021-02-18)] mate
Línia 1: Línia 1:
-= LPIC2 2021 Sesión 6 (2021-02-18)+= LPIC2 2021 Sesión 6 (2021-02-18) - lvm
 == Documentación relacionada: == Documentación relacionada:
-  * Manual Certificacion LPIC-2.pdf+  * Manual Certificacion LPIC-2.pdf, pag 76 
 +  * Material Practicas LPIC-2/LPIC-201/4-Filesystem and Devices/Gestion de LVM/
   * Presentaciones/2020/201/   * Presentaciones/2020/201/
   * gdrive:%%//%%discos linux.txt <- mirar montaje con systemctl   * gdrive:%%//%%discos linux.txt <- mirar montaje con systemctl
Línia 9: Línia 10:
 === LVM === LVM
 {{ :info:cursos:pue:lpic2-2021:pasted:20210218-121052.png }} {{ :info:cursos:pue:lpic2-2021:pasted:20210218-121052.png }}
-  * Manual Certificacion LPIC-2.pdf, pág 76+  * **/etc/lvm**
   * volúmenes físicos = PV ≡ comandos ''pv*''   * volúmenes físicos = PV ≡ comandos ''pv*''
     * crear partición **8e**, evita problemas futuribles (o falta de prestaciones)     * crear partición **8e**, evita problemas futuribles (o falta de prestaciones)
Línia 17: Línia 18:
     * pero se puede hacer striped -repartición entre los discos-, mirror - según Alberto, mejor montar un raid y montarlo como PV.     * pero se puede hacer striped -repartición entre los discos-, mirror - según Alberto, mejor montar un raid y montarlo como PV.
     * para mirar que sistema están usando nuestros LV: ''lvs -o+lv_layout,stripes''     * para mirar que sistema están usando nuestros LV: ''lvs -o+lv_layout,stripes''
-  * PV +  * En una arquitectura LVM basada en varios volúmenes físicos el fallo en cualquiera de ellos provocará que todos los volúmenes lógicos que dependen de él queden fuera de servicio. Por tanto, es conveniente crear solo volúmenes físicos para volúmenes con tolerancia a fallos como los que están en RAID, ya sea software o hardware. 
-    * ''pvs -v'' +  * **PE**: extensions físicas de un VG 
-    * ''pvscan'' +    * LVM gestiona una especie de índice y orden de PE para determinar a que LV pertenece un PE 
-    * ''pvdisplay -v'' +    * nos sirve para determinar espacio libre y usado y para los movimientos de información 
-  VG +  * podemos combinar las columnas **prefijo** y **sufijo** para obtener los comandos para administrar el LVM: 
-    * ''vgcreate'': creat un VOLUME GROUP + 
-    * ''vgdisplay -v'' +^ prefijo ^ sufijo ^ accion ^ 
-    * ''vgs'' +| pv      | create  | creación de un elemento LVM | 
-    * ''vgscan'' +| vg      | extend  | Extiende un VG o LV | 
-    * ''vbrename'' <- ''vgchange'', ''vgconvert'' +| lv      | reduce  | Reducción de un VG o LV | 
-      * cambia propiedades +|         | display | Visualización de los elementos LVM | 
-      * **-a**: habilita o no los LVS +|         | scan    | Consultamos los elementos LVM | 
-      * **-u**: regenerar UUID + 
-      * **-x {y/n}**: deshabilita extensión a más discos en el VG + 
-    * ''vgextend <PV1> <PV2>'' +==== PV 
-    * ''vgreduce <VG> <PV>'' +  ''pvcreate <dispositivo>'': añade un disco físico 
-      * **--removemissing** +  * ''pvdisplay -v'', ''pvs -v'' 
-  * LV +  * ''pvscan'' 
-    * ''lvcreate'' +  * ''pvmove -i 2 -v <PV1> <PV2>'': mueve los PE de un PV a otro (con la idea de sacar el PV) 
-      * **-L**: tamaño +    si no indicamos <PV2> (destino), el sistema lo hace automaticamente 
-      * **-l**: en bloques +    * **-i <n>**: indica el estado del preceso cada <n> segundos 
-      * **-n**: mombre +    * **-v**: verbose 
-      * **-i n**: stripes +    * NO ES COMPATIBLE CON SNAPSHOTS 
-      * **-m**: mirror + 
-      * **-s**snapshot +==== VG 
-        especificar el tamaño +  * ''vgcreate <VG> <PV>'': crea un VOLUME GROUP 
-        OJO, se han de revertir +  * ''vgdisplay -v''''vgs'' 
-    * ''lvs'' +  * ''vgscan'' 
-    * ''lvscan'' +  * ''vbrename'' 
-    * ''lvdisplay'' +  * ''vgchange''cambia propiedades del VG 
-    * ''lvrename'' +    * **-a {y/n}**: habilita o no los LVS 
-    * ''lvchange'' +    * **-u**: regenerar UUID 
-    * ''lvresize'', ''lvextend'',''lvreduce''+    * **-x {y/n}**: deshabilita extensión a más discos en el VG 
 +  * ''vgextend <VG> <PV>'': añadir un PV a un VG 
 +  * ''vgreduce <VG> <PV>'': quitar un PV a un VG 
 +    * **--removemissing** 
 +  * ''vgconvert'': convierte a LVM1 o LVM2 !!! 
 + 
 +==== LV 
 +  * se puede definir la lógica de escritura del LV: 
 +    * Linear: ocupa un PV y después los siguientes, uno detrás de otro 
 +    * Striped: se reparte entre varios PV, puede mejorar el rendimiento 
 +    * Mirrored: mantiene copias idénticas en diferentes PV 
 +      * mejor montar RAID por debajo y ofrecerlo como PV al LVM 
 +  * ''lvcreate <opciones> <VG>'' 
 +    * **-L**: tamaño. Anteponiendo + se añade al existente. Usar unidades, por defecto MG 
 +    * **-l**: en bloques 
 +    * **-n**: mombre 
 +    * **-i n**: stripes 
 +    * **-m**: mirror 
 +  ''lvextend -L <tamaño> <LV>''añadir espacio al LV (si está disponible en el VG) 
 +    después hay que ejecutar el ''resize2fs'' correspondiente (incluso el **e2fsck**) al sistema de archivos que tengamos. 
 +  * ''lvreduce -L <tamaño> <LV>'': ¿procedimiento correcto? 
 +  * ''lvscan'' 
 +  * ''lvdisplay'', ''lvs'' 
 +  * ''lvrename'' 
 +  * ''lvchange'': cambiar propiedades, atributos 
 +    * **-a n**: inactivo 
 +    * **-p {r,w}**: solo lectura o escritura 
 +  * ''lvresize'' 
 + 
 +===== LV snapshot 
 +      * especificar el tamaño 
 +      * OJOse han de revertir, si no se comerá el espacio 
 +      * estratégia copias seguridad en unidades con mucho movimiento. Hacemos copia del snapshot 
 +      * crea un punto de montaje diferente. Solo guarda las diferencias 
 +      * ''lvcreate -L <tamaño> -s -n <nombre_snapshot> <LV>'' 
 +      * ''lvdisplay /dev/<VG>/<nombre_snapshot>'' 
 +      * ''lvconvert --merge nombrevg/snapshot'' 
 ==== Laboratorio: Material Practicas LPIC-2/LPIC-201/4-Filesystem and Devices/2-Gestion de LVM/2-Laboratorios LVM.pdf ==== Laboratorio: Material Practicas LPIC-2/LPIC-201/4-Filesystem and Devices/2-Gestion de LVM/2-Laboratorios LVM.pdf
   * crear primer LVM con un disco:   * crear primer LVM con un disco:
Línia 63: Línia 101:
     * ya se puede montar: ''mount /dev/volgrp/documentos /datos''     * ya se puede montar: ''mount /dev/volgrp/documentos /datos''
     * si hacemos ''df -h'' nos aparece como: **/dev/mapper/volgrp-documentos**     * si hacemos ''df -h'' nos aparece como: **/dev/mapper/volgrp-documentos**
-  * añadir un segundo disco: +  * añadir un segundo disco:<code bash> 
-    añadimos el disco al PV: ''pvcreate /dev/sdc1'' +añadimos el disco al PV 
-    * ''vgextend volgrp /dev/sdc1'' +pvcreate /dev/sdc1 
-    * ''lvextend -l +5GB /dev/volgrp/documentos'' + 
-      * se puede hacer en caliente +vgextend volgrp /dev/sdc1 
-    * desmontamos **/datos** +lvextend -l +5GB /dev/volgrp/documentos  
-    comprobamos el estado del disco: '' e2fsck -f /dev/volgrp/documentos'' +umount /datos 
-    * ''resize2fs /dev/volgrp/documentos'' para extender el LV (pq está en **ext3**) + 
-      * ''gxfs_growfs'' si lo hubiese estado en **xfs** +comprobamos el estado del disco 
-    * montamos+e2fsck -f /dev/volgrp/documentos 
 + 
 +para extender el LV (pq está en ext3gxfs_growfs si lo hubiese estado en xfs) 
 +resize2fs /dev/volgrp/documentos 
 + 
 +mount /documentos 
 +</code>
   * extender partición **%%/%%** en caliente:<code bash>   * extender partición **%%/%%** en caliente:<code bash>
-lvscan # nos muestra las particiones LVM y así puedo ver cual es la partición raiz+# nos muestra las particiones LVM y así puedo ver cual es la partición raiz 
 +lvscan
 vgdisplay -v centos vgdisplay -v centos
 pvcreate /dev/sde1 pvcreate /dev/sde1
Línia 83: Línia 128:
   * sustitución de discos -> 3-Laboratorio reducir LVM quitando un physical volumen.pdf:<code bash>   * sustitución de discos -> 3-Laboratorio reducir LVM quitando un physical volumen.pdf:<code bash>
 pvcreate /dev/sdd1vgextend volgrp /dev/sdd1 pvcreate /dev/sdd1vgextend volgrp /dev/sdd1
-vgdisplay -v volgrp # muestra el estado de ocupación de cada PV (Total PE / Free PE)+ 
 +# muestra el estado de ocupación de cada PV (Total PE / Free PE) 
 +vgdisplay -v volgrp  
 pvmove -i2 -v /dev/sdb1 /dev/sdd1 pvmove -i2 -v /dev/sdb1 /dev/sdd1
-vgdisplay -v volgrp # volvemos a verificar con que los Total/Free PE del disco que queremos retirar están igual (sin uso) + 
-vgreduce -v volgrp /dev/sdb1 # sacamos el PV del VG +# volvemos a verificar con que los Total/Free PE del disco que queremos retirar están igual (sin uso) 
-pvscan # nos dirá que el VG volgrp tiene 2 discos (/dev/sdc1 y /dev/sdd1) y que hay un disco sin usar, /dev/sdb1+vgdisplay -v volgrp  
 + 
 +# sacamos el PV del VG 
 +vgreduce -v volgrp /dev/sdb1 
 + 
 +# nos dirá que el VG volgrp tiene 2 discos (/dev/sdc1 y /dev/sdd1) y que hay un disco sin usar, /dev/sdb1 
 +pvscan 
 +</code> 
 +  * deshacer:<code bash> 
 +umount /documentos 
 +lvremove documentos volgrp # o lvremove /dev/volgrup/documentos 
 +vgremove volgrp 
 +pvremove /dev/sdb1 
 +pvremove /dev/sdc1 
 +pvremove /dev/sde1 
 +</code> 
 +  * snapshot FAIL:<code bash> 
 +pvcreate /dev/sdc1 
 +vgcreate volgrp /dev/sdc1 
 +lvcreate -L +5G -n lv1 volgrp 
 +mount /dev/volgrp/lv1 /mnt 
 +cp /etc/*.conf /mnt 
 +lvcreate --size 1G -s -n lv1snapshot volgrp/lv1 
 +lvdisplay volgrp/lv1 
 +cp /etc/*.deny /mnt 
 +mkdir /mnt2 
 +mount /dev/volgrp/lv1snapshot /mnt2 # fail 
 +reboot 
 +lvconvert --merge volgrp/lv1snapshot #   Snapshot lv1snapshot is already merging. Unable to merge LV "lv1snapshot" into its origin. 
 +lvremove volgrp/lv1snapshot # Can't remove merging snapshot logical volume "lv1snapshot" 
 +<OMG> 
 +lvremove volgrp/lv1 #   Logical volume "lv1snapshot" successfully removed. Do you really want to remove active logical volume lv1? [y/n]: y 
 +vgremove volgrp 
 +pvremove /dev/sdc1
 </code> </code>
  • info/cursos/pue/lpic2-2021/s6.1613680465.txt.gz
  • Darrera modificació: 18/02/2021 12:34
  • per mate