Este tutorial explica cómo ver, listar, crear, añadir, eliminar, redimensionar, formatear, montar y configurar los niveles RAID (0, 1 y 5) en Linux paso a paso con ejemplos prácticos. Aprende los conceptos básicos de RAID por software (Chunk, Mirroring, Striping y Parity) y los comandos esenciales de gestión de dispositivos RAID en detalle.
RAID significa Redundant Array of Independent Disks. Hay dos tipos de RAID: RAID por hardware y RAID por software.
Raid por hardware
El RAID por hardware es un dispositivo de almacenamiento físico construido a partir de varios discos duros. Cuando se conecta con el sistema, todos los discos aparecen como un único disco SCSI en el sistema. Desde el punto de vista del sistema, no hay diferencia entre un disco SCSI normal y un dispositivo RAID de hardware. El sistema puede utilizar el dispositivo RAID por hardware como un único disco SCSI.
El RAID por hardware tiene su propio subsistema de disco y recursos independientes. No utiliza ningún recurso del sistema como la energía, la RAM y la CPU. El RAID por hardware no supone una carga adicional para el sistema. Como tiene sus propios recursos dedicados, proporciona un alto rendimiento.
Raid por software
El RAID por software es un dispositivo de almacenamiento lógico que se construye a partir de los discos conectados al sistema. Utiliza todos los recursos del sistema. Proporciona un rendimiento lento pero no cuesta nada. En este tutorial aprenderemos a crear y gestionar el RAID por software en detalle.
Este tutorial es la última parte de nuestro artículo «La gestión de discos en Linux explicada en un lenguaje sencillo con ejemplos». Puedes leer otras partes de este artículo aquí.
Esta es la primera parte de este artículo. Esta parte explica los conceptos básicos de la gestión de discos de Linux como BIOS, UEFI, MBR, GPT, SWAP, LVM, RAID, partición primaria, partición extendida y el tipo de sistema de archivos de Linux.
Gestionar la partición del disco de Linux con el comando fdisk
Esta es la segunda parte de este artículo. Esta parte explica cómo crear particiones primarias, extendidas y lógicas desde el comando fdisk en Linux paso a paso con ejemplos.
Administrar partición de disco Linux con el comando gdisk
Esta es la tercera parte de este artículo. Esta parte explica cómo crear particiones GPT (tabla de particiones GUID) desde el comando gdisk en Linux paso a paso con ejemplos.
Gestión de discos en Linux con el comando parted
Esta es la cuarta parte de este artículo. Esta parte explica cómo crear particiones primarias, extendidas, lógicas y GPT desde el comando parted en Linux paso a paso con ejemplos.
Cómo crear partición SWAP en Linux
Esta es la quinta parte de este artículo. Esta parte explica cómo crear una partición swap en Linux con ejemplos que incluyen tareas básicas de gestión de swap, como por ejemplo, cómo aumentar, montar o borrar la memoria swap.
Aprende a configurar LVM en Linux paso a paso
Esta es la sexta parte de este artículo. Esta parte explica los conceptos básicos de LVM en detalle con ejemplos que incluyen cómo configurar y administrar LVM en Linux paso a paso.
Conceptos básicos de RAID
Un dispositivo RAID puede ser configurado de múltiples maneras. Dependiendo de la configuración se puede clasificar en diez niveles diferentes. Antes de hablar de los niveles RAID con más detalle, echemos un vistazo a algunos términos importantes utilizados en la configuración RAID.
Chunk: – Es el tamaño del bloque de datos utilizado en la configuración RAID. Si el tamaño del trozo es de 64 KB, habrá 16 trozos en una matriz RAID de 1 MB (1024 KB/64 KB).
Hot Spare: – Es el disco adicional de la matriz RAID. Si algún disco falla, los datos del disco defectuoso se migrarán a este disco de repuesto automáticamente.
Mirroring: – Si esta función está activada, también se guardará una copia de los mismos datos en el otro disco. Es como hacer una copia adicional de los datos para fines de copia de seguridad.
Striping: – Si esta función está activada, los datos se escribirán en todos los discos disponibles de forma aleatoria. Es como si se compartieran los datos entre todos los discos, por lo que todos se llenan por igual.
Paridad: – Se trata de un método para regenerar los datos perdidos a partir de la información de paridad guardada.
Se definen diferentes niveles RAID en función de cómo se requiera la duplicación y el stripping. Entre estos niveles, sólo el Nivel 0, el Nivel 1 y el Nivel 5 son los más utilizados en Red Hat Linux.
Nivel RAID 0
Este nivel proporciona striping sin paridad. Dado que no almacena ningún dato de paridad y realiza operaciones de lectura y escritura simultáneamente, la velocidad sería mucho más rápida que la de otros niveles. Este nivel requiere al menos dos discos duros. Todos los discos duros de este nivel se llenan por igual. Debería utilizar este nivel sólo si la velocidad de lectura y escritura es importante. Si decide utilizar este nivel, despliegue siempre un plan de copia de seguridad de datos alternativo. Cualquier fallo de un solo disco de la matriz provocará una pérdida total de datos.
Nivel RAID 1
Este nivel proporciona paridad sin striping. Escribe todos los datos en dos discos. Si un disco falla o se elimina, seguimos teniendo todos los datos en el otro disco. Este nivel requiere doble disco duro. Esto significa que si desea utilizar 2 discos duros, deberá instalar 4 discos duros, o si desea utilizar un disco duro, deberá instalar dos discos duros. El primer disco duro almacena los datos originales mientras que el otro disco almacena la copia exacta del primer disco. Como los datos se escriben dos veces, el rendimiento se verá reducido. Debería utilizar este nivel sólo si la seguridad de los datos es importante a cualquier precio.
Nivel 5 de RAID
Este nivel proporciona tanto paridad como striping. Requiere al menos tres discos. Escribe los datos de paridad por igual en todos los discos. Si un disco falla, los datos pueden reconstruirse a partir de los datos de paridad disponibles en los discos restantes. Esto proporciona una combinación de integridad y rendimiento. Siempre que sea posible, debería utilizar este nivel.
Si desea utilizar un dispositivo RAID por hardware, utilice un dispositivo RAID por hardware intercambiable en caliente con discos de repuesto. Si algún disco falla, los datos se reconstruirán en el primer disco de repuesto disponible sin ningún tiempo de inactividad y, dado que se trata de un dispositivo intercambiable en caliente, puede reemplazar el dispositivo que ha fallado mientras el servidor sigue funcionando.
Si el dispositivo RAID está bien configurado, no habrá ninguna diferencia entre el RAID por software y el RAID por hardware desde el punto de vista del sistema operativo. El sistema operativo accederá al dispositivo RAID como un disco duro normal, sin importar si se trata de un RAID por software o por hardware.
Linux proporciona el módulo del kernel md para la configuración del RAID por software. Para utilizar el RAID por software tenemos que configurar el dispositivo RAID md que es un compuesto de dos o más dispositivos de almacenamiento.
Cómo configurar el RAID por software paso a paso
Para este tutorial asumo que tienes espacio en disco sin particionar o discos duros adicionales para practicar. Si usted está siguiendo este tutorial en el software virtual como VMware estación de trabajo, añadir tres discos duros adicionales en el sistema. Para saber cómo añadir un disco duro adicional en el sistema virtual, consulte la primera parte de este tutorial. Si usted está siguiendo este tutorial en una máquina física, adjunte un disco duro adicional. Puede utilizar una memoria USB o un pen drive para practicar. Para fines de demostración he adjuntado tres discos duros adicionales en mi sistema de laboratorio.
Cada disco tiene un tamaño de 2GB. Podemos listar todos los discos duros conectados con el comando fdisk -l.
También podemos usar el comando lsblk para ver un resumen estructurado de todos los dispositivos de almacenamiento conectados.
Como podemos ver en la salida anterior hay tres discos sin particionar disponibles con cada uno de 2G de tamaño.
El paquete mdadm se utiliza para crear y gestionar el RAID por software. Asegúrate de que está instalado antes de empezar a trabajar con el RAID por software.Para aprender a instalar y gestionar paquetes en linux consulta los siguientes tutoriales
Cómo configurar el repositorio YUM en RHEL
Explicación del comando RPM con un ejemplo
Para este tutorial asumo que el paquete mdadm está instalado.
Creando un Array RAID 0
Podemos crear un array RAID 0 con discos o particiones. Para entender ambas opciones crearemos dos arrays RAID 0 separados; uno con discos y otro con particiones. El array RAID 0 requiere al menos dos discos o particiones. Utilizaremos los discos /dev/sdc y /dev/sdd para crear el Array RAID 0 de discos. Crearemos dos particiones en /dev/sdb y posteriormente las utilizaremos para crear otro Array RAID 0 a partir de particiones.
Para crear un Array RAID 0 con discos usamos el siguiente comando
#mdadm --create --verbose /dev/ --level= --raid-devices=
Entendamos este comando en detalle
mdadm:- Este es el comando principal
–create:- Esta opción se usa para crear un nuevo dispositivo md (RAID).
–verbose:- Esta opción se utiliza para ver la actualización en tiempo real del proceso.
/dev/:- Este argumento se utiliza para proporcionar el nombre y la ubicación de la matriz RAID. El dispositivo md debe crearse en el directorio /dev/.
–level=:- Esta opción y argumento se utilizan para definir el nivel de RAID que se quiere crear.
–raid-devices=:- Esta opción y argumento se utilizan para especificar el número de dispositivos de almacenamiento o particiones que queremos utilizar en este dispositivo.
:- Esta opción se utiliza para especificar el nombre y la ubicación del dispositivo de almacenamiento.
El siguiente comando se utilizará para crear una matriz RAID 0 a partir de los discos /dev/sdc y /dev/sdd con nombre md0.
Para verificar el array podemos utilizar el siguiente comando
La salida anterior confirma que el array RAID md0 ha sido creado con éxito a partir de dos discos (sdd y sdc) con configuraciones de nivel RAID 0.
Creando un array RAID 0 con particiones
Crea una partición de 1GiB con el comando fdisk
Por defecto todas las particiones se crean como estándar de Linux. Cambie el tipo de partición a RAID y guarde la partición. Salga de la utilidad fdisk y ejecute el comando partprobe para actualizar la tabla de particiones del kernel en tiempo de ejecución.
Para aprender el comando fdisk y su subcomando en detalle por favor vea la segunda parte de este tutorial que explica cómo crear y gestionar particiones con el comando fdisk paso a paso.
Creemos una partición más pero esta vez utilizamos el comando parted.
Para aprender el comando parted en detalle por favor ve la cuarta parte de este tutorial que explica cómo gestionar el disco con el comando parted paso a paso.
Hemos creado dos particiones. Vamos a crear otra matriz RAID (Nivel 0) pero esta vez usando particiones en lugar de discos.
Se utilizará el mismo comando para crear una matriz RAID a partir de particiones.
Cuando usamos el comando mdadm para crear una nueva matriz RAID, pone su firma en el dispositivo o partición proporcionado.Esto significa que podemos crear una matriz RAID desde cualquier tipo de partición o incluso desde un disco que no contenga ninguna partición. Así que el tipo de partición que utilicemos aquí no es importante, el punto importante que siempre debemos considerar es que la partición no debe contener ningún dato valioso. Durante este proceso todos los datos de la partición serán borrados.
Creación de un sistema de archivos en una matriz RAID
No podemos usar una matriz RAID para almacenar datos hasta que contenga un sistema de archivos válido. El siguiente comando se utiliza para crear un sistema de archivos en la matriz.
#mkfs –t
Formateemos md0 con el sistema de archivos ext4 y md1 con el sistema de archivos xfs.
Las matrices RAID 0 están listas para ser utilizadas. Para poder usarlas tenemos que montarlas en algún lugar del sistema de archivos de Linux.El sistema de archivos de Linux (estructura primaria de directorios) comienza con el directorio raíz (/) y todo va bajo él o sus subdirectorios.Tenemos que montar las particiones en algún lugar bajo este árbol de directorios. Podemos montar las particiones de forma temporal o permanente.
Montaje temporal de la matriz RAID 0
El siguiente comando se utiliza para montar la matriz de forma temporal.
#mount
El comando Mount acepta varias opciones y argumentos que explicaré por separado en otro tutorial. Para este tutorial esta sintaxis básica es suficiente.
Qué montar :- Es el array.
Dónde montar :- Es el directorio que se utilizará para acceder al recurso montado.
Una vez montado, cualquier acción que realicemos en el directorio montado se realizará en los recursos montados. Vamos a entenderlo de forma práctica.
- Creamos un directorio de montaje en el directorio /
- Montamos el array /dev/md0
- Listamos el contenido
- Creamos un directorio y un fichero de prueba
- Listamos el contenido de nuevo
- Un-monte la matriz /dev/md0 y liste el contenido de nuevo
- Ahora monte la matriz /dev/md1 y liste el contenido
- Vuelva a crear un directorio y un archivo de prueba. Usa un nombre diferente para el archivo y el directorio
- Lista el contenido
- Desmonta el array /dev/md1 y vuelve a listar el contenido
La siguiente figura ilustra este ejercicio paso a paso
Como muestra la figura anterior cualquier acción que hayamos realizado en el directorio de montaje se ha realizado en el array respectivo.
La opción de montaje temporal es buena para matrices a las que accedemos ocasionalmente. Cada vez que reiniciamos el sistema todos los recursos montados temporalmente se desmontan automáticamente. Así que si tenemos un array que va a ser usado regularmente, deberíamos montarlo permanentemente.
Montar un array RAID permanentemente
Cada recurso en el sistema de archivos tiene un ID único llamado UUID. Al montar un array de forma permanente debemos utilizar el UUID en lugar de su nombre. A partir de la versión 7, RHEL también utiliza UUID en lugar del nombre del dispositivo.
El UUID significa Universally Unique Identifier. Es un número de 128 bits, expresado en formato hexadecimal (base 16).
Si tiene un entorno estático, puede utilizar el nombre del dispositivo. Pero si tiene un entorno dinámico, siempre debe usar UUID. En un entorno dinámico el nombre del dispositivo puede cambiar cada vez que el sistema arranque. Por ejemplo, hemos montado un disco SCSI adicional en el sistema; se llamará /dev/sdb. Montamos este disco permanentemente con su nombre de dispositivo. Ahora suponga que alguien ha quitado este disco y ha montado un nuevo disco SCSI en la misma ranura. El nuevo disco también se llamará /dev/sdb. Como el nombre del disco antiguo y del nuevo es el mismo, el nuevo disco se montará en el lugar del antiguo. De esta manera, el nombre del dispositivo podría crear un serio problema en un entorno dinámico. Pero este problema se puede resolver con UUID. No importa cómo se adjunte el recurso con el sistema, su UUID permanecerá siempre fijo.
Si usted tiene un entorno estático, puede considerar el nombre del dispositivo para montar el recurso. Pero si usted tiene un entorno dinámico, siempre debe utilizar UUID.
Para conocer el UUID de todas las particiones podemos utilizar el comando blkid. Para conocer el UUID de una partición específica tenemos que usar su nombre como argumento con este comando.
Una vez que conocemos el UUID, podemos usarlo en lugar del nombre del dispositivo. También podemos usar la opción de copiar y pegar para escribir el UUID.
- Usa el comando blkid para imprimir el UUID del array.
- Copia el UUID del array.
- Usa el comando mount para montar el array. Utilice la opción de pegar en lugar de escribir el UUID.
La siguiente figura ilustra los pasos anteriores
Cuando el sistema arranca, busca en el archivo /etc/fstab los dispositivos (particiones, LVs, swap o array) que necesitan ser montados en el sistema de archivos automáticamente. Por defecto, este archivo tiene una entrada para aquellas particiones, volúmenes lógicos y espacio de intercambio que fueron creados durante la instalación. Para montar cualquier dispositivo adicional (Array) automáticamente tenemos que hacer una entrada para ese dispositivo en este archivo. Cada entrada en este archivo tiene seis campos.
Número | Fichado | Descripción |
1 | Qué montar | Dispositivo que queremos montar. Podemos usar el nombre del dispositivo, el UUID y la etiqueta en este campo para representar el dispositivo. |
2 | Donde montar | El directorio en el sistema de archivos principal de Linux donde queremos montar el dispositivo. |
3 | Sistema de archivos | Tipo de sistema de archivos del dispositivo. |
4 | Opciones | Al igual que el comando mount también podemos utilizar las opciones soportadas aquí para controlar el proceso de montaje. Para este tutorial usaremos las opciones por defecto. |
5 | Soporte de volcado | Para habilitar el volcado en este dispositivo use 1. Utilice 0 para desactivar el volcado. |
6 | Comprobación automática | Si este dispositivo debe ser comprobado durante el montaje o no. Para deshabilitar use 0, para habilitar use 1 (para la partición raíz) o 2 (para todas las particiones excepto la raíz). |
Hagamos algunos directorios para montar las matrices que hemos creado recientemente
Tomamos la copia de seguridad del fichero fstab y lo abrimos para editarlo
Hacemos las entradas para las matrices y guardamos el fichero.
Para la demostración he utilizado tanto el nombre del dispositivo como el UUID para montar las particiones.Después de guardar siempre comprueba las entradas con el comando mount -a. Este comando montará todo lo que aparece en el archivo /etc/fstab. Así que si cometemos algún error al actualizar este archivo, obtendremos un error como salida de este comando.
Si obtiene algún error como salida del comando mount -a, corríjalo antes de reiniciar el sistema.
El comando df -h se utiliza para comprobar el espacio disponible en todas las particiones montadas. Podemos utilizar este comando para verificar que todas las particiones están montadas correctamente.
La salida anterior confirma que todas las particiones están montadas correctamente. Vamos a listar los dos dispositivos RAID.
Cómo borrar un array RAID
No podemos borrar un array montado. Desmonta todos los arrays que hemos creado en este ejercicio
Usa el siguiente comando para detener el array RAID
#mdadm --stop /dev/
Quita el directorio de montaje y vuelve a copiar el archivo fstab original.
Si no ha tomado la copia de seguridad del archivo fstab original, elimine todas las entradas de este archivo que hizo.
Por último, restablezca todos los discos utilizados en esta práctica.
El comando dd es la forma más fácil de restablecer el disco. Las utilidades de disco almacenan sus parámetros de configuración en superbloque. Normalmente el tamaño del superbloque se define en KB, así que simplemente sobrescribimos el primer espacio de 10MB con bytes nulos en cada disco. Para aprender el comando dd en detalle, vea la quinta parte de este tutorial que explica este comando en detalle.
Ahora reinicie el sistema y use el comando df -h de nuevo para verificar que todos los dispositivos RIAD que creamos en este ejercicio han desaparecido.
Cómo crear una matriz RAID 1 y RAID 5
Podemos crear una matriz RAID 1 o RAID 5 siguiendo el mismo procedimiento. Todos los pasos y comandos serán los mismos excepto el comando mdadm –create. En este comando hay que cambiar el nivel RAID, el número de discos y la ubicación de los discos asociados.
Para crear una matriz RAID 1 a partir de los discos /dev/sdd y /dev/sdb utilice el siguiente comando
Para crear una matriz RAID 1 a partir de las particiones /dev/sdb1 y /dev/sdb2 utilice el siguiente comando
Puede que reciba una advertencia de metadatos si ha utilizado los mismos discos y particiones para crear una matriz RAID anteriormente y esos discos o particiones todavía contienen información de metadatos. Recuerde que sólo limpiamos 10Mb de espacio inicial dejando el espacio restante sin tocar. Puede ignorar este mensaje o limpiar todo el disco antes de volver a utilizarlo.
Para crear una matriz RAID 5 a partir de los discos /dev/sdb, /dev/sdc y /dev/sdd utilice el siguiente comando.
La configuración de RAID 5 requiere al menos 3 discos o particiones. Por eso aquí usamos tres discos.
Para crear una matriz RAID 5 a partir de las particiones /dev/sdb1, /dev/sdb2 y /dev/sdb3, utilice el siguiente comando
Para evitar errores innecesarios, descanse siempre los discos antes de utilizarlos en la nueva práctica.
Hasta ahora en este tutorial hemos aprendido a crear, montar y eliminar una matriz RAID. En la siguiente sección vamos a aprender cómo administrar y solucionar problemas de una matriz RAID. Para esta sección asumo que tienes al menos un array configurado. Para la demostración usaré el último ejemplo configurado (RAID 5 con 3 particiones). Creemos un sistema de archivos en este array y montémoslo.
Pongamos algunos datos ficticios en este directorio.
Redirigí la página del manual del comando ls en el archivo /testingdata/manual-of-ls-command. Más tarde, para verificar que el archivo contiene datos reales utilicé el comando wc que cuenta línea, palabra y caracteres del archivo.
Cómo ver el detalle del dispositivo RAID
El siguiente comando se utiliza para ver la información detallada sobre el dispositivo RAID.
#mdadm --detail /dev/
Esta información incluye el nivel de RAID, el tamaño de la matriz, el tamaño utilizado del tamaño total disponible, los dispositivos utilizados en la creación de esta matriz, los dispositivos utilizados actualmente, los dispositivos de repuesto, los dispositivos fallidos, el tamaño de los trozos, el UUID de la matriz y mucho más.
Cómo añadir un disco o partición adicional en RIAD
Hay varias situaciones en las que tenemos que aumentar el tamaño del dispositivo RAID, por ejemplo, un dispositivo raid puede estar lleno de datos o un disco del Array puede fallar. Para aumentar el espacio del dispositivo RAID tenemos que añadir un disco adicional o una partición en el Array existente.
En el ejemplo que estamos ejecutando utilizamos el disco /dev/sdb para crear tres particiones. El /dev/sdc y /dev/sdd todavía están disponibles para su uso. Antes de añadirlos en este Array asegúrese de que están limpios. La última vez usamos el comando dd para limpiar los discos. Podemos volver a usar ese comando o usar el siguiente
#mdadm --zero-superblock /dev/
Para comprobar si un disco contiene superbloque o no podemos usar el siguiente comando
#mdadm --examine /dev/
La siguiente figura ilustra el uso de ambos comandos en ambos discos
Ahora ambos discos están listos para el RAID Array. El siguiente comando se utiliza para añadir un disco adicional en la matriz existente.
#mdadm --manage /dev/ --add /dev/
Agreguemos el disco /dev/sdc en esta matriz y confirmemos lo mismo.
Ahora mismo este disco se ha añadido como disco de reserva. Este disco no se utilizará hasta que falle algún disco de la matriz existente o forcemos manualmente a RAID a utilizar este disco.
Si falla algún disco y hay discos de repuesto disponibles, RAID seleccionará automáticamente el primer disco de repuesto disponible para reemplazar el disco defectuoso. Los discos de repuesto son el mejor plan de copia de seguridad en el dispositivo RAID.
Para la copia de seguridad vamos a añadir otro disco en el array, vamos a utilizar este disco para aumentar el tamaño del array. El siguiente comando se utiliza para aumentar el tamaño del dispositivo RAID.
#mdadm --grow --raid-devices= /dev/
RAID organiza todos los dispositivos en una secuencia. Esta secuencia se construye a partir del orden en que se añaden los discos en el array. Cuando usamos este comando, RAID añadirá el siguiente dispositivo que funcione en los dispositivos activos.
La siguiente figura ilustra este comando
Como podemos ver en la salida anterior, el disco se ha añadido en el array y el tamaño del array se ha incrementado con éxito.
Quitar el dispositivo defectuoso
Si hay un dispositivo de repuesto disponible, RAID sustituirá automáticamente el dispositivo defectuoso por el de repuesto. El usuario final no verá ningún cambio. Podrá acceder a los datos como siempre. Entendámoslo de forma práctica.
Ahora mismo no hay ningún disco de repuesto disponible en el array. Añadamos un disco de repuesto.
Cuando un disco falla, el RAID lo marca como dispositivo fallido. Una vez marcado, se puede eliminar con seguridad. Si queremos eliminar un dispositivo en funcionamiento de la matriz por motivos de mantenimiento o solución de problemas, siempre debemos marcarlo como dispositivo defectuoso antes de eliminarlo. Cuando un dispositivo se marca como dispositivo defectuoso, todos los datos del dispositivo defectuoso se reconstruyen en los dispositivos de trabajo.
Para marcar un disco como dispositivo defectuoso se utiliza el siguiente comando.
#mdadm --manage --set-faulty /dev/ /dev/
Hemos aumentado recientemente el tamaño de esta matriz. Así que antes de hacer esta práctica vamos a verificar una vez más que la matriz todavía contiene los datos válidos.
Como la salida anterior confirma que la matriz todavía contiene datos válidos. Ahora marquemos un dispositivo /dev/sdc como dispositivo defectuoso del array y confirmemos la operación.
Como la salida anterior confirma que el dispositivo sdc que es el número cuatro en la secuencia del array ha sido marcado como dispositivo defectuoso.
Como sabemos si el disco de repuesto está disponible, será utilizado como el reemplazo del dispositivo defectuoso automáticamente. No se requiere ninguna acción manual en este proceso. Confirmemos que el disco de repuesto se ha utilizado como reemplazo del disco defectuoso.
Por último, verifiquemos que los datos aún están presentes en el array.
La salida anterior confirma que el array aún contiene datos válidos.
Esto es todo para este tutorial.