servidores adaptec. Prueba de una matriz RAID6 de discos duros en tres generaciones de controladores Adaptec. Servidores NAS Adaptec Snap Server

La gestión de matrices RAID Adaptec 6405 incluye no solo la creación y eliminación de matrices, sino también tareas asociadas con el servicio de unidades fallidas o su reemplazo programado. En este artículo analizaré las tareas diarias de un administrador de servidor.

Si está interesado en las tecnologías de raid y las tareas de administración de controladores de raid, le recomiendo que consulte la sección de mi blog.

Creación de una matriz RAID Adaptec 6405

Al cargar el servidor, presione CTRL+A y acceda al menú del controlador. Necesitamos elegir Utilidad de configuración de matriz:

Primero debes ir al elemento del menú. Inicializar unidades para indicarle al controlador qué unidades se utilizarán.

Cada disco debe estar marcado con un espacio:

Una vez seleccionadas las unidades, presione Entrar y reciba una advertencia:

Como resultado, aprendí las siguientes configuraciones:

Nota: Algunas palabras sobre particiones de más de 2 TB: si el tamaño final de la matriz es menor que este valor, entonces no hay necesidad de preocuparse. Si el volumen es mayor, entonces su sistema se negará a ver nada mayor que aproximadamente 2 TB. Esto se debe a la partición MBR, que no permite más de 2 TB de partición. La solución es utilizar la partición GPT, pero en este caso su placa base debe ser compatible con UEFI, lo que no es el caso en las placas base más antiguas. Para solucionar esto, puede asignar una capacidad menor a la matriz y luego usar la capacidad restante para otra matriz RAID del mismo tipo..

Nuevamente recibimos una advertencia sobre el uso de la función de grabación retrasada.

Reemplazo de un disco fallido

En esta etapa intentaré simular la falla de uno de los discos duros del arreglo. Como anteriormente creé una matriz de tipo Raid1, nos permite mantener la funcionalidad si falla la mitad de los discos. En mi caso la mitad es 1 disco (son dos en total).

Procedimiento:

  • Apagué el servidor por completo;
  • Saco uno de los discos y monto el otro en la cesta adyacente.

Idealmente, después de esto, la matriz debería estar en un estado degradado, pero continuar funcionando. Después de conectar la tercera unidad, no debería conectarse automáticamente a la matriz. En primer lugar, porque no está inicializado; en segundo lugar, porque no se especificó como repuesto activo(disco de repuesto activo) al crear la matriz.

Así que comencemos.

Después de encender el servidor, recibimos las siguientes advertencias en la BIOS:

En principio, así debería ser, porque falta un disco de la matriz. Por cierto, después de que un disco "desaparece" de la matriz, El mando empezó a chirriar muy fuerte y repugnantemente. Y mis colegas incluso comenzaron a acercarse a mí y advertirme sobre un ruido extraño en la sala de servidores.

Vamos a la utilidad de administración de matrices, observamos el estado de la matriz en Administrar matrices:

Como puede ver, falta un disco en la matriz; la matriz en sí está en un estado degradado. Todo fue como se esperaba.

Después de esto, necesitamos inicializar un disco nuevo. En la captura de pantalla anterior quedó claro que la matriz actual usa un disco en la ranura 31, lo que significa que el nuevo disco estará en otra. Ir al elemento del menú Inicializar unidades, inicialice el disco en la ranura 29:

Recibimos una advertencia (en el buen sentido, en este momento ya deberías tener copias de seguridad de todos información actualizada, y el servidor se pone en mantenimiento programado, si por supuesto esto es posible):

Ahora necesitamos decirle al controlador que debe usar un disco nuevo para incluirlo en la matriz en lugar del que falla. Esto debe hacerse a través del elemento del menú. Administrar matrices— presione Enter, use las flechas arriba/abajo para seleccionar la matriz deseada (si hay varias), presione CTRL+S y acceda a la página de control Repuestos globales:

Sólo puede seleccionar discos que no estén ubicados actualmente en ninguna matriz. Utilice un espacio para seleccionar la unidad deseada:

Presione Entrar. Aparecerá un cuadro de diálogo para confirmar el cambio, ingrese Y. Dado que convertimos el disco en un disco intercambiable en caliente, el controlador debería convertirlo automáticamente en parte de la matriz e inmediatamente comenzar el proceso de reconstrucción ( reconstruir matriz), también puedes comprobarlo desde el elemento del menú Administrar matrices:

A partir de este momento podrás arrancar el servidor en modo normal y seguir trabajando. Una reconstrucción completa es un proceso bastante largo y depende de muchos parámetros: el rendimiento del controlador/discos, la carga actual en el controlador/discos, etc. Podemos concluir que la velocidad de reconstrucción cambiará significativamente si comienza a utilizar el matriz inmediatamente después de agregar un disco. Si es posible, es mejor darle tiempo al controlador para que complete con calma la reconstrucción de la matriz y solo después de eso le aplique una carga real (esto es especialmente cierto para las matrices RAID5).

Proceso de reconstrucción física estará acompañado de un LED rojo parpadeante en la cesta del disco que se acaba de agregar a la matriz.

en la utilidad Administrador de almacenamiento de Adaptec reconstruir la matriz se ve así:

Por cierto, la utilidad se inició desde el mismo servidor. Esto completa la revisión de las tareas de administración de la matriz RAID Adaptec 6405.

Si el artículo te ayudó, deja comentarios y comparte tu experiencia.

Servidor instantáneo Adaptec- familia almacenamiento en disco, que puede realizar las funciones de servidores de archivos de red (servidores NAS) en entornos Windows, Linux o Apple, o usarse como matrices de disco RAID con una interfaz iSCSI como parte de redes de almacenamiento IP para servir servidores aplicaciones de windows y Linux.

Servidores NAS Adaptec Snap Server

Servidores NAS Adaptec Snap Server Conéctese directamente desde la red de datos (LAN) a través de puertos Ethernet integrados y actúe como servidor de archivos para clientes de red. Servidor Adaptec Snap: simple y manera efectiva creando almacenamiento en disco compartido tanto para pequeños grupos de trabajo como para centros de datos.

El uso de Adaptec Snap Server proporciona:

Facilidad de implementación- Simplemente te conectas a la red local, realizas configuraciones mínimas y el servidor está listo para funcionar.

Flexibilidad- Puede utilizar Adaptec Snap Server en una red heterogénea, proporcionando espacio de almacenamiento para clientes Windows, Linux, Unix y Apple. Además, puede utilizar simultáneamente Adaptec Snap Server como almacenamiento para servidores de aplicaciones que utilizan el protocolo iSCSI. Por lo tanto, Adaptec Snap Server puede proporcionar acceso a los datos no solo a nivel de archivo, sino también a nivel de bloque.

Alta disponibilidad- La confiabilidad del Adaptec Snap Server está garantizada mediante la duplicación de conexiones Ethernet, la organización de datos en RAID, discos intercambiables en caliente y sistemas de energía y refrigeración redundantes.

Actuación- la capacidad de utilizar discos con interfaz SAS y velocidad de eje de 15000 rpm, puertos SAS “anchos” (12 Gbit/s) para conexión módulos adicionales Extensiones JBOD.

Escalabilidad- la capacidad de almacenamiento se puede aumentar agregando un módulo de expansión para 12 unidades en total, se pueden conectar hasta 7 módulos, con una capacidad de almacenamiento máxima de 66 TB;

Controlabilidad- el servidor está funcionando Sistema operativo GuardianOS, la configuración del servidor se realiza a través de la interfaz WEB.

Protección de datos- seguridad integrada y control de acceso, protección antivirus, replicación de datos, copia "instantánea" de datos - tecnología de instantáneas, herramientas avanzadas respaldo datos (incluidos los datos de las computadoras cliente) al disco, cinta o dispositivo de red.

Económico- reducción del coste total de propiedad debido a la ausencia de la necesidad de adquirir licencias de cliente.

La familia Adaptec Snap Server incluye los siguientes modelos de servidores NAS:

Servidor instantáneo 110- almacenamiento en red compacto (servidor NAS) con una capacidad de hasta 750 GB. Opcional: soporte iSCSI, servidor de respaldo o funciones de biblioteca de cintas virtuales, software antivirus, tecnología Snapshot, replicación de datos.

Servidor instantáneo 210- almacenamiento en red compacto (servidor NAS) con una capacidad de hasta 1,5 TB. Dos discos duros proporcionan doble rendimiento de disco (RAID 0) o protección de datos (RAID 1). Opcional: soporte iSCSI para acceso a datos en bloque, servidor de respaldo o funciones de biblioteca de cintas virtuales, software antivirus, tecnología Snapshot, replicación de datos.

Servidor instantáneo 410- almacenamiento en red (servidor NAS) con una capacidad de hasta 3 TB. Factor de forma para montaje en rack de 1U. Incluye software de emulación de biblioteca de cintas de respaldo. Opcional: soporte iSCSI para acceso a datos en bloque, software antivirus, tecnología Snapshot, replicación de datos, interfaz SCSI para conectar una unidad de cinta externa.

Servidor instantáneo 520- almacenamiento en red (servidor NAS) con una capacidad de hasta 3TB. Se pueden conectar hasta siete módulos de expansión JBOD para una capacidad máxima de 66 TB (se requiere SAS HBA opcional). Factor de forma para montaje en rack de 1U. Software de emulación de biblioteca de cintas de respaldo, soporte iSCSI para acceso a datos en bloque, software antivirus, Snapshot. Opcional: Software de replicación de datos.

Servidor instantáneo 650- almacenamiento en red (servidor NAS) con una capacidad de hasta 1,2 TB, ampliable hasta 64,2 TB conectando módulos de expansión JBOD. Factor de forma para montaje en rack de 1U. Software de emulación de biblioteca de cintas de respaldo, soporte iSCSI para acceso a datos en bloque, software antivirus, Snapshot. Opcional: Software de replicación de datos.

SANbloc S50 JBOD- módulo de expansión para Snap Server 650 y Snap Server 520. Tiene un factor de forma 2U e incluye hasta 12 unidades SAS o SATA. Es posible una conexión "directa" al servidor a través de los controladores Adaptec 4800SAS o 4805SAS (hasta 8 módulos).

Matrices RAID Adaptec Snap Server con interfaz iSCSI

Las matrices RAID Adaptec Snap Server con interfaz iSCSI están diseñadas para crear almacenamiento en disco que sirva a servidores de aplicaciones Windows y Linux en redes de almacenamiento IP (IP SAN). Una matriz RAID puede admitir simultáneamente hasta 512 servidores, acomodar hasta 512 volúmenes lógicos con una capacidad máxima de hasta 18 TB, proporcionando un rendimiento de 386 MB/s.

Los arreglos Adaptec Snap Server admiten tecnología de instantáneas para instantáneas programadas o bajo demanda, duplicación de volúmenes en arreglos RAID, agregación y redundancia de enlaces, agrupación en clústeres de Windows y administración centralizada.

La familia Adaptec Snap Server incluye los siguientes modelos iSCSI RAID:

Servidor instantáneo 720i- matriz de disco RAID con una capacidad de 1 o 2 TB, que se puede aumentar en 33 TB mediante módulos de expansión SANbloc S50 JBOD. Factor de forma para montaje en rack de 1U.

Servidor instantáneo 730i- matriz de disco RAID con una capacidad de 3 TB, que se puede aumentar a 36 TB utilizando módulos de expansión SANbloc S50 JBOD. Factor de forma para montaje en rack de 1U.

Servidor instantáneo 750i- matriz de disco RAID con una capacidad de 1,2 TB, que se puede aumentar en 33 TB utilizando módulos de expansión SANbloc S50 JBOD. Factor de forma para montaje en rack de 1U.

Las matrices de discos Adaptec vienen con una garantía de 3 años.

El enfoque de Adaptec para lanzar controladores RAID con soporte para unidades SAS es sistemático y muy lógico. Después del lanzamiento de los modelos de "prueba", la empresa pasó a la producción de controladores basados ​​​​en una arquitectura única (Arquitectura Serial Unificada). Estos se conocen como controladores de cuatro puertos de bajo costo. nivel de entrada la primera y segunda serie (el número de serie está determinado por el primer dígito en la designación del modelo), así como los controladores de la serie principal y tercera. Por supuesto, la quinta serie de alto rendimiento, que actualmente es el pico de desarrollo de los controladores Adaptec, se convirtió en una continuación lógica. modelos anteriores.

Por cierto, es interesante comparar los controladores entre sí: la primera serie carece por completo de procesadores integrados y memoria intermedia y está contento con la interfaz PCI-Express x4; la tercera serie utiliza procesadores Intel 80333 de 500 y 800 MHz, la cantidad de memoria interna varía entre 128 y 256 MB, los modelos de cuatro puertos tienen Interfaz PCI-Express x4, y el de ocho puertos es PCI-E x8 (por cierto, un representante de la tercera serie, ASR-3405, ya fue probado en nuestras pruebas hace algún tiempo). La quinta serie ha cambiado completamente a PCI-E x8, todos los modelos, excepto el de cuatro puertos, están equipados con 512 MB de memoria (solo el ASR-5405 más joven se reduce a 256 MB), además todos los controladores de la serie usan el procesador más potente entre los controladores RAID que se encuentran en la actualidad: doble núcleo, 1,2 GHz. Nos saltamos deliberadamente el segundo episodio: parece que se obtuvo “simplificando” el quinto episodio, y no el tercero en absoluto. Juzgue usted mismo: ambos modelos de la serie son de cuatro puertos, es decir, con un conector interno SFF-8087 o externo SFF-8088, pero al mismo tiempo tienen una interfaz PCI-E x8 y están equipados con procesador de doble núcleo. Es cierto que la frecuencia del procesador es menor que la de la quinta serie: "sólo" 800 MHz. Y la segunda serie tiene menos memoria intermedia: 128 MB, aparentemente para mantener el posicionamiento de la serie como la más joven en relación con la tercera. Otra pista que apunta al origen de la segunda serie es que sus modelos soportan la “gestión inteligente de energía” (Adaptec Intelligent Power Management), aparecida en la quinta serie, que consiste en apagar las unidades no utilizadas o reducir su consumo poniéndolas en a un estado de sueño. La principal diferencia de la segunda serie es que solo admite matrices RAID0, 1 y 10, es decir, carece por completo de la capacidad de trabajar con matrices con paridad (RAID5, RAID6 y sus derivados de dos niveles).

Entonces, la quinta serie y su representante en la persona de Adaptec ASR-5805.

Adaptador RAID ASR-5805

Observemos de inmediato que la quinta serie se ha convertido en una de las más grandes: actualmente incluye hasta siete modelos, desde el ASR-5405 más simple hasta el ASR-52445 de 28 puertos. No es difícil entenderlos, basta con descifrar el nombre: el primer dígito es el número de serie, el siguiente o dos es el número de puertos internos, luego hay dos dígitos que indican el número de puertos externos y el tipo de interfaz. Dado que todos los modelos de la serie tienen una interfaz PCI-E x8, todos terminan en "5", pero en los modelos más antiguos también puede encontrar "0", un signo de una interfaz PCI-X.




El diseño unificado de la serie también significa unidad de características: sólo el modelo de cuatro puertos tiene la mitad de memoria, todo lo demás es idéntico en todos los modelos: procesador de doble núcleo a 1,2 GHz, 512 MB de memoria, PCI-E x8 como la interfaz utilizada, soporte para baterías compradas por separado, hasta 256 dispositivos SATA/SAS (por supuesto, cuando se utilizan las cestas y expansores adecuados). Por cierto, la serie anterior sólo admitía hasta 128 dispositivos: Adaptec no sólo instala procesadores más potentes en nueva serie, pero no olvides editar el firmware.

Por cierto, sobre el firmware. Existen algunas limitaciones técnicas en la construcción de matrices relacionadas con las características operativas de los propios controladores. Quizás pocos usuarios los encuentren, excepto quizás aquellos que, por sus funciones, necesitan trabajar con sistemas de almacenamiento muy grandes, pero aún así... La quinta serie (y junto con ella la segunda) admite hasta 64 matrices en una controlador (el tercero, solo 24), hasta 128 discos en una matriz RAID0, hasta 32 discos en matrices RAD5 y RAID6 con rotación de paridad.

Los controladores de la Serie 5 admiten casi todos los tipos de matrices populares, a saber:

disco único,
RAID0,
RAID1,
RAID1E
RAID5,
RAID5EE,
RAID6,
RAID10
RAID50
RAID60.

Me gustaría hacer una breve parada aquí. Mientras que los RAID0, 1, 5, 6 habituales y sus combinaciones son bien conocidos por la mayoría de los usuarios, los arreglos RAID1E y RAID5EE son poco conocidos y aún plantean dudas sobre cómo funcionan.

Comencemos con RAID1E. De hecho, las matrices de este tipo están muy cerca de RAID1, ya que utilizan duplicación de datos. Pero no reflejan discos completos, sino sólo bloques individuales. Este enfoque le permite utilizar tres o más discos para crear matrices (en el caso de dos discos, RAID1E degenera en un RAID1 normal). La forma más sencilla de comprender la lógica detrás de la disposición de las franjas en una matriz es a partir del diagrama:


Las letras "M" marcan bloques "espejo". Entonces, ¿qué tenemos como resultado? Las matrices RAID1E tienen redundancia de datos, es decir, perdonan la pérdida de un disco, mientras que, a diferencia de RAID1 y RAID10, se pueden construir en un número impar de discos, tienen buenas velocidades de escritura y lectura, debido a la "extensión" de rayas sobre diferentes discos Las matrices RAID1E serán más rápidas que RAID1 y al menos comparables con RAID10 (a menos, por supuesto, que en las matrices RAID1 el controlador no pueda leer datos de ambos discos en pares reflejados a la vez). Pero estos arreglos no deben considerarse ideales: su pérdida de volumen es la misma que la de todos los arreglos basados ​​en espejo, es decir, 50%. En cuanto a la seguridad de los datos, RAID10 resulta más rentable: con el mismo número de discos, en algunos casos puede soportar la falla de dos discos duros a la vez. Por lo tanto, el valor de RAID1E radica principalmente en la capacidad de construir una matriz con duplicación en un número impar de discos, al mismo tiempo que recibe un ligero aumento en la velocidad, lo cual es bastante importante para aquellos casos en los que el controlador no puede leer desde dos discos a la vez. en pares reflejados convencionales.

La matriz RAID5EE es más divertida. Al igual que su RAID5 original, se basa en el principio de seguridad de los datos al almacenar franjas con sumas de verificación XOR, y estas franjas se "giran", es decir, se distribuyen uniformemente en todos los discos de la matriz. La diferencia es que la creación de RAID5EE requiere estrictamente un disco de intercambio en caliente conectado a la matriz, que no se puede utilizar para reemplazar en otras matrices. El hecho es que este disco de repuesto no espera a que ocurra un accidente, como suele ser el caso, sino que participa en el funcionamiento de una matriz completamente funcional. La información de la matriz en forma de franjas se encuentra en todos los discos a la vez, incluido el disco de reemplazo, y la capacidad que pertenece al disco de reemplazo se distribuye uniformemente en todos los discos de la matriz a la vez. Es decir, de hecho, el disco de reemplazo se vuelve virtual: el disco en sí se usa en funcionamiento, pero su capacidad no se puede ocupar, ya que está reservado por el controlador y no está disponible para el usuario. Además, en las primeras implementaciones, denominadas RAID5E, esta capacidad virtual se ubicaba al final de todos los discos, mientras que en RAID5EE se ubica en todo el conjunto en forma de bloques distribuidos uniformemente. Para comprender cómo se ve esto, sugerimos volver al diagrama, donde P1, P2, P3, P4 son las sumas de verificación de las franjas completas correspondientes y HS es la capacidad del disco de respaldo distribuida uniformemente en toda la matriz:


En consecuencia, si uno de los discos falla, la información perdida se restaura en las franjas "vacías" que quedan en toda la matriz (marcadas como "HS" en el diagrama), y la matriz se convierte en el RAID5 más común.

¿Cuál es la ventaja de este enfoque? El hecho es que disco de respaldo no se queda inactivo, sino que participa en el trabajo, aumentando la velocidad de lectura de la matriz debido a la mayor cantidad de discos en los que se distribuye cada franja completa. La desventaja de tales matrices también es fácil de notar: el disco de respaldo está estrechamente vinculado a la matriz, por lo tanto, si construye varias matrices en un controlador a la vez, cada uno de ellos tiene que asignar sus propios discos de reemplazo, lo que aumenta los costos y requiere mas espacio en el servidor.

Sin embargo, volvamos a nuestro controlador. Debido a la alta densidad del embalaje, Adaptec pudo hacer que todos los controladores fueran bastante cortos, y los modelos de cuatro y ocho puertos también tienen media altura. En este caso, la batería de alimentación no ocupa un conector separado en la carcasa, sino que está instalada en la parte posterior del controlador.




La batería en sí está ubicada en una pequeña placa secundaria y está unida mediante pequeños espaciadores al controlador con tornillos de plástico. Recomendamos encarecidamente el uso de baterías: la información es demasiado valiosa para perderla por un centavo y la escritura retrasada, como lo muestra el ejemplo de Promise, que funcionó sin batería, es demasiado importante para las características de velocidad de las matrices. Usar la grabación retardada en un modo inseguro, es decir, sin una batería de memoria intermedia, es, en nuestra opinión, demasiado arriesgado: a veces podemos permitírnoslo en las pruebas, pero nunca lo permitiríamos en condiciones de trabajo reales.

Lista de sistemas operativos compatibles muy amplio y, quizás, cubra casi todos los sistemas operativos existentes, excepto los más exóticos. Además de todas las versiones de Windows, empezando por Windows 2000 (no se olvidan las versiones de 64 bits), incluye varias distribuciones populares Linux, así como FreeBSD, SCO Unix y Solaris. Además, incluso existen controladores para ejecutar VMWare. La mayoría de estos sistemas operativos también tienen sus propias versiones de Adaptec Storage Manager, un software propietario para trabajar con el controlador. La funcionalidad de este último es muy amplia; con su ayuda puede realizar cualquier operación con el controlador y las matrices sin tener que acceder al BIOS. Es muy conveniente trabajar en él: todas las funciones están ubicadas de forma lógica y no requieren gran cantidad hora de buscar. La comodidad de funcionamiento también se ve facilitada por una gran cantidad de información visual y modos de funcionamiento del controlador.

Metodología de prueba

Durante las pruebas se utilizaron los siguientes programas:

IOMeter versión 2003.02.15;
WinBench versión 99 2.0;
FC-Test versión 1.0;

El sistema de prueba fue el siguiente:

Caja Intel SC5200;
Placa base Intel SE7520BD2;
dos Procesador Intel Xeon 2,8 GHz en bus del sistema de 800 MHz;
2 x 512MB registrar memoria DDR PC3200 ECC
Disco duro IBM DTLA-307015 de 15 GB como unidad de sistema;
tarjeta de video - video integrado ATI Rage XL
sistema operativo Microsoft Windows 2000 Professional SP4

Durante las pruebas, el controlador se instaló en Ranura PCI-Express x8 en la placa base. Utilizado para pruebas discos duros Fujitsu MBA3073RC, instalado en las guías del chasis estándar SC5200 y asegurado en ellas con cuatro tornillos en el borde inferior. El controlador se probó utilizando cuatro y ocho discos duros en los siguientes modos:

RAID0;
RAID10;
A RAID10 de 8 discos degradado le falta un disco;
RAID5;
RAID5;
A RAID5 de 8 discos degradado le falta un disco;
RAID6;
A RAID6 de 8 discos degradado le falta un disco;
RAID6 degradado de 8 discos sin dos discos.

Porque intentamos abarcar todo lo más completo posible tipos posibles matrices, luego las incluimos en las pruebas y consideración de matrices degradadas. Recordemos que este término se refiere a arrays con redundancia de datos, en los que uno o más discos (según el tipo de array) han fallado, pero el array aún almacena todos los datos y está operativo.

A modo de comparación, presentaremos en todas partes los resultados de una sola unidad Fujitsu MBA3073RC obtenidos en controlador LSI SAS3041E-R, considerándolos una especie de nivel básico de rendimiento. Digamos de inmediato que esta combinación tiene un problema bien conocido: su velocidad de escritura en la "Prueba FileCopy" es siempre muy baja.

De forma predeterminada, el controlador ofrece un tamaño de banda de 256 kB para matrices, pero lo configuramos en 64 kB en todas partes. Por un lado, esto pondrá al controlador en pie de igualdad con otros modelos (la mayoría de los competidores usan exactamente este tamaño), y por otro... es en bloques de 64 kB donde se procesan los archivos en todas las versiones de Windows, hasta a Windows Vista SP1, respectivamente. Si el tamaño del bloque y el tamaño de la franja coinciden, podemos esperar algún aumento en la velocidad debido a la reducción de costos.

Por cierto, en el caso general, elegir el tamaño de la franja para una matriz no es la tarea más trivial. Por un lado, una reducción excesiva conducirá a aumento innecesario número de operaciones, lo que puede afectar negativamente al rendimiento. Por otro lado, si la matriz funcionará la mayor parte del tiempo con una aplicación (la misma base de datos) que usa direccionamiento exclusivamente en bloques de algún tipo ciertos tamaños, entonces es mejor seleccionar el tamaño de raya adecuado. Hubo un tiempo en que se rompieron muchas copias sobre este tema. Ciertamente, software no se queda quieto y la mayor parte ya ha aprendido a trabajar en bloques diferentes tamaños, y las velocidades de las matrices han aumentado notablemente, pero aún así este factor no debe descartarse al crear una matriz.

El controlador se actualizó con la última versión. disponible en el sitio web del fabricante en el momento de la prueba, se utilizó la versión BIOS y la mayoría nuevos conductores. En consecuencia, utilizamos firmware 5.2.0 compilación 16116 y controlador 5.2.0.15728.

IOMeter: Base de datos

Como siempre, comencemos con quizás la prueba más interesante desde el punto de vista de la carga en el controlador: la "Base de datos", con la ayuda de la cual descubrimos la capacidad de los controladores para trabajar con flujos de solicitudes de lectura y escritura 8 -Bloques de datos KB con direccionamiento aleatorio. Durante la prueba ocurre cambio secuencial porcentaje escribir solicitudes de cero a cien por ciento (en incrementos de 10%) del número total de solicitudes y aumentar la profundidad de la cola de comandos de 1 a 256.

Si lo deseas, puedes ver los resultados numéricos de las mediciones aquí y abajo en las tablas correspondientes, pero trabajaremos con gráficos y diagramas.

Puede ver tablas con los resultados de las pruebas en el siguiente enlace:



Con una carga mínima, todo parece muy decente: la escalabilidad está en su lugar, el RAID10 degradado no piensa en reducir el rendimiento y, junto con el RAID10 "normal" en ocho discos, coincide con el RAID0 en cuatro discos, como debería ser en teoría.



En matrices que utilizan sumas de verificación, las cosas también van bastante bien con una carga mínima. Si anteriormente, en cuatro discos WD Raptor SATA, observamos una fuerte disminución en el rendimiento en las operaciones de escritura, la nueva generación de controladores demuestra que gracias a una mayor cantidad de memoria intermedia, un menor tiempo de respuesta del disco y una arquitectura rápida, pueden mostrar Incluso en cuatro unidades en RAID6, el rendimiento es el mismo que el de un solo disco. Una matriz RAID5 en cuatro discos ya es notablemente más rápida que un solo disco para grabar, y las matrices de 8 discos son aún más avanzadas.

Al perder un disco, RAID6 reduce un poco la velocidad, pero no mucho. Un verdadero golpe a su rendimiento es la pérdida de dos discos a la vez: obligado a restaurar constantemente los datos de dos sumas de verificación (y escribir en matrices con paridad rotativa también requiere operaciones de lectura), el controlador reduce drásticamente el rendimiento, como resultado de lo cual la velocidad de la matriz degradada es menor que en un solo disco. RAID5 sufre la pérdida de incluso un solo disco: sus resultados son peores que los de RAID6, que se degrada a un solo disco, pero aún así no cae tan bajo como RAID6 sin dos discos.



Aumentar la carga a 16 solicitudes en la cola genera un aumento natural en el rendimiento. Al escribir, las matrices RAID10, como se esperaba, se mantienen cerca de RAID0 con la mitad de la cantidad de discos, y al leer también se acercan a las matrices RAID0 con la misma cantidad de discos. Pero no pueden superar significativamente a este último; aparentemente, podemos leer desde ambos discos, pero no existe una optimización de lectura destinada a encontrar un disco en un par de espejos con una mejor posición de la cabeza sobre el plato, capaz de entregar datos más rápido.

Un RAID10 degradado, con predominio de solicitudes de escritura, se comporta como se esperaba, es decir, no muestra su "daño" de ninguna manera, pero con una gran cantidad de solicitudes de lectura pierde notablemente rendimiento. Aunque este último todavía no desciende al nivel de matrices de cuatro discos, lo que significa que en los pares reflejados intactos restantes el controlador lee de ambos discos del par.



Las matrices RAID5 y RAID6 también aumentan el rendimiento, pero aunque RAID6 está casi bien, el comportamiento de RAID5 ya no se puede llamar ideal: aparecieron saltos bruscos de rendimiento en sus gráficos, lo que indica ciertas fallas en el firmware. La situación es especialmente mala en el caso de un RAID5 degradado.

En relación con RAID6, utilizamos "casi" debido a los resultados de una matriz en cuatro discos: con un predominio de solicitudes de escritura, esta matriz se perdió inesperadamente en un solo disco. Una matriz de ocho discos con pérdidas más o menos razonables sobrevive a la muerte de un disco, pero la falla del segundo tiene un fuerte impacto: si dicha matriz aún puede superar a un solo disco en lectura, entonces ya no podrá competir por escrito.



Un aumento adicional en la carga lleva al hecho de que tenemos que admitir que la suposición anterior es injusta; de hecho, la matriz es bastante capaz de encontrar discos rápidos en pares reflejados. Esto es especialmente notable cuando se comparan cuatro matrices de discos- RAID10 resulta ser notablemente más rápido en lecturas puras que RAID0. Pero el RAID10 degradado es decepcionante: aunque se adapta bien a la escritura, falla por completo en la lectura. Como resultado, sólo supera marginalmente al RAID0 de cuatro discos en la mayoría de las cargas de trabajo.

Es interesante comparar los resultados con lo que nos mostró recientemente el 3ware 9690SA, que tiene un procesador de una arquitectura completamente diferente. En general, podemos declarar paridad: Adaptec es ligeramente más eficiente en escrituras, mientras que 3ware es ligeramente más rápido en operaciones de lectura dominantes. Es cierto que en el lado del 3ware hay mucho menos perdida rendimiento de un RAID10 degradado.



No hubo cambios significativos en este grupo, excepto que RAID5 corrigió ligeramente la situación; ahora simplemente no se adapta muy bien a las operaciones de lectura (especialmente una matriz degradada). Como resultado, en matrices de 8 discos vemos algo sin precedentes: RAID6 supera a RAID5 en lectura pura. Con RAID6 degradado, todo es igual: sin un disco, la matriz simplemente pierde una buena cantidad de velocidad, y sin dos, las pérdidas ya son catastróficas, la velocidad cae por debajo del nivel de un solo disco.

Si comparamos nuevamente este controlador con el 3ware 9690SA, podemos ver que este último se adapta mejor a las matrices RAID6 en todas las cargas de trabajo y es notablemente más rápido en RAID5 en lecturas, mientras que Adaptec gana en RAID5 con predominio de escrituras.

IOMeter: tiempo de respuesta del disco

Para medir el tiempo de respuesta, utilizamos IOMeter para enviar un flujo de solicitudes a la unidad durante diez minutos para leer o escribir bloques de datos de 512 bytes en una cola de solicitudes salientes. igual a uno. El número de solicitudes procesadas por la unidad supera las sesenta mil, por lo que obtenemos un tiempo de respuesta constante de la unidad que no depende del tamaño de la memoria intermedia.



En términos de tiempo de respuesta de lectura, todas las matrices son inferiores a un solo disco. Además, para las matrices de 8 discos la pérdida no es muy grande, pero las matrices de 4 discos (excepto RAID10) se retrasan aproximadamente un milisegundo; con un tiempo de respuesta de menos de 6 ms, esta es una brecha muy notable. Como era de esperar, las matrices RAID10 funcionan mejor debido a la selección de un disco más "adecuado" en pares reflejados.

El RAID10 degradado funciona bastante bien, pero las matrices con paridad rotativa fueron mucho menos afortunadas: debido a la aparición de costos generales para las operaciones de restauración de datos a partir de sumas de verificación, ocuparon el último lugar. Naturalmente, la peor situación es para RAID6 sin dos discos: tiene que recuperar datos basándose en dos sumas de comprobación a la vez.



La situación observada en la grabación es bastante lógica: el tiempo de respuesta está determinado por el caché total del controlador y los discos, lo que significa que las matrices de ocho discos superan a las de cuatro discos, y RAID0 está por delante de RAID10, ya que en este último cada El par puede considerarse sólo como un disco, desde el punto de vista del almacenamiento en caché. Entre las matrices con sumas de comprobación, las matrices de ocho discos también destacan, y RAID5 supera a RAID6: sólo tiene que calcular una suma de comprobación, no dos. Los resultados de RAID5 y RAID6 degradados son gratamente impresionantes, especialmente este último, que perdió dos discos: los costes derivados de la necesidad no sólo de leer datos para calcular las sumas de comprobación, sino también de calcularlas, son muy pequeños. Esto se debe al potente procesador utilizado: incluso si se pierden dos discos durante la grabación, RAID6 tiene un tiempo de respuesta comparable al resultado de un solo disco, lo que es un muy buen resultado.

IOMeter: lectura y escritura aleatorias

Evaluaremos ahora la dependencia del rendimiento del controlador en modos de lectura y escritura con direccionamiento aleatorio del tamaño del bloque de datos utilizado.

Consideraremos los resultados obtenidos al trabajar con datos aleatorios direccionados en dos versiones, de acuerdo con la metodología actualizada. Usando bloques pequeños, trazaremos la dependencia del número de operaciones por segundo del tamaño del bloque utilizado. Y en bloques grandes, en lugar del número de operaciones, tomemos como criterio de rendimiento la velocidad en megabytes por segundo. Este enfoque le permite evaluar el rendimiento de las matrices en dos casos de carga típicos a la vez: trabajar en bloques pequeños es típico de las bases de datos y, para ello, el número de operaciones por segundo es más importante que la velocidad habitual; pero trabajar en bloques grandes y muy grandes está cerca de trabajo real con archivos pequeños, y aquí pasa a primer plano la velocidad en los habituales megabytes por segundo.

Empecemos por la lectura.



En una lectura aleatoria simple en bloques pequeños, la matriz simplemente no tiene suficiente carga para demostrar su potencia: todas las matrices son inferiores a un solo disco. El RAID10 degradado se mantiene sorprendentemente bien, especialmente considerando que los otros arreglos RAID10 de alguna manera difieren muy poco del RAID0, aunque deberían demostrar una ventaja debido a la lectura de pares reflejados.



La situación es similar para las matrices con grabación de suma de comprobación: todas son un poco más lentas que un solo disco y las matrices de cuatro discos son peores que las de ocho discos. De nuevo, RAID6 resulta ser el peor, degradado en dos discos, pero sus resultados no son nada desastrosos.



Cuando se trabaja en bloques grandes, la velocidad de las operaciones lineales entra en juego y las matrices RAID0 naturalmente salen adelante. Sin embargo, el RAID10 de ocho discos es mejor que el RAID0 con cuatro discos, que está casi a la par del RAID10 con la misma cantidad de discos; parece que el controlador puede leer datos de ambos discos en pares reflejados. Incluso un RAID10 degradado es más rápido que un RAID0 de cuatro discos: la pérdida de un disco de un par no impide que lea ambos discos de los pares restantes.



La misma velocidad lineal dicta la superioridad de las matrices RAID5 sobre RAID6, aunque los resultados de este último son demasiado bajos. La caída de velocidad de un RAID5 de cuatro discos en bloques muy grandes tampoco parece muy agradable: 200 MB/s no debería ser el límite para esta matriz.

Las matrices degradadas se comportan de manera sorprendentemente predecible: sin un disco, RAID5 y RAID6 pierden notablemente velocidad, y sin dos discos, RAID6 se vuelve comparable a un solo disco.

Pasemos a escribir operaciones con direccionamiento aleatorio.



Al grabar en bloques pequeños, todo lo decide la memoria caché de Su Majestad. El controlador simplemente demuestra trabajo perfecto- la escalabilidad está en su lugar, la forma de los gráficos está bien, los valores también lo están (por cierto, son ligeramente superiores a los de 3ware).



Al escribir bloques pequeños en matrices con sumas de verificación, la cantidad de discos sigue siendo importante, pero el tiempo para calcular las sumas de verificación también juega un papel importante, lo cual es un factor de desaceleración. Precisamente porque RAID6 tiene que contar dos sumas a la vez, incluso RAID5 degradado resulta ser más rápido que RAID6 en los mismos ocho discos. RAID6 se siente sorprendentemente bien, después de haber perdido dos discos; por supuesto, terminó en último lugar y se saltó un solo disco, pero aún así sus resultados son bastante buenos para una matriz que, con cada escritura, no solo tiene que leer los datos, sino también restaurarlos a partir de dos sumas de verificación a la vez.



Pero cuando grabamos en bloques grandes, vemos algo completamente incomprensible: las matrices RAID0, cuando trabajan con tales bloques, resultan inesperadamente más lentas que RAID10. Esta rareza es especialmente notable en un RAID0 de ocho discos: esta matriz, en principio, no tiene requisitos previos para alcanzar los 120 MB/s. No hay razón para que un RAID0 de cuatro discos en bloques grandes pierda todo, incluido un solo disco. Pero el comportamiento de un RAID10 degradado es muy claro: se comporta exactamente como una matriz RAID0, es decir, cada par de espejos se comporta como disco normal. Pero, ¿por qué no sucedió esto con las matrices RAID10 normales y qué sucede realmente en bloques grandes? En el caso de RAID0, al parecer, distribuya los bloques en franjas y no habrá problemas. Misterio.



Sí, parece que algo salió mal con la grabación de Adaptec en bloques grandes. Las matrices con grabación de suma de comprobación están casi a la par con las de un solo disco, y las matrices de cuatro discos demuestran velocidades más altas que las de ocho discos. Pero los tres macizos degradados aumentaron inesperadamente de velocidad, superando a sus competidores de pleno derecho. Un cierto aumento en la velocidad podría explicarse de alguna manera por el hecho de que estas matrices simplemente no calculan las sumas de verificación cuando caen en un disco que no tienen, pero entonces RAID6 sin dos discos estaría a la cabeza, y esto no dará un resultado tan grande. aumento de velocidad. Adaptec demuestra resultados extraños, muy extraños al grabar en bloques grandes.

IOMeter: lectura y escritura secuencial

Bueno, es hora de evaluar las capacidades de los controladores en operaciones secuenciales. En esta prueba, las unidades reciben un flujo de solicitudes con una profundidad de cola de comandos de cuatro. Una vez por minuto, el tamaño del bloque de datos aumenta. Como resultado, tenemos la oportunidad de rastrear la dependencia. velocidades lineales leer y escribir matrices en función del tamaño de los bloques de datos utilizados y estimar las velocidades máximas alcanzables.



¡Oh, qué fantásticos resultados ofrece el RAID0 de ocho discos! Sí, un procesador potente es suficiente para leer fácilmente más de cien megabytes por segundo de cada uno de los ocho discos. La lectura de ambos discos en pares reflejados es claramente posible, aunque no ideal: mientras que la matriz RAID10 de cuatro discos mostró casi los mismos resultados que RAID0, la matriz de ocho discos quedó notablemente por detrás de su hermano sin duplicación. Pero la buena noticia es que la lectura de ambos discos en pares reflejados ya funciona en bloques muy pequeños.



Las matrices con grabación de suma de verificación demuestran velocidades más bajas que RAID0, pero este retraso es bastante lógico: debido a la grabación de suma de verificación, perdemos un bloque en cada banda en RAID5 y dos bloques en RAID6; en consecuencia, la velocidad de lectura también disminuye cuando se accede a todos los discos simultáneamente. Es claramente visible lo costosa que es la pérdida de discos en términos de rendimiento para matrices degradadas. Además de la disminución natural de la velocidad al reducir la matriz en un disco, las matrices degradadas pierden un poco más de 200 MB/s de velocidad, es decir, el costo de "restaurar" los datos en términos de rendimiento de lectura de la matriz es comparable al Pérdida de dos discos más. Desde este punto de vista, es curioso que la pérdida del segundo disco RAID6 sea casi indolora: las pérdidas son de solo 100 MB / s, es decir, corresponden exactamente a reducir la matriz en un disco más.



Mmmm, la grabación lineal de alguna manera no es muy buena para el controlador, por decirlo suavemente. Los resultados de las matrices RAID0 parecen especialmente malos: ¡sus velocidades son más bajas que las de un solo disco! El RAID10 degradado también se unió a ellos: su gráfico coincidía casi por completo con el gráfico del RAID0 de cuatro discos (sí, ahí está, una explicación para los bajos resultados de la escritura en bloques grandes con direccionamiento aleatorio). Se podría sospechar que el controlador deshabilita la escritura diferida, pero las matrices RAID10 completas demuestran velocidades que son bastante apropiadas para ellos. Es cierto que sus gráficos también están lejos de ser ideales: los problemas en ellos indican que vale la pena trabajar en el firmware del controlador o sus controladores en busca de errores.



Las matrices RAID5 y RAID6 también están lejos de funcionar bien con la grabación. Los arrays de ocho discos son inferiores a los de un solo disco, mientras que sus homólogos de cuatro discos resultan notablemente más rápidos, aunque tampoco alcanzan los valores que se podrían esperar, conociendo la velocidad de un solo disco. Pero las matrices degradadas son excelentes en todos los sentidos: sus velocidades son simplemente excelentes y RAID6 sin dos discos está a la cabeza. Y nuevamente hay una gran cantidad de problemas en los gráficos...

Realmente quiero esperar que estos sean problemas entre el controlador y nuestra prueba sintética, y que en la “Prueba FileCopy” veamos resultados normales.

IOMeter: lectura y escritura multiproceso

Esta prueba le permite evaluar el comportamiento de los controladores bajo carga de subprocesos múltiples. Emula una situación en la que de una a cuatro aplicaciones trabajan con la unidad, y el número de solicitudes de ellas varía de una a ocho, y los espacios de direcciones de cada aplicación, cuyas funciones desempeñan los trabajadores en IOMeter, no se cruzan.

Si lo desea, puede ver tablas con los resultados de las pruebas en los enlaces correspondientes, y nosotros, como los más indicativos, consideraremos los diagramas de escritura y lectura para situaciones con una profundidad de cola de una solicitud, desde cuando el número de solicitudes en el la cola es dos o más, los valores de velocidad prácticamente independientes del número de aplicaciones.


Justifiquemos inmediatamente los resultados de las matrices en ocho discos: velocidades máximas dichas matrices se muestran solo en profundidades de cola superiores a uno. Ya nos hemos encontrado con esto antes al probar controladores potentes en discos SAS, por lo que sabemos que vale la pena mirar la tabla de datos. Para ser justos, también hay que señalar que Adaptec demuestra muy buenas velocidades en matrices incluso con profundidades de cola mínimas; su resultado en este sentido es hasta ahora el mejor entre los que hemos visto;

Con un hilo de lectura, las unidades se ubican de manera bastante lógica: las matrices de ocho discos están a la cabeza, RAID0 está por delante, seguido de RAID5 y RAID6. Curiosamente, el RAID10 de cuatro discos resultó ser más rápido que todos los demás conjuntos de cuatro discos.

La incorporación de una segunda corriente cambia radicalmente el equilibrio de poder. Las matrices RAID10 funcionan mejor que otras; aunque no muestran ningún deseo de paralelizar la carga leyendo flujos de diferentes discos en pares reflejados, aún muestran una degradación mínima del rendimiento. Todos los conjuntos de ocho discos sobrevivieron más o menos bien a la adición de una secuencia, pero los conjuntos de cuatro discos lo pasaron bastante mal. Sorprendentemente, los arrays degradados también pasaron bastante bien esta prueba (incluso RAID6 sin dos discos), con la excepción de RAID10 - sin un disco, se volvió idéntico a RAID0 de cuatro discos para leer dos flujos.


Un nuevo aumento en el número de subprocesos a tres y cuatro llevó al hecho de que las matrices RAID10 perdieron su ventaja; las de ocho discos "cayeron" de manera especialmente notable. Las matrices restantes simplemente reducen gradualmente su velocidad.


Con un hilo por escritura, volvemos a ver lo mismo. problemas extraños, como resultado de lo cual las matrices degradadas se adaptan mejor a la grabación, seguidas de RAID10, mientras que RAID5 y RAID6 de ocho discos, así como ambos RAID0, van por detrás incluso de un solo disco.

El segundo flujo de grabación conduce inesperadamente a cambios significativos en los resultados, que no se pueden explicar, sólo se pueden afirmar. Por lo tanto, las matrices degradadas con grabación de suma de comprobación y todas las matrices de cuatro discos, excepto RAID0, pierden velocidad (y RAID6 y RAID10 en cuatro discos de manera bastante significativa), mientras que todas las demás matrices, por el contrario, mejoran sus resultados. Especialmente impresionante es el "salto" de velocidad logrado por las matrices RAID5 y RAID6 de ocho discos: sus resultados se han duplicado. Pero parecería, bueno, ¿por qué les importa el segundo flujo? Todavía necesitan calcular las mismas sumas de verificación.


Aumentar aún más el número de subprocesos reduce significativamente la velocidad de los RAID5 y RAID6 de ocho discos, hasta tal punto que vuelven a perder frente a sus homólogos de cuatro discos. Para mantener el equilibrio, las velocidades de RAID10 en cuatro y ocho discos vuelven a aumentar. Y sólo el RAID10 degradado se diferencia tanto de las matrices degradadas como del RAID10, y es similar al RAID0 de cuatro discos en su baja velocidad.

IOMeter: servidor web, servidor de archivos y estación de trabajo

En este grupo de pruebas, las unidades se examinan bajo cargas típicas de servidores y estaciones de trabajo.

Permítanme recordarles que en “Webserver” y “Fileserver” se emula el funcionamiento del disco en los servidores correspondientes, mientras que en “Workstation” simulamos el funcionamiento del disco en modo de carga típico para puesto de trabajo, con un límite máximo de profundidad de cola de 32 solicitudes. Naturalmente, “Webserver” y “Fileserver” no son más que nombres colectivos; el primero emulará de manera muy similar la carga de cualquier servidor que funcione solo con solicitudes de lectura, y el segundo emulará un servidor con predominio de solicitudes de lectura, pero al mismo tiempo con una cierta proporción de solicitudes de escritura, notablemente diferente de cero. .



En el "servidor web", que carga discos exclusivamente con solicitudes de lectura, RAID10 está ligeramente, pero aún por delante de RAID0: la lectura de un disco "exitoso" en un par reflejado tiene un efecto, aunque no el más eficiente (hemos visto mejores resultados) . El RAID10 degradado pierde mucho rendimiento bajo cargas pesadas; es sólo ligeramente superior a las matrices de cuatro discos. Al mismo tiempo, con cargas ligeras (hasta ocho solicitudes en la cola), permanece casi a la par con una matriz completa.



Las matrices RAID5 y RAID6 están casi a la par con la misma cantidad de discos. Pero los macizos degradados lo pasan muy mal. Por lo tanto, para un RAID5 de ocho discos, la pérdida de un disco hace que su rendimiento caiga al nivel de una matriz de cuatro discos. Con RAID6, en la misma situación, el rendimiento disminuye aún más y la pérdida de dos discos lleva al hecho de que la matriz es solo un poco más rápida que un solo disco.



La calificación final demuestra que con tal carga, el tipo de matriz casi no tiene importancia, pero el número de discos, por el contrario, tiene un efecto muy fuerte.



Pero bajo una carga que incluye solicitudes de escritura, RAID10 va notablemente por detrás de RAID0 en colas de gran profundidad, aunque con cargas bajas los arreglos están muy cerca. Sí, el rendimiento de RAID0 aumenta a medida que la carga aumenta a un ritmo más rápido que RAID10.



La aparición de solicitudes de escritura también hace que RAID6 quede por detrás de RAID5. Es interesante prestar atención al comportamiento de las matrices de ocho discos degradadas: en RAID5 el rendimiento de dicha matriz sigue siendo mayor que el de una matriz de cuatro discos, pero en RAID6 es menor. El mismo RAID6, habiendo perdido dos discos a la vez, está ligeramente por delante de un solo disco solo con cargas bajas, pero con cargas grandes ya pierde la batalla y pasa al último lugar.



La cantidad de discos sigue siendo crítica, pero el tipo de matriz se vuelve más importante si el servidor tiene una cantidad significativa de solicitudes de escritura. La mayor confiabilidad de RAID6 y el mayor volumen de matrices con sumas de verificación en comparación con RAID10 tienen un costo de rendimiento.



Bajo la carga típica de las estaciones de trabajo, se espera que RAID0 esté a la cabeza. El RAID10 degradado se siente sorprendentemente bien: nuevamente se mantiene cerca de una matriz completa con cargas bajas.



Como era de esperar, calcular la segunda suma de comprobación reduce notablemente el rendimiento de RAID6 en relación con RAID5. Las matrices degradadas se mantienen relativamente bien, con la excepción de RAID6 sin dos discos: su rendimiento ya es menor que el de un solo disco en todas las profundidades de la cola. Es curioso que con un número de solicitudes en la cola de ocho a dieciséis, se acerque a su competidor; aparentemente, esa carga es la más preferible para él.



Oh, no vale la pena montar estaciones de trabajo de alto rendimiento en matrices con registro de suma de comprobación, a menos que se requiera un nivel adecuado de protección de datos. El RAID0 de cuatro discos supera al RAID6 de ocho discos y se acerca al RAID5. Y RAID10 en cuatro discos se ve bastante bien.



Reducir el volumen de trabajo solo conduce a un aumento en la superioridad de RAID0 sobre RAID10.



La superioridad de RAID5 sobre RAID6 también está creciendo. Cabe destacar un punto más: cuando se trabaja con una zona reducida, las matrices degradadas se sienten mucho más cómodas, el mismo RAID6 sin dos discos ya es más rápido que un solo disco.



La reducción del área de trabajo fortalece aún más la posición de RAID0 en relación con los demás.

Prueba FC

El siguiente en nuestro programa es FileCopy Test. A la unidad se le asignan dos particiones de 32 GB, particionadas en dos etapas de prueba, primero en NTFS y luego en FAT32, después de lo cual se crea un determinado conjunto de archivos en la partición, se lee, se copia dentro de la partición y se copia de una partición a otra. . Se registra el tiempo de todas estas operaciones. Le recordamos que los conjuntos "Windows" y "Programas" incluyen una gran cantidad de archivos pequeños, y las otras tres plantillas ("MP3", "ISO" e "Instalar") se caracterizan por una menor cantidad de archivos más grandes. y en “ISO” se utilizan los archivos más grandes.

No olvide que la prueba de copia no solo le indica la velocidad de copia dentro de una unidad, sino que también le permite juzgar su comportamiento bajo una carga pesada. De hecho, durante la copia, la unidad trabaja simultáneamente con dos subprocesos, uno de ellos para lectura y el segundo para escritura.

Dado que hay muchos resultados, consideraremos en detalle solo los valores obtenidos en los conjuntos de archivos "Instalar", "ISO" y "Programas" en NTFS, que son más típicos de uso normal matrices. Si lo deseas, puedes conocer el resto de resultados en las tablas siguientes:



Uf, los resultados de las matrices RAID0 no son tan malos como cabría esperar de una prueba de escritura secuencial. Es cierto que todavía no alcanzan el nivel que cabría esperar: la velocidad de escritura de archivos es aproximadamente dos veces y media menor. También sorprende que las velocidades máximas se alcancen en el conjunto “Instalar” y no en el conjunto “ISO”, que contiene los archivos más grandes. Generalmente hay muchas cosas extrañas e inexplicables en los resultados ISO, además de las bajas velocidades generales. Así, un RAID10 de ocho discos resulta ser dos veces más lento que un RAID0 de cuatro discos, aunque deberían estar a la par. Y la matriz degradada de alguna manera resulta ser más rápida que la completa. Aún así, el controlador tiene ciertos problemas con la grabación.


No todo está bien con la grabación para matrices RAID5 y RAID6. Al igual que en la prueba de escritura secuencial, los primeros lugares los ocupan los arrays degradados, lo cual es una tontería. Además, con archivos grandes en ISO, las matrices de ocho discos generalmente funcionan muy lentamente (la situación con RAID5 es especialmente divertida: una matriz de cuatro discos es una vez y media más rápida que una matriz de ocho). Sólo en archivos pequeños"Programas" el equilibrio de fuerzas está más o menos en orden, pero los valores de velocidad no son nada alentadores.



Al leer, el controlador claramente se topa con algún tipo de límite de velocidad: todas las matrices RAID0 y RAID10 demuestran velocidades aproximadamente iguales. Además, con la opción "Instalar" configurada, esto lleva a un hecho curioso: la velocidad de lectura de las matrices resulta ser menor que la velocidad de escritura. Es cierto que los resultados obtenidos con archivos grandes son agradables: el límite de velocidad de lectura de este controlador es significativamente mayor que el de los que examinamos anteriormente. El mismo 3ware 9690SA se negó a demostrar más de 160 MB/s, y Adaptec superó los 400 MB/s.

Por cierto, a juzgar por la velocidad de RAID10 de cuatro discos, la lectura de pares reflejados de ambos discos realmente funciona, de lo contrario no habríamos visto más de 250 MB/s.


Y nuevamente el mismo límite de velocidad observado en matrices de ocho discos cuando se trabaja con archivos grandes. Pero aun así, en general, el equilibrio de poder es el que cabría esperar. Incluso las matrices degradadas pierden velocidad aproximadamente de acuerdo con la disminución del número de discos en la matriz.



Los resultados de la copia se ven claramente afectados por las "rarezas" que vimos durante la grabación: todas las matrices resultan ser más rápidas en el conjunto "Instalar", y no en el conjunto "ISO". Si comparamos las matrices entre sí, RAID0 con ocho discos muestra resultados inesperadamente bajos, pero el RAID10 de ocho discos, como se esperaba, muestra velocidades similares a RAID0 con cuatro discos. El RAID10 degradado también se mantiene excelente, casi a la altura del conjunto completo.


Sin embargo, los mismos problemas con la velocidad de trabajar con archivos grandes en ISO y matrices con sumas de comprobación de grabación no son tan notorios. Una vez más, no existe un liderazgo tan sorprendente en los macizos degradados: el equilibrio de fuerzas en la copia es bastante lógico.





Aumentar la distancia de copia cambia poco los resultados. La única diferencia importante son las velocidades muy bajas de RAID5 y RAID6 de cuatro discos, todos en el mismo conjunto ISO (sí, incluso en el contexto general "reducido"). Este controlador tiene una extraña, muy extraña aversión por los archivos grandes, algo anda mal en el Reino de Dinamarca, es decir, en el firmware.

WinBench 99

Y por último, aquí tenéis los gráficos de lectura habituales en WinBench 99.
Gráficos para leer matrices RAID en el controlador Adaptec ASR-5805:
Los lectores especialmente atentos que aún no se hayan cansado de leer el artículo podrán notar que no proporcionamos gráficos para matrices RAID0. El punto aquí no es en absoluto que seamos maliciosos, sino que Winbench 99 se negó a completar las pruebas en estas matrices, generando un error. Además, cualquier acción, incluida la reducción del volumen probado, no tuvo un efecto positivo. Dado que no tenemos dudas sobre la confiabilidad del controlador cuando trabajamos con matrices RAID0 (muchas horas de atormentar las matrices en pruebas con IOMeter nos dicen que no hay problemas), atribuiremos este inconveniente a la más que grave antigüedad de nuestro paquete de prueba(después de todo, este año es su décimo aniversario).

Comparemos las matrices según las velocidades de lectura demostradas al principio y al final de las secciones resultantes:



Los resultados resultantes son agradables por su armonía: todo está en su lugar. Si nos fijamos en los gráficos en sí, también son agradables con un pequeño número de saltos bruscos de velocidad; incluso los arrays degradados funcionan con bastante fluidez. Quizás sólo RAID5 en discos resulte algo confuso debido a su largo estante horizontal en el gráfico; parece que 700 MB/s es una limitación impuesta para ello. Eh, es una pena que los gráficos RAID0 no funcionaran.

resumiendo

Recordando las impresiones que tuvimos del ASR-3405, me gustaría decir que la quinta serie de Adaptec resultó notablemente mejor. La combinación de un procesador muy potente según los estándares de los controladores RAID y un firmware completamente rediseñado ha dado como resultado que el ASR-5805 sea sorprendentemente diferente de su predecesor. El controlador en todo tipo de matrices demuestra excelentes resultados cuando trabaja bajo una carga de servidor, puede seleccionar un disco con un tiempo de respuesta más corto en un par reflejado y también es bastante capaz de leer desde ambos discos del par al mismo tiempo. . El controlador también funciona bastante bien con matrices RAID5 y RAID6 complejas (desde el punto de vista de la creación de un buen firmware); tampoco se olvidaron de las matrices degradadas al optimizar el microcódigo; Velocidad lectura lineal de matrices, aunque está lejos de ser teórico, sigue siendo significativamente mejor que el de sus competidores que hemos visto antes. Y, sin embargo, había un inconveniente: era el rendimiento inusualmente bajo de algunas matrices durante las operaciones de escritura secuencial. El controlador es especialmente malo grabando. archivos grandes, por lo que es demasiado pronto para que Adaptec se duerma en los laureles.

Otros materiales sobre este tema.


Prueba del controlador RAID SAS 3ware 9690SA-8I
Prueba del controlador RAID SAS Promise SuperTrak EX8650
Pruebas comparativas de controladores RAID Adaptec

Por extraño que parezca, hoy en día las pilas RAID son soluciones patentadas que no cumplen con los estándares. Puede eliminar todos los discos físicos con volúmenes RAID creados en ellos, por ejemplo, de un controlador Adaptec 6805 y transferirlos al controlador 8885 y los volúmenes serán visibles. Pero si intenta transferir volúmenes a un controlador de otro fabricante de esta manera, entonces no sucederá un milagro y no habrá forma de ver los datos y estos volúmenes RAID. ¿Por qué sucede esto? Porque el controlador del otro fabricante admite su propia pila, que no es compatible con la pila de Adaptec.

Cada volumen RAID se presenta al sistema operativo de la computadora como un "disco SCSI", que será visible como un objeto separado en utilidades de disco como administrador de discos. Se ve así.

Así, en el administrador de discos puedes ver 4 discos virtuales: RAID0, RAID1 y dos unidades RAID5.

Al crear volúmenes, cada nivel funciona.

Tarea a nivel de disco físico– crear un área especial en los discos donde se almacenará la información sobre los volúmenes que se están creando. Esta área se denomina área de metadatos y es un contenedor de almacenamiento complejo donde se almacena la información del servicio. Sólo el sistema operativo del controlador tiene acceso a esta área y nadie más. En la pila de Adaptec, este proceso de creación de un área de servicio se llama: inicialización y se ejecuta mediante el comando - inicializar.

Los controladores RAID que admiten el modo HBA también tienen el comando opuesto: desinicializar(Estos son controladores de las series 7 y 8). Este comando elimina por completo dicha estructura de datos del disco físico y coloca el disco en modo HBA. Es decir, para que un controlador de la serie 7 u 8 comience a funcionar como un HBA normal, basta con desinicializar todos los discos. Luego, todos serán visibles en la utilidad del sistema operativo central, como DISK MANAGER, y no se requieren otras operaciones.

Otra función conocida llamada – coerción. En la pila de Adaptec se realiza simultáneamente con la inicialización. Esta característica es un poco complicada. capacidad dura disco. El hecho es que los discos de la misma categoría en capacidad oscilan entre diferentes fabricantes Todavía tenemos diferentes capacidades. Para que un disco de un fabricante pueda sustituirse en el futuro, si es necesario, por un disco de otro fabricante, se realiza la función de coerción. El contenedor cortado simplemente se "pierde" para siempre y no se utiliza de ninguna manera.

A nivel físico, es posible implementar varias funciones de servicio: verificar el disco mediante un método destructivo o no destructivo, formatear, borrado completo datos, llenar el disco con ceros, etc.

nivel lógico necesario por dos razones:

En primer lugar, reduce significativamente la discreción de las capacidades que elige para crear volúmenes. Esto se hace mediante la capacidad de crear múltiples unidades lógicas(simplemente cortando parte de la capacidad) en uno físico o cree un disco lógico usando dos o más físicos. En este caso, las capacidades de diferentes físicos simplemente se sumarán. Primero se llenará con datos un área de un disco físico, luego otra de otro disco físico, etc. Este método de combinar discos se llama Cadena(algunas otras pilas usan la palabra Durar).

En segundo lugar, cuando se crean dichos objetos, la información sobre ellos ingresa a los metadatos y ya no están vinculados a coordenadas físicas. Después de esto, puede transferir discos de un puerto de controlador a otro, transferir volúmenes de un controlador a otro y seguirá funcionando muy bien.

Luego viene el nivel RAID.. Normalmente, las pilas modernas tienen dos subcapas en este nivel. En cada subnivel hay RAID elementales, como: cadena o tramo (esto no es realmente un RAID, simplemente "suma" capacidades de diferentes discos), RAID0, RAID1, RAID1E, RAID5, RAID6, etc.

El subnivel más bajo acepta unidades lógicas, por ejemplo, LD1, LD2, LD3, como en la figura, y "hornea" un volumen RAID5 a partir de ellas. Lo mismo ocurre con LD4, LD5, LD6. De ellos obtenemos el segundo RAID5. Los dos volúmenes RAID5 se llevan a un nivel aún superior, donde se les aplica la función RAID0. El resultado es un volumen complejo llamado RAID50 (donde 5 es el tipo de RAID utilizado en el subnivel inferior y 0 es el tipo de función RAID utilizado en el nivel superior). Lo único que falta en la definición es cuántos RAID5 (en en este caso 2) se utilizó para crear RAID50. En la pila de Adaptec, esto se denomina dispositivo de segundo nivel. Este parámetro será necesario si crea volúmenes complejos del tipo 50 o 60.

Mayoría nivel superior es necesario para proporcionar dicho objeto virtual para que el sistema operativo pueda acceder a él. Cuando se transfiere a este nivel, se ofrecen una serie de funciones de servicio. Los dos más importantes de la pila de Adaptec son la construcción y la claridad.

  • Clear escribe ceros en todo el nuevo volumen que se transfiere al sistema operativo.
  • Build “construye” un nuevo volumen. Por ejemplo, si se trata de RAID1, todo el contenido del primer contenedor se copiará al contenido del segundo. Y así sucesivamente para todos los contenedores.


La imagen muestra un contenedor virtual de tipo RAID1. Operación de construcción.

Si tiene discos nuevos de fábrica, entonces sus sectores tienen ceros escritos. Por tanto, el resultado de ambas funciones será el mismo.

Diferencia entre el modo SimpleVolume y HBA.

Estos dos modos son extremadamente similares entre sí. Ambos se pueden utilizar para crear soluciones RAID de software.

Cuando un disco funciona en modo HBA, no se crean metadatos en él. Y no hay “recorte” de la capacidad con la función de coerción. Esto puede causar un problema si necesita reemplazar la unidad con una unidad de otro fabricante. El disco se transfiere directamente al sistema operativo. En este caso, ¡la caché del controlador no funcionará con él!

En el caso de crear un volumen simple a través de la configuración del volumen, se crea un área de metadatos en el disco y la función de coerción "recorta" la capacidad. A continuación, se crea un volumen de volumen simple a través de la utilidad de configuración utilizando toda la capacidad libre del disco. Y después de eso este objeto transferido al sistema operativo central.

Hoy en día, las pilas de controladores RAID se mejoran constantemente. Adaptec, en su función MaxCache plus, instaló otro nivel en la pila, el llamado nivel tier, con subniveles. Esto hizo posible tomar un volumen RAID5 creado en unidad SSD Ah, y otro volumen, por ejemplo, RAID60, creado en unidades SATA con 7200 rpm y ensamblado a partir de ellos un volumen virtual complejo, donde los datos más necesarios se almacenaban en RAID5 y los menos necesarios en RAID60. Al mismo tiempo, se podrían tomar volúmenes de diferentes controladores. Hoy en día, esta característica no es compatible debido a la transición de dichas capacidades a los sistemas operativos de servidor. Naturalmente, la pila de controladores, como mecanismo de virtualización, no se detiene y se mejora constantemente tanto a nivel de virtualización como a nivel de funciones básicas y de servicio.

Diseño de un controlador RAID moderno.

Un controlador RAID moderno es sistema de información(simplificado - computadora), que, debido al desempeño de sus funciones principales: crear un contenedor virtual, colocar y procesar información en contenedores (esencialmente LECTURA - ESCRITURA de información) intercambia datos con otros dos tipos de sistemas de información:
1. Con sistema operativo;
2. Con unidades HDD o SSD.

Desde el punto de vista de la arquitectura interna, un controlador RAID moderno consta del siguiente conjunto de subsistemas principales:

  • chip RoC (RAIDonChip);
  • RAM;
  • Gestión de la “protección” de la memoria caché (por regla general, se trata de una placa secundaria separada, pero en las últimas implementaciones para la octava serie de controladores Adaptec, este módulo está integrado en el chip RoC);
  • El supercondensador, como fuente de energía para el módulo de protección de caché, se utiliza en caso de un corte de energía principal;
  • Memoria flash y nvSRAM (memoria que no pierde información cuando se apaga la alimentación);
  • Conectores SAS, donde cada conector físico individual se ensambla según el principio de cuatro puertos SAS en un conector físico;
  • Conector PCI-E.

Tabla - Subsistemas principales del controlador RAID.

Las funciones principales de los controladores RAID Adaptec modernos.

Soporte del modo HBA.

Ya hemos comentado anteriormente qué modelos de controlador RAID admiten el modo HBA. Es importante tener en cuenta que esto se hace de forma independiente para cada unidad. Es decir, en el controlador, si no inicializa algunos de los discos en el nivel físico, automáticamente terminarán en un programa como "administrador de discos" y estarán visibles allí y disponibles para trabajar con ellos. Puede utilizar una parte de dichos discos en modo HBA como discos individuales y utilizar la otra parte para crear RAID de software utilizando el sistema operativo. Los discos inicializados se utilizarán para crear volúmenes RAID utilizando el controlador RAID.

Volúmenes híbridos.

En últimas versiones firmware, el controlador Adaptec crea automáticamente una matriz RAID híbrida cuando crea un RAID 1/10 a partir de la misma cantidad de SSD y HDD (pero en el firmware anterior era importante que en los pares RAID1 el disco SSD fuera el "maestro" y el HDD disco el “esclavo”). Si no sabes cómo comprobarlo contacta con el servicio técnico. Soporte Adaptec. El controlador Adaptec graba simultáneamente en HDD y SSD. ¡En el modo de volumen híbrido, la lectura se produce solo desde el SSD! (para un volumen de dos unidades de disco duro Cuando se excede un cierto umbral de operaciones de E/S, la lectura se produce desde dos discos. Esta es la principal diferencia modo híbrido RAID1/10). El resultado es una matriz confiable con un excelente rendimiento de lectura. Lectura como una única unidad SSD. Esto es varios órdenes de magnitud mayor que el de un disco duro. La función viene de serie con todos los controladores Adaptec Series 2, 5,6, 7, 8.

Soporte para tipos de volúmenes que reemplazan a RAID5.

Espero que tenga una buena idea de un contenedor RAID5; esta es una solución bastante clásica.

El contenedor de almacenamiento de información creado por el controlador RAID se muestra en rojo. Este es un contenedor tipo RAID5. El volumen RAID5 en sí consta de una gran cantidad de contenedores virtuales de este tipo, apilados en un "paquete". Un contenedor RAID5 consta de una colección de sectores de discos físicos individuales. La peculiaridad de un contenedor RAID5 es que puede "sobrevivir" a problemas en varios contenedores de disco duro que lo componen, es decir, los sectores del disco duro que forman parte de un contenedor RAID5 pierden su información, pero el contenedor RAID5 en sí pierde almacenamiento. Esto sucede hasta cierto punto. Con una cierta cantidad de sectores "malos", el contenedor RAID5 en sí ya no podrá garantizar el 100% de almacenamiento de información. Debido a la transición de la tecnología SCSI a la tecnología SAS, la propuesta calidad basica El almacenamiento de información en un contenedor RAID5 se ha deteriorado enormemente, literalmente en varios órdenes de magnitud.

Esto sucedió por varias razones objetivas:
1. Por el apoyo unidades SATA, especialmente en la clase de escritorio, la calidad del almacenamiento de información en un contenedor tipo "sector de disco" disminuyó notablemente (los controladores SCSI solo admitían discos SCSI de alta calidad);
2. La cantidad de discos en el controlador ha aumentado muchas veces (controlador SCSI de 2 canales: máximo 26 discos, teniendo en cuenta el rendimiento de 8-10 (4-5 por canal));
3. La capacidad del disco ha aumentado significativamente. Esto significa que un volumen RAID 5 puede acomodar muchos más contenedores RAID5 (capacidad máxima unidades SCSI 400 GB, capacidad máxima moderno SATA duro disco – 8 TB).

Todo esto aumenta la probabilidad de que ocurran problemas en un solo contenedor RAID5, lo que reduce significativamente la probabilidad de almacenar información en un volumen RAID5. Por este motivo, se han agregado soluciones a las pilas de controladores RAID modernas que eliminan el uso de RAID5. Estos son RAID1E, RAID5EE y RAID6.

Anteriormente, la única alternativa a RAID5 era RAID10. Por supuesto, se mantiene el soporte para RAID 10.

Opciones de reemplazo de RAID5:

Mala raya

Anteriormente, si incluso un contenedor de controlador (tira) perdía información o no podía garantizar su seguridad, esto conducía a una situación en la que todo el volumen se transfería a modo fuera de línea desde el lado del controlador RAID (detener el acceso significa literalmente que el controlador no puede garantizar el 100% de integridad de los datos del usuario en el volumen).

Un controlador moderno “maneja” esta situación de manera diferente:
1. El acceso a eso no cesa;
2. Se coloca un marcador especial de "franja defectuosa" en el volumen, lo que significa que hay contenedores especiales en el volumen RAID que han perdido información;
3. Dichos “contenedores dañados” se informan al sistema operativo para que pueda evaluar posibles medidas para evitar la pérdida de información o restaurarla.

Marcador mala raya no se puede eliminar del volumen. Sólo puede eliminar dicho volumen y crearlo nuevamente. La aparición de un volumen con la bandera de “franja defectuosa” indica errores o problemas GRAVES en la etapa de diseño del sistema de almacenamiento o en la etapa de su operación. Como regla general, detrás de esta situación se esconde una grave incompetencia del diseñador o administrador del sistema.

La principal fuente de este tipo de problema es un RAID5 diseñado incorrectamente.

Algunas implementaciones de RAID 5 (por ejemplo, RAID5 en unidades de escritorio) están prohibidas para volúmenes que contienen datos de usuario. Requiere al menos RAID5 + Hot Spare, lo que no tiene sentido con RAID6. Resulta que donde era necesario crear RAID6, se creó RAID5, lo que después de varios años de funcionamiento llevó a la aparición del marcador BAD STRIPE.

Almacenamiento en caché SSD

La función de almacenamiento en caché SSD es una de las funciones más populares para optimizar el rendimiento de los volúmenes RAID de sistemas de almacenamiento potentes con una gran cantidad de usuarios sin aumentar significativamente el costo, la cantidad de unidades de solución, sin perder capacidad del sistema de almacenamiento y garantizando un consumo de energía óptimo.

Para utilizar el almacenamiento en caché de escritura SSD, debe asegurarse de que se cumplan dos condiciones:
1. La aplicación funciona en modo “lectura aleatoria”;
2. Las solicitudes de datos son de naturaleza desigual: hay contenedores de nivel RAID a los que se accede con más frecuencia para leer datos de ellos, y otros a los que se accede con menos frecuencia.

Cabe señalar que lo que más usuarios sistema, más probable será que las solicitudes a contenedores individuales tomen la forma de una distribución estadística estándar. Con base en el parámetro “número de solicitudes por unidad de tiempo”, podemos distinguir entre “datos calientes” (el número de accesos a ellos será mayor que el parámetro especificado) y “datos fríos” (el número de accesos a ellos será mayor que el parámetro especificado). ser menor que el parámetro especificado).

operación SSD La caché de lectura consiste en copiar "datos activos" en unidades SSD y leer más desde la SSD, lo que acelera significativamente el proceso. Dado que se trata de una copia, el caché de lectura tiene protección natural si la unidad SSD que forma Área SSD el caché falla, esto sólo conduce a una pérdida de rendimiento, pero no a la pérdida de datos.

Configuraciones básicas de la función de almacenamiento en caché SSD para controladores 7Q, 8Q:
1. En primer lugar, asegúrese de tener "datos activos" y de qué tamaño. La mejor manera de hacerlo es experimentalmente colocando un disco SSD suficientemente grande en el área de caché y configurándolo en modo Volumen simple. Las empresas integradoras pueden hacer este trabajo por usted. Después de aproximadamente una semana, podrá consultar las estadísticas de almacenamiento en caché del SSD a través de la función de administración. Mostrará si tiene "datos activos" y cuánto espacio ocupa.
2. Es recomendable agregar entre un 10% y un 50% de capacidad a este volumen y, en función de estos datos, configurar su esquema de almacenamiento en caché en caso de que el volumen de "datos calientes" aumente en el futuro, si existe tal tendencia.

La configuración le permite "cortar" la capacidad requerida de la capacidad de sus unidades SSD, llevarla a un volumen RAID del tipo deseado y la capacidad restante se puede transferir a un volumen RAID normal.

A continuación, debes evaluar si tiene sentido utilizar una caché de escritura SSD. Como regla general, las aplicaciones de Internet funcionan para lectura. La caché de escritura se utiliza principalmente como complemento de la caché de lectura si la aplicación también utiliza la escritura además de la lectura. Y en el caso de utilizar una caché de escritura, es necesario garantizar la protección de la caché. Si algo le sucede a la región de caché, los datos colocados allí cuando se almacenó en caché la entrada se perderán. Para protección, basta con utilizar un volumen RAID que proporcione redundancia de disco, por ejemplo, RAID1.

Modos posibles Configuraciones SSDárea de caché.

Para volúmenes individuales en el controlador, puede habilitar o deshabilitar de forma independiente la caché SSD para lectura y escritura, según las necesidades y los tipos de aplicaciones que trabajan con cada volumen.

Soporte UEFI.

Todos los controladores y HBA de la línea actual de productos Adaptec admiten el modo BIOS de la placa base uEFI. La transición de MBR a uEFI hizo posible, por ejemplo, crear volúmenes de sistema y de arranque superiores a 2 TB, lo que era imposible en placas con BIOS MBR (tenga en cuenta que todos los productos Adaptec admiten volúmenes > 2 TB; este problema no existe en la parte de controladores y HBA). Hay muchos otros beneficios de usar el modo uEFI. Por ejemplo, cuando se admiten discos con un tamaño de sector 4K. Todos los productos Adaptec de la línea actual admiten unidades 4K, excepto la sexta serie de controladores.

Es importante recordar que si la placa base usa el modo MBR, entonces la utilidad de configuración del controlador se llama mediante Ctrl + A.

en la foto utilidad estándar Configuración de Adaptec, llamada a través de la combinación de teclas Cntrl + A.

En el caso del modo uEFI, el controlador y el configurador HBA están integrados en la BIOS placa madre. Esta utilidad se puede encontrar fácilmente mediante líneas que contienen la palabra "Adaptec" o "PMC". Y, como puede ver en el ejemplo siguiente, la utilidad uEFI tiene una funcionalidad más avanzada que la utilidad llamada mediante Cntrl + A.

Funciones de repuesto en caliente.
Un disco Hot Spare actúa como un elemento pasivo de un volumen RAID y se "lleva" al volumen RAID si algo le sucede a uno de los discos del volumen y ya no está disponible para realizar su trabajo. HOT SPARE es un disco que se instala en el controlador, se activa y se asigna a uno o más volúmenes.

Respecto a la última parte de la definición HOT SPARE, puedes crear 3 tipos de discos:

Los discos Hot Spare se utilizan en la pila de Adaptec para la “reparación” manual de volúmenes en los que un disco ha fallado por diversos motivos. Por ejemplo, su volumen RAID5 perdió un disco y entró en el estado "degradado". Insertas el nuevo disco en lugar del antiguo o en cualquier otra ranura libre, presionas la función de volver a escanear y ahora ves el nuevo disco al nivel de los discos físicos de la pila. A continuación, declarelo como HOT SPARE (sin importar el tipo, por ejemplo, Global Hot Spare) y espere a que este disco esté 100 % “integrado” en el volumen. El volumen pasa al estado Óptimo. Después de esto, seleccione el comando: eliminar repuesto dinámico. Este comando elimina el estado HOT SPARE de este disco y se convierte en miembro de pleno derecho de este volumen RAID.

Función de gestión de energía.

Los volúmenes RAID funcionan de manera diferente. Por ejemplo, los volúmenes creados para la copia de seguridad de datos se pueden utilizar para mover datos, por ejemplo, dos o tres días al mes. Surge la pregunta: ¿qué tan bueno es suministrar energía a los discos duros y mantenerlos girando si prácticamente todo el tiempo restante no se utilizan?

La función de administración de energía aborda este problema. Su filosofía es que cuando los discos no están en uso, se pueden ralentizar (si los discos admiten esta función) y luego detenerlos por completo y mantenerlos apagados hasta que se necesiten. La configuración de esta función es extremadamente sencilla.

En primer lugar, se configura en el controlador todo el tiempo por día de la semana cuando esta función está activada y cuando no. Este entorno está ligado al trabajo de una empresa típica. Se establecen los parámetros para poner en funcionamiento los discos internos y externos: en pares, tres, cuatro, etc., para distribuir la carga en las fuentes de alimentación. Además, se configuran tres valores de temporizador. Después del primero, si no hay operaciones de E/S en los discos de este volumen, estos discos pasarán al estado de "espera", es decir, reducirá su facturación en un 50%. No todos los discos admiten este modo; si no es compatible, no le pasará nada al disco. Después de que expire el segundo temporizador, los discos se detendrán por completo y entrarán en el estado " apagado" El tercer temporizador se utiliza para comprobar periódicamente los discos que han estado apagados durante mucho tiempo. El controlador enciende los discos, realiza una verificación no destructiva de ellos y, si todo está bien, los vuelve a poner en el estado "apagado".

Después de estas configuraciones, puede activar el esquema de administración de energía para cada volumen donde sea útil. Dichos volúmenes se marcarán en verde en el sistema de gestión. Beneficios máximos esta función proporciona cuando se utiliza en centros de datos, permitiendo no sólo un ahorro energético directo al parar los discos, sino también un ahorro auxiliar al reducir la velocidad de los ventiladores que soplan sobre los discos cuando estos últimos están apagados.

Administrar los sistemas de almacenamiento Adaptec.

Las utilidades de administración incluidas en el paquete Max View Storage Manager (MSM) se basan en los estándares más avanzados y aprovechan las últimas tendencias para mejorar los principios de administración y la eficiencia. Por lo tanto, podemos utilizar fácilmente Adaptec Max View Storage Manager como modelo base para observar las principales funciones y técnicas en el campo de la gestión del almacenamiento. El principal elemento de control es un controlador RAID, que puede intercambiar información de servicio con discos, expansores y cestas y, por tanto, soportar funciones de gestión para todo el subsistema de almacenamiento en su conjunto.

Características clave de los sistemas de gestión de almacenamiento modernos:

  • Como aplicación cliente usado WEB estándar navegador.
  • Proveedor CIM para trabajar en entornos virtuales. El proveedor CIM del paquete MSM le permite control total Controlador RAID desde debajo de cualquier entorno virtual. Por ejemplo, cuando se utiliza vmware.
  • Usando utilidades CLI (interfaz de línea de comando). En el paquete MSM, además de utilidad gráfica gestión, cuya parte cliente es un navegador WEB, hay una utilidad CLI: ARCCONF.EXE. Se puede obtener una lista de comandos utilizando la documentación del sitio web de Adaptec. Usando la CLI puedes crear varios guiones(mini programas) que pueden ser utilizados por los integradores para automatizar la producción, la configuración, cambiar el firmware, etc. y en empresas que utilizan Controladores RAID para el sondeo automático de sistemas de almacenamiento para identificar situaciones anormales.
  • La capacidad de gestionar toda la infraestructura desde una aplicación cliente. Al utilizar MSM en la ventana Enterprise View, puede “hacerse cargo” de la administración de todos los servidores con uno o más controladores RAID instalados en ellos. Para ello, puede indicar directamente la dirección IP de dichos sistemas o utilizar función automática Descubrimiento.

Alto nivel detallado, visualización y anidamiento de objetos de control. El administrador puede ver que todo el segmento de la red se ha puesto rojo, lo que significa que hay una falla. Si expande el ícono del segmento de red, todos los servidores serán visibles. El servidor problemático estará marcado en rojo. Si hace clic en este servidor, verá los controladores RAID instalados en este sistema. El color rojo de uno de ellos significa algún tipo de problema. Si profundiza más, verá los volúmenes creados en este controlador y el volumen problemático. Y así sucesivamente, hasta llegar al disco físico problemático. Ahora el administrador sabe exactamente qué sucedió, qué consecuencias tuvo y qué disco debe reemplazarse.
Alto nivel de seguridad de los sistemas de control utilizando protocolos de red estándar. Obviamente, es necesario proteger los mecanismos de gestión del almacenamiento. Después de todo, en caso de acceso no autorizado o canal abierto control, los datos del usuario pueden ser destruidos sin posibilidad de recuperación. Para ello, MSM utiliza la base de datos de usuarios y contraseñas del propio sistema operativo. Además, en el canal entre el navegador y el servidor de gestión se utiliza el cifrado del tráfico mediante el protocolo HTTPS. En otros componentes del sistema de control, las cuestiones de seguridad también se abordan al más alto nivel.
Posibilidad de enviar mensajes importantes desde el sistema de almacenamiento al administrador. Para no “encadenar” para siempre la mirada del administrador a la pantalla de MS en un navegador WEB, el sistema de control se puede configurar para enviar mensajes por correo electrónico. MSM tiene la capacidad de enviar todo tipo de mensajes, incluidos mensajes de prueba. Los mensajes más importantes son los de Advertencia y Error, que están directamente relacionados con la transición de los volúmenes RAID a los estados Degradado y Fallido. Estos mensajes a través de aplicaciones de correo electrónico se pueden transferir fácilmente al teléfono móvil del administrador.

  • subsistema de disco
  • hba
  • Agregar etiquetas

    Por extraño que parezca, hoy en día las pilas RAID son soluciones patentadas que no cumplen con los estándares. Puede eliminar todos los discos físicos con volúmenes RAID creados en ellos, por ejemplo, de un controlador Adaptec 6805 y transferirlos al controlador 8885 y los volúmenes serán visibles. Pero si intenta transferir volúmenes a un controlador de otro fabricante de esta manera, entonces no sucederá un milagro y no habrá forma de ver los datos y estos volúmenes RAID. ¿Por qué sucede esto? Porque el controlador del otro fabricante admite su propia pila, que no es compatible con la pila de Adaptec.

    Cada volumen RAID se presenta al sistema operativo de la computadora como un "disco SCSI", que será visible como un objeto separado en utilidades de disco como el administrador de discos.

    Así, en el administrador de discos puedes ver 4 discos virtuales: RAID0, RAID1 y dos discos RAID5.

    Al crear volúmenes, cada nivel funciona.

    Tarea a nivel de disco físico– crear un área especial en los discos donde se almacenará la información sobre los volúmenes que se están creando. Esta área se denomina área de metadatos y es un contenedor de almacenamiento complejo donde se almacena la información del servicio. Sólo el sistema operativo del controlador tiene acceso a esta área y nadie más. En la pila de Adaptec, este proceso de creación de un área de servicio se llama: inicialización y se ejecuta mediante el comando - inicializar.

    Los controladores RAID que admiten el modo HBA también tienen el comando opuesto: desinicializar(Estos son controladores de las series 7 y 8). Este comando elimina por completo dicha estructura de datos del disco físico y coloca el disco en modo HBA. Es decir, para que un controlador de la serie 7 u 8 comience a funcionar como un HBA normal, basta con desinicializar todos los discos. Luego, todos serán visibles en la utilidad del sistema operativo central, como DISK MANAGER, y no se requieren otras operaciones.

    Otra función conocida llamada – coerción. En la pila de Adaptec se realiza simultáneamente con la inicialización. Esta función reduce ligeramente la capacidad del disco duro. El hecho es que los discos de la misma categoría de capacidad de diferentes fabricantes siguen teniendo capacidades diferentes. Para que un disco de un fabricante pueda sustituirse en el futuro, si es necesario, por un disco de otro fabricante, se realiza la función de coerción. El contenedor cortado simplemente se "pierde" para siempre y no se utiliza de ninguna manera.

    A nivel físico, es posible implementar varias funciones de servicio: verificar el disco mediante un método destructivo o no destructivo, formatear, borrar datos por completo, llenar el disco con ceros, etc.

    nivel lógico necesario por dos razones:

    En primer lugar, reduce significativamente la discreción de las capacidades que elige para crear volúmenes. Esto se hace mediante la capacidad de crear múltiples unidades lógicas (simplemente cortando parte de la capacidad) en una física, o crear una unidad lógica usando dos o más físicas. En este caso, las capacidades de diferentes físicos simplemente se sumarán. Primero se llenará con datos un área de un disco físico, luego otra de otro disco físico, etc. Este método de combinar discos se llama Cadena(algunas otras pilas usan la palabra Durar).

    En segundo lugar, cuando se crean dichos objetos, la información sobre ellos ingresa a los metadatos y ya no están vinculados a coordenadas físicas. Después de esto, puede transferir discos de un puerto de controlador a otro, transferir volúmenes de un controlador a otro y seguirá funcionando muy bien.

    Luego viene el nivel RAID.. Normalmente, las pilas modernas tienen dos subcapas en este nivel. En cada subnivel hay RAID elementales, como: cadena o tramo (esto no es realmente un RAID, simplemente "suma" capacidades de diferentes discos), RAID0, RAID1, RAID1E, RAID5, RAID6, etc.

    El subnivel más bajo acepta unidades lógicas, por ejemplo, LD1, LD2, LD3, como en la figura, y "hornea" un volumen RAID5 a partir de ellas. Lo mismo ocurre con LD4, LD5, LD6. De ellos obtenemos el segundo RAID5. Los dos volúmenes RAID5 se llevan a un nivel aún superior, donde se les aplica la función RAID0. El resultado es un volumen complejo llamado RAID50 (donde 5 es el tipo de RAID utilizado en el subnivel inferior y 0 es el tipo de función RAID utilizado en el nivel superior). Lo único que falta en la definición es cuántos RAID5 (en este caso 2) se utilizaron para crear el RAID50. En la pila de Adaptec, esto se denomina dispositivo de segundo nivel. Este parámetro será necesario si crea volúmenes complejos del tipo 50 o 60.

    El nivel superior es necesario para proporcionar dicho objeto virtual al que pueda acceder el sistema operativo. Cuando se transfiere a este nivel, se ofrecen una serie de funciones de servicio. Los dos más importantes de la pila de Adaptec son la construcción y la claridad.

    • Clear escribe ceros en todo el nuevo volumen que se transfiere al sistema operativo.
    • Build “construye” un nuevo volumen. Por ejemplo, si se trata de RAID1, todo el contenido del primer contenedor se copiará al contenido del segundo. Y así sucesivamente para todos los contenedores.


    La imagen muestra un contenedor virtual de tipo RAID1. Operación de construcción.

    Si tiene discos nuevos de fábrica, entonces sus sectores tienen ceros escritos. Por tanto, el resultado de ambas funciones será el mismo.

    Diferencia entre el modo SimpleVolume y HBA.

    Estos dos modos son extremadamente similares entre sí. Ambos se pueden utilizar para crear soluciones RAID de software.

    Cuando un disco funciona en modo HBA, no se crean metadatos en él. Y no hay “recorte” de la capacidad con la función de coerción. Esto puede causar un problema si necesita reemplazar la unidad con una unidad de otro fabricante. El disco se transfiere directamente al sistema operativo. En este caso, ¡la caché del controlador no funcionará con él!

    En el caso de crear un volumen simple a través de la configuración del volumen, se crea un área de metadatos en el disco y la función de coerción "recorta" la capacidad. A continuación, se crea un volumen de volumen simple a través de la utilidad de configuración utilizando toda la capacidad libre del disco. Y después de eso, este objeto se transfiere al sistema operativo central.

    Hoy en día, las pilas de controladores RAID se mejoran constantemente. Adaptec, en su función MaxCache plus, instaló otro nivel en la pila, el llamado nivel tier, con subniveles. Esto hizo posible tomar un volumen RAID5 creado en unidades SSD y otro volumen, por ejemplo, RAID60, creado en unidades SATA con 7200 rpm y ensamblar a partir de ellos un volumen virtual complejo, donde se almacenaban los datos más necesarios en RAID5, y los datos menos necesarios en RAID60. Al mismo tiempo, se podrían tomar volúmenes de diferentes controladores. Hoy en día, esta característica no es compatible debido a la transición de dichas capacidades a los sistemas operativos de servidor. Naturalmente, la pila de controladores, como mecanismo de virtualización, no se detiene y se mejora constantemente tanto a nivel de virtualización como a nivel de funciones básicas y de servicio.

    Diseño de un controlador RAID moderno.

    Un controlador RAID moderno es un sistema de información (simplemente una computadora) que, al realizar sus funciones principales: crear un contenedor virtual, colocar y procesar información en contenedores (esencialmente LECTURA – ESCRITURA de información) intercambia datos con otros dos tipos de información. sistemas:
    1. Con sistema operativo;
    2. Con unidades HDD o SSD.

    Desde el punto de vista de la arquitectura interna, un controlador RAID moderno consta del siguiente conjunto de subsistemas principales:

    • chip RoC (RAIDonChip);
    • RAM;
    • Gestión de la “protección” de la memoria caché (por regla general, se trata de una placa secundaria separada, pero en las últimas implementaciones para la octava serie de controladores Adaptec, este módulo está integrado en el chip RoC);
    • El supercondensador, como fuente de energía para el módulo de protección de caché, se utiliza en caso de un corte de energía principal;
    • Memoria flash y nvSRAM (memoria que no pierde información cuando se apaga la alimentación);
    • Conectores SAS, donde cada conector físico individual se ensambla según el principio de cuatro puertos SAS en un conector físico;
    • Conector PCI-E.

    Tabla - Subsistemas principales del controlador RAID.

    Las funciones principales de los controladores RAID Adaptec modernos.

    Soporte del modo HBA.

    Ya hemos comentado anteriormente qué modelos de controlador RAID admiten el modo HBA. Es importante tener en cuenta que esto se hace de forma independiente para cada unidad. Es decir, en el controlador, si no inicializa algunos de los discos en el nivel físico, automáticamente terminarán en un programa como "administrador de discos" y estarán visibles allí y disponibles para trabajar con ellos. Puede utilizar una parte de dichos discos en modo HBA como discos individuales y utilizar la otra parte para crear RAID de software utilizando el sistema operativo. Los discos inicializados se utilizarán para crear volúmenes RAID utilizando el controlador RAID.

    Volúmenes híbridos.

    En las últimas versiones de firmware, el controlador Adaptec crea automáticamente una matriz RAID híbrida cuando crea un RAID 1/10 a partir de la misma cantidad de SSD y HDD (pero en el firmware anterior era importante que en los pares RAID1 la unidad SSD fuera la unidad "maestra"). " y la unidad HDD el "esclavo" "). Si no sabes cómo comprobarlo contacta con el servicio técnico. Soporte Adaptec. El controlador Adaptec graba simultáneamente en HDD y SSD. ¡En el modo de volumen híbrido, la lectura se produce solo desde el SSD! (para un volumen de dos discos HDD, cuando se excede un cierto umbral de operaciones de E/S, la lectura se produce desde dos discos. Ésta es la principal diferencia entre el modo híbrido RAID1/10). El resultado es una matriz confiable con un excelente rendimiento de lectura. Lectura como una única unidad SSD. Esto es varios órdenes de magnitud mayor que el de un disco duro. La función viene de serie con todos los controladores Adaptec Series 2, 5,6, 7, 8.

    Soporte para tipos de volúmenes que reemplazan a RAID5.

    Espero que tenga una buena idea de un contenedor RAID5; esta es una solución bastante clásica.

    El contenedor de almacenamiento de información creado por el controlador RAID se muestra en rojo. Este es un contenedor tipo RAID5. El volumen RAID5 en sí consta de una gran cantidad de contenedores virtuales de este tipo, apilados en un "paquete". Un contenedor RAID5 consta de una colección de sectores de discos físicos individuales. La peculiaridad de un contenedor RAID5 es que puede "sobrevivir" a problemas en varios contenedores de disco duro que lo componen, es decir, los sectores del disco duro que forman parte de un contenedor RAID5 pierden su información, pero el contenedor RAID5 en sí pierde almacenamiento. Esto sucede hasta cierto punto. Con una cierta cantidad de sectores "malos", el contenedor RAID5 en sí ya no podrá garantizar el 100% de almacenamiento de información. Debido a la transición de la tecnología SCSI a la tecnología SAS, la calidad básica propuesta del almacenamiento de información con un contenedor RAID5 se ha deteriorado enormemente, literalmente en varios órdenes de magnitud.

    Esto sucedió por varias razones objetivas:
    1. Debido a la compatibilidad con unidades SATA, especialmente las de escritorio, la calidad del almacenamiento de información en un contenedor tipo "sector de disco" disminuyó notablemente (los controladores SCSI solo admitían unidades SCSI de alta calidad);
    2. La cantidad de discos en el controlador ha aumentado muchas veces (controlador SCSI de 2 canales: máximo 26 discos, teniendo en cuenta el rendimiento de 8-10 (4-5 por canal));
    3. La capacidad del disco ha aumentado significativamente. Esto significa que un volumen RAID 5 puede contener muchos más contenedores RAID5 (la capacidad máxima del disco SCSI es de 400 GB, la capacidad máxima de un disco duro SATA moderno es de 8 TB).

    Todo esto aumenta la probabilidad de que ocurran problemas en un solo contenedor RAID5, lo que reduce significativamente la probabilidad de almacenar información en un volumen RAID5. Por este motivo, se han agregado soluciones a las pilas de controladores RAID modernas que eliminan el uso de RAID5. Estos son RAID1E, RAID5EE y RAID6.

    Anteriormente, la única alternativa a RAID5 era RAID10. Por supuesto, se mantiene el soporte para RAID 10.

    Opciones de reemplazo de RAID5:

    Mala raya

    Anteriormente, si incluso un contenedor de controlador (tira) perdía información o no podía garantizar su seguridad, esto llevaba a una situación en la que el controlador RAID cambiaba todo el volumen al modo fuera de línea (detener el acceso significaba literalmente que el controlador no podía garantizar el 100% integridad de los datos del usuario en el volumen).

    Un controlador moderno “maneja” esta situación de manera diferente:
    1. El acceso a eso no cesa;
    2. Se coloca un marcador especial de "franja defectuosa" en el volumen, lo que significa que hay contenedores especiales en el volumen RAID que han perdido información;
    3. Dichos “contenedores dañados” se informan al sistema operativo para que pueda evaluar posibles medidas para evitar la pérdida de información o restaurarla.

    Marcador mala raya no se puede eliminar del volumen. Sólo puede eliminar dicho volumen y crearlo nuevamente. La aparición de un volumen con la bandera de “franja defectuosa” indica errores o problemas GRAVES en la etapa de diseño del sistema de almacenamiento o en la etapa de su operación. Como regla general, detrás de esta situación se esconde una grave incompetencia del diseñador o administrador del sistema.

    La principal fuente de este tipo de problema es un RAID5 diseñado incorrectamente.

    Algunas implementaciones de RAID 5 (por ejemplo, RAID5 en unidades de escritorio) están prohibidas para volúmenes que contienen datos de usuario. Requiere al menos RAID5 + Hot Spare, lo que no tiene sentido con RAID6. Resulta que donde era necesario crear RAID6, se creó RAID5, lo que después de varios años de funcionamiento llevó a la aparición del marcador BAD STRIPE.

    Almacenamiento en caché SSD

    La función de almacenamiento en caché SSD es una de las funciones más populares para optimizar el rendimiento de los volúmenes RAID de sistemas de almacenamiento potentes con una gran cantidad de usuarios sin aumentar significativamente el costo, la cantidad de unidades de solución, sin perder capacidad del sistema de almacenamiento y garantizando un consumo de energía óptimo.

    Para utilizar el almacenamiento en caché de escritura SSD, debe asegurarse de que se cumplan dos condiciones:
    1. La aplicación funciona en modo “lectura aleatoria”;
    2. Las solicitudes de datos son de naturaleza desigual: hay contenedores de nivel RAID a los que se accede con más frecuencia para leer datos de ellos, y otros a los que se accede con menos frecuencia.

    Cabe señalar que cuantos más usuarios tenga un sistema, más probable será que las solicitudes a contenedores individuales adopten la forma de una distribución estadística estándar. Con base en el parámetro “número de solicitudes por unidad de tiempo”, podemos distinguir entre “datos calientes” (el número de accesos a ellos será mayor que el parámetro especificado) y “datos fríos” (el número de accesos a ellos será mayor que el parámetro especificado). ser menor que el parámetro especificado).

    El trabajo de la caché de lectura de SSD es copiar "datos activos" en unidades SSD y luego leerlos desde la SSD, lo que acelera significativamente el proceso. Dado que se trata de una copia, la caché de lectura tiene una protección natural; si falla el disco SSD que forma el área de caché SSD, esto sólo provoca una pérdida de rendimiento, pero no de datos.

    Configuraciones básicas de la función de almacenamiento en caché SSD para controladores 7Q, 8Q:
    1. En primer lugar, asegúrese de tener "datos activos" y de qué tamaño. La mejor manera de hacerlo es experimentalmente colocando un disco SSD suficientemente grande en el área de caché y configurándolo en modo Volumen simple. Las empresas integradoras pueden hacer este trabajo por usted. Después de aproximadamente una semana, podrá consultar las estadísticas de almacenamiento en caché del SSD a través de la función de administración. Mostrará si tiene "datos activos" y cuánto espacio ocupa.
    2. Es recomendable agregar entre un 10% y un 50% de capacidad a este volumen y, en función de estos datos, configurar su esquema de almacenamiento en caché en caso de que el volumen de "datos calientes" aumente en el futuro, si existe tal tendencia.

    La configuración le permite "cortar" la capacidad requerida de la capacidad de sus unidades SSD, llevarla a un volumen RAID del tipo deseado y la capacidad restante se puede transferir a un volumen RAID normal.

    A continuación, debes evaluar si tiene sentido utilizar una caché de escritura SSD. Como regla general, las aplicaciones de Internet funcionan para lectura. La caché de escritura se utiliza principalmente como complemento de la caché de lectura si la aplicación también utiliza la escritura además de la lectura. Y en el caso de utilizar una caché de escritura, es necesario garantizar la protección de la caché. Si algo le sucede a la región de caché, los datos colocados allí cuando se almacenó en caché la entrada se perderán. Para protección, basta con utilizar un volumen RAID que proporcione redundancia de disco, por ejemplo, RAID1.

    Posibles modos de configuración para el área de caché SSD.

    Para volúmenes individuales en el controlador, puede habilitar o deshabilitar de forma independiente la caché SSD para lectura y escritura, según las necesidades y los tipos de aplicaciones que trabajan con cada volumen.

    Soporte UEFI.

    Todos los controladores y HBA de la línea actual de productos Adaptec admiten el modo BIOS de la placa base uEFI. La transición de MBR a uEFI hizo posible, por ejemplo, crear volúmenes de sistema y de arranque superiores a 2 TB, lo que era imposible en placas con BIOS MBR (tenga en cuenta que todos los productos Adaptec admiten volúmenes > 2 TB; este problema no existe en la parte de controladores y HBA). Hay muchos otros beneficios de usar el modo uEFI. Por ejemplo, cuando se admiten discos con un tamaño de sector 4K. Todos los productos Adaptec de la línea actual admiten unidades 4K, excepto la sexta serie de controladores.

    Es importante recordar que si la placa base usa el modo MBR, entonces la utilidad de configuración del controlador se llama mediante Ctrl + A.

    La figura muestra la utilidad de configuración estándar de Adaptec, llamada mediante la combinación de teclas Ctrl + A.

    En el caso del modo uEFI, el controlador y el configurador HBA están integrados en el BIOS de la placa base. Esta utilidad se puede encontrar fácilmente mediante líneas que contienen la palabra "Adaptec" o "PMC". Y, como puede ver en el ejemplo siguiente, la utilidad uEFI tiene una funcionalidad más avanzada que la utilidad llamada mediante Cntrl + A.

    Funciones de repuesto en caliente.
    Un disco Hot Spare actúa como un elemento pasivo de un volumen RAID y se "lleva" al volumen RAID si algo le sucede a uno de los discos del volumen y ya no está disponible para realizar su trabajo. HOT SPARE es un disco que se instala en el controlador, se activa y se asigna a uno o más volúmenes.

    Respecto a la última parte de la definición HOT SPARE, puedes crear 3 tipos de discos:

    Los discos Hot Spare se utilizan en la pila de Adaptec para la “reparación” manual de volúmenes en los que un disco ha fallado por diversos motivos. Por ejemplo, su volumen RAID5 perdió un disco y entró en el estado "degradado". Insertas el nuevo disco en lugar del antiguo o en cualquier otra ranura libre, presionas la función de volver a escanear y ahora ves el nuevo disco al nivel de los discos físicos de la pila. A continuación, declarelo como HOT SPARE (sin importar el tipo, por ejemplo, Global Hot Spare) y espere a que este disco esté 100 % “integrado” en el volumen. El volumen pasa al estado Óptimo. Después de esto, seleccione el comando: eliminar repuesto dinámico. Este comando elimina el estado HOT SPARE de este disco y se convierte en miembro de pleno derecho de este volumen RAID.

    Función de gestión de energía.

    Los volúmenes RAID funcionan de manera diferente. Por ejemplo, los volúmenes creados para la copia de seguridad de datos se pueden utilizar para mover datos, por ejemplo, dos o tres días al mes. Surge la pregunta: ¿qué tan bueno es suministrar energía a los discos duros y mantenerlos girando si prácticamente todo el tiempo restante no se utilizan?

    La función de administración de energía aborda este problema. Su filosofía es que cuando los discos no están en uso, se pueden ralentizar (si los discos admiten esta función) y luego detenerlos por completo y mantenerlos apagados hasta que se necesiten. La configuración de esta función es extremadamente sencilla.

    En primer lugar, se configura en el controlador todo el tiempo por día de la semana cuando esta función está activada y cuando no. Este entorno está ligado al trabajo de una empresa típica. Se establecen los parámetros para poner en funcionamiento los discos internos y externos: en pares, tres, cuatro, etc., para distribuir la carga en las fuentes de alimentación. Además, se configuran tres valores de temporizador. Después del primero, si no hay operaciones de E/S en los discos de este volumen, estos discos pasarán al estado de "espera", es decir, reducirá su facturación en un 50%. No todos los discos admiten este modo; si no es compatible, no le pasará nada al disco. Después de que expire el segundo temporizador, las unidades se detendrán por completo y pasarán al estado de "apagado". El tercer temporizador se utiliza para comprobar periódicamente los discos que han estado apagados durante mucho tiempo. El controlador enciende los discos, realiza una verificación no destructiva de ellos y, si todo está bien, los vuelve a poner en el estado "apagado".

    Después de estas configuraciones, puede activar el esquema de administración de energía para cada volumen donde sea útil. Dichos volúmenes se marcarán en verde en el sistema de gestión. Esta característica proporciona máximos beneficios cuando se utiliza en centros de datos, permitiendo no sólo un ahorro de energía directo al detener los discos, sino también un ahorro auxiliar al reducir la velocidad de los ventiladores que soplan sobre los discos cuando estos últimos están apagados.

    Administrar los sistemas de almacenamiento Adaptec.

    Las utilidades de administración incluidas en el paquete Max View Storage Manager (MSM) se basan en los estándares más avanzados y aprovechan las últimas tendencias para mejorar los principios de administración y la eficiencia. Por lo tanto, podemos utilizar fácilmente Adaptec Max View Storage Manager como modelo base para observar las principales funciones y técnicas en el campo de la gestión del almacenamiento. El principal elemento de control es un controlador RAID, que puede intercambiar información de servicio con discos, expansores y cestas y, por tanto, soportar funciones de gestión para todo el subsistema de almacenamiento en su conjunto.

    Características clave de los sistemas de gestión de almacenamiento modernos:

    • Se utiliza un navegador WEB estándar como aplicación cliente.
    • Proveedor CIM para trabajar en entornos virtuales. El proveedor CIM del paquete MSM permite la gestión completa del controlador RAID desde cualquier entorno virtual. Por ejemplo, cuando se utiliza vmware.
    • Usando utilidades CLI (interfaz de línea de comando). El paquete MSM, además de la utilidad de administración gráfica, que utiliza un navegador WEB como parte del cliente, contiene una utilidad CLI: ARCCONF.EXE. Se puede obtener una lista de comandos utilizando la documentación del sitio web de Adaptec. Con la CLI, puede crear varios scripts (miniprogramas) que los integradores pueden utilizar para automatizar la producción, la configuración, cambiar el firmware, etc. y en empresas que utilizan controladores RAID para sondear automáticamente los sistemas de almacenamiento para identificar situaciones anormales.
    • La capacidad de gestionar toda la infraestructura desde una aplicación cliente. Al utilizar MSM en la ventana Enterprise View, puede “hacerse cargo” de la administración de todos los servidores con uno o más controladores RAID instalados en ellos. Para hacer esto, especifique directamente la dirección IP de dichos sistemas o utilice la función Auto Discovery.

    Alto nivel de detalle, visualización y anidamiento de objetos de control. El administrador puede ver que todo el segmento de la red se ha puesto rojo, lo que significa que hay una falla. Si expande el ícono del segmento de red, todos los servidores serán visibles. El servidor problemático estará marcado en rojo. Si hace clic en este servidor, verá los controladores RAID instalados en este sistema. El color rojo de uno de ellos significa algún tipo de problema. Si profundiza más, verá los volúmenes creados en este controlador y el volumen problemático. Y así sucesivamente, hasta llegar al disco físico problemático. Ahora el administrador sabe exactamente qué sucedió, qué consecuencias tuvo y qué disco debe reemplazarse.
    Alto nivel de seguridad de los sistemas de control utilizando protocolos de red estándar. Obviamente, es necesario proteger los mecanismos de gestión del almacenamiento. Después de todo, con un acceso no autorizado o con un canal de control abierto, los datos del usuario pueden destruirse sin posibilidad de recuperación. Para ello, MSM utiliza la base de datos de usuarios y contraseñas del propio sistema operativo. Además, en el canal entre el navegador y el servidor de gestión se utiliza el cifrado del tráfico mediante el protocolo HTTPS. En otros componentes del sistema de control, las cuestiones de seguridad también se abordan al más alto nivel.
    Capacidad de enviar mensajes importantes desde el sistema de almacenamiento al administrador. Para no “encadenar” para siempre la mirada del administrador a la pantalla de MS en un navegador WEB, el sistema de control se puede configurar para enviar mensajes por correo electrónico. MSM tiene la capacidad de enviar todo tipo de mensajes, incluidos mensajes de prueba. Los mensajes más importantes son los de Advertencia y Error, que están directamente relacionados con la transición de los volúmenes RAID a los estados Degradado y Fallido. Estos mensajes se pueden enviar fácilmente al teléfono móvil del administrador a través de aplicaciones de correo electrónico.



    
    Desplazarse hacia arriba