Rendimiento del subsistema de disco: un breve programa educativo. Subsistema de disco

La rápida evolución del software ha llevado a demandas crecientes sobre el subsistema de disco de la computadora. Además de la velocidad de funcionamiento y la cantidad de información almacenada, los fabricantes prestaron especial atención a mejorar parámetros como la confiabilidad de las unidades y sus características de consumo (por ejemplo, facilidad de instalación y nivel de ruido). La creciente popularidad de las computadoras portátiles ha dirigido una corriente de pensamiento de ingeniería hacia el campo de la miniaturización de unidades y el aumento de su confiabilidad en condiciones extremas. En teoría, es posible desarrollar técnicamente una solución que satisfaga simultáneamente todos los requisitos mencionados. Sin embargo, desde un punto de vista práctico, una solución universal traerá pocas alegrías, ya que un disco duro "ideal" costará muchas veces más que uno "imperfecto". Es por este motivo que actualmente asistimos a una auténtica variedad de discos duros, fabricados con diferentes tecnologías, conectados a través de diferentes interfaces y con diferentes características técnicas. Este artículo proporciona breves consejos sobre la elección de discos duros y también analiza los problemas actuales que encuentran los usuarios y administradores de sistemas en la práctica al implementar matrices RAID.

Algunos requisitos para un disco duro moderno

El medio más reconocido y extendido para almacenar información se considera legítimamente el disco duro (disco duro). La información de esta unidad no desaparece cuando se apaga la computadora, a diferencia de, por ejemplo, la RAM, y el costo de almacenar un megabyte de información es extremadamente bajo (alrededor de 0,6 centavos). Un disco duro moderno tiene un alto rendimiento y una capacidad impresionante a un bajo costo por megabyte de memoria de disco. Los discos duros modernos pueden tener 47 GB o más. Para “sentir” tal volumen, se puede hacer una estimación sencilla. En 47 GB de disco se pueden grabar alrededor de 7 millones de páginas de la revista ComputerPress en formato de texto, o casi 57 mil números únicos de la revista. Para ello, la redacción de ComputerPress tendría que funcionar sin fallos durante casi 5 mil años. Dentro de la carcasa sellada del disco duro, los discos duros (normalmente varios, muy raramente uno) con un revestimiento magnético de alta calidad giran a una enorme velocidad constante (5400, 7200, 10.000, 15.000 rpm). Están "encordados" sobre un eje giratorio: un husillo. La información del disco está ubicada en "pistas" (círculos concéntricos), cada una de las cuales está dividida en sectores. A cada área del disco se le asigna un número correspondiente mediante un proceso de formateo de bajo nivel realizado por el fabricante de la unidad. La lectura y escritura en ambas caras de un disco magnético se realiza mediante cabezales magnéticos. Los propios cabezales están montados en una palanca especial (adjucador) y barren la superficie del disco giratorio a una velocidad indistinguible para el ojo humano. El tiempo medio durante el cual el cabezal logra posicionarse sobre el área deseada del disco (tiempo de acceso medio) refleja esencialmente su rendimiento: cuanto más corto es el tiempo de acceso, más rápido es el disco duro. Además de lo anterior, el disco duro incluye una placa controladora que contiene todos los componentes electrónicos del disco.

Un disco duro moderno, según la especificación PC'99, debe admitir el modo bus mastering, así como la tecnología S.M.A.R.T. La masterización del bus se refiere a un mecanismo para el intercambio directo de información en un bus sin la participación de un procesador central. Además de aumentar el rendimiento, este modo reduce la carga en el procesador central (ya hay muchos contendientes por sus recursos: módems de software "perezosos", tarjetas de sonido, aplicaciones que se ejecutan simultáneamente, etc.). Para implementar el protocolo de masterización del bus, es necesario que todos los participantes en el proceso lo admitan (incluido el controlador disco duro y chipset de la placa base). Tecnología INTELIGENTE (Tecnología de informes y análisis de autocontrol) es un mecanismo de hardware para predecir fallas en el disco duro, lo que garantiza a los usuarios contra "sorpresas" del disco duro. Los discos duros modernos con una interfaz ATA (IDE) deben admitir el modo Ultra ATA/33, que proporciona un rendimiento máximo del disco duro externo de hasta 33,3 MB/s. Muchos discos ya están disponibles con la interfaz Ultra ATA/66 (velocidad de transferencia máxima de 66,6 MB/s), pero, desafortunadamente, estas cifras rara vez se alcanzan en la realidad, ya que el rendimiento de los discos duros no está limitado por la estrechez de los datos. interfaz de transferencia, pero principalmente por la mecánica.

La alta velocidad de rotación de los discos dentro del disco duro provoca vibraciones, que son inaceptables y se amortiguan mediante dispositivos de diseño especial. Por eso, la perfección estructural de un disco duro a menudo se puede determinar de oído: cuanto más silencioso sea el disco duro, mejor será su mecánica y menos calentamiento.

Comprar un disco duro: que buscar

Al comprar un disco duro, normalmente puede encontrar la siguiente línea en la lista de precios de una empresa comercial: HDD IBM 13,7 GB 5400 rpm IDE ATA/66. Esto se traduce al ruso de la siguiente manera: un disco duro fabricado por IBM, con una capacidad de 13,7 GB, una velocidad de giro de 5400 rpm con una interfaz Ultra ATA/66. Sólo a primera vista parece poco claro. De hecho, los principios para elegir un disco duro son universales:

  • una marca de buena reputación no es garantía de calidad, sino un argumento a favor de la elección de un disco duro de marca. En primer lugar, echemos un vistazo más de cerca a los modelos de IBM y Seagate, aunque ellos, como cualquier empresa, tienen series de discos duros exitosas y extremadamente fallidas;
  • Cuanto mayor sea la capacidad, más rentable será el disco duro en términos de “precio por megabyte”. Sin embargo, los discos duros de alta capacidad a menudo se convierten en un vertedero de archivos olvidados y son más caros que sus homólogos de menos capacidad. Los discos duros grandes requieren mucho más tiempo de mantenimiento (por ejemplo, desfragmentación), por lo que para fines domésticos podemos recomendar discos duros con una capacidad de entre 10 y 20 GB;
  • Cuanto mayor sea la velocidad del eje del disco, mayor será su rendimiento (velocidad de escritura y lectura de datos), pero mayor será el precio y mayor el calentamiento. Para uso doméstico y de oficina, recomendamos dar preferencia a discos duros con una velocidad de giro de 5400-7200 rpm (revoluciones por minuto);
  • IDE (ATA) es un tipo de interfaz (mecanismo y protocolo de conexión) de una unidad de disco a la placa del sistema de la computadora. La interfaz IDE es la más barata y común, por lo que se le puede dar una recomendación universal. La interfaz SCSI se considera más "profesional" y le permite conectar hasta ocho dispositivos e IEEE-1394 (FireWire). SCSI se ha vuelto notablemente menos extendido que IDE debido a su alto precio y características de configuración. Y FireWire pronto debería convertirse en el estándar para el intercambio de datos digitales entre electrónica de consumo digital y periféricos de computadora. En una palabra, si no se dedica a la edición de vídeo, la digitalización de vídeo y la edición de archivos grandes, entonces su elección es un disco duro con una interfaz IDE;
  • ATA/66 (el mismo Ultra ATA 66 o Ultra DMA 66) es una extensión de la interfaz IDE (ATA), que permite, en casos excepcionales, alcanzar velocidades de transferencia de datos de 66 MB/s y, a menudo, reducir la carga en la central. procesador. Esto, por supuesto, ocurre muy raramente y dura sólo unas pocas fracciones de segundo. El rendimiento habitual de un disco duro es de 4 a 5 veces menor. Para que el subsistema de disco desarrolle dicho rendimiento, es necesario que el controlador de la placa base y el disco duro admitan dicho estándar. Los discos duros modernos ya están disponibles con soporte para ATA-100 y no son mucho más caros que sus homólogos con ATA/33 o ATA/66. Conclusión: si el presupuesto lo permite, es preferible adquirir un disco duro ATA-100, pero ATA/66 también es una buena opción.

Notas sobre la optimización del disco

Un disco duro de alta velocidad no le garantiza el máximo rendimiento del subsistema del disco. Así como un rey es interpretado por su séquito, el rendimiento de un disco duro depende de los dispositivos en los que se ve obligado a trabajar. En primer lugar, es necesario equilibrar necesidades y capacidades. En la práctica, esto significa que antes de comprar un disco duro, es necesario conocer absolutamente las capacidades de su placa base. La compra de una unidad ATA-100 para una placa base ATA-33/66 debe pensarse y justificarse cuidadosamente; esto es necesario, en primer lugar, para usted. Desafortunadamente, hay casos frecuentes (especialmente en entornos académicos) en los que se compraron unidades ATA-100 (7200 rpm) para actualizar i486/P60 obsoletos. No es necesario hablar de la viabilidad financiera o práctica de esta decisión. Sin embargo, no nos centraremos en lo obvio, sino que consideraremos factores poco conocidos que afectan la velocidad del subsistema de disco.

Dos dispositivos ATA en un cable: ¿bueno o malo? ¡Definitivamente malo! Y esto no sólo se debe al hecho de que el medio de transporte para ambos dispositivos es el mismo bucle físico. El problema radica en algo diferente: en la forma en que funciona el controlador con cada dispositivo, en el que su funcionamiento en paralelo es imposible. En otras palabras: hasta que el primer dispositivo no haya completado el comando, es imposible acceder al segundo. Esto significa que si se accede a un dispositivo más lento de un par, el más rápido se verá obligado a esperar a que se complete la operación anterior, lo que puede ralentizar significativamente su funcionamiento. Esto se ve más claramente en el ejemplo de la combinación de disco duro y unidad de CD-ROM. Por eso se recomienda distribuir los dispositivos ATA en diferentes bucles en función de su velocidad de funcionamiento.

Usando el modo de masterización de bus. El primer estándar ATA adoptado implicó el uso de la unidad central de procesamiento (CPU) de una computadora para organizar el trabajo con dispositivos de almacenamiento de información. Este era el modo PIO (entrada/salida programada), que todos los dispositivos ATA aún deben admitir. Al mismo tiempo, era bastante obvia la miopía de este método, que desperdiciaba valiosos recursos del procesador trabajando con dispositivos ATA. Por lo tanto, los fabricantes de equipos han propuesto una alternativa: el modo Bus Mastering (otro nombre es DMA/UDMA). La principal diferencia del nuevo modo fue la liberación de la CPU de las operaciones de control de transferencia de datos y la delegación de estas funciones al controlador ATA. Como resultado, se libera energía de la CPU para operaciones más críticas, lo que permite un mayor rendimiento del disco. Este modo ha sido soportado por todas las placas base sin problemas durante más de cinco años.

Usando un controlador RAID. Las principales quejas sobre los discos duros siguen siendo su pequeña capacidad y su velocidad de funcionamiento constantemente insuficiente. Esto es válido para los discos duros instalados tanto en servidores como en estaciones de trabajo. Sin embargo, si la propuesta de actualizar el subsistema de disco del servidor aún tiene posibilidades de ser aprobada por la gerencia, entonces las quejas sobre la velocidad insuficiente del disco duro en la estación de trabajo con una probabilidad del 99,9% desaparecerán antes de llegar a oídos del administrador del sistema. Con una computadora doméstica, la situación es aún más dramática, ya que el dinero para actualizar el subsistema de disco deberá retirarse del presupuesto familiar. Al mismo tiempo, los discos duros de alta velocidad (ATA-100, 7200 rpm) cuestan actualmente alrededor de 130 dólares por 20 GB. Una forma de salir del punto muerto puede ser utilizar un controlador RAID, que le permite combinar varios discos físicos en uno lógico. En pocas palabras, el principio del uso de RAID es paralelizar flujos de información de lectura/escritura a través de múltiples medios físicos. Como resultado, la velocidad máxima de lectura/escritura de los medios "combinados" aumenta tantas veces como la cantidad de unidades físicas utilizadas para crear la matriz RAID. Lo anterior es válido sólo para matrices RAID de nivel cero, que no implican la duplicación de la información almacenada. Anteriormente, las matrices RAID utilizaban discos duros bastante caros con una interfaz SCSI. Pero desde hace aproximadamente un año, están disponibles en el mercado controladores RAID baratos (desde 36 dólares) para discos duros con interfaz IDE. Además, algunos fabricantes placas base(Abit, MSI, etc.), junto con las interfaces IDE estándar, instalan controladores RAID en sus placas. Los modelos de tarjetas controladoras RAID para discos duros ATA más habituales en nuestro mercado son Promise y Abit Hot Rod. Naturalmente, no son los únicos. En particular, American Megatrends, Inc. (AMI), más conocido como fabricante de controladores RAID para discos duros SCSI, dirigió su atención a este segmento de mercado y lanzó el AMI HyperDisk ATA-100 RAID (precio estimado de 120 dólares). Como resultado, tenemos la oportunidad de aumentar el rendimiento de nuestro subsistema de disco en cualquier momento sin necesidad de grandes gastos. Para que la situación con RAID no parezca tan optimista, agreguemos una mosca al ungüento: varios controladores RAID tienen problemas graves, cuya naturaleza aún se desconoce. Estamos hablando, por ejemplo, del problema de compatibilidad de los discos duros IBM DTLA - 3070xx y los controladores RAID integrados en el chipset HighPoint HPT-366/368/370. Este problema se ha debatido activamente en foros de Internet durante varias semanas. Su esencia radica en el hecho de que en el caso de crear una matriz RAID utilizando un controlador RAID basado en el chipset HPT - 366/368/370 basado en discos duros IBM DTLA-3070xx, se produce una "desprendimiento" de datos impredecible y una gran cantidad de Los bloques defectuosos aparecen incluso en los discos duros nuevos. A juzgar por las opiniones de los usuarios, este problema no afectó a los usuarios de productos Promise, pero los propietarios de Abit Hot Rod y placas base con un controlador HPT-370 integrado (confirmado de manera confiable en las placas RAID Abit VP6 y Abit BX-133) lo sintieron al máximo. La naturaleza de este fenómeno aún no ha recibido una explicación oficial, pero se han expresado dudas sobre el correcto apagado de los discos duros incluidos en la matriz al apagar la computadora. Como resultado, los datos del caché del disco duro no se guardan en el medio, lo que viola la integridad de los datos. Sin embargo, si se utiliza un controlador RAID como fuente de puertos ATA-100 adicionales (es decir, sin utilizar la función RAID), este problema no surge. Lo más molesto es que algunos de los mejores representantes de la familia de discos duros ATA-100 (serie DTLA - 3070xx) son susceptibles a este efecto, ya que no se informan casos similares con discos duros de otros fabricantes.

Algunas observaciones sobre la organización de matrices RAID desde unidades ATA

Esta sección proporciona una serie de observaciones confiables de los autores en el proceso de creación de un servidor de respaldo, así como conclusiones preliminares que se hicieron en base a ellas.

Situación uno: Abit VP6 Dual PIII - 667 se utiliza con cuatro IBM DTLA-307045 en una matriz RAID. El primer mes todo funciona sin problemas. Aproximadamente a mediados de la quinta semana, se produce un "desprendimiento" espontáneo (en un día) (la aparición de bloques defectuosos) de toda la matriz. Se desmontó la matriz y, al realizar comprobaciones en todos los discos individualmente, se identificó una gran cantidad de bloques defectuosos (~3%) en cada disco duro. Curiosamente, el patrón de su ubicación se repitió para cada par de impulsos. Conclusión: el problema de la interacción conjunta del HPT-370 con el IBM DTLA-3070xx no se resuelve con las últimas versiones de firmware y controladores.

Situación dos: todo es igual, solo que en lugar del controlador RAID incorporado, se usa un AMI HyperDisk 100. Además, los discos IBM averiados se reemplazan por dos discos duros Fujitsu y dos Quantum, conectados al primer y segundo canal. del controlador, respectivamente. Se planeó organizar dos matrices RAID basadas en cada par de discos duros. Todos los discos duros se instalan en módulos de bastidor conectados al controlador RAID mediante cables ATA-100 (80 pines). Después de crear manualmente dos matrices, notamos la aparición de dos nuevos discos del tamaño esperado (sistema operativo MS Windows 2000). Después de esto, al formatear e intentar escribir datos, el sistema operativo se congelaba. Recordando que en el módulo rack los discos duros se conectan mediante un cable ATA-33 (mientras el controlador indicaba el modo de funcionamiento con discos duros UDMA-5), reemplazamos los cables de conexión por ATA-33. Después de tal reemplazo, el controlador comenzó a mostrar una advertencia en cada arranque sobre el inevitable aumento de velocidad que nos espera al reemplazar los cables. Con profundo pesar, ignorando esta invitación, notamos el comienzo del funcionamiento normal de un par de unidades. Sin embargo, conectar el segundo par trajo una sorpresa: la unidad creada resultó imposible de formatear usando Windows 2000, ya que al final del formateo el sistema operativo informó que no se podía continuar con el formateo. Después de vivir un momento de debilidad, estudiamos detenidamente la documentación de HyperDisk, especialmente la sección dedicada a la creación automática de matrices. Como resultado, el primer conjunto de matrices se destruyó y se creó automáticamente un segundo. Y entonces comenzaron las sorpresas. En primer lugar, el controlador combinó discos duros de diferentes fabricantes en una sola matriz, es decir, en lugar de tándems por fabricante, obtuvimos tándems mixtos. Esto parecía extraño en el contexto de los llamados a utilizar discos duros idénticos al crear matrices. Tampoco está clara la razón por la que se combinaron pares de unidades en una matriz de bandas, y no las cuatro al mismo tiempo. Un estudio de la configuración actual estableció su plena funcionalidad. Sin embargo, dado que los volúmenes de los discos duros Fujitsu y Quantum diferían (como resultado de la fusión asimétrica, se perdieron aproximadamente 200 MB por matriz), continuamos intentando combinar los discos duros simétricamente. Después de un breve pero cuidadoso estudio de la configuración de la matriz, se observó que cada par de discos duros incluidos en su composición está conectado físicamente a diferentes canales del controlador RAID. Recordando que el controlador ATA no es capaz de funcionar en paralelo con dispositivos conectados a uno de sus canales, y que el uso de la matriz implica la grabación simultánea en cada dispositivo incluido en su composición, llegamos a una conclusión preliminar sobre el funcionamiento problemático. del array al conectar las unidades que lo forman en un canal ATA. Esta suposición proporcionó una explicación razonable para el hecho de que cuatro discos duros se combinaron en dos matrices (y no en una), lo que fue realizado automáticamente por el controlador AMI HyperDisk. La conclusión lógica de esta suposición fue cambiar la configuración del disco de tal manera que las combinaciones Maestro primario - Esclavo secundario y Maestro secundario - Esclavo primario estuvieran formadas por discos duros del mismo fabricante. Después de volver a conectar las unidades, las matrices se reconfiguraron automáticamente, lo que arrojó el resultado esperado: dos matrices compuestas por unidades del mismo fabricante. Como resultado, recuperamos más de 200 megabytes "recortados" de la matriz. Sin embargo, nuestra alegría se desvaneció cuando el sistema operativo detectó sólo una matriz (más pequeña). En el momento de firmar el número, todos los intentos de obligar al sistema operativo a "ver" la matriz no tuvieron éxito, lo que puede servir como prueba adicional de la necesidad de utilizar discos absolutamente idénticos en el proceso de creación de matrices.

ComputadoraPrensa 4"2001

El subsistema de disco de computadora como herramienta importante para procesar gráficos rasterizados. ¿Qué opción es más rápida?

El rendimiento de la computadora juega un papel importante en los procesos de procesamiento de imágenes de preimpresión. En primer lugar, existen ciertos requisitos mínimos del sistema para el trabajo gráfico profesional. Por ejemplo, es casi imposible preparar un diseño a todo color de alta calidad de una publicación impresa utilizando un monitor de 14 pulgadas y una tarjeta de vídeo que no pueda mostrar colores de 24 bits. En segundo lugar, el hecho de que su plataforma de trabajo cumpla con estos requisitos mínimos no significa que le resulte cómodo trabajar con archivos gráficos de gran tamaño. Para aumentar la eficiencia de trabajar con una computadora, debe tener una reserva de rendimiento. Esto le permite realizar incluso operaciones que consumen muchos recursos (escalar, aplicar filtros a una imagen, etc.) con bastante rapidez e idealmente en tiempo real. Su subsistema de disco realiza una contribución significativa al rendimiento general de una estación de gráficos. Se convierte en un "cuello de botella" del sistema al procesar archivos cuyo volumen es comparable al volumen memoria de acceso aleatorio computadora.

La situación con los discos duros para la plataforma Wintel siempre ha sido la siguiente: había discos duros SCSI destinados al sector Hi-End del mercado y, al mismo tiempo, se ofrecían opciones IDE menos costosas, destinadas a su instalación en otros sistemas. . En los últimos años se ha producido un verdadero avance tecnológico en el campo de los discos con interfaz IDE; baste decir que a finales de 1998 apareció un disco duro con una capacidad de 4,3 GB y una velocidad de giro de 5400 rpm y la densidad de grabación se consideraba promedio según todos los indicadores: 2 GB por plato, luego, a finales de 2000, los discos con una capacidad de 40-45 GB / 7200 rpm / 15-20 GB por plato cayeron a la categoría media. En este caso, la norma es utilizar el estándar ATA-100 y reducir el ruido de un disco en funcionamiento a valores del orden de 30 dB.

En el ámbito de los discos duros SCSI no se ha observado tal salto en el rendimiento; hasta ahora, la capacidad media de los discos de este estándar es de 18 GB con una densidad de grabación de unos 6 GB por plato. La superioridad en el rendimiento sobre las unidades IDE se mantiene gracias a otros parámetros importantes: alta velocidad del eje (10.000 rpm es la norma), un gran volumen de búfer incorporado (de 4 a 8 MB frente a 0,5-2 MB para los modelos IDE) y También se debe en gran medida a las peculiaridades de las tecnologías SCSI en general.

Sin embargo, los discos duros IDE modernos están literalmente pisándole los talones a sus costosos homólogos SCSI. Los argumentos más convincentes a favor de la versión IDE del subsistema de disco de su computadora son su precio extremadamente bajo (2-4 veces menos que SCSI) con gran capacidad, baja disipación de calor y nivel de ruido.

La situación se ve agravada por el hecho de que recientemente se han vuelto populares las matrices RAID de unidades de disco estándar IDE. Anteriormente, las tecnologías RAID se utilizaban principalmente para subsistemas de discos SCSI. La aparición en el mercado de controladores IDE RAID relativamente económicos permitió a los discos duros IDE ampliar aún más su nicho de mercado. El estándar RAID 1 (espejo) le permite aumentar la confiabilidad del subsistema de disco en proporción a la cantidad de discos duros redundantes. Por lo tanto, al construir una matriz RAID en modo Espejo a partir de dos discos duros idénticos, duplicamos la confiabilidad de almacenar nuestra información (está duplicada) y al mismo tiempo recibimos una ventaja agradable en forma de una velocidad de lectura ligeramente mayor del disco. matriz (esto es posible gracias a la lectura alternativa de bloques de información de dos discos duros y su organización en un solo flujo; esto se hace a nivel de hardware mediante un controlador RAID). Cuando usamos RAID 0 (modo STRIPE), obtenemos un aumento en la velocidad de nuestro subsistema de disco en proporción a la cantidad de discos que componen la matriz: la información se divide en pequeños bloques y se "esparce" entre los discos. Por lo tanto, en teoría, sería posible aumentar el rendimiento del subsistema de discos un número de veces igual al número de discos duros de la matriz. Desafortunadamente, en la práctica la velocidad no aumenta tan significativamente, pero puedes leer sobre esto a continuación evaluando los resultados de las pruebas. Es imposible no notar el principal inconveniente del modo RAID 0 (Stripe): la confiabilidad del almacenamiento de información disminuye exactamente la misma cantidad de veces que la cantidad de discos duros utilizados. El modo RAID 0+1 está diseñado específicamente para eliminar este efecto desagradable: una especie de "mezcla" de los modos Mirror y Stripe. Para organizar una matriz RAID 0+1, se requieren al menos 4 discos duros. El resultado es la confiabilidad de una sola unidad más el doble de capacidad y un mayor rendimiento.

Muchos usuarios suelen tener ideas confusas sobre el rendimiento de varios tipos de discos duros. La mayoría de la gente sólo sabe que “SCSI es tremendamente genial, mucho más rápido que IDE”. Algunas personas “avanzadas” creen sinceramente que una matriz RAID de dos discos en modo Stripe es exactamente dos veces más rápida que un solo disco duro. De hecho, existen muchos mitos en este ámbito, a menudo completamente erróneos. Este artículo es un intento de aclarar la situación midiendo con precisión el desempeño. diferentes tipos subsistemas de disco. Me gustaría llamar la atención sobre el hecho de que para evaluar el rendimiento no utilizamos conjuntos de pruebas sintéticos (que, por regla general, son de poca utilidad), sino los mejores. problemas prácticos del arsenal de personas involucradas profesionalmente en gráficos para PC.

Así, se probaron las siguientes variantes de subsistemas de disco:

IDE-disco duro de una serie obsoleta (5400 rpm, 512 KB de caché, 4 GB por plato) con interfaz ATA-33 - Fujitsu MPD3130AT; placa base: i440BX con controlador ATA-33 incorporado.
IDE- disco duro de nueva serie (7200 rpm, 2048 KB de caché, 20 GB por plato) con interfaz ATA-33 - Western Digital WD200; i440BX, ATA-33 (integrado).
IDE- disco duro de nueva serie (7200 rpm, 2048 KB de caché, 20 GB por plato) con interfaz ATA-100 - Western Digital WD200; Promesa de controlador RAID FastTrak100 (SPAN).
REDADA-una matriz de dos discos IDE modernos en modo Stripe: 2xWestern Digital WD200; Controlador Raid HPT370 UDMA/ATA 100 de Highpoint Technologies (STRIPE).
SCSI-disco duro de alta calidad (10.000 rpm, 4096 KB de caché, 6 GB por plato) con interfaz SCSI Ultra160 - Fujitsu MAJ 3182 MP; Controlador SCSI - Adaptec 29160N.

Para garantizar la pureza del experimento, cada variante del subsistema de disco se instaló en el sistema absolutamente desde cero. El programa FDISK dividió el disco (o matriz de discos) en tres lógicos. En este caso, el tamaño de la partición de arranque (unidad lógica C:\) siempre se estableció en 3 GB. El resto del espacio se dividió en partes iguales entre las unidades D:\ y E:\. El sistema operativo se instaló en la unidad C:\, el archivo de intercambio de Photoshop se ubicó en la unidad D:\; También había archivos de prueba allí. Sistema de archivos: FAT32.

Para poner una buena carga en el subsistema de disco y así evaluar su rendimiento, la cantidad de RAM se limitó a 128 MB (a pesar de que en sistemas de esta clase, diseñados para trabajar con gráficos rasterizados, 256 MB es el nivel de entrada ). La cantidad de memoria disponible para Photoshop 5.5 se estableció en el 50% de la memoria libre total. Este volumen era de aproximadamente 57 MB. Todas las pruebas se realizaron con dos archivos de diferentes tamaños: el tamaño del primero era 1/5 de la cantidad de memoria disponible para Photoshop, el tamaño del segundo era 1,5 veces mayor (). Esto permitió obtener datos sobre la velocidad de realizar una determinada operación en dos casos: cuando el archivo procesado cabe en la RAM con un margen y cuando se garantiza que no cabe allí por completo. Hay que decir que para un archivo más pequeño, los resultados obtenidos en diferentes subsistemas de disco son casi idénticos, lo que no es sorprendente: el procesamiento principal se realizó en la RAM. Las diferencias en este caso sólo se notan en las operaciones de lectura/escritura, al abrir y guardar un archivo. Al procesar un archivo grande se observó una imagen completamente diferente. Dado que el archivo no cabía completamente en la RAM, Photoshop utilizó activamente el subsistema de disco de la computadora. Los resultados de estas pruebas, como más indicativos, se presentan en forma de diagramas. Los resultados completos, incluidas las pruebas con un archivo más pequeño, así como con un procesador más potente, se pueden ver en la tabla resumen número 2.

Los interesados ​​pueden repetir todas las pruebas indicadas en este artículo en otros sistemas, ya que todas las configuraciones utilizadas se muestran en la tabla. Los archivos de prueba se crearon de la siguiente manera: el archivo CMYK Balloons.tif se tomó del directorio... \Adobe\Photoshop5.5\Goodies\ Samples\. Una vez convertido a RGB, se amplió a 2240x1680 y 6400x4800 píxeles, lo que dio como resultado dos archivos TIFF RGB que miden 10,7 y 89,7 MB respectivamente. Todas las operaciones se realizaron sobre los archivos recibidos. Después de cada operación, el resultado fue cancelado por el comando Deshacer. La última operación (Guardar) se realizó en formato CMYK. Cada prueba se realizó tres veces y se promediaron los resultados. Después de cada prueba, se reinició el sistema.

Sistema nº 1: Fujitsu MPD3130AT; i440BX,ATA-33

El disco duro de la serie MPD de Fujitsu es un veterano bien merecido. Hace un año y medio, los discos duros de clase como Fujitsu MPD, Quantum CR y sus otros análogos eran los más rápidos en el sector de los discos duros IDE. Este disco duro tiene tres platos con una capacidad de 4,32 GB, 6 cabezales de lectura/escritura y un buffer incorporado con una capacidad de 512 KB. Tiempo medio de búsqueda: 9,5/10,5 ms (lectura/escritura), velocidad del husillo: 5400 rpm, nivel de ruido: 36 dB. Se admite el estándar ATA-66, pero esto no es más que una estrategia de marketing, ya que la velocidad de transferencia de datos está en el rango de 14,5-26,1 MB/s, lo que encaja plenamente en las capacidades del estándar ATA-33 (33,3 MB /s) .

El Fujitsu MPD3130AT demostró ser un disco duro fiable y silencioso. Durante el funcionamiento, el ruido del husillo giratorio es casi inaudible, pero el sonido de los cabezales de posicionamiento se distingue claramente. El disco se calienta muy poco; incluso durante un funcionamiento prolongado, la carcasa permanece fría o apenas caliente.

En las pruebas, el MPD3130AT pierde significativamente frente a todos los demás participantes, lo que no es sorprendente, dada la diferencia de características con su competidor más cercano WD200 (velocidad de rotación - 5400 y 7200 rpm, respectivamente, densidad de grabación - 4,3 GB por plato frente a 20 GB).

Las pruebas en dos sistemas operativos diferentes arrojaron resultados algo contradictorios: en Windows 98, abrir y guardar un archivo es notablemente más rápido, y en Windows 2000, todo lo demás. Por lo demás, no hay sorpresas.

Sistema N° 2: Western Digital WD200; i440BX, ATA-33.

WD200 es un representante de una nueva generación de discos duros. Parámetros principales: 7200 rpm, caché interno aumentado a 2048 KB, densidad de grabación: 20 GB por plato. El disco tiene un plato y dos cabezales. El tiempo medio de búsqueda indicado por el fabricante es de 8,9/10,9 ms, lo que no difiere mucho de las características del Fujitsu MPD3130AT. Sin embargo, el WD200 es notablemente más rápido. En primer lugar, influye el mayor volumen del buffer incorporado. En segundo lugar, la velocidad de intercambio en la sección de la superficie del buffer alcanza unos impresionantes 30,5-50 MB/s; después de todo, 20 GB por plato es una densidad de grabación importante.

En funcionamiento, la unidad se mostró en el lado más positivo: a pesar de la mayor velocidad del husillo, resultó ser más silenciosa que la Fujitsu MPD (el nivel de ruido declarado es de 30 dB). El movimiento de las cabezas es casi inaudible.

Con la generación de calor, las cosas son peores, pero bastante aceptables. Después de una hora de trabajo intensivo, el disco duro se calentó hasta 45 grados, es decir. Estaba bastante caliente al tacto, pero no caliente.

En general, esta configuración dejó una impresión muy favorable y es el campeón indiscutible en términos de relación calidad-precio. Juzgue usted mismo: a un precio de unos 130 dólares, este disco duro constituye una solución completamente completa con un controlador ATA-33 integrado para el chipset 440BX. Y ningún problema con Windows 98, como se observa en el caso de utilizar el ATA-100.

Sistema N° 3: Western Digital WD200; Promesa ATA-100 FastTrak100 (SPAN).

Las pruebas revelaron un punto muy interesante: cuando se usó la interfaz ATA-100 en Windows 98, el rendimiento del subsistema de disco fue en la mayoría de los casos menor que cuando se usó ATA-33. ¡Y en algunos casos simplemente hubo una caída catastrófica (de 5 a 10 veces) en la productividad! Dado que los resultados en Windows 2000 fueron absolutamente predecibles (es decir, el ATA-100 resultó, como se esperaba, más rápido que el ATA-33), esto da motivos para sospechar que la combinación de Windows 98 + ATA-100 no funciona correctamente. . Quizás la razón esté en un modelo de controlador específico: Promise FastTrak100. Además, la mayoría de las pruebas se ejecutaron más rápido en Windows 2000.

De todo esto podemos sacar una conclusión lógica: Windows 98 no es adecuado para trabajos serios con gráficos. Si desea utilizar los últimos logros en el campo IDE, es decir, la interfaz ATA-100 o una matriz RAID en modo STRIPE, es mejor trabajar con un sistema operativo de la familia NT (Windows NT 4.0 o Windows 2000), que se comportan mejor. correctamente en dichos modos.

Cuando se utiliza Windows 2000, se obtiene una ganancia al cambiar de ATA-33 a ATA-100, pero es pequeña.

Sistema N° 4: dos unidades Western Digital WD200 + HPT370 UDMA/ATA 100 Raid Controller (STRIPE).

Y finalmente, se probó una matriz RAID de dos discos duros idénticos en modo de bloque de datos seccionado (STRIPE). Se utilizó un tamaño de bloque de 64 KB como el más óptimo (según otras pruebas independientes). En teoría, el rendimiento de un subsistema de disco de este tipo puede ser 2 veces mayor que el de un solo disco. Pero los resultados de las pruebas no dejan motivos para el optimismo. En la gran mayoría de las tareas, la ganancia de rendimiento es del 5 al 15% en relación con un solo disco con una interfaz ATA-100.

En una palabra, los resultados son decepcionantes. Solo podemos recomendar la construcción de una matriz RAID 0 a aquellos que quieran extraer el máximo rendimiento de la tecnología IDE, a pesar de todas las desventajas descritas anteriormente. Pero esto puede ser sólo necesario para aquellos que ingresan video sin comprimir en una PC.

Sistema nº5: Fujitsu MAJ 3182 MP + controladora SCSI Adaptec 29160N.

El último participante en el “concurso” es un disco duro SCSI de muy alta calidad. Hay que decir que se eligió MAJ 3182 como la “barra superior” para esta prueba. Bueno, este disco duro logró demostrar claramente su superioridad: en casi todas las pruebas va codo a codo con su principal rival: una matriz RAID en modo STRIPE.

Sus características también pueden darte una idea de las capacidades potenciales del Fujitsu MAJ 3182 MP. Velocidad del eje: 10.025 rpm, número de discos: 3, cabezales: 5, tiempo de búsqueda promedio: 4,7/5,2 ms, volumen de búfer incorporado: 4096 KB. Se utiliza la interfaz SCSI Ultra160, que proporciona una velocidad de transferencia de datos síncrona en la sección del controlador del búfer de 160 MB/s.

Todos estos impresionantes parámetros afectaron el consumo de energía y el ruido del disco duro. El Fujitsu MAJ 3182 MP se calienta simplemente terriblemente - la temperatura corporal después de un funcionamiento prolongado probablemente sube a 60°C, si no más - el cuerpo claramente quema los dedos. El nivel de ruido durante el funcionamiento tampoco es pequeño: 40 dB. Y el principal inconveniente es el precio. En el momento de escribir estas líneas, un juego de disco duro y un controlador SCSI-160 costaba en Moscú unos 500 dólares.

Resultados

Entonces, basándome en los resultados de las pruebas, me gustaría sacar algunas conclusiones que serán útiles para quienes planean actualizar el subsistema de disco de su estación de gráficos.

  1. Los discos de generaciones anteriores con una baja densidad de grabación y un pequeño volumen de búfer incorporado son significativamente inferiores a los modelos modernos en todos los parámetros clave: velocidad, capacidad y silencio. No dude en reemplazar su antiguo disco duro Fujitsu MPD por un nuevo disco duro de alta velocidad con mayor densidad de grabación (15-20 GB por plato) y una gran capacidad de caché (2 MB). La ganancia de rendimiento puede ser del 100 por ciento o más. Además, todo lo dicho sigue siendo válido incluso cuando se utiliza la interfaz ATA-33.
  2. La transición de ATA-33 a ATA-100 no proporciona un gran aumento en el rendimiento. En mi opinión, no vale la pena comprar un controlador ATA-100 por separado, incluso si es económico (alrededor de $30). Una opción adecuada es tener un controlador integrado “gratuito” de este estándar en la placa base.
  3. La matriz RAID en modo STRIPE mostró un rendimiento muy bueno, en el nivel SCSI "diez milésima" y, a menudo, superior. Al mismo tiempo, es necesario tener en cuenta el costo muy atractivo de dicha configuración, porque dos discos duros que componen la matriz, junto con un controlador RAID económico de Highpoint, cuestan menos que un disco duro SCSI sin controlador. (130+130+30 = $290). Y además, en comparación con la versión SCSI, obtenemos una capacidad enorme: 40 GB. La única desventaja, pero muy grande, es la reducción a la mitad de la confiabilidad del almacenamiento de datos. Sin embargo, si una matriz de discos de este tipo se utilizará como medio para el trabajo operativo y no como almacenamiento a largo plazo de información valiosa, su compra está más que justificada.
  4. Los discos duros SCSI de alto nivel, como era de esperar, tienen el mayor rendimiento.

Sin embargo, dado el alto precio, la alta disipación de calor y el nivel de ruido de dichos dispositivos, comprarlos solo se justifica cuando se necesita un alto rendimiento sin concesiones (y confiabilidad del subsistema de disco, porque los discos duros SCSI siempre han sido famosos por su confiabilidad y alta media). tiempo entre fallas).

En conclusión, me gustaría llamar la atención de los lectores sobre dos líneas de la última tabla: los resultados de las mediciones al reemplazar el procesador Pentium-III-650E (frecuencia del bus del sistema de 100 MHz) por un Pentium-III-866EB (FSB de 133 MHz). ). Como puede ver, reemplazar el procesador por uno significativamente más potente no proporciona una amplia gama de resultados. Esto muestra que la metodología de prueba elegida fue correcta (baja “dependencia del procesador”, la carga principal recae en el subsistema de disco).

CON Andrei Nikulin se puede contactar por correo electrónico: [correo electrónico protegido] .

Los editores agradecen la ayuda de las empresas Elko Moscú, SMS, Pirit y Russian Style, que proporcionaron el equipo para las pruebas.

Tabla 1. Composición de la plataforma de prueba:
tarjeta madre ASUS P3B-F
UPC Intel Pentium III-650E (FSB 100 MHz)
RAM 128 MB, PC-133 M.tec (2-2-2-8-Rápido)
Video adaptador Creativo 3DBlaster TNT2 Ultra
Controlador RAID Controlador Raid HPT370 UDMA/ATA 100 de Highpoint Technologies
Controlador ATA-100 Promesa FastTrak100
controlador SCSI Adaptec 29160N (Adaptador de host SCSI PCI a Ultra160 de un solo canal de 32 bits (OEM))
Discos duros IDE-Fujitsu MPD3130AT
IDE - Western Digital WD200 - 2 uds.
SCSI - Fujitsu MAJ 3182MP
Sistema operativo Windows 98 4.10.1998 + DirectX 7.0a
Windows 2000 Profesional 5.00.2195 Paquete de servicio 1
Programa de prueba (configuración de opciones) Adobe Photoshop 5.5: Configuración de caché: Niveles de caché - 4
La opción Usar caché para histogramas está habilitada. Uso de memoria física: RAM disponible: 113,961 KB; Utilizado por Photoshop: 50%; RAM de Photoshop: 56.980 KB.
Discos reutilizables: Primero: D:\; el resto están discapacitados.
Archivos de prueba 0,2 RAM de Photoshop; 2240x1680 píxeles; color de 24 bits; TIFF RGB, 10,7 MB;
1,5 RAM de Photoshop; 6400x4800x24; TIFF RGB; 87,9 MB.

Las revistas están disponibles gratuitamente.

16.01.1997 Patrick Corrigan, Mickey Applebaum

Las opciones de configuración para los subsistemas de disco del servidor son variadas y, como resultado, la confusión es inevitable. Para ayudarle a comprender este difícil tema, decidimos analizar las principales tecnologías y la justificación económica de su uso. DESCT

Las opciones de configuración para los subsistemas de disco del servidor son variadas y, como resultado, la confusión es inevitable. Para ayudarle a comprender este difícil tema, decidimos analizar las principales tecnologías y la justificación económica de su uso.

Con los subsistemas de disco de servidor, tiene muchas opciones para elegir, pero la abundancia hace que sea difícil encontrar el sistema que sea mejor para usted. La situación se complica por el hecho de que durante el proceso de selección habrá que comprender una cantidad considerable de información falsa y exageraciones de marketing.

Nuestra revisión de las principales tecnologías de los subsistemas de disco del servidor y una discusión sobre la viabilidad de su uso desde el punto de vista del costo, el rendimiento, la confiabilidad y la tolerancia a fallas deberían ayudarnos a comprender la esencia de este problema.

INTERFACES DE DISCO

Ya sea que esté especificando un servidor nuevo o actualizando uno existente, la interfaz del disco es un tema crítico. La mayoría de las unidades actuales utilizan interfaces SCSI o IDE. Analizaremos ambas tecnologías, describiremos sus implementaciones y discutiremos su funcionamiento.

SCSI es una interfaz ANSI estandarizada que tiene varias variaciones. La especificación SCSI original, ahora llamada SCSI-I, utiliza un canal de datos de 8 bits con velocidad máxima transferencia de datos 5 Mbit/s. SCSI-2 permite varias variaciones, incluido Fast SCSI con un canal de datos de 8 bits y velocidades de transferencia de hasta 10 Mbit/s; SCSI amplio con un canal de datos de 16 bits y velocidades de transferencia de hasta 10 Mbit/s; y SCSI rápido/ancho con un canal de datos de 16 bits y velocidades de transferencia de hasta 10 Mbps (consulte la Tabla 1).

TABLA 1 - OPCIONES SCSI

SCSI-1 Rendimiento máximo Ancho de banda Frecuencia Número de dispositivos*
5Mbps 8 dígitos 5 megaciclos 8
SCSI-2
SCSI rápido 10Mbps 8 dígitos 10MHz 8
SCSI rápido/ancho 20Mbps 16 dígitos 10MHz 8; 16**
* Los dispositivos compatibles incluyen HBA. ** con señal de salida no balanceada; diferencial

Con la llegada del SCSI rápido/ancho "ancho" de 16 bits, las versiones de 8 bits a veces se denominaban "estrechas" - Narrow SCSI. Recientemente, han aparecido varias implementaciones SCSI más: Ultra SCSI, Wide Ultra SCSI y SCSI-3. En comparación con las opciones más comunes, estas interfaces tienen algunas ventajas de rendimiento, pero como aún no están muy extendidas (el número de dispositivos que utilizan estas interfaces es muy limitado), no las discutiremos en nuestro artículo.

El sistema de cableado SCSI-I es un bus lineal con capacidad para conectar hasta ocho dispositivos, incluido el adaptador de bus host (HBA). Este diseño de bus se llama SCSI con una señal de salida asimétrica (SCSI de un solo extremo) y la longitud del cable puede alcanzar los nueve metros. SCSI-2 (casi reemplazando a SCSI-I) admite tanto SCSI con señal de salida de un solo extremo como SCSI diferencial. SCSI diferencial utiliza un método de señalización diferente al SCSI de un solo extremo y admite hasta 16 dispositivos en un bucle de hasta 25 metros de largo. Proporciona una mejor reducción de ruido, lo que en muchos casos significa un mejor rendimiento.

Uno de los problemas con SCSI diferencial es la compatibilidad de dispositivos. Por ejemplo, hoy en día existe un número limitado de variedades de unidades de cinta y de CD-ROM diferenciales compatibles con SCSI. Los dispositivos diferenciales y HBA suelen ser un poco más caros que los dispositivos de un solo extremo, pero tienen la ventaja de admitir más dispositivos por canal, tendidos de cable más largos y, en algunos casos, un mejor rendimiento.

Al elegir dispositivos SCSI, debe tener en cuenta los problemas de compatibilidad. SCSI de un solo extremo y SCSI diferencial pueden usar el mismo cableado, pero los dispositivos de un solo extremo y diferenciales no se pueden combinar. Wide SCSI utiliza un sistema de cableado diferente al Narrow SCSI, por lo que no es posible utilizar dispositivos Wide SCSI y Narrow SCSI en el mismo canal.

CÓMO FUNCIONA SCSI

En SCSI, el controlador del dispositivo (por ejemplo, un controlador de disco) y la interfaz con la computadora son dispositivos diferentes. La interfaz de computadora, HBA, agrega un bus de interfaz adicional a la computadora para conectar múltiples controladores de dispositivos: hasta siete controladores de dispositivos en un canal SCSI con una señal de salida de un solo extremo y hasta 15 en un canal diferencial. Técnicamente, cada controlador puede admitir hasta cuatro dispositivos. Sin embargo, con las altas tasas de transferencia de las unidades de alta capacidad actuales, el controlador del dispositivo generalmente está integrado en la unidad para reducir el ruido y las interferencias eléctricas. Esto significa que puede tener hasta siete unidades en un enlace SCSI de un solo extremo y hasta 15 en un enlace SCSI diferencial.

Una de las ventajas de SCSI es el procesamiento de múltiples comandos superpuestos. Este soporte para E/S superpuestas brinda a las unidades SCSI la capacidad de compartir completamente sus operaciones de lectura y escritura con otras unidades del sistema, lo que permite que diferentes unidades procesen comandos en paralelo en lugar de en orden.

Dado que toda la inteligencia de una interfaz de disco SCSI reside en el HBA, el HBA controla el acceso del sistema operativo a los discos. Como resultado, el HBA, en lugar de la computadora, resuelve los conflictos de traducción y acceso al dispositivo. En general, esto significa que, siempre que se utilicen controladores escritos e instalados correctamente, la computadora y el sistema operativo no ven ninguna diferencia entre los dispositivos.

Además, debido a que el HBA controla el acceso entre el bus de expansión interno de la computadora y el bus SCSI, puede resolver conflictos de acceso entre ambos, proporcionando capacidades avanzadas como servicio de recuperación/fallo de enlace. La interrupción/reparación permite que el sistema operativo envíe un comando de búsqueda, lectura o escritura a un dispositivo específico, después de lo cual se deja que la unidad ejecute el comando por sí sola, permitiendo que otra unidad en el mismo canal reciba el comando mientras tanto. Este proceso puede mejorar significativamente el rendimiento de los enlaces de disco con más de dos discos, especialmente cuando los datos se distribuyen o se dispersan entre discos. Otra característica avanzada es el intercambio de datos sincrónico, que aumenta el rendimiento general del canal del disco y la integridad de los datos.

IDE

IDE es un estándar de facto ampliamente utilizado en PC basadas en procesadores x86. Esta es sólo una recomendación general para los fabricantes, para que todos puedan desarrollar libremente un IDE específico para sus dispositivos y adaptadores. Como resultado, productos de diferentes fabricantes, e incluso diferentes modelos del mismo fabricante, resultaron incompatibles entre sí. Una vez establecida la especificación, este problema desapareció en gran medida, pero la incompatibilidad aún es posible.

A diferencia de SCSI, IDE delega las funciones inteligentes al disco, no al HBA. Un HBA para un IDE prácticamente no tiene inteligencia y simplemente conecta el bus de la computadora directamente a los discos. Sin una interfaz intermedia, la cantidad de dispositivos en un canal IDE está limitada a dos y la longitud del cable está limitada a tres metros.

Dado que toda la inteligencia de los dispositivos IDE reside en los propios dispositivos, uno de los dispositivos en el canal se designa como canal maestro, y el controlador integrado en el segundo se desactiva y se convierte en canal esclavo. El dispositivo maestro controla el acceso a través del canal IDE a ambos dispositivos y realiza todas las operaciones de E/S para ellos. Esta es una posibilidad de conflicto entre dispositivos debido a las implementaciones de la interfaz IDE de diferentes fabricantes. Por ejemplo, una unidad puede estar diseñada para funcionar con un circuito controlador específico, pero el dispositivo anfitrión al que está conectado puede utilizar un tipo diferente de controlador. Además, las unidades IDE mejoradas (EIDE) más nuevas utilizan un conjunto ampliado de comandos y tablas de traducción para admitir unidades de mayor capacidad y mayor rendimiento. Si están conectados a una unidad IDE principal estándar antigua, no solo pierden sus funciones avanzadas, sino que es posible que no le proporcionen toda su capacidad disponible. Peor aún, pueden informar su capacidad total al sistema operativo sin poder utilizarlo, lo que puede provocar daños en los datos del disco.

La posibilidad de corrupción de datos se debe al hecho de que cada sistema operativo percibe la información de configuración del disco de manera diferente. Por ejemplo, DOS y el BIOS del sistema sólo permiten una capacidad máxima de disco de 528 MB. NetWare y otros sistemas de 32 bits no tienen estas limitaciones y pueden leer todo el disco IDE directamente a través de su electrónica. Cuando crea varias particiones de diferentes sistemas operativos en el mismo disco, cada una de ellas ve la capacidad y la configuración de manera diferente, y esto puede provocar que las tablas de particiones se superpongan, lo que, a su vez, aumenta significativamente el riesgo de pérdida de datos en el disco.

La arquitectura IDE original no puede reconocer unidades de más de 528 MB y solo admite dos dispositivos por canal a una velocidad de transferencia máxima de 3 Mbps. Para superar algunas de las limitaciones de IDE, en 1994 se introdujo la arquitectura EIDE. EIDE admite mayor capacidad y rendimiento, pero sus velocidades de transferencia de 9 a 16 Mbps son aún más lentas que las velocidades de transferencia SCSI. Además, a diferencia de los 15 dispositivos por canal de SCSI, puede admitir un máximo de cuatro por canal. Tenga en cuenta también que ni el IDE ni el EIDE implementan funcionalidad multitarea. Y, por lo tanto, no pueden proporcionar el mismo nivel de rendimiento que las interfaces SCSI en un entorno de servidor típico.

Aunque el estándar IDE se desarrolló originalmente para discos, ahora admite dispositivos de cinta y CD-ROM. Sin embargo, compartir un canal con un CD-ROM o un dispositivo de cinta puede afectar negativamente al rendimiento del disco. En general, las ventajas de rendimiento y capacidad de expansión de SCSI lo hacen superior a IDE o EIDE para la mayoría de las aplicaciones de servidor de alto nivel que requieren un alto rendimiento. Sin embargo, para aplicaciones de nivel básico donde el rendimiento o la extensibilidad no son una gran preocupación, un IDE o EIDE será suficiente. Al mismo tiempo, si necesita redundancia de disco, entonces el IDE, debido a los posibles problemas asociados con el enfoque maestro-esclavo, no la mejor opción. Además, debe tener cuidado con la posible superposición de tablas de particiones y problemas de incompatibilidad entre dispositivos maestro-esclavo.

Sin embargo, existen varios casos en los que las interfaces IDE y EIDE se pueden utilizar en servidores de alta gama. Es una práctica común, por ejemplo, utilizar un pequeño disco IDE para la partición DOS en servidores NetWare. También se practica ampliamente el uso de unidades de CD-ROM con interfaz IDE para cargar software.

SISTEMAS DE DISCO REDUCIDO

Otro tema importante a discutir al definir una especificación de servidor es la redundancia. Existen varios métodos para aumentar la confiabilidad de un sistema de discos múltiples. La mayoría de estos esquemas de redundancia son variaciones de RAID (que significa Redundant Array of Inexpensive or Independent Disks). La especificación RAID original fue diseñada para reemplazar unidades grandes y costosas de mainframe y minicomputadoras con conjuntos de unidades pequeñas y de bajo costo diseñadas para minicomputadoras; de ahí la palabra "bajo costo". Desafortunadamente, es raro encontrar algo económico en los sistemas RAID.

RAID es una serie de implementaciones de matrices de discos redundantes para proporcionar distintos niveles de protección y velocidades de transferencia de datos. Dado que RAID implica el uso de matrices de discos, la mejor interfaz a utilizar es SCSI, ya que puede admitir hasta 15 dispositivos. Hay 6 niveles de RAID: del cero al cinco. Aunque algunos fabricantes anuncian sus propios esquemas de redundancia, a los que denominan RAID-6, RAID-7 o superior. (RAID-2 y RAID-4 no están disponibles en servidores de red, por lo que no hablaremos de ellos).

De todos los niveles RAID, el cero tiene el mayor rendimiento y la menor seguridad. Implica tener al menos dos dispositivos y escribir datos en ambas unidades de manera sincronizada, donde las unidades aparecen como un solo dispositivo físico. El proceso de escribir datos en varios discos se denomina distribución de unidades y el método real de escribir estos datos se llama división de datos. Con la creación de bandas, los datos se escriben en todos los discos bloque por bloque; este proceso se llama entrelazado de bloques. El tamaño del bloque lo determina el sistema operativo, pero normalmente oscila entre 2 KB y 64 KB. Según el diseño del controlador de disco y del HBA, estas escrituras secuenciales pueden superponerse, lo que da como resultado un mayor rendimiento. Por tanto, RAID-0 por sí solo puede mejorar el rendimiento, pero no proporciona protección contra fallos. Si se produce una falla en el disco, falla todo el subsistema, lo que generalmente resulta en una pérdida completa de datos.

Una opción para la división de datos es la dispersión de datos. Al igual que con la creación de bandas, los datos se escriben secuencialmente en varios discos que se van llenando. Sin embargo, a diferencia de la creación de bandas, las escrituras no se escriben necesariamente en todos los discos; Si un disco está ocupado o lleno, los datos se pueden escribir en el siguiente disco disponible; esto permite agregar discos a un volumen existente. Al igual que el estándar RAID-0, la combinación de relleno de disco y división de datos mejora el rendimiento y aumenta el volumen, pero no brinda protección contra fallas.

RAID-1, conocido como duplicación de discos, implica la instalación de pares de discos idénticos, siendo cada disco del par una imagen reflejada del otro. En RAID-1, los datos se escriben en dos pares de discos idénticos o casi idénticos: cuando, por ejemplo, falla un disco, el sistema continúa trabajando con el disco espejo. Si los discos reflejados tienen un HBA común, entonces el rendimiento de esta configuración, en comparación con un solo disco, será menor, ya que los datos deben escribirse secuencialmente en cada disco.

Novell ha reducido la definición de duplicación y ha añadido el concepto de dúplex. Según la terminología de Novell, la duplicación se refiere a pares de discos cuando están conectados a un servidor o computadora a través de un único HBA, mientras que la duplicación se refiere a pares de discos duplicados que se conectan a través de HBA separados. La redundancia proporciona redundancia para todo el enlace del disco, incluidos el HBA, los cables y los discos, y proporciona algunas mejoras de rendimiento.

RAID-3 requiere un mínimo de tres unidades idénticas. A esto se le suele denominar tecnología n menos 1 (n-1) porque la capacidad máxima del sistema se define como el número total de discos en la matriz (n) menos un disco de paridad. RAID-3 utiliza una técnica de escritura llamada entrelazado de bits, donde los datos se escriben en todos los discos poco a poco. Por cada byte escrito en n discos, se escribe un bit de paridad en el "disco de paridad". Este es un proceso excepcionalmente lento porque antes de que se pueda generar y escribir información de paridad en el "disco de paridad", los datos deben escribirse en cada uno de los n discos de la matriz. Puede aumentar el rendimiento de RAID-3 sincronizando los mecanismos de giro de los discos para que funcionen al unísono. Sin embargo, debido a limitaciones de rendimiento, el uso de RAID-3 ha disminuido drásticamente y en la actualidad se venden muy pocos productos de servidor basados ​​en RAID-3.

RAID-5 es la implementación RAID más popular en el mercado de servidores de red. Al igual que RAID-3, requiere al menos tres discos idénticos. Sin embargo, a diferencia de RAID-3, RAID-5 divide bloques de datos sin utilizar un disco de paridad dedicado. Tanto los datos como la suma de comprobación se escriben en toda la matriz. Este método permite lecturas y escrituras de disco independientes y también permite que el sistema operativo o el controlador RAID realice múltiples operaciones de E/S simultáneas.

En configuraciones RAID-5, se accede al disco solo cuando se lee o escribe información o datos de paridad. Como resultado, RAID-5 tiene mayor rendimiento que RAID-3. En la práctica, el rendimiento de RAID-5 a veces puede igualar o incluso superar el de los sistemas de un solo disco. Estas mejoras de rendimiento, por supuesto, dependen de muchos factores, incluido cómo se implementa la matriz RAID y qué capacidades nativas tiene el sistema operativo del servidor. RAID-5 también proporciona el nivel más alto de integridad de datos de cualquier implementación RAID estándar porque tanto los datos como la información de paridad están escritos en franjas. Debido a que RAID-5 utiliza división de bloques en lugar de división de bits, la sincronización de giro no proporciona ningún beneficio de rendimiento.

Algunos fabricantes han añadido extensiones a sus sistemas RAID-5. Una de estas extensiones es la presencia de un disco de “repuesto en caliente” integrado en la matriz. Si se produce una falla en el disco, el disco de repuesto reemplaza inmediatamente el disco fallado y copia los datos a sí mismo usando la recuperación de paridad en segundo plano. Sin embargo, recuerde que la reconstrucción de un disco RAID-5 provoca una caída importante en el rendimiento del servidor. (Para obtener más información sobre las unidades de intercambio en caliente y de repuesto en caliente, consulte la barra lateral "Funciones de las unidades en caliente".)

Los sistemas RAID se pueden organizar utilizando software cargado en el servidor y usando su procesador para operar, o usando un controlador RAID especializado.

Los sistemas RAID basados ​​en software consumen una parte importante de los recursos del procesador del sistema, así como de la memoria del sistema, lo que reduce en gran medida el rendimiento del servidor. Sistemas de software A veces, RAID se incluye como una característica del sistema operativo (como en Microsoft Windows NT Server) o como un complemento de terceros (como en NetWare y el sistema operativo Macintosh).

Los sistemas RAID basados ​​en hardware utilizan un controlador de matriz RAID dedicado; normalmente tiene su propio procesador, memoria caché y software ROM para realizar funciones de paridad y E/S de disco. Tener un controlador dedicado para realizar estas operaciones libera el procesador del servidor para realizar otras funciones. Además, debido a que el procesador y el software del adaptador están específicamente ajustados para realizar funciones RAID, proporcionan un mayor rendimiento de E/S del disco y una mejor integridad de los datos que los sistemas RAID basados ​​en software. Desafortunadamente, los controladores implementados en hardware matrices RAID, por regla general, son más caros que sus competidores basados ​​en software.

ESPEJAR, DUPLICAR Y LLENAR

Algunos sistemas operativos, incluidos NetWare y Windows NT Server, permiten la duplicación de discos en múltiples canales de disco, proporcionando así un nivel adicional de redundancia. Como se mencionó anteriormente, Novell llama a este último enfoque duplicación de disco. Cuando se combina con el relleno del disco, la duplicación puede proporcionar un mayor rendimiento que los sistemas de un solo disco y, en general, puede superar las implementaciones de hardware RAID-5. Debido a que cada mitad de un par de discos reflejados utiliza un canal de disco independiente, las escrituras en los discos, a diferencia de cuando los discos están en el mismo HBA, se pueden escribir simultáneamente. La duplicación también permite búsquedas divididas: el proceso de dividir las solicitudes de lectura entre canales de disco para una ejecución más rápida. Esta característica duplica el rendimiento de lectura del disco porque ambos canales buscan diferentes bloques del mismo conjunto de datos en paralelo. Esto también reduce el impacto en el rendimiento al escribir en el disco, ya que un canal puede leer datos mientras el otro escribe.

NetWare admite hasta ocho canales de disco (algunos adaptadores SCSI proporcionan múltiples canales), lo que significa que puede tener múltiples canales para cada par duplicado. Incluso puedes optar por organizar hasta ocho canales de espejo separados. Windows NT Server también proporciona duplicación y duplicación de software, pero aún no admite la grabación paralela ni la búsqueda dividida.

Al elegir un sistema de disco redundante, debe considerar cuatro factores principales: rendimiento, costo, confiabilidad y protección contra fallas.

Cuando se trata de rendimiento, las capacidades integradas del sistema operativo del servidor son un factor importante, especialmente cuando entra en juego la redundancia de disco. Como se indicó anteriormente, la duplicación de discos NetWare combinada con el relleno del disco proporciona un mejor rendimiento que el RAID de hardware o software. Sin embargo, el rendimiento del RAID de hardware es generalmente superior al de los servicios de disco integrados de Windows NT Server. En términos generales, la tecnología y el rendimiento de los sistemas RAID han mejorado continuamente durante varios años.

Otro posible problema de rendimiento de los sistemas RAID es la recuperación de datos en caso de desastre. Hasta hace poco, si fallaba un disco, había que apagar la matriz RAID para restaurarlo. Además, si deseaba cambiar el tamaño de la matriz (aumentar o disminuir su capacidad), debía realizar una copia de seguridad completa del sistema y luego reconfigurar y reinicializar la matriz, borrando todos los datos durante el proceso. En ambos casos, el sistema no está disponible durante bastante tiempo.

Para resolver este problema, Compaq desarrolló el controlador Smart Array-II, que le permite aumentar la capacidad del arreglo sin reiniciar la configuración del arreglo existente. Otros fabricantes, incluida Distributed Processing Technology (DPT), han anunciado que sus controladores realizarán funciones similares en un futuro no muy lejano. Muchas de las nuevas matrices tienen utilidades para varios sistemas operativos, con las que se puede restaurar la matriz después de reemplazar un dispositivo dañado sin apagar el servidor. Sin embargo, tenga en cuenta que estas utilidades consumen muchos recursos del servidor y, por lo tanto, afectan negativamente el rendimiento del sistema. Para evitar este tipo de dificultades, la restauración del sistema debe realizarse fuera del horario laboral.

Ha habido un debate recurrente en publicaciones de la industria y publicaciones de proveedores de RAID sobre las diferencias de costos entre las implementaciones de mirroring, duplicación e RAID. La duplicación y la duplicación proporcionan el 100 % de duplicación de los discos y (si están duplicados) de los HBA, mientras que las implementaciones RAID tienen un HBA y/o un controlador RAID más un disco más que la capacidad que desea tener. Según estos argumentos, RAID es más barato porque la cantidad de discos necesarios es menor. Esto puede ser cierto si las limitaciones de rendimiento de las implementaciones RAID basadas en software incluidas en el sistema operativo, como las que se encuentran en Windows NT, le resultan tolerables. Sin embargo, en la mayoría de los casos, se requiere un controlador RAID dedicado para lograr un rendimiento adecuado.

Las unidades SCSI y los adaptadores estándar son relativamente económicos, mientras que un controlador RAID de alta calidad puede costar hasta 4.500 dólares. Para determinar el costo de su sistema, debe considerar las configuraciones óptimas para todos los componentes. Por ejemplo, si necesita aproximadamente 16 GB de espacio en disco direccionable, puede implementar una configuración reflejada con dos unidades de 9 GB por canal y obtener algo de capacidad excedente. En el caso de RAID-5, por razones de rendimiento y confiabilidad, es mejor utilizar cinco unidades de 4 GB para aumentar la cantidad de ejes para dividir los datos y, por lo tanto, el rendimiento general de la matriz.

Cuando se utiliza un subsistema de disco externo, el costo de una configuración reflejada será de aproximadamente $10 500 por 18 GB de espacio disponible. Esta cifra se basa en los precios minoristas reales: $2000 por una unidad, $250 por un HBA y $300 por cada subsistema de unidad externa más cables. Un sistema RAID-5 configurado con 16 GB de espacio direccionable utilizando cinco unidades de 4 GB costaría alrededor de 12.800 dólares. Esta cifra se basa en los precios minoristas reales de una matriz DPT RAID-5.

Muchos sistemas RAID incluyen componentes "propietarios" diseñados por el fabricante. Como mínimo, la carcasa y el panel trasero son de "marca". Los controladores HBA y RAID también suelen ser "propietarios". Algunos fabricantes también utilizan soportes y neumáticos para ruedas no estándar. Algunos los ofrecen por separado a un precio razonable, otros solo con un disco y, por regla general, a un precio elevado. Este último enfoque puede resultar costoso cuando necesita reparar o ampliar su sistema. Otra forma en que el proveedor lo arrincona es proporcionándole software de monitoreo y administración de discos que solo funciona con componentes específicos. Al evitar componentes no estándar siempre que sea posible, normalmente se pueden mantener bajos los costos.

Al comparar la confiabilidad de los sistemas de disco redundante, hay dos factores a considerar: la posibilidad de falla del sistema o de cualquier componente, y la probabilidad de pérdida de datos debido a una falla del componente. (Desafortunadamente, RAID o duplicación no pueden salvarlo de la causa principal de la pérdida de datos: ¡error del usuario!)

P = t/Tc,

donde t es el tiempo de operación y Tc es el tiempo combinado entre fallas de los componentes.

Suponiendo un año de funcionamiento sin fallos (8.760 horas) y un hipotético disco Tc de 300.000 horas, la tasa de fallos llega a ser del 3%, o ligeramente menos de uno entre 34. A medida que aumenta el número de componentes, aumenta la probabilidad de fallo de cualquier componente. . Tanto RAID como la duplicación aumentan las posibilidades de fallo, pero reducen las posibilidades de pérdida de datos.

La Tabla 2, extraída del boletín Storage Dimensions titulado "Sistemas de almacenamiento tolerantes a fallas para redes siempre activas", muestra la probabilidad de falla calculada usando la fórmula anterior versus la probabilidad de pérdida de datos para cuatro discos poblados, una matriz RAID de cinco unidades y ocho discos reflejados. (Se supone que todas las unidades son del mismo tamaño y que los tres sistemas proporcionan la misma capacidad utilizable. Para obtener la hoja informativa, visite la página Dimensiones de almacenamiento: http://www.storagedimensions.com/raidwin/wp-ovrvw.html.)

TABLA 2 - ESTIMACIONES DE PROBABILIDAD DE FALLA

Si bien la duplicación combinada con el relleno del disco tiene una mayor probabilidad estadística de falla del disco, también tiene una probabilidad significativamente menor de perder datos cuando falla un disco. Además, con un sistema redundante diseñado adecuadamente, los tiempos de recuperación pueden ser significativamente más cortos.

Este ejemplo no tiene en cuenta muchos factores. Para obtener una cifra estadísticamente correcta, se debe calcular el tiempo medio entre fallas de todos los componentes del sistema de disco, incluidos HBA, cables, cables de alimentación, ventiladores y fuentes de alimentación. Por supuesto, estos cálculos sólo nos dicen lo que puede suceder dada la confiabilidad de los componentes supuestos, pero no es del todo seguro que esto suceda.

Al elegir un sistema de disco, es necesario tener claro qué componentes no están duplicados. En los sistemas RAID, esto puede incluir HBA, controladores RAID, fuentes de alimentación, cables de alimentación y cables. Uno de los beneficios de la redundancia con subsistemas de disco separados en cada canal es la eliminación de la mayoría de los puntos únicos donde pueden ocurrir fallas.

CONCLUSIÓN

En general, los dispositivos SCSI son una mejor opción para el subsistema de disco de un servidor que las unidades IDE o EIDE. Las unidades SCSI con capacidades de hasta 9 GB por disco son fáciles de obtener, mientras que las unidades EIDE actuales tienen una capacidad máxima de aproximadamente 2,5 GB. Cuando se utilizan varios HBA de doble canal, la capacidad SCSI total puede superar fácilmente los 100 GB, mientras que el límite EIDE es de 10 GB. SCSI también tiene mejor rendimiento; Además, SCSI no sufre los problemas que conlleva el enfoque maestro-esclavo en IDE/EIDE.

Si necesita redundancia de disco, existen varias opciones. La redundancia de Novell NetWare combinada con el relleno del disco proporciona un excelente rendimiento y protección contra fallas. Implementación de hardware de RAID - también una buena eleccion, pero normalmente su rendimiento es menor y su precio mayor. Si utiliza Windows NT y el rendimiento es importante para usted, entonces el hardware RAID puede ser una mejor opción.

Patrick Corrigan es presidente y consultor/analista senior de The Corrigan Group, una empresa de consultoría y formación. Se le puede contactar en: [correo electrónico protegido] o vía Compuserve: 75170.146. Mickey Applebaum es consultor senior de redes en GSE Erudite Software. Se le puede contactar en: [correo electrónico protegido]

INTRODUCCIÓN A LAS FUNCIONES DE LOS SUBSISTEMAS DE DISCO

Funciones "calientes" de los subsistemas de disco.

Los términos intercambio en caliente, repuesto en caliente y reconstrucción en caliente, que se utilizan ampliamente para describir las funciones específicas de los subsistemas de disco, a menudo se malinterpretan.

Hot Swap es una característica que le permite eliminar un disco fallido de un subsistema de disco sin apagar el sistema. La compatibilidad con el intercambio en caliente es una característica de hardware de su subsistema de disco, no RAID.

En los sistemas intercambiables en caliente, los discos duros generalmente se montan en un trineo que permite que las clavijas de tierra entre el disco y el chasis permanezcan conectadas por más tiempo que las líneas de alimentación y del controlador. Esto protege el variador de daños debido a descargas estáticas o arcos eléctricos entre los contactos. Los discos intercambiables en caliente se pueden utilizar tanto en matrices RAID como en sistemas de discos reflejados.

"Recuperación en caliente" significa la capacidad del sistema para restaurar la configuración original de los discos automáticamente después de reemplazar un disco defectuoso.

Las unidades de repuesto dinámico están integradas en una matriz RAID y normalmente permanecen inactivas hasta que se necesitan. En algún momento después de que la unidad de repuesto reemplaza la unidad fallida, deberá reemplazar la unidad fallida y restaurar la configuración de la matriz.

Un sistema de discos con capacidad de intercambio en caliente y discos de repuesto en caliente no necesariamente tiene la capacidad de realizar una recuperación en caliente. Hot Swap simplemente le permite extraer/instalar una unidad de forma rápida, segura y sencilla. El repuesto dinámico parece proporcionar reconstrucción en caliente ya que permite que la unidad fallida en la matriz RAID se reemplace inmediatamente, pero la unidad fallida aún debe reemplazarse y luego ordenarse que se reconstruya. Hoy en día, todos los sistemas RAID disponibles para la plataforma PC requieren la intervención del usuario en algún nivel para comenzar la restauración de datos, al menos en el nivel de cargar el módulo NLM en el servidor NetWare o presionar el botón de inicio en el menú de la aplicación NT Server.



Cuando hablamos de recursos del subsistema de disco, podemos nombrar tres de ellos: la cantidad de espacio, la velocidad de lectura y escritura en MB/seg y la velocidad de lectura-escritura en el número de operaciones de entrada/salida por segundo (Entrada/Salida por segundo). segundo, IOPS, o simplemente E/S).

Hablemos primero del volumen. Daré consideraciones que se deben tener en cuenta y un ejemplo de cálculo.

Las consideraciones son las siguientes:

El espacio en disco lo ocupan los propios archivos del disco de la máquina virtual. Por lo tanto, es necesario comprender cuánto espacio necesitan;

Si planeamos utilizar discos delgados para todas o parte de las VM, entonces debemos planificar su volumen inicial y su crecimiento posterior (en adelante, discos delgados significa el tipo correspondiente de archivos vmdk, es decir, la función de aprovisionamiento ligero en ESX(i ) implementación) El hecho es que la funcionalidad de aprovisionamiento ligero se puede implementar en un sistema de almacenamiento independientemente de ESX(i), y no me refiero a la funcionalidad de los sistemas de almacenamiento);

De forma predeterminada, el hipervisor crea un archivo de paginación para cada VM, cuyo tamaño es igual a la cantidad de RAM. Este archivo de intercambio se encuentra en la carpeta VM (de forma predeterminada) o en un LUN separado;

Si planea utilizar instantáneas del estado, también debe planificar un lugar para ellas. Como punto de partida se pueden tomar las siguientes consideraciones:

Si las instantáneas existirán durante un breve período después de la creación, por ejemplo, solo mientras dure la copia de seguridad, entonces reservamos el diez por ciento del tamaño del disco de la VM para ellas;

Si las instantáneas se utilizarán con una intensidad media o impredecible, entonces tiene sentido asignarles aproximadamente el 30% del tamaño del disco de la VM;

Si se utilizan activamente instantáneas para máquinas virtuales (lo cual es importante en escenarios donde las máquinas virtuales se utilizan para pruebas y desarrollo), entonces el espacio que ocupan puede ser varias veces mayor que el tamaño nominal de los discos virtuales. En este caso, es difícil dar recomendaciones exactas, pero se puede tomar como punto de partida duplicar el tamaño de cada VM. (En adelante, una instantánea se refiere a la funcionalidad correspondiente de ESX(i). El hecho es que las instantáneas se pueden implementar en un sistema de almacenamiento independientemente de ESX(i), y no me refiero a la funcionalidad de los sistemas de almacenamiento).

Una fórmula de ejemplo se ve así:

Capacidad de espacio para un grupo de VM = Número de VM x (Tamaño del disco x T +

Tamaño del disco x S + Capacidad de memoria - Capacidad de memoria x R).

T - coeficiente de discos delgados. Si no se utilizan dichos discos, es igual a 1. Si se utilizan, es difícil dar una valoración abstracta, depende de la naturaleza de la aplicación en la VM. Básicamente, los discos delgados ocupan menos espacio en un sistema de almacenamiento que el tamaño nominal del disco. Entonces, este coeficiente muestra qué proporción del tamaño nominal está ocupada por los discos de la máquina virtual;

S es el tamaño de las instantáneas. 30/10/200 por ciento, dependiendo de la duración del uso continuo;

R es el porcentaje de memoria reservada. La memoria reservada no cabe en el archivo de paginación; el archivo de paginación se crea más pequeño. Su tamaño es igual a: la cantidad de memoria de la VM menos la cantidad de memoria reservada.

Para obtener datos de entrada estimados, por ejemplo, consulte la tabla. 1.3.

Tabla 1.3. Datos para la planificación de la capacidad del subsistema de disco

Obtenemos una estimación del volumen requerido:

Grupo de infraestructura: 15 x (20 + 20 x 10 % + 2 - 2 x 0) = 360 GB;

Servidores de aplicaciones: 20 x (40 + 40 x 10% + 2 - 2 x 0) = 920 GB;

Servidores críticos: 10 x (100 + 100 x 10% + 6 - 6 x 0,5) = 1130 GB;

Prueba y temporal - 20 x (20 x 30% + (20 x 30%) x 200% + 2 - 2 x 0) = = 400 GB.

Por lo tanto, podemos crear dos LUN de 1,4 TB y distribuir máquinas virtuales entre ellos aproximadamente por igual. O cree de 4 a 5 LUN de 600800 GB cada uno y coloque máquinas de diferentes grupos en diferentes LUN. Ambas opciones (y las intermedias entre ellas) son aceptables. La elección entre ellos se realiza en función de otras preferencias (por ejemplo, organizativas).

Otro recurso del subsistema de disco es el rendimiento. En el caso de las máquinas virtuales, la velocidad en MB/seg no es un criterio confiable, porque cuando una gran cantidad de VM acceden a los mismos discos, los accesos son inconsistentes. Para una infraestructura virtual, una característica más importante es el número de operaciones de entrada/salida (IOPS, Entrada/Salida por segundo). El subsistema de discos de nuestra infraestructura debe permitir más de estas operaciones de las que solicitan las máquinas virtuales.

¿Cuál es la ruta que toma el sistema operativo invitado para acceder a los discos físicos en el caso general?

1. El sistema operativo invitado pasa la solicitud al controlador del controlador SAS/SCSI (que emula el hipervisor).

2. El controlador lo pasa al propio controlador virtual SAS/SCSI.

3. El hipervisor lo intercepta, lo combina con solicitudes de otras VM y pasa la cola común al controlador del controlador físico (HBA en el caso de FC y iSCSI de hardware o controlador Ethernet en el caso de NFS y iSCSI de software).

4. El conductor envía la solicitud al controlador.

5. El responsable del tratamiento lo transmite al sistema de almacenamiento a través de una red de datos.

6. El responsable del almacenamiento acepta la solicitud. Esta solicitud es una operación de lectura o escritura desde algún volumen LUN o NFS.

7. Un LUN es una "partición virtual" en una matriz RAID de discos físicos. Es decir, el controlador de almacenamiento transmite la solicitud a los discos de esta matriz RAID.

Dónde puede estar el cuello de botella del subsistema de disco:

Lo más probable es que a nivel de discos físicos. La cantidad de discos físicos en una matriz RAID es importante. Cuanto más haya, mejor se podrán paralelizar las operaciones de lectura y escritura. Además, cuanto más rápidos (en términos de E/S) sean los discos, mejor;

Los diferentes niveles de matrices RAID tienen diferentes niveles de rendimiento. Es difícil dar recomendaciones completas, porque además de la velocidad, los tipos de RAID también difieren en costo y confiabilidad. Sin embargo, las consideraciones básicas son:

RAID-10 es el más rápido, pero utiliza el espacio en disco de manera menos eficiente, ocupando el 50 % para admitir la tolerancia a fallos;

RAID-6 es el más confiable, pero tiene un bajo rendimiento de escritura (30-40% de RAID-10 al 100% de escritura), aunque la lectura es tan rápida como la de RAID-10;

RAID-5 es un compromiso. El rendimiento de escritura es mejor que el de RAID-6 (pero peor que el de RAID-10) y la eficiencia del almacenamiento es mayor (la capacidad de un solo disco se utiliza para la tolerancia a fallas). Pero RAID-5 sufre serios problemas asociados con la larga recuperación de datos después de una falla del disco en el caso de los discos modernos de alta capacidad y grandes grupos RAID, durante los cuales permanece desprotegido de otra falla (convirtiéndose en RAID-0) y pierde drásticamente su productividad. ;

RAID-0, o “RAID con tolerancia cero a fallos”, no se puede utilizar para almacenar datos importantes;

Configuración del sistema de almacenamiento, en particular la caché del controlador de almacenamiento. El estudio de la documentación del sistema de almacenamiento es importante para su correcta configuración y funcionamiento;

Red de datos. Especialmente si planeas utilizar almacenamiento IP, iSCSI o NFS. De ninguna manera quiero decir que no deban usarse; muchos han utilizado estos sistemas durante mucho tiempo. Lo que estoy diciendo es que debe intentar asegurarse de que la carga que se transfiere al entorno virtual tenga suficiente ancho de banda de red para adaptarse al rendimiento planificado.

La velocidad resultante del subsistema de discos se deriva de la velocidad de los discos y del algoritmo para paralelizar los accesos a los discos por parte del controlador (es decir, el tipo RAID y funciones similares). La relación entre el número de operaciones de lectura y la cantidad de operaciones de escritura también es importante: tomamos esta relación de las estadísticas o de la documentación de las aplicaciones en nuestras máquinas virtuales.

Veamos un ejemplo. Supongamos que nuestras máquinas virtuales crearán una carga de hasta 1000 IOps, el 67% de las cuales será de lectura y el 33% de escritura. ¿Cuántos y qué tipo de discos necesitaremos si utilizamos RAID-10 y RAID-5?

En una matriz RAID-10, todos los discos participan en operaciones de lectura, pero solo la mitad participan en operaciones de escritura (porque cada bloque de datos se escribe en dos discos a la vez). En una matriz RAID-5, todos los discos participan en la lectura, pero al escribir cada bloque, existe una sobrecarga asociada con el cálculo y el cambio de la suma de verificación. Puede pensar que una escritura en una matriz RAID-5 provoca cuatro escrituras directamente en los discos.

Escritura - 1000 x 0,33% = 330 x 2 (ya que solo la mitad de los discos participan en la grabación) = 660 IOps.

En total, necesitamos 1330 IOps de los discos. Si dividimos 1330 por la cantidad de IOps indicadas en las características de rendimiento de un disco, obtenemos la cantidad requerida de discos en una matriz RAID-10 para la carga especificada.

Lectura: 1000 x 0,67 % = 670 IOps;

Escritura: 1000 x 0,33% = 330 x 4 = 1320 IOps.

En total, necesitamos 1990 IOps de los discos.

Según la documentación del fabricante, un disco duro SAS 15k procesa entre 150 y 180 IOps. Una unidad SATA de 7,2 k: 70-100 IOps. Sin embargo, existe la opinión de que es mejor centrarse en números ligeramente diferentes: 50-60 para SATA y 100-120 para SAS.

Terminemos el ejemplo.

Cuando utilizamos RAID-10 y SATA, necesitamos entre 22 y 26 discos.

Cuando utilizamos RAID-5 y SAS, necesitamos entre 16 y 19 discos.

Es obvio que los cálculos que he dado son bastante aproximados. Los sistemas de almacenamiento utilizan varios tipos de mecanismos, principalmente el almacenamiento en caché, para optimizar el funcionamiento del sistema de almacenamiento. Pero esta información es útil como punto de partida para comprender el proceso de dimensionamiento del subsistema de disco.

Los métodos para obtener la cantidad requerida de IOPS para una VM y la relación de lectura y escritura permanecen en segundo plano. Para una infraestructura existente (al transferirla a máquinas virtuales), estos datos se pueden obtener utilizando herramientas especiales de recopilación de información, por ejemplo VMware Capacity Planner. Para la infraestructura planificada: a partir de la documentación de la solicitud y la experiencia personal.

Los subsistemas de disco y archivos de una computadora no suelen ser objeto de mucha atención por parte del usuario. El disco duro es bastante fiable y funciona como si estuviera solo, sin llamar en absoluto la atención del usuario medio.

Habiendo dominado las técnicas básicas para trabajar con archivos y carpetas, dicho usuario los lleva a una automatización completa, sin pensar en la existencia de herramientas adicionales para reparar el disco duro. La gestión del disco se transfiere completamente al sistema operativo.

La dificultad comienza cuando el sistema de archivos muestra una clara degradación del rendimiento o cuando comienza a fallar. Otro motivo para un estudio más detenido de este tema: instalar varios "tornillos" en una PC al mismo tiempo.

Como cualquier dispositivo complejo, un disco duro necesita un mantenimiento regular. Aunque Windows 7 soluciona parcialmente estos problemas, no puede resolver todos los problemas por sí solo. De lo contrario, los “frenos” están garantizados en el tiempo. Como mínimo, debe poder hacer las siguientes cosas:

  • Limpiar el sistema de archivos de la basura. El concepto de basura incluye archivos temporales, cookies del navegador proliferadas, información duplicada, etc.
  • Desfragmenta tu disco duro. El sistema de archivos de Windows está construido de tal manera que lo que el usuario ve como un todo son en realidad fragmentos individuales de archivos esparcidos en la superficie magnética del disco duro, combinados en una cadena: cada fragmento anterior es conocido por el siguiente. Para leer un archivo en su totalidad, es necesario ensamblar estas partes, lo que requiere una gran cantidad de ciclos de lectura desde diferentes lugares de la superficie. Lo mismo sucede al grabar. La desfragmentación le permite reunir todas estas piezas en un solo lugar.
  • Ver y editar información sobre las secciones.
  • Ser capaz de abrir el acceso a archivos y carpetas ocultos y del sistema.
  • Si es necesario, poder trabajar con varios “tornillos” a la vez.

Y también realice algunas otras acciones útiles. En nuestra nota no analizaremos toda la gama de estas cuestiones, sino que nos centraremos sólo en algunas.

¿Cómo leer la información de la partición?

Para aquellos que no lo saben, expliquemos: en Windows existe un "complemento".

Este es un archivo ejecutable con la extensión .msc que se ejecuta como un archivo ejecutable normal. Todos los complementos tienen una interfaz uniforme y se basan en la tecnología COM, la base de la estructura interna de este sistema operativo.

La ventana Administración de discos también es un complemento. Puede ejecutarlo escribiendo su nombre diskmgmt.msc en la ventana "Ejecutar" como se muestra en la siguiente figura:

Como resultado, veremos la ventana del complemento con el título "Administración de discos". Así es como se ve la aplicación:

Esta interfaz es intuitiva y sencilla. En el panel superior de la ventana vemos una lista de todos los volúmenes (o particiones) disponibles en el "tornillo" con información adjunta sobre ellos, como por ejemplo:

  • Nombre de la sección.
  • Tipo de sección.
  • Su capacidad total.
  • Su estado (diferentes secciones pueden tener diferentes estados).
  • El espacio libre restante, expresado en gigabytes y como porcentaje del total.

Y otra información. El panel inferior contiene una lista de unidades y particiones. Es desde aquí desde donde puede realizar operaciones en volúmenes y unidades. Para hacer esto, haga clic derecho en el nombre del volumen y seleccione una operación específica en el submenú "Acciones".

La principal ventaja de la interfaz es que aquí todo está agrupado: no es necesario recorrer diferentes menús y ventanas para llevar a cabo sus planes.

Operaciones de volumen

Veamos algunas operaciones no obvias con particiones. Primero, analicemos la transición del formato MBR al formato GPT. Ambos formatos corresponden a diferentes tipos de gestor de arranque. MBR es un formato de gestor de arranque clásico, pero ahora obsoleto.

Tiene limitaciones obvias tanto en el tamaño del volumen (no más de 2 TB) como en la cantidad de volúmenes: no se admiten más de cuatro. No confunda volumen y sección: estos son conceptos algo diferentes entre sí. Lea sobre sus diferencias en Internet. El formato GPT se basa en tecnología GUID y no tiene estas restricciones.

Entonces si tienes un disco talla grande– Siéntete libre de convertir MBR a GPT. Sin embargo, en este caso, todos los datos del disco se destruirán; será necesario copiarlos a otra ubicación.

La tecnología de virtualización ha penetrado en todas partes. Tampoco pasó por alto el sistema de archivos. Si lo desea, puede crear y montar los llamados "discos virtuales".

Un "dispositivo" de este tipo es un archivo normal con la extensión .vhd y se puede utilizar como un dispositivo físico normal, tanto para lectura como para escritura.

Esto abre oportunidades adicionales para catalogar información. Esto concluye nuestra historia. La administración de discos en Windows 7 es un tema bastante amplio y, si profundizas en él, puedes descubrir muchas cosas nuevas.

Compartir