Pros y contras de Hyper V. Características de la plataforma de virtualización MS Hyper-V R2. ¿Para qué es todo esto?

Salté un poco ahí de un aspecto a otro. =)

Mirar...

Tiene razón en el sentido de que, de todos modos, en una oficina pequeña, o se crea un clúster o hay un punto de falla en forma de un servidor físico en el que se ejecuta el hipervisor. Es una estupidez discutir con esto. Además, incluso en el caso de un clúster, en la mayoría de los casos todavía hay un único punto de falla en forma de una instalación de almacenamiento en la que residen físicamente los datos. Simplemente porque las SAN replicadas y similares generalmente no son una solución discutida para las pequeñas y medianas empresas. Allí los precios ya ascienden a cientos de miles de dólares sólo por los sistemas de almacenamiento más las licencias.

La advertencia es que hay tres opciones principales:

  • Tienes un hipervisor y N máquinas virtuales.
  • Tienes N servidores físicos
  • Tiene un servidor físico con un sistema operativo (sin virtualización) y todo está instalado en ese sistema operativo.

En el caso de la tercera opción (la peor), tienes problemas a priori. No puede predecir la carga, no tiene seguridad como tal (porque probablemente necesite dar acceso a usuarios en el servidor que también son controladores de dominio) y sus aplicaciones se influyen entre sí. Bueno, por ejemplo, de la vida: "unos" devoraron el 100% de la CPU; todo dejó de funcionar, simplemente porque todo estaba en una instancia del sistema operativo.

La segunda opción suele implicar la compra de varios ordenadores muy baratos (relativamente), que se llaman con orgullo "servidor". He visto esto muchas veces. Las computadoras cliente son esencialmente computadoras con un poco más de recursos y un sistema operativo de servidor. La confiabilidad de tales computadoras es apropiada. Simplemente no están diseñados para funcionar continuamente bajo carga. Ni siquiera me refiero a la calidad de los componentes y el montaje. Con todas las consecuencias. Si puedes comprar varios servidores de marca (tantos como necesites), tienes suerte y la mayoría de los trabajadores de las “pequeñas empresas” te envidian ferozmente.

Bueno, la primera opción. Si sólo necesita comprar un servidor, casi siempre podrá justificar un presupuesto mayor. Explicar que comprarlo una vez eliminará la necesidad de comprar nuevos servidores, digamos, en los próximos dos años. Y podrá comprar un servidor de un fabricante normal (HP\DELL, etc.), que tendrá RAID de hardware normal, componentes de calidad normal, etc. La ventaja es que tendrá soporte de garantía normal. Si utiliza el nivel RAID adecuado, estará protegido contra la pérdida de datos si falla un disco (o incluso dos). Y un disco defectuoso será reemplazado bajo garantía. Además, bajo garantía, todo lo demás será reemplazado por usted (aunque el "resto" falla con mucha menos frecuencia en servidores decentes; durante muchos años, solo recuerdo un par de casos en los que fallaron los componentes). Pero nuevamente, te ahorrarás la búsqueda de “la misma placa base”, porque la garantía cubrirá todo por ti.

Es decir, la confiabilidad es significativamente mayor y existen menos riesgos.

Todo lo que está escrito después de "Basta con comprar un servidor suficientemente potente" se refiere a la segunda cuestión: la compatibilidad de las aplicaciones y su influencia mutua entre sí. Lo cual suele ser un problema mucho más frecuente que la fiabilidad del propio equipo. Podrás recuperar tus datos a partir de una copia de seguridad (tú haces copias de seguridad, ¿no?) en caso de fallo del equipo. Pero en muchos casos, el problema de la compatibilidad y la influencia negativa mutua del software entre sí no podrá resolverse sin comprar un nuevo servidor (es decir, sin inversiones financieras).

¿Qué riesgo es mayor: fallo de hardware o incompatibilidad de software? Lo que es peor si tiene una copia de seguridad normal: un servidor quemado o un programa malicioso que interfiere con el trabajo de otros, pero no puede deshacerse de él (por ejemplo, este es el software que necesita algún departamento para su trabajar)?

La virtualización no es una solución milagrosa; no resolverá todos los problemas a la vez. Y no es necesario implementarlo simplemente porque existe. Pero no deberías renunciar a ello sin considerar todas las ventajas.

Espero que esto sea más claro.

Incluso tras un examen superficial de las ofertas de alquiler de VPS, uno se sorprende por la abundancia de sistemas de virtualización que ofrecen los hosters. Entre ellos se encuentran OpenVZ, Virtuozzo, Xen, KVM, Microsoft Hyper-V, VDSmanager y diversas modificaciones de estas tecnologías. Cada proveedor menciona muchas ventajas del sistema que utiliza, pero pocos comparan las tecnologías de virtualización entre sí y hablan de sus desventajas.

En este artículo llenaremos este vacío y consideraremos objetivamente las principales tecnologías de virtualización utilizadas por los proveedores de alojamiento, que ayudarán a los principiantes a tomar la decisión correcta al alquilar un servidor virtual dedicado.

Virtualización de software y hardware

Las tecnologías de virtualización utilizadas en el hosting se pueden dividir en dos tipos: virtualización de software y virtualización completa (de hardware).
El primer grupo incluye OpenVZ, Virtuozzo, VDSmanager y el segundo grupo incluye Xen, KVM y Hyper-V de Microsoft.

Virtualización de software implica virtualización a nivel del kernel del sistema operativo (SO): todas las máquinas virtuales utilizan un kernel de servidor modificado común. Además, para el usuario, cada máquina virtual parece un servidor independiente.

Debido a que se utiliza un kernel compartido, el sistema operativo de las máquinas virtuales solo puede usar ese kernel. Si hablamos de VPS Linux basados ​​en tecnologías de virtualización de software, el usuario del VPS tiene acceso a cualquier distribución de Linux para elegir (CentOS, Debian, Ubuntu, etc.). Si hablamos de VPS de Windows, los usuarios sólo pueden confiar en un servidor con la misma versión de Windows que está instalada en el hipervisor. Hoy en día, esto suele ser Windows Server 2008.

Las ventajas innegables de la virtualización de software son la velocidad de las máquinas virtuales. Crear un VPS, reinstalar el sistema operativo, cargar el servidor y operaciones similares no llevan ni minutos, sino segundos. Además, debido al ahorro de recursos del nodo (el núcleo se carga una vez y lo utilizan todos los VPS), el costo de dicho VPS es menor que el costo de los VPS basados ​​en tecnologías con virtualización completa.

Desventajas: división de recursos insuficientemente estricta y posibilidad de sobreventa. Sin embargo, con el nivel actual de servidores utilizados para la virtualización, este problema está desapareciendo. Una configuración típica para el servidor de virtualización actual es la siguiente:

Procesadores: 2 x Intel Xeon E5620 (8 núcleos físicos)
RAM: 48-96 GB de registro ECC
Sistema de disco: 4 x 450 GB SAS Hardware RAID 10 (aproximadamente 5 veces más rápido que las unidades SATA)

Dicho nodo permite colocar hasta 50 servidores con los siguientes parámetros sin ningún inconveniente para los usuarios:

Procesador: 1800-3600 MHz
RAM: 2048-4096MB
Disco duro: 20-40 GB

Al elegir un VPS basado en virtualización de software, nunca debe perseguir ofertas baratas; generalmente significan que el proveedor de alojamiento está sobrevendiendo (vendiendo más recursos de los que tiene). El precio normal de un VPS medio con recursos, como indicamos anteriormente, es de 15-20$ mensuales.

Virtualización de hardware es la virtualización a nivel de hardware, una especie de "corte" honesto de un servidor potente en varias máquinas más débiles. Cada servidor está completamente aislado de sus vecinos y casi todos los recursos son limitados.

Las ventajas obvias son una mayor estabilidad de las máquinas virtuales. A diferencia de la virtualización de software, donde incluso si el proveedor de alojamiento no vende demasiado, la carga excesiva en un contenedor puede provocar problemas en el funcionamiento de los contenedores vecinos, en la virtualización de hardware los VPS son tan independientes como lo son los servidores físicos dedicados. Dado que cada máquina utiliza su propio kernel, se pueden ejecutar varios VPS simultáneamente en un servidor con cualquier sistema operativo, por ejemplo, Linux, Windows y FreeBSD al mismo tiempo. Para el proveedor de alojamiento, esto es, por supuesto, una ventaja más significativa que para el usuario, pero a veces es posible que los usuarios necesiten cambiar el sistema operativo, por ejemplo, de Linux a FreeBSD.

A veces, a los clientes se les ofrece la oportunidad de instalar un sistema operativo a partir de sus propias imágenes ISO, lo cual es bastante conveniente para necesidades específicas, por ejemplo, implementar un servidor de telefonía basado en Asterisk.

Las desventajas se derivan de las ventajas: debido al aislamiento completo del VPS y la imposibilidad de utilizar los mismos recursos en diferentes servidores, el proveedor de alojamiento puede colocar menos servidores en un nodo que cuando utiliza la virtualización de software. Si consideramos la configuración anterior de un nodo y VPS, la cantidad de servidores que un proveedor de alojamiento puede colocar en dicho nodo se reducirá aproximadamente una vez y media. Esto significa que el precio del servidor también aumentará.

El funcionamiento de un VPS en virtualización de hardware no es diferente del funcionamiento de servidores dedicados, lo que significa que operaciones como crear un VPS, instalar un sistema operativo o reiniciar el servidor no tomarán unos segundos, sino tanto como en servidores dedicados. Aunque si el sistema operativo se instala desde una plantilla preparada y no desde una imagen, tardará entre 3 y 5 minutos.

¿Vale la pena estos VPS basados ​​en virtualización de hardware con estas desventajas? Si necesita exactamente la cantidad de recursos por los que paga, y la independencia total es importante y no los compromisos, entonces sí, vale la pena.

Características de cada tecnología para el usuario.

AbiertoVZ es una tecnología de virtualización gratuita utilizada por la mayoría de proveedores de hosting y soportada por muchos paneles de control de servidores VPS, tanto de pago (SolusVM, VDSmanager) como gratuitos (HyperVM, OpenVZ Web Panel).

OpenVZ se está desarrollando activamente y es el primero en recibir todas las innovaciones que, después de las pruebas, entran en funcionamiento. Virtuozzo– una versión comercial de OpenVZ, desarrollada y promovida por Parallels Corporation como una plataforma óptima de alojamiento VPS.

Por supuesto, la tecnología comercial Virtuozzo es más estable y más fácil de administrar para el usuario (tomemos el mismo Parallels Power Panel, que está incluido en la distribución del sistema y viene con contenedores), pero al mismo tiempo, esta tecnología no es barata. Los VPS basados ​​en Virtuozzo tienen un costo cercano al de los VPS basados ​​en virtualización de hardware, mientras que los VPS basados ​​en OpenVZ son significativamente más baratos, casi el doble. Además, las herramientas actuales de administración de VPS en OpenVZ hacen que trabajar con datos de VPS sea bastante aceptable e incluso conveniente para los usuarios.

Vale la pena señalar que existe una versión de Virtuozzo para Windows, que funciona según el mismo principio que para Linux.

Desafortunadamente, FreeBSD no es compatible ni con Virtuozzo ni con OpenVZ, pero ambos sistemas son compatibles con la mayoría de las distribuciones de Linux modernas.

Administrador de VDS es una tecnología de virtualización de software para FreeBSD, que luego creció hasta convertirse en un panel de control universal que ahora admite otras tecnologías de virtualización, en particular KVM, Xen y OpenVZ.

Sin embargo, es mejor elegir esta tecnología de virtualización precisamente si necesita un VPS con virtualización de software en FreeBSD.

Para VPS con Linux, es mejor elegir otras soluciones: son más estables y, por regla general, más funcionales. Una de las mejores opciones es OpenVZ con SolusVM. No muy lejos está el OpenVZ Web Panel gratuito recientemente lanzado, que ya está empezando a ser utilizado activamente por los proveedores de hosting.

xén y KVM desde el punto de vista del usuario son casi similares tanto en funcionalidad como en rendimiento. Sin embargo, vale la pena señalar que Xen, que ingresó anteriormente al mercado de alojamiento VPS, ahora está evolucionando de una plataforma VPS a una plataforma en la nube. Por ejemplo, ya se ha formado una distribución separada orientada a la nube: Citrix XenServer.

KVM tiene algunas ventajas: por ejemplo, es una parte integral del kernel y no un módulo como Xen y, en consecuencia, se está desarrollando más activamente junto con el desarrollo de distribuciones, en particular los sistemas basados ​​​​en Redhat. Los proveedores ven esta tendencia y están migrando de Xen a KVM.

Por tanto, si necesitas un VPS independiente del hardware con Linux o FreeBSD, te recomendamos elegir KVM, de cara al futuro.

Las herramientas de gestión del servidor Xen/KVM también son suficientes. Consideramos que SolusVM es una de las mejores opciones: un panel universal para OpenVZ, Xen y KVM VPS, que ocupa alrededor del 90 por ciento del mercado extranjero de VPS y que los proveedores nacionales ya están implementando activamente.

Hiper-V– hipervisor de hardware de Microsoft. Hoy en día, se considera legítimamente la mejor solución para virtualizar servidores con sistema operativo Windows y los proveedores de alojamiento lo están implementando activamente.

La mejor opción para VPS por hardware con Windows integrado, pero no la mejor solución para VPS con Linux o FreeBSD. Por esta razón, la mayoría de los proveedores de alojamiento posicionan Hyper-V como virtualización para VPS de Windows.

VMware es una costosa tecnología comercial de virtualización de hardware, que hoy en día se utiliza principalmente para VPS en la nube (el usuario puede cambiar la cantidad de recursos disponibles sobre la marcha y luego pagar por la cantidad utilizada). Los VPS tradicionales en WMware son muy raros debido al costo de esta tecnología. Tenga en cuenta que las máquinas virtuales VMWare son fáciles de transferir entre nodos físicos sin detenerse.

No existe un sistema de virtualización ideal para el alojamiento VPS y probablemente no pueda existir. Cada sistema es bueno para sus propias tareas: si necesita un VPS que sea rápido de administrar y operar al precio más bajo, pero la comodidad y la estabilidad no son críticas, OpenVZ es el más adecuado. ¿Valora la estabilidad y la comodidad, pero necesita los beneficios de la virtualización de software? Entonces tu elección es Virtuozzo. KVM es perfecto para aquellos que necesitan una "pieza" honesta de un servidor dedicado, pero el proyecto aún no ha llegado al punto de alquilar un servidor completo, y así sucesivamente.

Todas las soluciones de software anteriores tienen sus pros y sus contras. En cada caso individual, es necesario seleccionar individualmente el paquete de software más adecuado para resolver un problema específico.

En términos de familiaridad con la interfaz, Microsoft está claramente a la cabeza con su paquete Hyper-V. Debido a que actualmente la mayoría de los usuarios de computadoras personales son usuarios de Windows, este producto en particular es una transición más natural en términos de conveniencia. De hecho, esta es otra ventaja, porque una sola organización utiliza software de un solo fabricante.

Una ventaja importante de utilizar Microsoft Hyper-V es también su amplia compatibilidad de hardware. Al ser un componente del sistema Windows, este hipervisor admite los mismos controladores.

Entre las desventajas está la falta de soporte para proveedores de software alternativos. Si a Microsoft le está yendo bien con el soporte para la parte física, entonces, para aplicaciones de terceros, Hyper-V no es el hipervisor más compatible. Bueno, la principal desventaja también se puede atribuir al hecho de que, a pesar de las capacidades bastante amplias, la funcionalidad de este producto es significativamente inferior a la de los desarrollos de la competencia.

XenServer tiene el soporte de proveedores y aplicaciones más limitado, pero es completamente gratuito. Y, a pesar de su escasa funcionalidad, puede satisfacer con creces los requisitos de tareas de baja complejidad. También una ventaja importante en algunos casos es el código fuente abierto del producto. Oracle VirtualBox, por ejemplo, tiene estas cualidades.

De toda la gama de herramientas de virtualización enumeradas, la más potente y con todas las funciones es el conjunto de aplicaciones VMware vSphere.

Además de la amplia gama de funciones proporcionadas, este fabricante cuenta con el mejor soporte de los proveedores. El sistema está respaldado por la mayor cantidad de productos de software.

Pero en términos de compatibilidad de hardware, vSphere es ligeramente inferior a Hyper-V, aunque no de manera significativa.

La principal desventaja de VMware es su elevado coste inicial. Además, es más rentable no adquirir algunos componentes de este producto. Como ejemplo, podemos considerar uno de los componentes del producto: la tecnología de almacenamiento de datos vSAN. Este es uno de los últimos desarrollos en VMWare, que le permite utilizar discos locales de servidores de virtualización como almacenamiento de datos de clúster compartido. Sobre la base de discos locales, se ensambla el almacenamiento virtual, accesible a todos los nodos del clúster. Esta tecnología se licencia por separado. También requiere discos SSD de alta velocidad en los nodos, además de los de eje convencional. Es deseable disponer de una red de transmisión de datos de alta velocidad entre nodos. De hecho, esta tecnología está diseñada para reducir los costes económicos de un sistema de almacenamiento de datos. Pero cuando se tiene en cuenta el costo de las licencias y las suscripciones, así como el costo del hardware necesario para ejecutarlo, el costo es, en algunos casos, más alto que el de los sistemas de almacenamiento externo.

Oleg Tereshchenko, o.tereshenko@sitio

Introducción

Antes de iniciar una conversación sobre virtualización, como siempre, “pongámonos de acuerdo sobre la terminología”.

Si ignoramos las antiguas raíces romanas del origen de la palabra "virtual", "virtualidad", entonces, en nuestra opinión, la palabra o concepto "virtual" llegó al lenguaje moderno a partir de la física teórica. Cuando una fórmula matemática que se suponía que describiría un fenómeno o proceso físico particular "no cumplió con sus fines", los físicos comenzaron a utilizar activamente el concepto de "virtual", una cantidad convencional, masa, energía, partícula, lo que ayudó a llevar la fórmula a una mente “digerible”.

Más tarde, con el desarrollo de la tecnología informática, se empezó a utilizar el concepto de "realidad virtual": la creación de una especie de realidad alternativa, basada principalmente en una visualización audiovisual de un proceso informático particular. En primer lugar, esto se aplica a los juegos de ordenador y a diversos tipos de visitas virtuales: museos, centros turísticos populares, etc.

En este artículo hablaremos sobre otro concepto relevante de virtualidad en los sistemas informáticos modernos: la virtualización de servidores, estaciones de trabajo, sistemas de almacenamiento, etc.

Virtualización de servidores

Todo el mundo, tarde o temprano y por diversos motivos, empieza a pensar en la virtualización.

Inmediatamente surge la pregunta sobre la elección de un entorno de virtualización. Por el momento ya hay muchos de ellos: "Hyper-V", "V-sphere", "Citrix", etc... Centrémonos en los dos primeros, ya que son los más comunes y universales.

"Hyper-V", un desarrollo de Microsoft, ya está presente en todos los sistemas operativos de su familia, comenzando con Windows 8. Si el procesador admite virtualización, puede habilitar este componente y comenzar a usarlo. También se puede instalar como un servidor independiente con una única tarea: servir como "host" para máquinas virtuales.

"V-sphere" es un sistema operativo independiente para organizar un entorno de virtualización. Existe una versión de pago y otra gratuita.

¿Para qué es todo esto?

Cuando se utiliza el modelo "un servidor físico, una aplicación", los recursos de la mayoría de los servidores no se utilizan por completo. Por ejemplo, un servidor de base de datos puede tener una gran carga, pero otros servidores no. Resulta que en una empresa o centro de datos donde se implementan una gran cantidad de servidores físicos, la carga en cada uno de ellos promedia entre el 10% y el 15%. No es económicamente rentable, no es eficiente y es difícil de gestionar.

La virtualización permite reducir el número de servidores físicos y distribuir los recursos según la carga de trabajo, destinando más o menos recursos a cualquier servicio.

Cuando se utilizan servidores físicos, no hay forma de agregar espacio en disco a ningún servidor sin detenerlo, lo cual no es conveniente.

Además, la virtualización puede reducir el consumo de energía. 4 servidores físicos con una carga promedio del 10% consumirán más energía que un servidor con una carga promedio incluso del 80%.

Un hecho importante es la simplificación de la gestión de toda la infraestructura de TI.

Por ejemplo:

Con la virtualización es posible acceder de forma remota a la consola de servidores virtuales y cambiar las características del hardware.

No es necesario comprar dispositivos costosos por separado, como conmutadores IP-KVM.

Simplemente vamos a la consola del servidor deseado y presionamos el botón “reset” en lugar de ir a la sala del servidor y presionar el botón en el servidor.

También es posible tomar instantáneas del estado del servidor virtual.

Si algo sale mal, digamos durante el proceso de actualización, volvemos a la instantánea que tomamos anteriormente y todo funciona. El procedimiento no lleva mucho tiempo.

Entonces, el servidor virtual no tiene idea de en qué plataforma de hardware se está ejecutando. Esto tiene sus ventajas, por ejemplo, tenemos un entorno virtual en la plataforma IBM.

Podemos detener fácilmente un servidor virtual, moverlo a un entorno virtual similar implementado en una plataforma Supermicro o Intel e iniciarlo allí. Tras lo cual el servidor se iniciará y, sin notar la diferencia, continuará su trabajo, como si simplemente lo hubieran reiniciado. Esta “transferencia” tardará unos minutos.

Este comportamiento simplifica enormemente el procedimiento de copia de seguridad y posterior restauración completa tanto de los datos como de los servidores virtuales (con todos los parámetros, configuraciones y software instalado).

Pros y contras

Entre las desventajas de un sistema de este tipo: es muy posible que tenga que comprar un nuevo servidor, debido a los requisitos del entorno de virtualización. Dado que la implementación de una solución de virtualización requiere soporte de procesador para tecnologías de virtualización de hardware, un procesador Intel VT, por ejemplo.

Muchos procesadores que se lanzaron anteriormente no tienen tales capacidades y es posible que se produzca un "punto único de falla".

Por ejemplo, existe un entorno virtual en el que funcionan el servidor AD, el servidor WEB y, por ejemplo, un servidor terminal. En un momento dado se produce un fallo de hardware del entorno virtual, un fallo de suministro eléctrico, por ejemplo, esto es lo más inofensivo. Uno de los discos duros de la matriz RAID, el propio controlador RAID o la placa base pueden fallar (fallas similares son típicas de todos los servidores físicos).

El entorno virtual no se inicia y, por tanto, los servidores virtuales no funcionan.

Al planificar un entorno virtual, es necesario pensar inicialmente en la tolerancia a fallos, antes de empezar a utilizarlo.

En el lado positivo, mayor seguridad, simplificación significativa de la administración y soporte, creación más sencilla de copias de seguridad, recuperación posterior rápida y sencilla, transferencia de servidores virtuales entre diferentes plataformas, tiempo de inactividad mínimo en caso de posibles fallas, ahorro de espacio, costos de energía reducidos cuando El uso de Microsoft Windows OS Server es una oportunidad para ahorrar en licencias para ejecutar servidores virtuales.

Alimento para el pensamiento

Dado que surge la oportunidad de crear copias de archivo de cualquier cosa "sobre la marcha"... entonces no debe almacenar las copias junto a los originales, debe moverlas a algún otro dispositivo. Por ejemplo, USB-HDD, un disco conectado a través de E-SATA acelerará el proceso de intercambio.

Pero el almacenamiento en un sistema de almacenamiento será mucho más confiable y funcional.

En la última opción, será posible implementar un sistema de virtualización similar, en caso de una falla del sistema principal, y ejecutar copias de los servidores virtuales en funcionamiento directamente desde este sistema de almacenamiento (funcionará, por supuesto, más lento, aunque Depende del sistema de almacenamiento, pero funcionará).

Esto le permitirá minimizar el tiempo de inactividad y no apresurarse demasiado al restaurar el sistema principal.

Entre otras cosas, si el sistema de almacenamiento lo permite por sus características técnicas, entonces es posible colocar máquinas virtuales en él, en lugar de colocarlo en un servidor de virtualización, lo que a su vez permitirá que el servidor de virtualización no tenga ningún disco.

El propósito de escribir este artículo es estudiar el desempeño del programa. 1C en máquinas virtuales Plataformas ESXi y HyperV. Para mayor claridad de la evaluación, se agregó un servidor de hardware a las pruebas como muestra de referencia.

La idea de este estudio surgió de la observación de problemas con rendimiento de las configuraciones 1C utilizando formularios administrados en un entorno virtual. Si, por ejemplo, la configuración de UT 10.3 funcionó perfectamente en un entorno virtual, entonces UT 11.0 comenzó a ralentizarse drásticamente y a causar insatisfacción en el usuario, y no hubo escasez de recursos: 1C simplemente funcionó lentamente. La única solución que ayudó en la mayoría de los casos fue transferir las funciones del DBMS y del servidor 1C empresarial a un servidor físico, lo que, por supuesto, implica altos costos, menor tolerancia a fallas, etc. Por el momento, la mayoría de las empresas todavía continúan trabajando con 1C en un entorno virtual, muchas de ellas se quejan del bajo rendimiento, pero no asignan fondos para servidores físicos; esperan que 1C optimice el producto para la virtualización o la virtualización misma. mejorará.

El segundo requisito previo para este estudio fue el anuncio de Microsoft sobre el soporte para máquinas virtuales de segunda generación en el hipervisor basado en el sistema operativo Windows Server 2012R2. En consecuencia, se volvió interesante cómo funcionarían estas nuevas máquinas en general y con 1C en particular, ya que su descripción es bastante interesante: no tienen emulación de dispositivos heredados como IDE, BIOS, puertos de E/S, controladores de interrupción, etc. Cuando se inicia el sistema operativo de la máquina virtual invitada, detecta que se está ejecutando en un entorno virtual y se comunica directamente con el hipervisor. Instalar el sistema operativo, cargarlo y reiniciarlo es mucho más rápido en comparación con las máquinas de primera generación.

Para realizar el estudio, se seleccionaron cuatro configuraciones diferentes basadas en la plataforma 1C:Enterprise 8.3 (8.3.5.1186):


Y cuatro plataformas en las que se midió su desempeño:

  • VMware ESXi 5.1;
  • servidor físico;
  • Windows Server 2012R2 HyperV (1.ª generación);
  • Windows Server 2012R2 HyperV (2Gen).

Los recursos del servidor de hardware se asignaron de la siguiente manera:

  • procesador central – Intel Core i5 3330 (3,0 Ghz);
  • Memoria de acceso aleatorio (RAM) – 16 GB DDD3;
  • disco duro – SSD Intel de 240 Gb.

Los hipervisores se implementaron en la misma plataforma de hardware con 8 GB de RAM y 4 procesadores virtuales. Todas las bases de datos excepto ERP 2.0 son bases de datos reales con las que trabaja la empresa, están llenas de datos reales. Se utilizó MSSQL 2012 como DBMS. El sistema operativo en el servidor físico y las máquinas virtuales fue Windows Server 2012R2. El servidor de aplicaciones Enterprise 1C y el DBMS se instalaron en un servidor y se operaron en modo de memoria compartida.

Pruebas prácticas y resultados de las pruebas.

Gestión comercial 11
Operaciones típicasVMware ESXicomputadora
Tiempo de inicio de la configuración, segundos58 61 20 18
Informe financiero: análisis de flujos de efectivo (para el año), seg.9 5 2,5 5
Marketing – informes de marketing y planificación – análisis de productos ABS/XYZ, seg.30 41 20 27
Ventas – Informes de ventas – Ingresos y costos de ventas, seg.20 15 7,5 7
Compras – informes de inventarios y compras – estados de saldos de almacén, sec.14 8 7 10
Almacén – informes de almacén – lista de mercancías en almacenes, seg.24 3 1 2
Almacén – movimiento de mercancías, sec.9 15 6 3
Reconducción del trimestre 3er trimestre 2014 3381 documentos, seg.3252 2987 1436 2003

Tabla 1 – Resultados de las mediciones de la velocidad de las operaciones de configuración Gestión comercial 11


Diagrama 1 – Reconducción del trimestre

ERP 2.0
Operaciones típicasHyper-V 2012. VM 1.ª generaciónHyper-V 2012. VM 2-d generaciónVMware ESXicomputadora
Puntuación del examen de Gilev 8,3 17,12 17,12 25 24,15
Hora de inicio de la configuración64 65 36 40
Marketing y planificación: informes de marketing y planificación1 1 2 1
Marketing y planificación – Informes de marketing y planificación – Análisis de dependencia del cliente (CDA)1 1 1 1
Ventas: estado de obtención de pedidos1 2 1 2
Compras – informes de inventarios y compras – saldos de bienes aceptados para comisión. (año)2 6 1 2
Almacén – informes de almacén – lista de mercancías en almacén (año)2 2 1 2
Almacén – pedido para consumo interno1,5 1,5 1 2
Producción – Informe de producción – Estado de las instalaciones operativas1 1 1 2
Salario – informe salarial – nómina de empleado del año21 22 16,5 22
Finanzas – Estados Financieros – Análisis de Flujo de Caja (Año)1,5 1,5 1 2
Finanzas – resultado financiero – Cierre de resultados del mes135 140 121 158
Presupuesto – informes presupuestarios – hoja de facturación por partidas presupuestarias (año)22 9 6 7
Contabilidad Financiera Internacional – Informe de Contabilidad Financiera Internacional – Análisis del Subconto (Año)2 5 1 2

*Los mejores resultados de la prueba práctica están resaltados en verde.


Tabla 2 – Resultados de las mediciones de la velocidad de las operaciones de configuración del ERP 2.0



Diagrama 2 – Indicador de prueba de Gilev 8.3

contabilidad empresarial
Operaciones típicasHyper-V 2012. VM 1.ª generaciónHyper-V 2012. VM 2-d generaciónVMware ESXicomputadora
Hora de inicio de la configuración8 19 9,4 11
Contabilidad, impuestos, informes – Informe de contabilización (año)3 8 3 5
Directorios y configuración contable – Rotación de cuentas (año)10 3 1 2
Directorios y configuraciones contables – Análisis de facturas del año2 2 1 2
Directorios y configuraciones contables – Balance (año, todos los indicadores)2 2 1 2

*Los mejores resultados de la prueba práctica están resaltados en verde.


Tabla 3 – Resultados de las mediciones de la velocidad de las operaciones de configuración Contabilidad empresarial

SCP
Operaciones típicasHyper-V 2012. VM 1.ª generaciónHyper-V 2012. VM 2-d generaciónVMware ESXicomputadora
Hora de inicio de la configuración44 30 20,9 30
Informe financiero – análisis de flujos de efectivo (para el año)3 2 0,5 1
Informes – ventas – Análisis (XYZ\ABS) (año)76 92 73 80
Informes - Costos - Análisis de asignación de costos (año)27 31 16 22
Informes – Adquisiciones – Análisis plan-real de adquisiciones (año)6 8 5,3 10
Informes – Inventario – Mercancías en almacenes (año)2 1 1 1
orden del comprador1 1 1 1
Restauración de la secuencia de contabilidad fiscal del sistema tributario simplificado.5 4 1 1

*Los mejores resultados de la prueba práctica están resaltados en verde.


Tabla 4 – Resultados de las mediciones de la velocidad de las operaciones de configuración del arrancador suave



Diagrama 3: tiempo para iniciar configuraciones en varias plataformas en segundos

Conclusiones

  1. Las máquinas virtuales Hyper-V de primera y segunda generación prácticamente no se diferencian entre sí. Su desempeño en varias pruebas fue diferente, pero es imposible decir con certeza qué generación funciona mejor con 1C, ya que alternativamente una generación u otra mostró mejores resultados. No vale la pena hacer la transición a máquinas de nueva generación con la esperanza de aumentar el rendimiento de 1C.
  2. Las mediciones de rendimiento en VMware fueron inesperadas. 1C en una máquina virtual en la mayoría de los casos funcionó más rápido que en una plataforma de hardware. A veces, muestra una superioridad simplemente increíble; por ejemplo, volver a ejecutar una cuarta parte en la configuración UT 11 tomó un 40% menos de tiempo que en una computadora con hardware. El retraso de las máquinas virtuales en HyperV fue de más del 108% y 126% para la segunda y primera generación, respectivamente. Lo más probable es que este fenómeno se deba a un mejor rendimiento de los controladores de VMWare con hardware, en comparación con otros similares de Microsoft. También es posible que ESXi cree un caché para almacenar datos y así procesar la información más rápido.

La siguiente etapa de la investigación es desplegar bases de trabajo. 1C en máquinas virtuales hipervisor ESXi y recopilar comentarios de los usuarios después de un tiempo. Este será el indicador más importante mediante el cual será posible concluir si este hipervisor es realmente tan bueno para ejecutar 1C en un entorno virtual.

Integración del sistema. Consultante




Arriba