1

Mejore sus finanzas aplicando virtualización

A pesar de tratarse de un concepto totalmente tecnológico –y de larga data– existe un interés reciente, y cada vez mayor, en el uso de la virtualización por parte de gerentes que no necesariamente manejan el área de TI. Es así como líderes de proyectos, administradores y hasta presidentes de compañías ordenan a sus departamentos de TI investigar sobre el tema, alentados por sólidos resultados financieros de empresas que ya la aplican, así como preocupados por los altos costos de operación de TI y las grandes inversiones necesarias para crecer.

[<img border=”0″ src=”/pcwla2.nsf/0/29A44D10C957AB2D852575110010FD8B/$File/33cielodoc08.gif”>]

La virtualización tiene muchas ventajas –y muy pocas desventajas– a pesar de lo que puedan creer algunas unidades de negocios que no ven con buenos ojos compartir sus recursos de TI con otras áreas.

La reducción de costos de adquisición de equipos junto a los ahorros de operación –principalmente de consumo eléctrico y personal para administrar los servidores– se unen a las mejoras contables que permiten facturar adecuadamente el consumo de recursos TI a cada área.

Pero ¿es realmente la virtualización una opción para todos los tamaños de empresas? ¿Están listas las PyME para aprovechar esta ventaja tecnológica?

PC World conversó con expertos en diferentes áreas para conocer el alcance de esta tecnología y sus aplicaciones en los negocios, para, de esta forma, llevar a nuestros lectores una imagen completa de la actualidad de esta tecnología y como se puede aplicar para hacer más rentable su negocio.

-Por Alcides León

La virtualización debería ser un concepto fácil de entender para los gerentes, porque en esencia se trata de colocar todos los recursos de TI juntos en un solo lugar y desde allí cada aplicación toma lo que necesita para funcionar, según Lilian Schäffer, gerente de Mercadotecnia y de Desarrollo de Canales del área de Software para Latinoamérica de HP. Gracias a su aplicación se permite aprovechar mejor los recursos desaprovechados que existen dentro de cada organización.

La virtualización tiene mucho que ver con los servicios en demanda y permite a los gerentes de las empresas comprar equipos diseñados para atender la carga normal de trabajo de su unidad de negocios, pero contar al mismo tiempo con una capacidad extra que sólo se activa al momento de necesitarlo y que puede ser facturado de acuerdo al uso, algo que permite una mejor planificación financiera.

La consolidación de servidores facilita que distintas operaciones (por ejemplo, la carga transaccional y el procesamiento de datos en lote) puedan realizarse en una sola máquina con instancias virtuales que se ejecutan a diferentes tiempos, tomando para sí la casi totalidad de los recursos. El ahorro de consumo eléctrico logrado gracias a la consolidación es clave para los gerentes de proyectos y tiene influencia real en el presupuesto.

Actualmente, según Freddy Alves, director del Grupo de Sistemas y Tecnología para la región de los países de América del Sur de habla hispana de IBM, una compañía que ocupe un edificio de doce pisos y tenga un centro de datos que llene un piso completo, notará que su plataforma tecnológica representa el 50 por ciento del total de la factura por suministro eléctrico. De hecho, el ejecutivo señala que algunos de los clientes que atienden en IBM han realizado proyectos de adecuamiento de sus centros de datos, implementando virtualización y consolidación de servidores, y el retorno de inversión es tal que en sólo 14 meses han recuperado la inversión y han empezado a generar ganancias. Esta reducción viene dada por la disminución de servidores por un lado, y por el otro por la disminución de la necesidad de refrigeración de los mismos. Señala, además, que dada la crisis de distribución (que no de producción) de electricidad que existe en muchas partes del mundo, la virtualización es para muchas empresas la única forma de crecer ante una realidad en la que un centro de datos ha copado su capacidad energética.

La reducción de personal es otro resultado importante de la aplicación de la virtualización. Los ambientes de administración de infraestructura TI para la virtualización simplifican el proceso y permiten realizar reducciones de personal que impactan positivamente el presupuesto del departamento de TI.

[<img border=”0″ src=”/pcwla2.nsf/0/29A44D10C957AB2D852575110010FD8B/$File/33dic08.gif”>]

Es claro que desde el punto de vista financiero, la virtualización permite a las empresas reducir el capital invertido en TI, al contar con ahorros no sólo en adquisición de equipos, sino también en operación y en consumo energético. Y más importante aun: permite al departamento de TI facturar a cada unidad de negocios el uso que hacen de la plataforma. Esto trae un cambio significativo en la forma de funcionar de las empresas y los gerentes de distintas áreas empiezan a discutir, cuestionar y alentar las decisiones de TI. Es justo en ese momento cuando ocurre un cambio importante en cualquier organización y el departamento de TI deja de ser un centro de gastos –tipo caja negra– para convertirse en un centro de costos –justificados y mesurables– y las decisiones de TI se acoplan más a la estrategia de negocios.

Tipos de virtualización

Hay varias formas de ver la virtualización, pero en general se trata de uno de estos dos casos: virtualización de plataforma o virtualización de recursos. En el primer caso se trata de simular una máquina real con todos sus componentes –que no necesariamente son todos los de la máquina física– y prestarle todos los recursos necesarios para su funcionamiento. En general, hay un software anfitrión que es el que controla que las diferentes máquinas virtuales sean atendidas correctamente y que está ubicado entre el hardware y las máquinas virtuales. Dentro de este esquema caben la mayoría de las formas de virtualización más conocidas, incluidas la virtualización de sistemas operativos, la virtualización de aplicaciones y la emulación de sistemas operativos.

La virtualización de recursos, por su parte, permite agrupar varios dispositivos para que sean vistos como uno solo, o al revés, dividir un recurso en múltiples recursos independientes, y generalmente se aplica a medios de almacenamiento. Sin embargo, hay otra forma de virtualización de recursos muy popular: las redes privadas virtuales o VPN, abstracción que permite a una PC conectarse a una red corporativa a través de la Internet, como si estuviera en la misma sede física de la compañía.

Cómo se llega a la virtualización

Marcelo Lozano, consultor en Tecnología y Negocios PNUD, es un experto en el tema de virtualización que asesora actualmente al gobierno de Argentina (ver recuadro Virtualización y Estado). Lozano señala que la necesidad de utilizar virtualización dentro de las empresas casi siempre llega desde el Presidente o CEO de la empresa, en lugar de provenir del CIO o CTO, y nace de la necesidad estratégica del negocio de contar con acceso a una diversidad de plataformas y renovar su poder computacional en un parque existente, maximizando así el retorno de la inversión.

[<img border=”0″ src=”/pcwla2.nsf/0/29A44D10C957AB2D852575110010FD8B/$File/34alejandrodic08.gif”>]

Añade Lozano que “en todos los casos, como toda implementación estratégica, el resultado no sólo es una cuestión de capacidad técnica, es una cuestión de liderazgo activo para la implementación”, reflejando el compromiso que debe asumir la organización como un todo.

En su rol de consultor, Lozano cree que la virtualización debe ser transparente a la organización y tener foco en impactar positivamente en el negocio, aunque no descarta que “la mejora en el rendimiento de los sistemas termine mejorando o suprimiendo algunos procesos por innecesarios.”

Sistemas operativos y licencias

Alves, de IBM, señala que la virtualización tiene impactos diferentes en los equipos según sean su arquitectura y el sistema operativo que utilicen, aunque los efectos siempre son positivos. “Al revisar cifras de utilización de una CPU de un sistema que no utiliza virtualización, los equipos ‘mainframe’ utilizan más del 90 por ciento de su capacidad de procesamiento, en UNIX el uso baja a cerca de un 40 por ciento y en equipos basados en arquitectura x86 es aproximadamente un 10 por ciento. Al aplicar virtualización, los mainframes son capaces de alcanzar el 100 por ciento de ocupación, un equipo Unix –en este caso con procesadores Power de IBM– puede llegar al 95 por ciento de utilización constante, mientras que un equipo x86 sube la tasa de ocupación hasta un 45 por ciento en equipos normales y hasta un 60 por ciento en el caso de los servidores tipo ‘blade’ que están mejor configurados para el trabajo”, sentenció Alves.

Pero una vez que un centro de TI es capaz de generar máquinas virtuales para atender sus necesidades, el licenciamiento de las aplicaciones y los sistemas operativos también debe adecuarse a esta nueva realidad. Hoy día existen preocupaciones serias porque no hay un estándar en licencias definidas para atacar el tema, pero a decir de Alves debe ocurrir lo mismo que ocurrió con los núcleos de procesamiento dentro de los procesadores, donde en aproximadamente un año se estableció una especie de estándar de facto. Actualmente los esquemas de licenciamiento de sistema operativos para grandes centros de datos contemplan opciones de un número fijo o ilimitado de instancias del sistema que se pueden usar de manera simultánea, pero el esquema para centros de datos de menor tamaño no está tan claro.

¿Es posible en arquitectura x86?

Desde el lanzamiento de Windows Server 2008, la virtualización ha empezado a estar más ligada con el nombre de Microsoft. Y es que la virtualización es para la compañía de Redmond, una ruta clave hacia el concepto de las TI Dinámicas, donde los recursos físicos y virtuales de los sistemas de escritorio y los servidores se administran a través de una sola consola para brindar mayor flexibilidad y facilidad.

[<img border=”0″ src=”/pcwla2.nsf/0/29A44D10C957AB2D852575110010FD8B/$File/35gabrieladic08.gif”>]

“Aunque la virtualización generalmente se asocia con la consolidación de los servidores, la aplicación de tecnologías de virtualización en los sistemas de escritorio también ofrece mejoras importantes en eficiencia, flexibilidad, continuidad y agilidad”, comentó Carlos González, director de Sistemas Cliente Windows en Microsoft Latinoamérica.

Alejandro Martínez, gerente de Mercadotecnia y Producto para el negocio de sistemas operativos de servidores estándares de la industria en Microsoft de México, tiene la responsabilidad de la estrategia de virtualización de Microsoft para Latinoamérica. Para Microsoft, la mejor definición posible de virtualización está expresada en términos de negocios: se trata de una herramienta que ante todo permite a sus usuarios reducir los costos, les permite incrementar la disponibilidad de sus recursos de TI, permite una mayor flexibilidad y un menor tiempo de respuesta a las necesidades de crecer y ajustarse, todo esto administrado de una manera sencilla y centralizada.

Martínez señala que la virtualización rompe los enlaces tradicionales entre tres componentes básicos: hardware, sistema operativo y aplicación, volviéndolos, de alguna manera, independientes uno del otro. Al estar desacoplados, se pueden agrupar los distintos recursos de maneras poco tradicionales y aprovechar los recursos ociosos.

En Latinoamérica, Microsoft ha descubierto que la carga de trabajo promedio de la mayoría de los servidores es de un 7 por ciento, lo que significa que las empresas suelen contar con infraestructuras muy superiores a las que necesitan. Las propuestas de virtualización apuntan hacia aumentar la utilización de los servidores para aprovechar la capacidad de carga ociosa en lugar de crecer con nuevos servidores que también estarán ociosos la mayoría del tiempo. Los resultados prácticos arrojan que la utilización del servidor suele aumentar a cerca de un 50 por ciento sin detrimento de ninguna de las aplicaciones.

Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *