20
Virtualización Concepto Virtualización para facilitar la administración El desafío actual enfrentado por la industria de tecnología de la información (TI) es el de continuar produciendo sistemas menores, más suaves y más rápidos y, al mismo tiempo, encontrar mejores medios de administrar las complejidades de las tecnologías computacionales. La industria direcciona un gran esfuerzo a la seguridad y a la administración de informaciones y de dispositivos para la producción de sistemas más flexibles, de modo a tornarlos disponibles a los usuarios a cualquier tiempo, en cualquier lugar. El concepto de Virtualización de plataforma abre espacio para futuros dispositivos poderosos, autónomos y confiables. La Virtualización de plataformas puede ser definida como la creación de un sistema computacional lógicamente segmentado, que funciona en una base real. Las plataformas virtuales son vistas por el usuario y funcionan como si fueran computadores físicos. Una vez que son abstractas y divididas, a partir de bases ocultas y de ellas mismas, las plataformas virtuales son fácilmente transportables y robustas para simplificar la complejidad y, de esta forma, aumentan la seguridad. La Virtualización es una forma de crear sistemas menos complejos, que dividen los subconjuntos de sistemas en dispositivos más administrables. Además de eso, esta medida puede proporcionar más seguridad al sistema, a la red y a los aplicativos, puesto que aísla subsistemas potencialmente vulnerables de sistemas subyacentes y de otras plataformas virtuales. El concepto de Virtualización incluye todas las camadas de la plataforma – desde aplicativos y sistemas operacionales a componentes, procesadores y interconexiones de la plataforma. Pero, vamos nos atentar a los dispositivos de almacenamiento y a servidores, pues es en este ambiente en que el mercado de Virtualización actúa. La mayor utilización: almacenamiento La Virtualización del almacenamiento es el proceso de consolidar varios dispositivos físicos de diversos fabricantes y reorganizarlos en agrupamientos virtuales y lógicos, o en unidades de almacenamiento. Estas unidades son presentadas al sistema operacional para utilización por los aplicativos y usuarios finales adecuados. A pesar del reciente aumento de interés, la Virtualización del almacenamiento no es novedad, tanto en el concepto cuanto en la práctica. Definida hace casi 20 años en la computación en mainframes, la tecnología está descubriendo una nueva oportunidad e importancia con la emergencia de las redes SANs (Storage Area Networks). Con todo el entusiasmo en torno de la virtualización de la SAN, es fácil perder de vista los beneficios inmediatos de este proceso, que pueden ser obtenidos también en la predominante arquitectura de almacenamiento de dispositivos conectados directamente – DAS (Direct Attached Storage). Sea en mainframes, sea en ambiente de sistema abierto, las tecnologías de Virtualización son utilizadas para simplificar y centralizar la administración, y DiálgoTI / NextGenerationCenter Pagina 1

Artículo Virtualización Intel

Embed Size (px)

DESCRIPTION

Artículo de Virtualización

Citation preview

Page 1: Artículo Virtualización Intel

Virtualización

Concepto

Virtualización para facilitar la administraciónEl desafío actual enfrentado por la industria de tecnología de la información (TI) es el decontinuar produciendo sistemas menores, más suaves y más rápidos y, al mismo tiempo,encontrar mejores medios de administrar las complejidades de las tecnologíascomputacionales. La industria direcciona un gran esfuerzo a la seguridad y a laadministración de informaciones y de dispositivos para la producción de sistemas másflexibles, de modo a tornarlos disponibles a los usuarios a cualquier tiempo, en cualquierlugar. El concepto de Virtualización de plataforma abre espacio para futuros dispositivospoderosos, autónomos y confiables.La Virtualización de plataformas puede ser definida como la creación de un sistemacomputacional lógicamente segmentado, que funciona en una base real. Las plataformasvirtuales son vistas por el usuario y funcionan como si fueran computadores físicos. Una vezque son abstractas y divididas, a partir de bases ocultas y de ellas mismas, las plataformasvirtuales son fácilmente transportables y robustas para simplificar la complejidad y, de estaforma, aumentan la seguridad.La Virtualización es una forma de crear sistemas menos complejos, que dividen lossubconjuntos de sistemas en dispositivos más administrables. Además de eso, esta medidapuede proporcionar más seguridad al sistema, a la red y a los aplicativos, puesto que aíslasubsistemas potencialmente vulnerables de sistemas subyacentes y de otras plataformasvirtuales.El concepto de Virtualización incluye todas las camadas de la plataforma – desde aplicativosy sistemas operacionales a componentes, procesadores y interconexiones de la plataforma.Pero, vamos nos atentar a los dispositivos de almacenamiento y a servidores, pues es eneste ambiente en que el mercado de Virtualización actúa.La mayor utilización: almacenamientoLa Virtualización del almacenamiento es el proceso de consolidar varios dispositivos físicosde diversos fabricantes y reorganizarlos en agrupamientos virtuales y lógicos, o en unidadesde almacenamiento. Estas unidades son presentadas al sistema operacional para utilizaciónpor los aplicativos y usuarios finales adecuados.A pesar del reciente aumento de interés, la Virtualización del almacenamiento no es novedad,tanto en el concepto cuanto en la práctica. Definida hace casi 20 años en la computación enmainframes, la tecnología está descubriendo una nueva oportunidad e importancia con laemergencia de las redes SANs (Storage Area Networks).Con todo el entusiasmo en torno de la virtualización de la SAN, es fácil perder de vista losbeneficios inmediatos de este proceso, que pueden ser obtenidos también en lapredominante arquitectura de almacenamiento de dispositivos conectados directamente –DAS (Direct Attached Storage). Sea en mainframes, sea en ambiente de sistema abierto, lastecnologías de Virtualización son utilizadas para simplificar y centralizar la administración, y

DiálgoTI / NextGenerationCenter Pagina 1

Page 2: Artículo Virtualización Intel

para fornecer la flexibilidad en el atendimiento a la demanda de los actuales requisitos dedatos.La Virtualización elimina las restricciones físicas, al crear una camada de abstracción arribadel almacenamiento físico en sí, que es accesible como un agrupamiento lógico dealmacenamiento y que puede ser alocado cuando y donde fuera necesario. Esta camadaofrece la capacidad de combinar dispositivos físicos heterogéneos en entidades virtualesproyectadas para atender a los requisitos individuales de los aplicativos.Por ejemplo, un agrupamiento virtual de almacenamiento puede ser creado utilizando losdiscos físicos más rápidos, afín de optimizar el desempeño para un aplicativo de misióncritica, en cuanto protege el usuario y el aplicativo de los detalles de la implementación dehardware. Entonces, a la medida que el nuevo hardware se torna disponible o que lascaracterísticas del aplicativo se modifican, las alteraciones en la camada física pueden serrealizadas sin interrumpir el acceso a los datos en el dispositivo lógico.Concepto de almacenamientoTodas las empresas precisan almacenar informaciones, y para esto utilizan un dispositivo oun soporte que puede retenerlo durante tiempo prolongado, para ser recuperado en elmomento necesario. Este dispositivo es chamado de almacenamiento.El almacenamiento en red permite la conectividad entre cualesquier servidores y dispositivosde almacenamiento, y también aumenta la capacidad de las organizaciones en el sentido demigrar sus datos. El almacenamiento en red puede disminuir los costos del procesamiento deinformaciones, con el aumento del compartir de dispositivos y de capacidad, así como pormedio de comunicaciones más eficientes.De esta forma, es creado el ambiente para la verdadera computación global – la capacidadde procesar las mismas informaciones en cualquier momento, a partir de cualquier central dedatos en el mundo, con los datos y la ejecución de aplicativos primarios migrando paralocales ideales, conforme la necesidad.Las configuraciones más comunes son las ya mencionadas redes SAN, dedicadas alalmacenamiento, típicamente construidas en torno de tecnología de fiber channel, queconectan los dispositivos de almacenamiento a un conjunto heterogéneo de servidores, sobreuna base múltiple. Una configuración de SAN abriga, además de subsistemas de disco,switches, hubs y bridges.Ya las redes NAS (Networked Attached Storage) se configuran con un local dealmacenamiento, en que los dados son transferidos usando protocolos como TCP/IP. UnaNAS une los servidores a los subsistemas de almacenamiento. Con ella, los sistemas dearchivos, en lugar de los volúmenes de información sin procesar (raw), están disponibles enla red. El administrador de archivos (file system) maneja y administra la colocación real de losdatos.Necesidad recienteEs una realidad en las empresas el creciente volumen de informaciones generadas pornuevas aplicaciones, que exigen mayor capacidad para soportar diferentes naturalezas –datos, voz e imagen. Este hecho, asociado a los sistemas legados, pasa a ser un problemaen la mayor parte de las organizaciones.La serie de mainframes da IBM tubo grande suceso justamente por ofrecer un camino

DiálgoTI / NextGenerationCenter Pagina 2

Page 3: Artículo Virtualización Intel

continuo de evolución, sin obligar nadie a abandonar legados de hardware o de software.Pero, el alto costo de hardware de los mainframes encorajó la migración para losmicrocomputadores. Esta fue la chance de comenzar todo del cero, eliminando el legado deprogramas en COBOL, PL/1 y otros específicos del mundo de mainframe.Entretanto, pocos contaban que la microinformática acabaría formando también su legado,mucho mayor y bien más heterogéneo de lo que de los mainframes. Y esto reunióequipamientos de diferentes fabricantes, con variadas aplicaciones, difícilmente integrados.El legado es ruin, puesto que atrasa la evolución tecnológica, demandando recursos quepodrían ser aplicados en una arquitectura más moderna. Además de eso, tiende a mantenerel uso de tecnologías obsoletas, incluso de hardware.Para minimizar el problema, surgió la herramienta de Virtualización, que auxilia en eltratamiento de los legados. Generalmente, la Virtualización es asistida por hardware. Mismoque este recurso exista desde los mainframes, no es útil apenas para legados, pero socorrebastante en el test de nuevas tecnologías. El simple hecho de Microsoft Windows rodarprogramas MS-DOS no deja de ser una especie de Virtualización, en vista de que cadasesión DOS es un procesador de 16 bits virtual.Presupuesto apretadoCon los presupuestos reducidos, llevando las empresas a analizar cuidadosamente suspadrones de gastos, es especialmente importante usar todos los recursos tecnológicos en sutotal capacidad. Segundo el Gartner Group, cada dólar invertido en almacenamiento exigeUS$ 5 de recursos de TI para administrarlo. En la medida en que los ambientes continúan aevolucionar y tornarse cada vez más complejos, aumenta la necesidad de minimizar loscrecientes costos de administrar cantidades de datos cada vez mayores.Las tecnologías implementadas en el ambiente de TI deben garantir una estrategia deadministración simplificada y centralizada, con el objetivo de aumentar la eficiencia de losprofesionales y reducir costos. Generalmente, los usuarios finales no están interesados enlos aspectos físicos de los recursos de almacenamiento de sus aplicativos y sí en el tiempode respuesta, resultados, capacidad suficiente para almacenamiento de datos a la medidaque la cantidad aumenta y ocurre reducción o eliminación del tiempo de desactivación. Enresumo, los usuarios se preocupan con la disponibilidad y el acceso a sus datos, y no con losaspectos físicos del almacenamiento. La Virtualización proporciona varios medios de teneracceso, administrar y utilizar los recursos de almacenamiento existentes.Por ejemplo, un agrupamiento virtual de almacenamiento puede ser creado utilizando losdiscos físicos más rápidos, afín de optimizar el desempeño para un aplicativo de misióncritica, en cuanto protege el usuario y el aplicativo de los detalles de la implementación dehardware. Entonces, a la medida que el nuevo hardware se torna disponible o que lascaracterísticas del aplicativo se modifican, las alteraciones en la camada física pueden serrealizadas sin interrumpir el acceso a los datos en el dispositivo lógico. Existen muchastecnologías de Virtualización de almacenamiento que tienen evolucionado, incluyendosoluciones de banda interna y externa (in-band y out-band), con base en almacenamiento yen el hospedaje.Las soluciones con base en el hospedaje permiten que los discos sean representados comoun agrupamiento virtual para un único servidor host. Esto posibilita que el personal de TI

DiálgoTI / NextGenerationCenter Pagina 3

Page 4: Artículo Virtualización Intel

tenga más flexibilidad en habilitarlos para tornarlos completamente independientes de losfabricantes de soluciones de almacenamiento. Mismo que los datos estén concentrados paraacceso apenas por medio de un único servidor, este puede tornarse altamente disponible,garantiendo que los datos sean utilizados. La desventaja en potencial de esta solución surgecuando varios servidores exigen el acceso compartido a los mismos datos. En este caso, laduplicación de los datos u otros métodos de Virtualización de almacenamiento pueden serconsiderados.Emulación y VirtualizaciónEmulación es la recreación de un ambiente de trabajo sin cualquier relación necesaria con elambiente-anfitrión y sin auxilio de hardware, en cuanto la Virtualización permite creardiversas máquinas virtuales. Una utilidad menos obvia de la Virtualización y de la emulaciónes el desarrollo de software. Los juegos de 8 bits eran desarrollados en computadoresrobustos, pues esto tornaba fácil acompañar el funcionamiento, instrucción por instrucción.Desarrollar directamente en la plataforma deseada era casi imposible.Pero esto es pasado. Hace mucho tiempo, los microcomputadores representan unaplataforma auto-suficiente y de bajo costo para su desarrollo. Y ahora llegamos al punto enque un micro puede simular a sí mismo con velocidad suficiente para uso normal. Hoy, lasherramientas de desarrollo pueden subir más un escalón de calidad y complejidad.Una empresa del Vale del Silicio alega tener alcanzado uno de los objetivos más perseguidosde la industria de la tecnología: un emulador casi universal que permite rodar softwaresdesarrollados para una determinada plataforma, en cualquier otra, prácticamente sininterrupciones en el desempeño. Esto incluye Macs, PCs y diversos tipos de mainframes yservidores.De acuerdo con executivos de la empresa, un emulador universal de computadores está parala informática como la transformación de metales en oro estaba para la alquimia. Muchostentaron, todos fallaron. Ellos explican que, mismo que varios esquemas limitados deemulación tengan sido bien sucedidos – la transición de Apple para la plataforma PowerPC, ola "transmutación de código" de la arquitectura x86 hecha por Transmeta –, nadie jamáshabía desarrollado un emulador para procesadores y sistemas operacionales múltiples.El software fue desarrollado inicialmente en la Universidad Manchester (Reino Unido) por elprofesor de ciencia de la computación Alasdair Rawsthorne. Una de las más importantesinnovaciones es la "representación intermediaria", una especie de lenguaje común que da alsoftware la flexibilidad para hacer la traducción de una plataforma para otra.

Mercado

Impactos en el mercadoEl mercado actual de virtualización y las perspectivas para los próximos añosUna de las consecuencias de los infelices incidentes terroristas de 11 de setiembre de 2001,en Nova York (EUA), fue la mudanza de visión por parte de las empresas sobre susestrategias de protección de datos. Las compañías estaban desprevenidas y no contaban

DiálgoTI / NextGenerationCenter Pagina 4

Page 5: Artículo Virtualización Intel

con la perdida de valiosas informaciones de negocios y con la amenaza contra su propiasobrevivencia. Y como nadie desea correr riesgos, el tema continuidad de negocios pasó amerecer atención especial de los gestores de tecnología.Mantener un Business Continuity Plan pasó a ser algo fundamental de hecho. Algunasempresas optan por una estrategia definida por áreas para garantir la recuperación total desus datos estratégicos delante de cualquier contratiempo. Para algunas organizaciones, lacontinuidad de negocios es vista como un organismo. La administración de riesgos y losprocesos apuntan lo que es preciso para el proseguimiento de las operaciones, y esto esrealizado generando evaluaciones y revisiones que actualizan el plano de continuidadconforme las necesidades actuales del negocio, que pueden mudar de año para año.La necesidad de continuidad, asociada a las nuevas reglamentaciones exigidasprincipalmente de las instituciones financieras, como Sarbanes-Oxley y Basiléia 2, refuerza lanecesidad de gestión de riesgo, tornándola más eficiente y transparente. Y en estatransparencia entra el proceso de almacenamiento, que debe mantener accesibles los datosde la empresa.Pero como los datos no están almacenados de forma linear en el mismo lugar, es precisotener un mecanismo para encontrarlos, en caso de necesidad. Y, por veces, no es posibleesperar varios días para localizarlos. Entonces, entra en cena la solución de Virtualización,que proporciona una visión holística del almacenamiento. Sin hablar en la explosión delvolumen de datos de las empresas, que, de acuerdo con analistas, crece hasta 400% al año.Por tanto, se trata de una decisión fundamental para las empresas.La decisión es tan importante que los proveedores, antes competidores, se unen para ofrecersoluciones completas para atender necesidades de transparencia, continuidad de negocios yaumento de las informaciones, en forma de asociaciones, fusiones o adquisiciones.Todo bajo demandaLa evolución de los procesos corporativos conduce necesariamente a una reorganizaciónfísica y lógica de los recursos de los sistemas de información. Por ejemplo, en el caso de laIBM, el e-business da lugar al “e-business on demand”. En la empresa HP, da lugar al“adaptative enterprise”; en la empresa Sun, al “N1” (NetworkOne), en cuanto en la ComputerAssociates, la expresión usada es “on demand computing”. Se tratan de términos,simultáneamente, de marketing, técnicos y estratégicos, pero con algo en común.El ponto de unión entre ellos es disponer de recursos tecnológicos, de acuerdo con lanecesidad de la empresa, alineando los sistemas de información a la visión estratégica de lascompañías. Para traer estos conceptos a la realidad, las empresas son convidadas aabandonar las infra-estructuras verticales (preconizadas por todos estos proveedores durantemucho tiempo), organizadas por silos (aplicación con sus servidores y su almacenamiento)más o menos independientes. La idea es pasar para infra-estructuras con base en recursosvirtualizados, que pueden ser compartidos por todos los servicios y aplicaciones.De igual modo, las soluciones de administración deben poder optimizar de forma dinámica lautilización de estos recursos, re-alocar instantáneamente aquellos que son subutilizados,inserir automáticamente un servidor suplementar en una familia de servidores y presentar lasaplicaciones como servicios. En otras palabras, no se trata de una mudanza rápida. Ademásde los tradicionales softwares de administración (sistemas y redes, entre otros), un ambiente

DiálgoTI / NextGenerationCenter Pagina 5

Page 6: Artículo Virtualización Intel

bajo demanda pasa por la implementación de herramientas que aseguren un mejorconocimiento de la relación entre la actividad de la empresa y su infra-estructura deinformática.Estas soluciones tienen como mira la definición de los procesos críticos de las empresas, lavisualización de los componentes implicados (aplicaciones, middlewares, servidores,almacenamiento y red), la detección pro-activa de los problemas de funcionamiento, lacorrelación de los diferentes alertas y la automatización de las correcciones necesarias, deacuerdo con una base de conocimiento. Entretanto, el campo de acción de estos softwareses limitado con frecuencia por su incapacidad de generar directamente los recursos.Nuevas inversionesEn reciente pesquisa de IDC con 782 empresas brasileras, el nivel de satisfacción con labase instalada de hardware y software de seguridad, sistemas de almacenamiento ysoftwares de administración de sistemas se mostró como uno de los más bajos en lapesquisa. Este resultado refleja nuevas inversiones en capacidad de TI, que acaban porgenerar una serie de pequeñas islas de sistemas, difíciles de controlar, administrar yproteger.Cuanto a los desafíos y preocupaciones actuales de los CIOs en relación a la infra-estructurade TI, IDC observó que hay una aprensión creciente con la escalabilidad y con los costos deadministración y manutención para garantir alta disponibilidad, performance y agilidad de losequipamientos, aumentar el control sobre la infra-estructura, sin, entretanto, ampliar el equipode manutención, de administración y los costos.Además de eso, es preciso crecer la seguridad de los datos críticos sin elevar los costos delas informaciones almacenadas y, finalmente, tener como asociado un Full Service Providerde infra-estructura, o sea, aquel proveedor capaz de fornecer soluciones de hardware,software y servicios.En relación al almacenamiento, IDC divulgó, en el comienzo de 2007, su previsión para elaño: la infra-estructura de TI enAmérica Latina estaría caminando para el modelo de Dynamic IT: 2007 seria el año deeducación cuanto a la virtualización, no apenas en América Latina como en todo el mundo.De acuerdo con IDC, aprender a aplicar mejor su infra-estructura de hardware, software yservicios seria la meta de las empresas de la región en 2007.300 campos de futbolUna de las empresas que están haciendo inversiones en virtualización es la propia IBM. Lacompañía recientemente divulgó que cambiará 4 mil servidores de pequeño porte por 30mainframes Linux, rodando máquinas virtuales. Con la mudanza, espera economizar 250millones de dólares en gastos de manutención y de consumo de energía. Los servidoresfísicos que serán substituidos por máquinas virtuales están localizados en seis data centersen varios países.Los equipamientos usados hoy ocupan un espacio de casi 2,5 millones de metros cuadrados,lo que equivale a 300 campos de futbol, sumadas las áreas de todos los terrenos. Estainiciativa hace parte del plano de IBM de doblar su capacidad de almacenar datos hasta2010, pero sin usar más energía eléctrica, ni aumentar la emisión de carbono en laatmosfera. Con los nuevos espacios, la empresa quiere mejorar la logística de los edificios,

DiálgoTI / NextGenerationCenter Pagina 6

Page 7: Artículo Virtualización Intel

alterando incluso sistemas de iluminación y de aire condicionado.La Virtualización llegó a la industria de chips. Hoy, un software tiene múltiplos recursos pararodar en diferentes sistemas operacionales en una plataforma única. La nueva tecnología deprocesadores, ya en desarrollo, va tornar este proceso más simple. El procesador paradesktop Intel® Core™ 2 Duo, por ejemplo, soporta recursos para mejoría de la seguridad,virtualización y computación de 64 bits.

Beneficios

Lo que las soluciones existentes pueden hacer por empresas de grande porte y casos dequienes ya las está usandoLas ventajasLa apuesta en las soluciones de Virtualización deriva de la necesidad de los gestores deTecnologías de Información en dar respuesta eficaz al aumento y a la diversificación de losambientes computacionales dentro de las organizaciones. Además de eso, la adecuadagestión del costo total de propiedad es cada vez más relevante, bien como la capacidad desolucionar las crecientes dificultades de manutención y de gestión de estos mismosambientes.La Virtualización de infra-estructuras proporciona abstracción entre los diferentes medios decomputación, como procesamiento, almacenamiento de datos, red y software. Al implementareste concepto, son eliminadas todas las restricciones físicas y todos los medios se quedanaccesibles como “agrupamientos lógicos”, que pueden ser utilizados en cualquier hora ylocal. Además de muchas otras ventajas, las soluciones de Virtualización garanten mayorcapacidad de adaptación a las constantes mudanzas de los ambientes empresariales, máseficiencia y flexibilidad a los recursos de TI y reducción de los costos asociados.La aplicación de software de almacenamiento inteligente en la camada de Virtualizaciónproporciona un medio de resolver los desafíos funcionales de almacenamiento, sincomprometer la necesidad de disponibilidad de los datos. Ella permite un nivel de flexibilidadsin precedentes en la utilización de recursos de almacenamiento, afín de atender exigenciasreferentes a los aplicativos y a los usuarios finales.Los dispositivos de almacenamiento virtual no están restrictos a las limitaciones decapacidad, velocidad o confiabilidad de los dispositivos físicos que los incluyen. Elaprovisionamiento consiste en fornecer a los usuarios o aplicaciones la cantidad y el mejortipo de almacenamiento, en el momento cierto. La Virtualización torna mucho más fácil esteproceso. Sumada a la administración centralizada, permite que modificaciones en la camadade almacenamiento físico sean efectuadas sin la interrupción del acceso a los datos, afín defornecer, continuamente, la mejor calidad de servicios de almacenamiento en tiempo real.Especialistas del mercado creen que la Virtualización debe revolucionar la forma deadministrar los aplicativos, la seguridad y el almacenamiento en las empresas, convergiendolos sistemas para un único punto, facilitando la manutención y el control de la red. Por tanto,sus beneficios pasan por la gestión centralizada de todo almacenamiento, mejor acceso de

DiálgoTI / NextGenerationCenter Pagina 7

Page 8: Artículo Virtualización Intel

usuarios y aplicaciones, reducción de costos de entrenamiento, facilidad de administración,reducción de costos de almacenamiento físico, eliminación del downtime, más escalabilidad ylocación de capacidad bajo demanda.Costos bajo controlEl costo de administrar el almacenamiento es significativo y, con el paso del tiempo, excedeel precio de compra del hardware. Un medio de monitorear estos costos es avaluar lacantidad de almacenamiento controlada por administradores. Las organizaciones eficientespueden tener un administrador por terabyte de almacenamiento, en cuanto otras, conambientes más difíciles, pueden tener una proporción mucho menor de profesionalesdedicados al almacenamiento.La Virtualización del almacenamiento puede simplificar la administración de recursos enambientes heterogéneos, reduciendo, definitivamente, el costo real de almacenamiento.Además de eso, la administración se torna mucho más fácil para el administrador, visto estarcentralizada. El puede aprender e implementar una herramienta para administrar completosagrupamientos de almacenamiento.Se trata también de un medio de reducción de costos por la mejor utilización y consolidacióndel hardware. La consolidación es el acto de combinar recursos de almacenamiento en unagrupamiento virtual, accesible a muchos aplicativos o, en ambientes de SANs (Storage AreaNetworks) o clusters, a muchos servidores.Antes mismo de la necesidad de acrecentar recursos, la Virtualización permite laconsolidación proactiva de todos los dispositivos de almacenamiento. Como parte integrantede una unidad virtual, los recursos se pueden tornar disponibles para aplicativos y servidoresque, anteriormente, no tenían acceso a ellos. Esto se aplica particularmente bien a losambientes de SANs, pero no es, de modo algún, exclusivo de ellos.El fornecimiento y la consolidación inteligente, como resultados de la Virtualización delalmacenamiento, ayudarán a controlar los costos de TI y a reducir la sobrecarga, permitiendola efectiva administración de almacenamiento de datos, con menor necesidad de intervenciónhumana.Almacenamiento virtual precisa de administraciónA la medida que los equipamientos de almacenamiento se quedan más baratos, la infra-estructura se torna más compleja de administrar. El crecimiento excesivo y dinámico de lasinformaciones y de las aplicaciones dificulta la definición y el acompañamiento de la políticade administración. Existe una laguna entre las operaciones de almacenamiento y laadministración de los datos.Estimativas sugieren que 75% de las informaciones en la red o en ambientes distribuidos noson efectivamente administrados, significando que no están almacenados adecuadamente ode forma a ser recuperados fácilmente. Hoy, una red típica de almacenamiento (Unix, Win2ky Linux) tiene cerca de 2 a 5 terabytes de almacenamiento de discos, en cuanto la capacidadde administración de cada almacenamiento es de 400 GB a 500 GB, de acuerdo con elManifiesto de Storage (almacenamiento), producido por Horison Information Strategies, unaconsultoría especializada en estrategias y desarrollo de negocios para empresas dealmacenamiento.Mismo sin sistemas formalizados, toda empresa hace alguna especie de organización de los

DiálgoTI / NextGenerationCenter Pagina 8

Page 9: Artículo Virtualización Intel

datos cuando existen informaciones importantes. Algunas plataformas de sistemasoperacionales ofrecen herramientas de administración de almacenamiento, pero, en generales necesaria la utilización de programas internos para administrar los datos. En cuanto eso,fabricantes invierten cada vez más en software y conceptos de administración.Se fue la época en que las empresas compraban equipamientos con capacidad superior,previendo necesidades futuras. Como no se puede administrar lo que no se conoce, el primererror de las organizaciones antes de comprar un producto de almacenaje y no parar parareflexionar sobre el volumen de las informaciones que posee.La administración de la red de almacenamiento acontece con soluciones de SRM (storageresource management), que muestran el comportamiento de cada dispositivo conectado en lared, cuanto de dado y de que tipo está guardando, cual es el origen de las informaciones,cual es el espacio libre y si hay algún problema en los discos.Es posible crear reglas para cada tipo de archivo y hacer con que sea transferidoautomáticamente para el disco cierto. Con un software para este fin, la empresa puedebloquear archivos MP3 o mandar un mensaje para alertar el usuario que está siendomonitoreado. El concepto vale para pequeñas y medianas empresas, cada cual en laproporción del volumen de sus datos.Pero esto todavía no es suficiente para grandes volúmenes de información. Con uncrecimiento de datos de 34% al año, dos viejos conceptos de la época de los mainframesestán resurgiendo: el Information Lifecycle Management (ILM) y el Hierarchical StorageManagement (HSM). El primero nada más es de que clasificar los datos almacenados en unaempresa, conforme la periodicidad con que son utilizados y la fecha del almacenamiento. Y elsegundo se refiere a la jerarquía de la información, como veremos a seguir.Prioridad de la informaciónAlgunos especialistas de mercado sugieren que un dato no puede ser administrado apenaspor el tiempo de vida. Debe ser clasificado por su importancia y jerarquía dentro de losnegocios, con el concepto de la jerarquización de las informaciones (HSM). El establecelimites para cada usuario almacenar archivos, variando conforme la actividad y el cargo decada un.El HSM puede ser usado no solo en los datos, pero también en las aplicaciones, como e-maily banco de datos, a partir de una clasificación detallada. A pesar de los discursos optimistasde los proveedores, apenas ahora los clientes comienzan a implementar el HSM.Varias reglas pueden ser definidas. Archivos de imagen y aquellos no utilizados hace más decinco años, por ejemplo, pueden ser direccionados para cintas para almacenamiento fueradel equipamiento, bien como archivos del presidente, en el almacenamiento caro. En general,ningún usuario quiere borrar su e-mail, y entonces todos se quedan con el almacenamientocaro (saturado). El software hace automáticamente las mudanzas de acuerdo con las reglascreadas: informaciones con más de dos años van para un almacenamiento secundario, porejemplo. Para el usuario, todo eso es transparente.Clasificar las informaciones es la mayor dificultad de las empresas, ya que para cadadepartamento y para cada persona todos los archivos son importantes. El inicio del proyectode administración es entender como funciona el negocio y cuales son las informacionesfundamentales. Los consultores del área precisan realizar diversas entrevistas con el nivel

DiálgoTI / NextGenerationCenter Pagina 9

Page 10: Artículo Virtualización Intel

gerencial para percibieren lo que es cada área de la compañía y de que tipo de informacioneslos usuarios realmente necesitan. El trabajo también debe incluir la participación deldepartamento judiciario, pues algunos documentos tienen de ser guardados, por cuestioneslegales.El fin de la Torre de BabelNormalmente, una empresa tiene varias marcas de almacenamiento en la rede, pero uno nohabla con el otro – si existen tres discos de 1 GB cada, la compañía tiene tres discos de 1 GBcada, y no un total de 3 GB. Esto, muchas veces, hace con que un disco se quede saturado,en cuanto otro está con bajo uso. La administración de datos se queda más complicada.Los fabricantes no tienen herramientas que administren los equipamientos de lacompetencia. Esto acontece porque los proveedores no cambian instrucciones que permitenadministrar completamente el producto de otro desenvolvedor – o API (application programinterface), un conjunto de rutinas, protocolos y herramientas para la construcción delsoftware.Fabricantes hablan de Virtualización, pero cada empresa tiene un concepto, y lo básico diceque, independientemente del servidor y de cual sistema operacional, el tendrá acceso al dato.Antes de eso, cada sistema operacional tenía que tener acceso a la información por supuerta propietaria. Por veces, la empresa tiene una copia de la misma información porqueella precisa ser utilizada por diferentes plataformas.Con la Virtualización, los clientes pueden crear camadas de almacenamiento entre sistemasde diferentes fabricantes, posibilitando una visión unificada y consolidada de la capacidadtotal de almacenamiento. En vez de tener acceso a la información directamente de la base,tiene acceso por el servidor de Virtualización.Administración de datos envuelve todavía el backup, restore y business continuity y lasempresas que todavía no hacen administración de los datos están perdiendo dinero. Unaadministración mal hecha gasta horas de trabajo del profesional, además del riesgo de perderla información para siempre. Softwares de administración resuelven este problema: ellosautomatizan la operación de backup y disminuyen la necesidad de manutención.Por tanto, ambientes de almacenamiento consolidados tienen menos elementos aadministrar, lo que puede aumentar la utilización de recursos y simplificar la administracióndel almacenamiento. Además de eso, pueden ofrecer la capacidad de compartir servidoresde almacenamiento a grandes distancias y de proporcionar economía en la escala depropiedad de servidores de almacenamiento en disco.Con una estructura virtualizada, personas, procesos y tecnología se concentran en niveles deservicio, la capacidad es alocada dinámicamente, la infra-estructura entera es simplificada yflexibilizada, además de permitir un modelo utilitario o pay-per-use para servicios de TI.

Tecnologías disponibles

Lo que hay en software y hardware para la simplificación de la infra-estructura de lasempresas

DiálgoTI / NextGenerationCenter Pagina 10

Page 11: Artículo Virtualización Intel

La evoluciónExisten muchas tecnologías de Virtualización de almacenamiento que tienen evolucionado,incluyendo soluciones de banda interna y externa (in-band y out-band), con base enalmacenamiento y en hospedaje. Las primeras tecnologías de Virtualización que surgieronfueron soluciones con base en almacenamiento. Ellas permiten que varios servidores puedancompartir el acceso a datos en un único array (grupo) variable que almacena un conjunto devalores del mismo tipo. El lado negativo, entretanto, es que estos servidores no pueden teneracceso a los datos además de su propio array (grupo).Además de eso, los usuarios están corriendo riesgos de quedarse limitados a soluciones quedependan de los fabricantes, con base en las restricciones de compatibilidad de hardware delarray (grupo) más amplio o de los servidores directamente conectados. La Virtualización conbase en el almacenamiento puede entonces ser más dispendiosa de lo que otras alternativasde menor prioridad.Ya las soluciones con bases en hospedaje permiten que los discos alocados en los variosarray (grupo), de diversos fabricantes, se presenten como un agrupamiento virtual para unúnico servidor host. Esto posibilita más flexibilidad para habilitarlos a ser completamenteindependientes de los fabricantes de soluciones de almacenamiento, mismo que todavíadisfruten de los beneficios de la administración de almacenamiento centralizada a partir de unúnico control.Mismo que los datos estén concentrados para acceso apenas por medio de un únicoservidor, este puede se tornar altamente disponible, garantiendo la utilización de los datos. Ladesventaja en potencial de esta solución surge cuando varios servidores exigen el accesocompartido a los mismos datos. Así, pueden ser considerados la duplicación de los datos uotros métodos de Virtualización de almacenamiento.La arquitectura in-band insiere el dispositivo de Virtualización en la red de datos entre el hosty el array (grupo). Estos dispositivos ofrecen volumen de administración y otrasfuncionalidades complementares, como movimiento de datos y servicio de copias. Él hace lasubstitución de los controladores de almacenamiento para los dispositivos que están siendovirtualizados.La primera ventaja de este abordaje es la simplicidad. Un nuevo dispositivo propio puede serdesarrollado para actuar como un punto central de administración para múltiplos sistemasconectados. La reciente aparición en larga escala de array (grupos) monolíticos de altaperformance en dispositivos in-band de virtualización evidencia esta ventaja.En un dado momento, para grandes ambientes, hasta mismo la estrategia de escalabilidadpuede se probar insuficiente y será necesario desenvolver un nuevo dispositivo in-band.Cada uno de estos dispositivos tiene la responsabilidad de dominios de virtualizaciónseparados, resultando en la necesidad de administrar islas independientes de Virtualización.La consecuencia de esto puede potencializar y “pesar” en los beneficios originales dereducción de la complejidad y de la simplificación de la administración proporcionados por laVirtualización.Arquitectura Out-of-BandEl abordaje out-of-band fue desarrollado para evitar los desafíos de performance inherentes ala arquitectura in-band, separando la administración de la información del data flow (flujo de

DiálgoTI / NextGenerationCenter Pagina 11

Page 12: Artículo Virtualización Intel

datos). En la arquitectura out-band, un pedazo separado del hardware, llamado de servidorde metadato, que contiene información sobre las relaciones lógicas y físicas de laVirtualización del almacenamiento, se comunica con cada servidor. Esta comunicación esdada en una red separada independiente del Fibre Channel, usada en el tránsito de datos.Como las demandas del host para la Virtualización del almacenamiento van derecho para eldispositivo para el cual el es destinado, la performance se queda libre de la latencia adicionalo de problemas de banda. O sea, el abordaje out-of-band es teóricamente más deseable paraaplicaciones de alta performance. Ella también evita problemas con la integridad del dato,inherente al in-band. Las diferentes versiones del dato siempre causan problemas para lared. Pero cuando el dato es eficientemente almacenado en el array (grupo), el host recibe lainformación de que el trabajo ya está completo.Este tipo de abordaje out-of-band introduce algún nivel de flexibilidad en el sistema con baseen host. Hay, entretanto, un abordaje más refinado del out-of-band para solucionar estedesafío de administración y flexibilidad. Esta abordaje fue apalancada por los switchesinteligentes de SAN (Storage Area Networks), como una plataforma para el desarrollo de lared con base en la Virtualización del almacenamiento.El abordaje del switch con base en el out-of-band es también más accesible a la estrategia deescalabilidad. La mayoría de los procesos de entrada y salida es administrada directamentepor el procesador en el switch inteligente, incrementando la escalabilidad. Pueden seracrecentados, conforme la necesidad, más procesadores. Esto puede ser concluidoadicionando otro switch en el sistema u otro procesador blade.En resumen, teóricamente, esta arquitectura es capaz de escalar un gran número deconfiguraciones y tiene escalabilidad necesaria para extender los beneficios de laVirtualización del almacenamiento a grandes data centers.Proveedores mejoran productosLa baja utilización de los sofisticados ambientes de almacenamiento de datos, que crecieronen las corporaciones en los últimos años, no es una sorpresa en los departamentos deTecnología de la Información. Con base en múltiples plataformas, de diferentes proveedores,estos sistemas acaban dando mucho trabajo a los gestores, cuando administran y planificanlas nuevas necesidades de almacenamiento.Este problema recurrente tiene sido la justificativa de empresas del mundo entero paraadhirieren a las novedades sobre Virtualización de los sistemas de almacenamiento de datosque llegan al País. Los proveedores de soluciones de Virtualización, como EMC, Hitachi,Storagetek, HP e IBM, acreditan que sus nuevos productos precisan tener el objetivo desuperar dificultades de administración de ambientes heterogéneos de almacenamiento yreducir la escalada de costos.No es una simple cuestión de marketing. Para los proveedores, la Virtualización es hoy unadecisión estratégica. Hay motivaciones para esto: el volumen de datos está en explosión – deacuerdo con analistas, crece hasta 400% al año con la utilización de nuevas aplicaciones enlas áreas de comercio electrónico, gestión de la cadena de proveedores, mensajeselectrónicas, entre otras. Además de eso, muchas empresas invirtieron excesivamente enmúltiples arquitecturas de almacenamiento para soportar esta gama variada de aplicaciones,con acceso en diferentes bases de datos.

DiálgoTI / NextGenerationCenter Pagina 12

Page 13: Artículo Virtualización Intel

Es una exigencia de los clientes que EMC, fabricante norte-americana de sistema dealmacenamiento, está procurando atender con una plataforma de Virtualización en red SAN.El sistema integra hardware y software en la arquitectura out-of-band, que coloca lainteligencia de Virtualización en la red de almacenamiento – y no en los dispositivos o arrays(grupos) – para eliminar impactos sobre el performance del servidor o de la aplicación.Al contrario de EMC, que invirtió en el out-band, Hitachi Data Systems invirtió en laarquitectura in-band para virtualización del ambiente de almacenamiento multiproveedor. Lasucursal brasilera tiene proyectos que combinan hardware y software y traen la virtualizaciónpara la controladora de almacenamiento, evitando sobrecarga de la rede, servidores oswitches, permitiendo tener acceso a los datos en diferentes equipamientos dealmacenamiento por medio de un único punto de contacto.HP incluyó en su portafolio por lo menos cinco líneas de soluciones: Virtualización víasoftware en el servidor; interna en el disk array (agrupamiento de discos), en arquitectura in-band; en red SAN de alta performance; y por medio de grid computing. Con presencia muyfuerte en el segmento de grandes empresas, HP invierte fuerte también en el segmento delas pequeñas y medianas empresas, con la familia de sistemas EVA.Es una solución de disk array (agrupamiento de discos) virtual que puede alcanzarcapacidades superiores a 8 terabytes. El sistema hace la Virtualización de los discos, o sea,la agregación de las informaciones en el almacenamiento. Impone facilidades de crearcaminos de acceso a los datos y favorece el crecimiento dinámico de los volúmenesalmacenados sin perjudicar a las aplicaciones, además de implementar la duplicación remota.En el caso de IBM, la línea de Virtualización de la empresa no se prendió a lasnomenclaturas in-band o out-of-band. Son dos productos, el SAN File Systems y el SANVolume Controller, que trabajan en una camada entre los servidores de aplicación y el SAN,dentro de los conceptos de Virtualización de archivos y lógica.Varios sistemas operacionales en la misma máquinaConocida como Vanderpool, la tecnología de Virtualización de Intel permite que un únicoprocesador funcione como varios deles, trabajando en paralelo, de modo a permitir quediversos sistemas operacionales sean ejecutados al mismo tiempo en una misma máquina.Se trata de los procesadores Pentium 4 – 672 e 662 –, con soporte a su tecnología deVirtualización (VT).Con la técnica de Virtualización, un único procesador puede funcionar como si fueran variostrabajando en paralelo. Diferente de multitarea o Hyper-Threading, lanzada en 2002 por Intel,pues en el primer caso, existe un único sistema operacional y varios programas trabajandoen paralelo. Ya la tecnología Hyper-Threading simula dos procesadores lógicos en un únicoprocesador físico y distribuye las tareas entre ellos usando el concepto SMP(multiprocesamiento simétrico). En la tecnología Hyper-Threading los procesadores lógicosno pueden ser usados de forma separada.Ya en la Virtualización, son varios sistemas operacionales trabajando en paralelo, cada unocon diversos programas en ejecución. Cada sistema operacional rueda en un “procesadorvirtual” o “máquina virtual”. Si un procesador tiene soporte para ambas tecnologías, Hyper-Threading y Virtualización, cada procesador virtual aparecerá para el sistema operacionalcomo si fueran dos procesadores disponibles en el micro para multiprocesamiento simétrico.

DiálgoTI / NextGenerationCenter Pagina 13

Page 14: Artículo Virtualización Intel

Existe una ventaja en implementar esta tecnología en el procesador. El procesador contecnología de Virtualización tiene algunas nuevas instrucciones para controlar laVirtualización. Con estas instrucciones, el control del software (llamado VMM, Virtual MachineMonitor) puede ser más simple, lo que resulta en un mejor desempeño si comparado asoluciones con base apenas en software.La tecnología de Virtualización de Intel necesita de un computador con un único procesador,chipset, BIOS, Virtual Machine Monitor (VMM) y, en algunos casos, software de plataformahabilitado para ella. Funcionalidades, desempeño y otros beneficios irán variar de acuerdocon las configuraciones de hardware y software. En el próximo módulo, veremos como latecnología de Virtualización de Intel evolucionó en los últimos meses.

Impactos en el mercado

Solución completa (Intel + VMware)La asociación de Intel con VMware, incluyendo las inversiones hechas por Intel Capital y laoferta de Intel Virtualize ASAP.VMWare es un software/máquina virtual que permite la instalación y utilización de un sistemaoperacional dentro de otro y que da soporte real a softwares de otros sistemas. El nombre esun juego verbal con Virtual Machine (máquina virtual), nombre técnico dado a un sistemaoperacional rodando bajo el VMware.Al usar software de virtualización, como el VMware, uno o más sistemas operacionalespueden funcionar simultáneamente en un ambiente aislado, como si fueran computadorescompletos (virtuales), rodando dentro de un computador físico que puede comportar unsistema operacional totalmente distinto.Del punto de vista del usuario y del software, ni siquiera se nota la diferencia entre lamáquina real y la virtual. Es muy usado en centros de datos, pues permite crear redundanciay seguridad adicional, sin recorrer a tantas máquinas físicas, bien como distribuyendo yaprovechando mejor los recursos de las máquinas hospederas.La empresa desenvolvedora del VMware, VMware Inc., se localiza en Palo Alto, California,Estados Unidos, y es una subsidiaria de EMC Corporation.Versiones del producto*VMware Workstation:* esta versión es dirigida al uso en el desktop, en ambientes dedesarrollo. Actualmente está en la versión 5.5.3 y rueda en CPUs Intel y AMD de 32 y 64 bits.Permite rodar varios "computadores virtuales" dentro de un sistema operacional (que puedeser Windows o Linux). Cada uno de estos computadores puede rodar su propio sistemaoperacional. El computador simulado puede tener una cantidad de RAM definida (hasta 3600MB en el VMware 5.5.3; hasta 8 GB, desconsiderando limitaciones del hardware, en elVMware 6.0) y un disco virtual delimitado (hasta 950 GB). Él puede "simular" un drive de CD-ROM, placas de red (hasta tres en el VMware 5.5.3; hasta diez en el VMware 6.0 beta),discos rígidos y puertas USB (USB 1.1 en la versión 5.5.3; USB 2.0 en la versión 6.0).Esta versión posibilita "unir" varias máquinas virtuales y permite que todas ellas sean

DiálgoTI / NextGenerationCenter Pagina 14

Page 15: Artículo Virtualización Intel

iniciadas o desligadas con un mismo comando. También es posible definir redes internas.El VMware Workstation también soporta tres modos de red: bridged (cuando la máquinavirtual es vista como un otro computador en la red, con IP obtenido vía DHCP); NAT (en quela máquina virtual se conecta al computador host, que por su vez se conecta a la red); elHost-Only (la máquina virtual apenas se conecta al host).Esta versión del software también permite crear registros instantáneos (snapshots) de unamáquina virtual en un dado momento. Así, es posible testar configuraciones, y, si no darcierto, se puede reverter.*VMware Server:* dirigido al uso en servidores de pequeño y mediano porte. Se tornó gratuitodesde el día 12 de junio de 2006. Es un producto de "entrada" para el mercado. Cuenta conbuena parte de los recursos de la versión Workstation y adiciona recursos útiles a su uso enservidores, como la administración remota (usando una versión modificada del VNC). Elresultado inmediato es una perdida de desempeño en la interface gráfica, pero esto no esproblema para servidores que ruedan "headless", o sea, sin monitor o interface gráfica.*VMware ESX Server:* dirigido para uso en servidores de grande porte. Se trata de unsistema operacional dedicado, que usa un kernel propietario, con base en el SimOS. El RedHat Linux es usado para proveer los diversos servicios, como administración remota. Porrodar en un nivel más próximo del hardware, se elimina el overhead de tener un sistema basey se aumenta la seguridad. Por eso, es usado en servidores de grande porte.*VMware Player:* ejecuta máquinas virtuales prontas. Oficialmente, no es posible criarmáquinas virtuales nuevas, pero es posible contornar esta limitación de tres formas:1) Instalar una versión de evaluación del VMware Workstation y crear máquinas virtualesnuevas.2) Usar appliances (máquinas virtuales fornecidas por la comunidad, que operan comosoluciones prontas, en que basta apenas rodar).3) Usar sitios no oficiales, como el EasyVMX.*VMware Fusion:* una versión experimental para el Mac OS X rodando en Macintosh conCPU Intel.*Otros productos son:* VMware P2V, herramienta para migrar de servidores físicos paramáquinas virtuales; VMware VirtualCenter, herramienta para centralizar la administración deinstalaciones de VMware; y VMotion, herramienta para transferir máquinas virtuales entreservidores, de forma tan transparente cuanto posible, resultando en lo mínimo de downtime(tiempo con el servidor desconectado).No es un emuladorAl contrario de lo que se acostumbra divulgar, el VMware no es un emulador. El va a un nivelmás bajo, en que el procesador llega por veces a ejecutar directamente el código de lamáquina virtual. Cuando eso no es posible, el código es convertido para que el procesador noprecise cambiar para el modo real, lo que seria una perdida de tiempo.El VMware es útil para ambientes de desarrollo, en que es necesario testar una aplicación envarias plataformas. Muchas empresas tienen productos multiplataforma, que precisan sertestados en Windows y en diversas distribuciones del Linux.Otra utilidad dice respecto a los ambientes de soporte, en que es preciso dar soporte adiversas aplicaciones y sistemas operacionales. Un técnico de soporte puede rápidamente

DiálgoTI / NextGenerationCenter Pagina 15

Page 16: Artículo Virtualización Intel

usar una máquina virtual para abrir un ambiente Linux o Windows.El VMware también es utilizado en la migración y consolidación de servidores antiguos. Esmuy común que redes, con diversos servidores antiguos, demanden un costo demanutención mayor. Con el VMware, ellos pueden ser concentrados en una sola máquina.Para la manutención de aplicaciones antiguas y teste de sistemas nuevos, el VM puede serusado para testar sistemas operacionales, y este es uno de los usos más comunes delproducto. Por ejemplo, es posible usarlo para ejecutar el Windows dentro del Linux, o elopuesto.El también acostumbra ser usado para mantener la compatibilidad de hardware, o sea,algunos hardwares no tienen drivers para Linux o para versiones más recientes del Windows.En este caso, es posible usar hardwares (conectados por la puerta paralela o USB) con unamáquina virtual.Él todavía se presta a la simulación de instalaciones complejas de red y para presentación dedemonstraciones de sistemas completos prontos para usar, típicamente referidas comoVMware appliances.En un ambiente protegido, es típico usar balanceador de carga, varios firewalls y cuatroservidores físicos para alojar con seguridad un único sitio que use servidor Web y base dedatos. Con máquinas virtuales, es posible crear redundancia contra fallas y seguridadadicional contra intrusión, sin recorrer a tantas máquinas físicas y distribuyendo yaprovechando mejor los recursos de las máquinas hospederas.A pesar de tantos usos y ventajas, algunos analistas apuntan ciertas limitaciones delVMware. Él no funciona en sistemas operacionales muy antiguos (como en el caso de lasdistribuciones Linux con base en kernel 2.0 o 2.2). El VMware Workstation requiere unacorrección para rodar en el Linux con kernels 2.6 más recientes. Hay apenas soporteexperimental a la aceleración 3D, tornando el VMware inviable para el uso de juegos. Y,finalmente, existen algunos problemas con el uso de placas de red sin cable (wireless),siendo necesario usar el modo NAT.Adquisición por EMCEMC Corporation, líder mundial en almacenamiento y administración de informaciones, es ladetentora de VMware, Inc. – compañía líder mundial en software de computación virtual conbase en la plataforma Intel, con sede en Palo Alto (EUA). La adquisición tuvo papelfundamental en la estrategia de EMC de ayudar los clientes a reducir costos y a simplificaroperaciones. Con la adquisición, EMC planeaba implementar tecnologías de Virtualización ensus infra-estructuras de TI heterogéneas, para crear un conjunto único de recursos dealmacenamiento y computación.EMC espera que su innovación en Virtualización de almacenamiento y el liderazgo deVMware en Virtualización de servidores sirvan como base para soluciones de administracióndel ciclo de vida de la información de la próxima generación. Esta "infra-estructura deinformación virtual" posibilitará que las organizaciones configuren y reconfigurendinámicamente sus ambientes de computación y almacenamiento de datos, sin tiempoinactivo, en la medida de la dinámica de sus negocios.El software VMware es usado por organizaciones en todo el mundo para consolidarservidores subutilizados, reducir el tiempo de aprovisionamiento de servidor de semanas para

DiálgoTI / NextGenerationCenter Pagina 16

Page 17: Artículo Virtualización Intel

decenas de segundos, mover dinámicamente cargas de trabajo de aplicación entreservidores y estaciones de trabajo, sin interrupción del servicio, y eliminar el tiempo deinactividad para manutención, implementación o migración de hardware.Aporte de IntelEn la mitad de 2007, VMware, Inc. anunció que recibió aporte de capital en el valor de 218,5millones de dólares de Intel Capital, brazo de inversiones de Intel Corporation. Cuando fuedivulgada, la operación todavía pasaría por los órganos reglamentares, pero la estimativa erade que, con el movimiento, Intel Capital tendría 2,5% de todas las acciones comunes deVMware. En la época del anuncio mundial, fue comunicado que un ejecutivo de Intel serianombrado para el consejo de VMware. El objetivo de Intel, con el aporte, fue aumentar laadopción de tecnología VMware en la arquitectura Intel, mejorando la virtualización para losclientes.Además de eso, VMware e Intel iniciaron un acuerdo de asociación y de colaboración, queexpresa la intención de ambas compañías en desarrollar esfuerzos conjuntos en iniciativasde desarrollo, de marketing e industriales.Interese crecienteLos medios de comunicación anunciaron recientemente que Cisco va juntarse a Intel ytambién invertirá en el sistema de virtualización VMware. EMC anunció, en el inicio de 2007,que va abrir capital. En el inicio de junio de este año, Intel comunicó el mercado de accionesque comprará US$ 219 millones en acciones de la empresa y tendrá derecho a un asiento enel consejo director de la compañía. Luego después del anuncio, el sitio ingles The Registeranunció que Cisco también decidió invertir en el fabricante del VMware.Las inversiones de Cisco deben estar en torno de US$ 150 millones, lo que dará a lacompañía participación de 1,6% en el capital de EMC. La solución VMware para crear yadministrar máquinas virtuales es un fenómeno en el mercado financiero. De acuerdo conEMC, los lucros con la venta del sistema de virtualización crecen al ritmo de 90% a cadatrimestre. Con la inversión, Cisco también podrá tener un representante en el consejo directorde EMC.

Simplificando y optimizando el datacenter

Las ventajas de optimizar el datacenter con la virtualización, tipos de proyectos disponibles yreducción de costos.Fuerte crecimientoEl crecimiento del uso de la Virtualización es particularmente fuerte en el espacio de losservidores empleados en gran volumen, como en los datacenters. La capacidad de ejecutarvarias aplicaciones en un mismo servidor, por ejemplo, bancos de datos, sistemas de ERP oCRM, está dando impulso a la adopción de servidores virtuales y debe continuar a influenciarfuturas instalaciones de hardware.La Virtualización del servidor está transformando la forma como las principales empresas deTI fornecen y administran sus sistemas y aplicativos, ayudándolas a consolidar su infra-

DiálgoTI / NextGenerationCenter Pagina 17

Page 18: Artículo Virtualización Intel

estructura, optimizar la utilización, reducir los costos totales y mejorar la agilidad empresarial.Con un software de Virtualización de servidor, es posible consolidar varios sistemasoperacionales y cantidades de software en una única plataforma y alocar dinámicamente losrecursos de esta plataforma para atender exigencias específicas de la empresa y de losaplicativos.Los principales beneficios de las soluciones actuales del software de Virtualización delservidor alcanzan diversos aspectos, entre ellos, la consolidación flexible del servidor. Pormedio de la Virtualización, es posible, de modo rápido y fácil, consolidar diversos sistemasoperacionales y aplicativos. El aumento de la disponibilidad y de la seguridad es otro puntoimportante, pues las fallas del software y los ataques digitales son aislados dentro de cadapartición virtual, y las particiones de superación de fallas ofrecen un abordaje fácil yeconómico para ajustar la disponibilidad.La Virtualización del servidor también ofrece simplificación de las migraciones de sistemasoperacionales y hardware, pues permite la migración de los aplicativos legados y susversiones actuales del sistema operacional, sin mudar para particiones virtuales, además depermitir la dinamización de teste y desarrollos. Además de eso, promueve más agilidad a laempresa, pues es posible fornecer o redimensionar una partición virtual en minutos, paraacomodar nuevos aplicativos, aumentando las cargas de trabajo y la manutención delsistema.Desafío e inversionesActualmente, un objetivo imprescindible en cualquier estrategia de TI es consolidar múltiplesfunciones esenciales a las empresas. Normalmente, estas funciones se encuentran dispersaspor diversos servidores físicos, muchas veces, con diferentes sistemas operacionales. Con laconsolidación, es posible optimizar los recursos, reducir drásticamente costos y aumentarconsiderablemente los niveles de servicios disponibles a los demás departamentos de unaorganización.Este objetivo lleva los proveedores a apostar en este tipo de solución, invirtiendo encertificaciones que permitan la presentación en el mercado de las habilitaciones necesariaspara dar soporte a soluciones personalizadas, de acuerdo con las necesidades de cadacliente. Esto alinea su estrategia de consolidación de servidores por la implementación deservidores virtuales y en general consigue la reducción del TCO (Total Cost of Ownership oCosto Total de Propiedad).Los objetivos de este tipo de proyecto son aumentar la eficiencia y la capacidad de colocarrápidamente en funcionamiento nuevos sistemas que direccionan nuevas exigencias. Así, esposible garantir el mínimo impacto en la estructura de funcionamiento de la organización, demodo a asegurar una operación sin interrupciones, con total redundancia de recursos dehardware y software. En estas soluciones, la busca se da también por la escalabilidad,tornando viable la adicción de procesadores, memoria, almacenamiento, conexiones de fibray red, ya que estos son pasibles de ser totalmente virtualizados en la infra-estructura ycompartidos por las instancias lógicas de sistemas MS Windows y Linux.Mismo que sean grandes las ventajas proporcionadas por estos sistemas, no existen datosque muestren la adopción de Virtualización en Brasil, pero se estima que la utilización seabaja, pues el País todavía invierte poco en innovación tecnológica, en comparación a los

DiálgoTI / NextGenerationCenter Pagina 18

Page 19: Artículo Virtualización Intel

Estados Unidos y a países del continente europeo.En media, los empresarios que trabajan con pesquisa y desarrollo no aplican más de lo que0,64% de su facturación en innovación, sea en la mejoría de sus productos, sea en la comprade equipamientos, de acuerdo con datos de la Asociación Nacional de Pesquisa, Desarrollo eIngeniaría de las Empresas Innovadoras (Anpei). Apenas 30% de todas las empresasbrasileras hacen algún tipo de innovación, siendo los sectores de informática, electrónico yquímico los que más innovan.Para que la innovación sea priorizada en las empresas brasileras, es preciso ampliar todavíamás los incentivos fiscales y las subvenciones económicas. La Ley de Innovación yarepresenta un grande avanzo en el sector, pues permite a las corporaciones innovadorasdescontaren en el Impuesto sobre la Renta, por ejemplo, 160% del total invertido en P&D,pudiendo llegar a 200%, caso presenten en sus cuadros profesionales con cursos pos-universitario y doctorados, además de productos con patentes. Hoy, las compañías con másde 500 funcionarios son las que presentan las mayores tasas de inversiones en P&D.Virtualización avanzadaIBM anunció un producto que designa como "propulsor de virtualización", un software quepermitirá a los usuarios operar hasta diez servidores con un único microprocesador. Elsoftware será incorporado a sus servidores no-mainframe, permitiendo que elles se clonen, loque posibilitaría a los usuarios dividir servidores y otros sistemas en unidades distintas, máso menos como acontece con un computador mainframe.La tecnología funciona con el sistema operacional Unix u otros sistemas no relacionados amainframes. Un servidor normalmente dispone de uno o más microprocesadores, que operancomo el cerebro del computador. Un sistema con cuatro procesadores y usando estatecnología de software tendría poder equivalente al de 40 procesadores, usando uno omúltiples sistemas operacionales o versiones de ellos al mismo tempo, de acuerdo con IBM.En suma, la demanda por potencia y almacenamiento continúa creciendo exponencialmente.En los mercados de servidores y almacenamiento, las mudanzas en las dinámicas demercado causaran alteraciones grandes en las empresas usuarias y en los proveedores. Lasaplicaciones de hoy hacen con que la disponibilidad “24 por 7” y la continuidad de losnegocios sean críticas para las corporaciones. La presión para cumplir la disponibilidad y eldesempeño, reducir costos, mejorar servicios y minimizar riesgos nunca fue tan alta.De acuerdo con Gartner, los mercados de servidores y de almacenamiento enfrentaránmudanzas dramáticas en los próximos años. Los paradigmas tradicionales de computaciónsufrirán amenazas invasivas, a la medida que Linux y MS Windows se tornen factores mássignificativos en las aplicaciones de misión crítica de toda la empresa.En cuanto eso, grupos expansivos de datos dinámicos y estáticos generarán nuevos desafíosen la administración del almacenamiento. La visualización y la segmentación se tornancomponentes críticos en una arquitectura simétrica para servidores y almacenamiento. Laselección de la plataforma de servidores continúa siendo un aspecto vital para muchassoluciones comerciales viables y los usuarios precisan equilibrar el riesgo de se prender a unproveedor contra los beneficios potenciales de las nuevas tecnologías.Pero, antes de emplear cualquier tecnología, las corporaciones precisan avaluar laposibilidad de administración de la solución de Virtualización, el efecto (positivo y negativo)

DiálgoTI / NextGenerationCenter Pagina 19

Page 20: Artículo Virtualización Intel

en los procesos actuales y la velocidad del retorno sobre la inversión. Además de eso, tienenque analizar la estrategia de largo plazo de salida/migración y también de automatización yVirtualización en una escala más amplia; el efecto en los costos de aplicación del software(con base en el licenciamiento y en el precio, que no son muy favorables a la Virtualización ya la consolidación).Virtualización y ciclo de vida de la informaciónParalelamente a la Virtualización, una buena opción para mejorar el uso del almacenamientoes la implementación de la gestión del ciclo de vida de la información almacenada en losdispositivos de la empresa. Estudios muestran que los datos de la mayoría de lasaplicaciones no tienen necesidad de estar disponibles para acceso on-line en la medida enque el tiempo pasa.Un ejemplo de eso son los mensajes en el correo electrónico. Normalmente, después de 45días del recibimiento, ellas no precisan consumir espacio en disco más rápido y,consecuentemente, más caro. Por eso, en el lugar de comprar discos, puede ser una buenaalternativa migrar automáticamente las informaciones usadas con menos frecuencia paraunidades de cinta o discos más lentos, reduciendo sensiblemente las nuevas inversiones enalmacenamiento.La lista del potencial desperdicio en almacenamiento es tan grande que torna posible mesclartodas estas soluciones y reducir mucho la necesidad de nuevas inversiones en esta área. Talvez, esta sea la mayor justificativa para el hecho de que los propios fabricantes de discosestén discursando que sus productos se tornen commodities y que el diferencial del área estáen la oferta de softwares y servicios.Adopción crecienteDe acuerdo con levantamiento realizado por Forrester Research, más de 50% de lasempresas del mundo testaron e implementaron soluciones de Virtualización de servidores en2006, que también registró fuerte alta en 2005, cuando el porcentaje de empresas queexploraron la tecnología llegó a 29%. La amuestra oída por el instituto fue de 1.770corporaciones y pequeñas y medianas empresas en el país.El instituto apuntó todavía que el desinterés en la tecnología cayó de 23% en 2005 para 17%en 2006. Ya el desconocimiento sobre la Virtualización de servidores se precipitó de 19%para 8%.Forrester indica en su informe que esta evolución puede ser atribuida a dos factoresprincipales: más disponibilidad de tecnologías sobre el tema y mayor esfuerzo de losproveedores del sector. De acuerdo con el instituto de pesquisas, la Virtualización deservidores se tornó mainstream en los servidores x86 en diversas empresas, en 2006, alcontrario de ser una tecnología de nicho en Unix. El levantamiento destaca la competición dellíder VMware con la solución de Microsoft Virtual Server y el producto de open source Xen.Las estadísticas apuntan que 53% de los entrevistados prefirieron el VMware, soluciónadquirida por EMC, como único proveedor que ellos llevan en consideración para virtualizarservidores Intel, contra 11% que optan por HP, y 9%, por Microsoft.

DiálgoTI / NextGenerationCenter Pagina 20