PROYECTO DE TESIS
Tema:
“Implementación de Servidores Virtuales en el Departamento de Sistemas de la Pontificia
Universidad Católica del Ecuador Sede Esmeraldas”
Autor:
Elpis Rubio Ramos
Asesor:
Lcdo. Kléber Posligua
2011
MARCO TEORICO1. PONTIFICIA UNIVERSIDAD CATÓLICA DEL ECUADOR SEDE
ESMERALDAS (PUCESE).1.1 Antecedentes de la PUCESE1.2 Misión1.3 Visión1.4 Organigrama de la PUCESE1.5 Departamentos de la PUCESE
1.5.1Dirección de Estudiantes y Pastoral Universitaria1.5.2Dirección Académica1.5.3Dirección Administrativa
1.5.3.1 Recursos Humanos1.5.3.2 Servicios Generales
1.5.4Dirección Financiera1.5.4.1 Tesorería1.5.4.2 Contabilidad1.5.4.3 Presupuestos1.5.4.4 Inventarios1.5.4.5 Mantenimiento y Obras
2. DEPARTAMENTO DE SISTEMAS DE LA PUCESE2.1 Antecedentes2.2 Constitución del Depto. De Sistemas2.3 Funciones del Depto. De Sistemas2.4Importancia del Depto. De Sistemas
3. EL COMPUTADOR Y EL SERVIDOR3.1 Historia y Evolución
3.1.1 Primera Generación3.1.2 Segunda Generación3.1.3 Tercera Generación3.1.4 Cuarta Generación3.1.5 Quinta Generación3.1.6 El Primer Servidor3.1.7 Sexta Generación
3.2 Definición de Servidor3.3 Características y Diferencias entre un Servidor y un Computador Común3.4 Tipos de Servidores
3.4.1 Servidores de Aplicación.3.4.2 Servidores de Chat.3.4.3 Servidores FTP.3.4.4 Servidores de FAX.3.4.5 Servidores IRC.3.4.6 Servidores GroupWare.3.4.7 Servidores de Correo.3.4.8 Servidores Proxy.3.4.9 Servidores Web.3.4.10 Servidores de Lista3.4.11 Servidores de Noticias3.4.12 Servidores Telnet
3.4.13 Servidores de Audio y Video
4. VIRTUALIZACIÓN4.1 Historia y Evolución4.2 Introducción4.3 Concepto de Virtualización4.4 Tipos de Virtualización.
4.4.1 Virtualización por Hardware.4.4.2 Virtualización de almacenamiento.4.4.3 Particionamiento.4.4.4 Máquina Virtual
4.5 Grupos de Virtualización4.5.1 Emulación4.5.2 Bochs4.5.3 Qemu4.5.4 Virtualización Completa4.5.5 PARAVirtualización
4.5.5.1 Xen4.5.5.2 UML
4.6 Herramientas de Virtualización4.6.1 Parallels.4.6.2 Windows Virtual PC4.6.3 Virtual Box4.6.4 Xen Server4.6.5 VMWare4.6.6 Virtuozzo
4.7 Ventajas de la Virtualización4.8 Aplicaciones de la Virtualización4.9 ¿Por qué Virtualizar?
5. INTERRUPCION DE SERVIDORES5.1 Definición5.2 Mecanismos de Interrupción en un Computador.5.3 Causas de las Interrupciones más comunes dentro de una red de trabajo.5.4 Tipos de Interrupciones5.5 Consecuencias de una Interrupción a Largo Plazo.5.6 Sistemas de prioridad
5.6.1 Interrupciones simultáneas5.6.2 Interrupciones anidadas5.6.3 Inhibición de interrupciones
5.7 Métodos para recuperarse de una Interrupción o Desastre.
6. MICROSOFT WINDOWS SERVER 2008 R2(WS2008)6.1 Introducción a los S.O. de Servidor6.2 Windows Server 2008 6.2.1 Definición 6.2.2 Características
6.2.2.1 Virtualización con Hyper-V6.2.2.1.1 Bondades de Hyper-V
6.2.2.1.1.1 Memoria Dinámica6.2.2.1.1.2 Consolidación de Servidores.6.2.2.1.1.3 Continuidad de las Actividades de la Empresa6.2.2.1.1.4 Recuperación ante Desastres6.2.2.1.1.5 Pruebas y Desarrollo6.2.2.1.1.6 Dinámico Centro de Datos
6.2.2.2 Servicios de Escritorio remoto y RemoteFX(RDS)6.2.2.3 Administración de Energía.6.2.2.4 Servidor de administración6.2.2.5 Gestión de Datos6.2.2.6 Plataforma de Aplicaciones WEB6.2.2.7 Escalabilidad y fiabilidad6.2.2.8 Experiencia integrada con Windows 7
6.2.3 Estructura y Plataforma6.3 Beneficios de WS2008 como herramienta de implementación
6.3.1 Transforme su Centro de Datos6.3.2 Reducir los Costos Gracias a la Virtualización6.3.3 Simplificar la Gestión de Centros de Datos6.3.4 Mejora el Centro de Datos de Seguridad6.3.5 Reduce el Consumo Energético6.3.6 Aumenta el rendimiento de Aplicaciones
6.5 Licenciamiento de Windows Server 2008 R26.6 Requerimientos de Windows Server 2008 R2
PROPUESTA3.1 ANTECEDENTES3.2 DELIMITACIÓN DE OBJETIVOS
3.2.1OBJETIVO GENERAL3.2.2 OBJETIVO ESPECIFICO
3.3 JUSTIFICACIÓN3.4 VIRTUALIZACIÓN DE SERVIDOR ES
3.4.1 INTRODUCCIÓN A LA IMPLEMENTACIÓN3.4.2 DETERMINACIÓN DEL SERVIDOR A VIRTUALIZAR
3.4.3 JUSTIFICACIÓN DEL SISTEMA OPERATIVO A INSTALAR3.4.4 JUSTIFICACIÓN DE LA HERRAMIENTA DE VIRTUALIZACIÓN A UTILIZAR3.4.5 REQUERIMIENTOS DE HARDWARE3.4.6 REQUERIMIENTOS DE SOFTWARE3.4.7 RESUMEN DE PROCESOS
3.4.7.1 CONDICIONES PREVIAS
3.4.7.2 INSTALACION Y CONFIGURACION DE SOFTWARE3.4.7.3 LEVANTAMIENTO DE HYPER-V EN EL S.O. HOST3.4.7.4 CREACIÓN Y CONFIGURACIÓN DE LA MÁQUINA
VIRTUAL3.4.7.5 INSTALACIÓN DEL S.O. DEL SERVIDOR VIRTUAL
3.4.7.5.1 INSTALACIÓN DEL SISTEMA OPERATIVO, CONFIGURACIONES DE RED Y DRIVERS DEL SV
3.4.7.5.2 INSTALACIÓN DE APLICACIONES3.4.7.5.3 CONFIGURACIÓN DEL ISS.3.4.7.5.4 CREACIONES DE SITIOS WEB EN EL ISS.
3.4.7.6 CREACIÓN DE RED INTERNA3.4.7.7 PRUEBAS DEL SERVIDOR VIRTUAL
3.4.7.7.1 PRUEBA INTERNA3.4.7.7.2 PRUEBA DE RED CON EL SERVIDOR
FISICO3.4.7.6.3 PRESENTACIÓN DE LA IMPLEMENTACIÓN DEL PROYECTO A ESTUDIANTES DE LA UNIVERSIDAD3.4.7.6.4 EVIDENCIAS O ANEXOS DE LAS PRUEBAS DE APLICACIÓN3.5 ASPECTOS ADMINISTRATIVOS DE LA HERRAMIENTA QUE SE PROPONE
3.5.1 PROPUESTA DE RECURSOS3.5.1.1 PROPUESTA DE HARDWARE3.5.1.2 PROPUESTA DE SOFTWARE
3.5.2 FINANCIAMIENTO3.5.2 COSTO DE ADQUISICIÓN
3.6 PLAN DE CONTINGENCIA3.6.1 DIFERENCIA ENTRE LEVANTAR UN SERVIDOR FÍSICO Y
UN SERVIDOR VIRTUAL3.6.2 ALTA DISPONIBILIDAD 3.6.3 REPLICACION DE SERVIDORES
FUNDAMENTOS TEÓRICOS
1. UNIVERSIDAD CATÓLICA DEL ECUADOR SEDE ESMERALDAS (PUCESE)
1.1 ANTECEDENTES.
Para 1955, Esmeraldas era una ciudad que contaba con apenas 13.000 habitantes.
Sin embargo, con la revolución del petróleo y la construcción de la refinería en esta
tierra, ya para 1974 el censo contabilizaba un total de 60.364 habitantes.
La Iglesia no podía dejar pasar por alto el crecimiento poblacional del pueblo
esmeraldeño, así que se hizo urgente contar con la ayuda de una comunidad
religiosa y dar origen a una sociedad cristiana madura. En la tarea de orientar a la
gente esmeraldeña hacia un desarrollo cristiano e integral, un papel de primera
importancia lo jugó la educación. Era esencial para el futuro de una comunidad
humana que los jóvenes se formen en una mentalidad y conciencia cristianas y den
un sentido cristiano al desarrollo.
Esmeraldas necesitaba profesionales de alta calidad y para esto se necesitaba contar
con profesores bien formados. Es decir, que la provincia necesitaba una
Universidad con una Facultad de pedagogía o Ciencias de la Educación.
Monseñor Ángel Barbisotti, primer obispo de Esmeraldas, ya había elevado su voz
en diversas ocasiones la idea de una Universidad Católica para Esmeraldas. Tal vez
porque pensaba que en Esmeraldas no habría estudiantes suficientes para una
Universidad Católica.
Pasaron varios años. Y la paciencia fue el mejor compañero porque todo lo
alcanza. De modo que en la segunda mitad del mes de Julio de 1980, monseñor
Bartolucci, se presentó ante el Rector de la PUCE, para solicitar la creación de la
Sede de Esmeraldas.
El 31 de Octubre de 1980 se presentó la solicitud y el Consejo Superior dio su
aprobación y autorizó la creación de la Sede de Esmeraldas el 15 de Abril de 1981.
En Mayo de 1981 comenzaron las clases en la Facultad de Ciencias de la Educación
y para el 5 de junio del mismo año en el Salón del Banco Central se inaugura
oficialmente la Sede. Y desde ese entonces se ha fortalecido para contar con su bien
ganado y reconocido de ser la mejor universidad de la nuestra provincia.
1.2 MISIÓN
La PUCESE es una comunidad de educación superior, cuyo propósito sustantivo es
la formación integral de profesionales con excelencia académica, conciencia social
y compromiso humano, a la luz de los valores del Evangelio.
Insertada en la sociedad, promueve el desarrollo científico, económico y cultural de
Esmeraldas, dando servicio a todos los sectores de la población, con una actuación
ética, responsable e innovadora.
1.3 VISIÓN
La PUCESE, en el 2010, será una organización fortalecida, en búsqueda
permanente de la excelencia académica, convertida en punto de referencia en el
ámbito de la educación superior.
Más abierta y vinculada con el desarrollo social y productivo de Esmeraldas,
mediante el impulso de la investigación, la preparación de profesionales
comprometidos y capaces de liderar cambios significativos en la sociedad, y la
coparticipación con sectores y grupos organizados de la comunidad.
Contará con una oferta académica diversificada, un personal docente altamente
identificado con la filosofía de la PUCESE, una organización dinámica y flexible
ante los cambios y una infraestructura que posibilite brindar calidad y solvencia a
todos los servicios prestados. Potenciará asimismo la participación activa de los
estudiantes, la formación en valores cristianos y la utilización de los avances
tecnológicos en todos los ámbitos institucionales.
1.4 ORGANIGRAMA
Grafico 1. Organigrama de la PUCESE (Julio 201
1.5 DEPARTAMENTOS DE LA PUCESE
La Universidad se encuentra distribuida como se vio en el Gráfico 1, a continuación se
citará las cuatro direcciones principales dentro de la PUCESE.
• Dirección de Estudiantes y Pastoral Universitaria,
• Dirección Académica
• Dirección Administrativa
• Dirección Financiera
1.5.1 DIRECCIÓN DE ESTUDIANTES Y PASTORAL UNIVERSITARIA
La Dirección de Pastoral Universitaria orienta la formación integral de alumnos,
docentes y trabajadores con auténticos valores del Evangelio para que sean sensibles a
las necesidades sociales.
Esta dirección busca contribuir efectivamente, a la educación integral con principios
humanos, éticos y cristianos. La Dirección de Estudiantes y Pastoral Universitaria es
un centro dinámico de diálogo, reflexión, paz, alegría y orientación personal y
comunitaria, entre todos aquellos que formamos parte de la Universidad.
1.5.2 DIRECCIÓN ACADÉMICA
Esta Área es la responsable indirecta o directamente del desarrollo profesional de la
provincia y el país en general, pues es aquí en donde los conocimientos científicos,
literarios y técnicos, toman forma, se siembran en los estudiantes y estos lo desarrollan
para aplicarlos en la realidad de la sociedad a base de principios éticos y cristianos.
La PUCESE en el área Académica cuenta con las siguientes escuelas:
Dentro de la Facultad de Ciencias de la Educación:
• Educación Inicial
• Educación Básica.
Dentro de la Facultad de Ciencias Administrativas y Contables:
• Ciencias Contables
• Comercio Exterior
• Sistemas y Computación
• Hotelería y Turismo
• Gerencia de PYMES
• Ing. Comercial Finanzas
• Ing. Comercial Productividad
Existen también:
• Enfermería,
• Diseño Gráfico, y
• Lingüísticas.
1.5.3DIRECCIÓN ADMINISTRATIVA
Esta dirección se encuentra compuesta por los departamentos de Recursos Humanos y
departamento de Servicios Generales, y tienen la responsabilidad de que todos los
servicios prestados por la Universidad se encuentren en excelente estado y sean de
calidad a la altura de una Universidad de primer nivel.
1.5.3.1 Departamento de RRHH, Tiene como objetivos mantener el registro e
información sobre el personal, administrar el pago de las remuneraciones y el
cumplimiento de las leyes sociales para el personal, además de velar por las
relaciones contractuales del personal, de acuerdo con las políticas, planes y
programas definidos por la PUCESE, en el marco del Derecho del Trabajo y otras
disposiciones legales pertinentes. Además, efectuar todas aquellas acciones que le
competan en la gestión del Servicio de Bienestar para los funcionarios.
1.5.3.2 Departamento de Servicios Generales, Seencarga de proporcionar
oportuna y eficientemente, los servicios que requiera la Universidad, transporte,
correspondencia, archivo, materiales de oficina, vigilancia, mensajería y el
suministro de mantenimiento preventivo y correctivo al mobiliario, equipo de
oficina y equipo de transporte. Atenderá der de forma coordinada una serie de
funciones de carácter no administrativo que permitan que los distintos
departamentos de la Universidad disfruten de un adecuado funcionamiento de su
infraestructura.
1.5.4 DIRECCIÓN FINANCIERA
Esta dependencia es una de las dependencias más grandes y por ende más complejas de
la Organización, por todas las actividades que esta dirección maneja, desde la
Tesorería, Contabilidad, Presupuestos, Inventarios hasta Mantenimiento de Obras. Es
la responsable de la administración correcta de los recursos económicos, la gestión de
presupuestos, análisis de costos, y toda aquella actividad que involucre transacciones
económicas. A continuación se resumen las funciones de los departamentos que
corresponden a esta Dirección:
1.5.4.1 Tesorería,
En este departamento, se gestionan las acciones relacionadas con las operaciones
de flujos monetarios de la Universidad. Incluye, ejecución de pagos y cobros, la
gestión de la caja y las diversas gestiones bancarias.
Así por ejemplo, cuando el Departamento de Recursos Humanos realiza el cálculo
de los sueldos a pagar; Tesorería se encarga de asegurar que haya suficiente dinero
disponible para pagar los sueldos en la fecha prevista, y de dar las órdenes de
pago; Contabilidad entonces registra los movimientos realizados por Tesorería.
1.5.4.2 Contabilidad,
El departamento Contable se encarga de instrumentar y operar las políticas,
normas, sistemas y procedimientos necesarios para garantizar la exactitud y
seguridad en la captación y registro de las operaciones financieras, presupuestales
y de consecución de metas que tiene la Universidad, y de esta manera ayudar a la
toma de decisiones, a promover la eficiencia y eficacia del control de gestión, a la
evaluación de las actividades y facilitar la fiscalización de sus operaciones.
1.5.4.3 Presupuestos,
La función principal de este departamento es la de apoyar a la Secretaria
Administrativa en el manejo y control de los recursos financieros conforme a la
Normatividad aplicable y al Sistema de Gestión de la Calidad. Presupuestos debe
estar consciente de las necesidades y demandas de los demás departamentos de la
Universidad, pero en especial del Departamento Contable, para elaborar un
correcto presupuesto, que solvente las necesidades de todos.
1.5.4.4 Inventarios,
Se encarga de garantizar el abasto suficiente de los artículos y productos
recurrentes, así como el adecuado manejo y custodia de las existencias de todo tipo
de materiales, refacciones, muebles y enceres, verificando la exactitud del registro
de los bienes, y la integración de los datos. Este departamento debe velar por el
estado de dichos materiales para su correcto funcionamiento.
1.5.4.5 Mantenimiento de Obras,
Esta pequeña dependencia, gestiona obras de construcción dentro del recinto de la Universidad, debe contar con la aprobación de la Dirección Financiera y urgente necesidad de dicha obra.
Su función es importante ya que permite mantener un ambiente agradable en las Instituciones de la Universidad.
Se debe acotar como punto importante que el Departamento de Sistemas no comparte
lugar dentro de las cuatro direcciones mencionadas anteriormente, ya que este
departamento se encuentra a un Nivel Superior dentro del Organigrama (ver gráfico 1)
de la Universidad. Junto con Asesoría Jurídica, Servicios y Empresas, y Centro de
Investigación y Desarrollo, Departamento de Sistemas cumple con servir como soporte
de las actividades de las demás Direcciones y departamentos.
2: DEPARTAMENTO DE SISTEMAS
2.1 ANTECEDENTES
El Departamento de Sistemas cumple un rol protagónico dentro de cualquier organización,
por la responsabilidad que debe cumplir con todos y cada uno de los usuarios de la
Empresa, en este caso la Universidad, aún más cuando debe responder tanto al personal
administrativo, docentes, estudiantes y público en general.
Dentro de la Universidad, la función principal del Departamento de Sistemas está
encaminada por el óptimo funcionamiento de los recursos tecnológicos y los sistemas de
información que el personal de las diferentes Direcciones utilizada para sus actividades.
2.2 CONSTITUCIÓN DEL DEPARTAMENTO DE SISTEMAS
El departamento lo constituye como tal el Recurso Humano y el Tecnológico. Dentro del
Recurso Humano la Universidad cuenta con un total de cinco trabajadores que velan por el
buen servicio a los Usuarios de la PUCESE.
Con respecto al Recurso Tecnológico, está compuesto por un parque informático
distribuido de la siguiente manera. Cuenta con; 7 servidores destinados a proveer los
principales servicios informáticos a la Institución como son:
• Servidor Gestores de Base de Datos.
• Servidor de Respaldos de Información.
• Servidor de Aplicaciones Webs Dinámicas.
• Servidor de Aplicaciones WebsEstáticas y Correo.
• Servidor de Correo Electrónico.
• Dos Servidores DNS
Salas de Computo:
Nombre de Sala Ubicación Destinada a AsignaturaNúmero de
Computadores
Sala de Computo 1
Edificio Administrativo
Estudiantes en General/Aula de
ClasesVarios 60
Sala de Computo 2
Edificio Administrativo
Aula de Clases Varios 20
Sala de Computo 3
Edificio Administrativo
Aula de Clases Varios 30
Sala de Computo 4
Edificio Administrativo
Aula de Clases Inglés 15
Sala de Computo 5
Edificio Santa CruzEstudiantes en
GeneralVarios 14
TOTAL 139
Personal Administrativo:
DirecciónNúmero de
ComputadoresFinanciera 10Administrativa 10Académica 10Estudiantes y Pastoral Universitaria
6
TOTAL 36
Otras dependencias:
DependenciaNúmero de
ComputadoresLibrería Estudi@ 1Dispensario Médico 1CECAMECON 1Operadora Turística 1FEUCESE 1
TOTAL 5
Al existir gran cantidad de equipos, la Universidad debe estar lista para tener dichos computadores en correcto funcionamiento, a su vez que deben mantener vigentes las licencias de los software(s) comerciales para no pasar por inconvenientes más tarde como lo establece la ley.
Por ello el Departamento de Sistemas es el encargado de velar para que todos los equipos que utilicen software comercial se encuentren debidamente licenciados. Actualmente la Universidad cuenta con las licencias:
• Sistemas Operativos de cada computador de Escritorio.
• Windows XP.
• Windows 7.
• Sistema Operativo de los Servidores.
• Windows Server 2003.
• Windows Server 2008.
• Windows 7.
• Paquete Completo de Microsoft Office.
• Microsoft Word 2007.
• Microsoft Excel 2007.
• Microsoft PowerPoint 2007.
• Microsoft Publisher 2007.
• Microsoft Visio 2007.
• Microsoft Project 2007.
• Software de Desarrollo Educativo
• Microsoft Visual Studio .NET
• Microsoft SQL Server.
• Paquete de Antivirus KASPERKY.
Estas licencias son renovadas cada año de acuerdo a lo establecido por el Encargado del Departamento de Sistemas, quien da por hecho que la PUCESE nunca ha tenido problemas de licenciamiento de Software o actividad parecida, y que además se cuenta con licencias de tipo académicas de herramientas como SQL Server 2000 y Visual Studio 2008, para el desarrollo profesional de los estudiantes.
2.3 FUNCIONES DEL DEPARTAMENTO DE SISTEMAS
Dentro de las funciones que debe cumplir el Departamento de Sistemas en la organización son:
• Coordinar el buen desempeño de los recursos tecnológicos en la Universidad a
través del personal anexado al departamento.
• Coordinar y gestionar nuevos proyectos de acuerdo a los avances tecnológicos y
requerimientos propios de la Universidad contribuyendo al desarrollo institucional.
• Capacitar, brindar soporte técnico y de procesos a los Sistemas de Información que
cuenta la Universidad.
• Establecer políticas para el uso adecuado y racional de los recursos informáticos y
de la red de datos.
• Resguardar la infraestructura informática de ataques, virus o acciones que atenten
contra el normal servicio.
• Administrar la página Web de la Institución, el servicio de correo electrónico, el
manejo de usuarios y mensajería instantánea.
• Ejecutar políticas en el servicio de Internet tanto inalámbrico como en salas de
cómputo.
• Apoyar a usuarios en operaciones de implementación o adecuación de servicios
informáticos.
Estas funciones se encuentran distribuidas de la siguiente manera:
• Responsable de Departamento
• Coordinar el trabajo del centro de cómputo.
• Responder ante las autoridades superiores de la sede por las acciones
emprendidas por el centro de cómputo.
• Supervisar y autorizar el uso de los laboratorios de computación
• Mantener el funcionamiento correcto de la red administrativa.
• Automatizar y chequear tareas de respaldo de la información de las bases
de datos de la sede.
• Administrar el software antivirus en cuanto a licencias y actualizaciones.
• Analizar y diseñar mejoras de los sistemas de información de la sede.
• Planificar acciones de contingencia para garantizar el buen funcionamiento
de los sistemas de información de la sede.
• Soporte en sitio a los usuarios administrativos: Hardware, Software, red.
• Proponer la lista de materiales que se van a necesitar en el nuevo año para
realizar adecuadamente el mantenimiento preventivo y correctivo de
equipos de cómputo.
• Responsable Mantenimiento y Soporte Usuario
• Mantenimiento de hardware: revisión, mantenimiento y limpieza de
teclados, mouse, CPU, impresoras.
• Mantenimiento de software: instalación de software, instalación de
sistemas operativos, instalación de drivers, antivirus, depuración de
software.
• Soporte en sitio: revisión de correo, impresoras, ayuda a personal
• Red: acceso a red, creación de claves de acceso, creación de cables para
red, creación de puntos de red, revisión de Internet.
• Proponer la lista de materiales que se van a necesitar en el nuevo año para
realizar adecuadamente el mantenimiento preventivo y correctivo de
equipos de cómputo.
• Llevar un listado de las piezas de hardware que han sido cambiadas: Fecha,
Usuario, Nombre de Pieza, Departamento.
• Responsable de Redes y Bases de Datos
• Configuración y administración del sistema de transmisión de datos,
servidores y servicios de Internet.
• Construcción y mantenimiento de sistemas de bases de datos.
• Instalación de redes.
• Apoyo a las áreas de:
• Soporte a usuarios
• Mantenimiento de Hardware y Software y de Redes
• Proponer la lista de materiales que se van a necesitar en el nuevo año para
realizar adecuadamente el mantenimiento preventivo y correctivo de
equipos de cómputo.
• Responsable de Laboratorio
• Ayudar a los Estudiantes, en las dificultades que se les presentan con las
computadoras o con algunas de la aplicaciones de Office (Word, Excel,
PowerPoint)
• Distribución de Salas según Horarios de clases semestrales enviados por las
diferentes Escuelas de la Sede.
• Velar por el buen uso de los equipos de los Laboratorios.
• Supervisar que el Lab.2 quede en óptimas condiciones una vez sea
desocupada la sala, ya que ésta es exclusivamente para clases y cursos
extra clases.
• Hacer respetar las normas del Laboratorio.
• Realizar el mantenimiento preventivo y correctivo del hardware y software
de las computadoras del laboratorio.
• Al finalizar el día registrar en bitácora las tareas y novedades que se
realizaron en éste tiempo: Equipos en mal estado, sistemas operativos en
mal funcionamiento, Equipos que no ingresan en red, etc.
• Al final de día de trabajo revisar que todos los equipos queden apagados,
listos para el siguiente día.
• Revisar que las instalaciones de los laboratorios estén en óptimas
condiciones para que los estudiantes puedan llevar a cabo sus tareas
estudiantiles, y utilizar las computadoras sin ningún inconveniente.
• Instalación de paquetes de software pedido por los docentes que usan el
laboratorio.
• Depuración (eliminación) de archivos temporales de Internet y de software
que los estudiantes instalan sin permiso del responsable de la sala.
• Notificar al responsable del centro de cómputo sobre novedades que
ocurren en el laboratorio.
• Proponer la lista de materiales que se van a necesitar en el nuevo año para
realizar adecuadamente el mantenimiento preventivo y correctivo de
equipos de cómputo del laboratorio.
2.4 IMPORTANCIA DEL DEPARTAMENTO DE SISTEMAS
Actualmente en todas las empresas ya sea pequeña, mediana o grande, incluyen el uso de
tecnologías de información en sus procesos de administración, producción, manejo de
recursos humanos, capacitación, desarrollo de sistemas, etc.
A tal grado que si se suspende la función informática se paralizan automáticamente las
demás funciones de la empresa, e incluso puede afectar a otras empresas asociadas a esta
trayendo consigo grandes pérdidas de todo tipo; económico, de tiempo, espacio, etc., por tal
razón es importante renombrar cuan fundamentales son las actividades del Departamento
de Sistemas dentro de las actividades diarias de la Universidad, ya que funciona como
núcleo principal de las demás Direcciones.
Es aquí en donde surgen objetos de vital importancia para esta dependencia y a su vez de
toda la Organización. Elementos como la energía eléctrica, el agua potable, Servicio de
Telefonía y otros, son vitales en cualquier lugar para su normal funcionamiento, entonces
cuanto más un Servidor que almacena información valiosa de todo el Personal
Administrativo, Docente, Directivo y Estudiantil de la Universidad.
Por tal razón el Departamento de Sistemas debe estar preparado, para cualquier
eventualidad, desastre o interrupción que afecte al normal funcionamiento de la
Universidad y sus dependencias. Contar con planes de contingencia, y procedimientos
reactivos preparados para levantar un servicio en caso de que esta se vea afectado tanto
física como lógicamente.
Los Servidores juegan un papel irremplazable dentro del Departamento de Sistemas y por
ende en toda la Universidad.
3. EL COMPUTADOR Y EL SERVIDOR
Como veremos al final de esta reseña histórica, un Servidor no es más que un computador
que tiene características adicionales para la prestación de nuevos servicios. Entonces,
hablar de la historia de los servidores incluye antes que nada la historia de su antecesor, el
computador.
3.1 HISTORIA Y EVOLUCIÓN
La Computadora es una máquina cuyo principal fin es la de trabajar procesando datos para
obtener información útil de manera rápida y confiable. Los datos que son entregados al
computador se encuentran desorganizados y en grandes cantidades, mientras que la
información obtenida, no es más que estos datos procesados. La forma en cómo estos datos
eran procesados fue cambiando tanto física, como lógicamente con el transcurso de los
tiempos (generaciones), es así que distinguimos las siguientes evoluciones del computador,
clasificadas en las siguientes generaciones:
3.1.1 PRIMERA GENERACIÓN (1951 – 1958)
Tubo al vacio
Las computadoras de la primera Generación utilizaron tubos al vacío para procesar
información. El tubo al vacío o bulbo, es un componente electrónico utilizado para
amplificar, conmutar, o modificar una señal eléctrica mediante el control del
movimiento de los electrones en un espacio vacío. Sus operadores ingresaban los
datos y programas en código especial mediante tarjetas perforadas. Para almacenar
la información, se utilizaba un tambor que giraba rápidamente, sobre el cual un
dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de
bulbos eran de gran tamaño.
El primer computador en aparecer, fue desarrollado por los científicos
estadounidenses John Presper Eckert y John Willian Mauchly, quienes dieron origen
a UNIVAC 1, la cual fue utilizada para evaluar el Censo de 1950 en el país
Norteamericano. Para ese entonces surgió IBM (International Business
Machines/Negocio Internacional de Máquinas), la cual comenzó a forjar su terreno
en el mundo de la electrónica y los computadores.
Ya para este tiempo, existía el primer proveedor de estos costosos y no tan rentables
computadores; pues IBM, que aunque vendía computadores caros y de uso limitado,
rápidamente tuvo como principales clientes a Compañías privadas y de Gobierno.
La velocidad de cálculo de los computadores de esta generación era de 1000 veces
por segundo.
3.1.2 SEGUNDA GENERACIÓN(1959-1964)
En esta segunda generación, surge a partir del transistor, logrando así,
computadores más rápidos, más pequeños y con menores necesidades de
ventilación. El transistor es un dispositivo electrónico semiconductor que cumple
funciones de amplificador, oscilador, conmutador o rectificador.
Transistor
A pesar de que los computadores habían reducido su tamaño, el costo seguía siendo
una porción significativa para cualquier entidad que deseaba adquirir uno de estos
equipos. Las computadoras de la segunda generación también utilizaban redes de
núcleos magnéticos en lugar de tambores giratorios para el almacenamiento
primario.
Las computadoras de esta Generación eran sustancialmente más pequeñas y rápidas
que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para
reservación en líneas aéreas, control de tráfico aéreo, etc. Además las empresas
comenzaron a aplicar las computadoras a tareas de almacenamiento de registros,
como manejo de inventarios, nómina y contabilidad.
Dentro de esta generación se desarrollaron computadores a destacar como: IBM
1401, UNIVAC M460, IBM 7090, IBM Stretch y UNIVAC LARC.
La velocidad de cálculo de los computadores de esta generación era de 10000 veces
por segundo.
3.1.3 TERCERA GENERACIÓN (1964 – 1971)
Esta generación nace a partir de los desarrollos de Jack S. Kilby, quién en base a los
estudios de científicos como Geoffrey W.A. Dummer y WermerJacobi, creó el
primer Circuito Integrado (Chip).
Entonces, las computadoras de esta generación surgieron con el desarrollo de los
circuitos integrados en los cuales se colocan miles de componentes electrónicos, en
una integración en miniatura. En esta etapa ya se observan cambios considerables
desde el origen de la primera generación, ya que las computadoras son más
pequeñas, más rápidas, desprendían menos calor y eran energéticamente más
eficientes.
La importancia de esta generación radicó en que los circuitos integrados permitieron
a los fabricantes de computadoras incrementar la flexibilidad de los programas, y
estandarizar sus modelos. Gracias a esto el auge de la computación toma vida en
todo el mundo, teniendo a IBM como su máximo baluarte con ventas de más de
30000 unidades de la IBM 360.
La velocidad de cálculo de esta generación era de 1’000.000
Circuito Integrado
3.1.4 CUARTA GENERACIÓN ( 1971 – 1981)
Esta generación se ve marcada por dos mejoras en la tecnología de las
computadoras: la primera es el reemplazo de las memorias con núcleos magnéticos,
por las de chips de silicio y la segunda, la colocación de muchos más componentes
en un Chip: producto de la micro miniaturización de los circuitos electrónicos. El
tamaño reducido del microprocesador y de chips hizo posible la creación de las ya
tan famosas y conocidas computadoras personales o PC (Personal Computer).
Ya para esta generación aparece la multinacional, Intel Corporation, en 1971, que
era una pequeña compañía fabricante de semiconductores ubicada, presenta el
primer microprocesador o Chip de 4 bits, que en un espacio de 4 x 5 mm contenía
2.250 transistores. Es así que surge el 4004, el primer microprocesador de la
historia.
Ya en la época actual, han surgido una enorme cantidad de fabricantes de
microcomputadoras o computadoras personales, que utilizando diferentes
estructuras o arquitecturas se pelean literalmente por el mercado de la computación,
el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial;
sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.
Lo que hizo grande a esta generación de computadoras fueron los grandes avances
tecnológicos realizados en un tiempo muy corto. De estas destacan, en 1977 las
primeras microcomputadoras, fabricadas por empresas como Apple Computer,
RadioShack y Commodore Busíness Machines. IBM se integra al mercado de las
microcomputadoras con su Personal Computer, de donde les ha quedado como
sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo
estandarizado, el MS- DOS (Microsoft Disk OperatingSystem).
Dentro de esta generación, destacan: computadores de IBM con base en
procesadores 8088, 8086, 8048 u 80586, computadores de la casa Intel como son
Pentium, Pentium II, Pentium III y Celeron de Intel, y las computadores Macintosh
y Power Macintosh de Apple Computer.
Ya para esta generación, La velocidad de cálculo
era de 10’000.000
Procesador Celeron de INTEL
3.1.5 QUINTA GENERACIÓN (1982-1989)
Ya a esta altura comienza a hacerse más difícil la identificación de las Generaciones
de las Computadoras, debido a que el avance tecnológico crece a grandes pasos y
nuevas innovaciones surgen a cada instante.
Entonces, podríamos decir que esta generación surge sus bases en acontecimientos
tecnológicos en materia de microelectrónica y computación como son: inteligencia
artificial, teoría del caos, algoritmos genéticos, fibras ópticas, sistemas expertos,
telecomunicaciones, redes neuronales, entre otras.
Sin embargo lo que hizo nacer a la quinta generación de computadores como tal
fueron dos puntos clave: el primero fue el desarrollo de las computadoras para que
procesen datos en paralelo, es decir realicen actividades diferentes de manera
independiente dentro de un mismo equipo para aumentar la velocidad de respuesta,
esto lo hacen por medio del trabajo simultaneo de varios microprocesadores.
El segundo, estuvo a cargo del gobierno Japonés, debido al lanzamiento de su
proyecto denominado “Quinta Generación” que involucro a las 6 empresas
informáticas más grandes de la Isla (y al que se unieron países tecnológicamente
más avanzados) para revolucionar el mercado computacional con máquinas de
última generación.
La Inteligencia Artificial juega un papel muy importante en este proyecto, debido a
que las computadoras de esta generación contienen una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes.
También tienen la capacidad de comunicarse con un lenguaje natural e irán
adquiriendo la habilidad para tomar decisiones cuyo proceso está basado en
sistemas expertos e inteligencia artificial.
También surgen en este proyecto grandes modelos de estandarización, como
dispositivos para el almacenamiento de audio y Sonido, dispositivos flexibles como
el DVD surgieron por la necesidad de almacenamiento de datos.Sin embargo,
independientemente de estos avances de la tecnología, no se distingue la brecha
donde finaliza la quinta y comienza la sexta generación.
Computador de la Cuarta Generación
3.1.6 EL PRIMER SERVIDOR
Como se mencionaba anteriormente, la revolución de los computadores, los avances
de las telecomunicaciones, de las redes y el origen del Internet, son las primicias
para que den paso al primer Servidor conocido en la historia, el cuál fue una
Estación de Trabajo de la empresa NeXTcube, y contaba con no más de 8MB de
memoria ampliables a 64MB y un procesador Motorola de 65MHz.
El equipo pertenecía al Padre del Internet, el Sr. Tim Berners-Lee, quién utilizó este
computador como el primer servidor web de la historia. En la actualidad, el
computador del famoso inventor se encuentra en un Museo Microcosm en Suiza.
Este es el primer paso al avance de los Servidores en todas las redes del mundo.
3.1.7 SEXTA GENERACIÓN (1990- hasta la fecha)
Esta es la generación actual, se encuentra en constante desarrollo, y destacan en las
computadoras de esta generación la combinación de arquitecturas de tipo paralelo y
vectorial, utilizando cientos de microprocesadores vectoriales trabajando
simultáneamente, creando así computadoras capaces de realizar más de un millón de
millones de operaciones aritméticas de punto flotante por segundo.
Algunas de las tecnologías que han sido desarrolladas con: inteligencia artificial
distribuida, holografía, transistores ópticos, sistemas difusos, teoría del caos, etc.
Todos estos avances tecnológicos están representados en innovaciones como lo son
robots, Sistemas Expertos, Sistemas de Comunicaciones Espaciales.
La Sexta Generación es muy prometedora y con el avance de los años veremos si es
la última generación de una gran historia, o el comienzo de un increíble futuro.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del
ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y
tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos
han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y
han permitido mejorar los sistemas modernos de comunicación. Son herramientas
esenciales prácticamente en todos los campos de investigación y en tecnología
aplicada.
No se debe olvidar que basados en todos estos antecedentes, se dará énfasis al
computador principal dentro de una Red, El Servidor y cuál es su impacto en la
actualidad.
3.2 DEFINICIÓN DE SERVIDOR
Múltiples conceptos, existen para definir que es un servidor, de ellos se destacan los siguientes:
• Una computadora en la que se ejecuta un programa o aplicación que realiza
alguna tarea en beneficio de otros computadores llamados clientes, tanto si se
trata de un ordenador central, un miniordenador o un ordenador personal .
• U n servidor no es necesariamente una máquina de última generación de grandes
proporciones, no es necesariamente un superordenador; un servidor puede ser
desde una computadora antigua, hasta una máquina potente (ej.: servidores web,
bases de datos grandes, etc. Procesadores especiales con varios terabytes de
memoria). Todo esto depende del uso que se le dé al servidor.
• Un servidor es un computador, que se encarga de brindar un servicio a otros
computadores que se conectan a él.
Es importante tener en mente que un computador normal puede ser un servidor sin ningún
inconveniente, basta con instalar un programa que opere y gestione mediante la red a sus
usuarios y puedan ingresar a través de un programa de servidor web como Apache , ISS u
otros, sea esta la necesidad del caso.
3.3 CARACTERISTICAS Y DIFERENCIAS ENTRE UN SERVIDOR Y UN COMPUTADOR COMÚN
Un servidor y un computador comparten características similares ya que los dos están
diseñados para procesar información. Sin embargo, la carga de trabajo que comparten los
dos equipos es distinta. Para un computador regular, contar con un procesador promedio de
2.5 GHz, y un tamaño de memoria RAM igual a 1 Giga Byte (GB) es suficiente para cubrir
las necesidades de un usuario estándar, sin importar el Sistema Operativo, sea de Windows,
Linux, Apple u otro.
Sin embargo, como menciona el capítulo anterior, un servidor tiene la finalidad de atender a
múltiples usuarios, y eso demanda mayor carga de trabajo, una capacidad de respuesta más
rápida, al igual que recuperarse de interrupciones de manera inmediata. Es por factores
como este que un Servidor(a diferencia de un computador personal) para responder a las
demandas de una red de usuario debe contar con características mínimas como:
• Dos procesadores de 2.66 GHz
• 4 Giga Bytes(GB) de Memoria RAM
• Disco Duro de 200 Giga Bytes (GB)
• Otra razón por la que un servidor se diferencia de un ordenador es que al servidor
casi nunca se lo apaga o reinicia, debido a que debe estar a la orden de cualquier
usuario sin importar el día, la fecha o la hora (más aún si es un servidor web),
mientras que un computador ordinario o común si se lo apaga o reinicia.
3.4 TIPOS DE SERVIDORES
3.4.1 SERVIDOR DE APLICACIONES - APPLICATION SERVERS.
Los servidores de aplicaciones es un servidor que ejecuta ciertas aplicaciones y
ocupan una gran parte del territorio entre los servidores de bases de datos y el
usuario, ya que por lo general estos servidores se conectan entre sí.
Usualmente se trata de un dispositivo de software que proporciona servicios de
aplicación a las computadoras cliente. Un servidor de aplicaciones generalmente
gestiona la mayor parte de las funciones de lógica de negocio y de acceso a los
datos de la aplicación. Los principales beneficios de esta tecnología son la
centralización y la disminución de la complejidad en el desarrollo de aplicaciones.
Dentro los puntos que caracterizan a un servidor de aplicaciones tenemos:
o Alta disponibilidad.- hace referencia a que un sistema debe estar funcionando
las 24 horas del día los 365 días al año. Para poder alcanzar esta característica
es necesario el uso de técnicas de balanceo de carga y de recuperación ante
fallos o en dicho de otro modo planes de contingencia.
o La escalabilidad.- es la capacidad de hacer crecer un sistema cuando se
incrementa la carga de trabajo (número de usuarios o peticiones).
o El mantenimiento.- tiene que ver con la versatilidad a la hora de actualizar,
depurar fallos y mantener un sistema. Para dar respuesta al mantenimiento,
existe la construcción de la lógica de negocio en unidades reusables y
modulares.
o Integridad de datos y códigos: al estar centralizada en una o un pequeño
número de máquinas servidoras, las actualizaciones están garantizadas para
todos sus usuarios. No hay riesgos de versiones viejas.
o Configuración centralizada: los cambios en la configuración de la aplicación,
como mover el servidor de base de datos o la configuración del sistema, pueden
ser hechos centralmente.
o Seguridad: se consideran más seguras.
3.4.2 SERVIDORES DE CHAT - CHAT SERVERS.
Los servidores de chat permiten intercambiar información a una gran cantidad de
usuarios ofreciendo la posibilidad de llevar a cabo discusiones en tiempo real.
3.4.3 SERVIDORES FTP - FTP SERVER.
Computadora que funciona como servidor para ofrecer ficheros a través del
protocolo de FTP a clientes FTP o a un navegador que lo soporte. Una computadora
debe tener un software servidor de FTP que "escucha" de la red las conexiones que
pidan desde otras computadoras.
3.4.4 SERVIDORES DE FAX - FAX SERVERS.
Es un servidor de fax el cuál es ideal para organizaciones que tratan de reducir el
uso del teléfono pero necesitan enviar documentos por fax.
3.4.5 SERVIDORES IRC - IRC SERVERS.
Otra opción para usuarios que buscan la discusión en tiempo real, Internet Relay
Chat consiste en varias redes de servidores separadas que permiten que los usuarios
conecten el uno al otro vía una red IRC.
3.4.6 SERVIDORES GROUPWARE - GROUPWARE SERVERS.
Un servidor groupware es un software diseñado para permitir colaborar a los
usuarios, sin importar la localización, vía Internet o vía Intranet corporativo y
trabajar juntos en una atmósfera virtual.
3.4.7 SERVIDORES DE CORREO - MAIL SERVERS.
Casi tan ubicuos y cruciales como los servidores web, los servidores de correo
mueven y almacenan el correo electrónico a través de las redes corporativas (vía
LANs y WANs) y a través de Internet.
3.4.8 SERVIDORES PROXY - PROXY SERVERS.
Los servidores proxy se sitúan entre un programa del cliente (típicamente un
navegador) y un servidor externo (típicamente otro servidor web) para filtrar
peticiones, mejorar el funcionamiento y compartir conexiones.
3.4.9 SERVIDORES WEB - WEB SERVERS:
Básicamente, un servidor web sirve contenido estático a un navegador, carga un
archivo y lo sirve a través de la red al navegador de un usuario. Este intercambio es
mediado por el navegador y el servidor que hablan el uno con el otro mediante
HTTP.
3.4.10 SERVIDORES DE LISTAS - LIST SERVERS.
Los servidores de listas ofrecen una manera mejor de manejar listas de correo
electrónico, bien sean discusiones interactivas abiertas al público o listas
unidireccionales de anuncios, boletines de noticias o publicidad.
3.4.11 SERVIDORES DE NOTICIAS - NEWS SERVERS.
Los servidores de noticias actúan como fuente de distribución y entrega para los
millares de grupos de noticias públicos actualmente accesibles a través de la red de
noticias USENET.
3.4.12 SERVIDORES TELNET - TELNET SERVERS.
Un servidor telnet permite a los usuarios entrar en un ordenador huésped y realizar
tareas como si estuviera trabajando directamente en ese ordenador.
3.4.13 SERVIDOR DE AUDIO/VIDEO – AUDIO/VIDEO SERVERS.
Los servidores de Audio/Video añaden capacidades multimedia a los sitios web
permitiéndoles mostrar contenido multimedia en forma de flujo continuo desde el
servidor.
4: VIRTUALIZACION
4.1 Historia y Evolución.
A sus inicios (en 1959), la virtualización era conocida como 'time sharing' gracias al
profesor Christopher Strachey, un catedrático de la Universidad de Oxford y líder del
Grupo de Investigación en Programación. A Strachey, esta técnica le permitía escribir el
código fuente de un programa mientras otro programador compila otro programa.
Dos años más tarde, se desarrolla uno de los primeros sistemas operativos de tiempo
compartido, el CTSS ('Compatible Time-Sharing System'). El CTSS es considerado el
abuelo de los sistemas operativos de tiempo compartido ya que influye en el desarrollo,
entre otros, de:
• IBM M44/44X.
• MULTICS, que influye fuertemente en la família UNIX (Linux).
• CP/M, que influye fuertemente en 86-DOS, el cual deriva en Microsoft Windows.
A su paso por el año 1962, La Universidad de Manchester desarrolla una de las primeras
supercomputadoras mundiales, 'The Atlas Computer', la más rápida de su tiempo. Este
equipo cuenta importantes avances tecnológicos de su era, como los conceptos de time
sharing, multiprogramming, virtual memory y control compartido de periféricos. Ya en el
año de 1964 fue el Centro Científico de Cambridge de IBM quienes desarrollaron el CP-40,
un sistema operativo que implementa la herramienta full virtualization, permitiendo simular
14 'pseudo machines', más tarde llamadas máquinas virtuales.
Durante 1965, el Centro de Investigación Thomas J. Watson de IBM implementa la IBM
M44/44X, basada en el IBM 7044 (M44) y con varias máquinas 7044 virtuales (44Xs)
simuladas, usando hardware, software, paginación, memoria virtual y multiprogramación.
IBM anuncia System/360 Model 67 (S/360-67) y el sistema operativo de tiempo
compartido 'TSS/360', el cual implementa 'virtual memory' y 'virtual machines' pero es
cancelado en 1971 por sus problemas de rendimiento, fiabilidad e incompatibilidad con el
sistema operativo de proceso de lotes 'OS/360'.
Para 1966, el Centro Científico de Cambridge de IBM empieza la conversión del CP-40 y
el CMS para ejecutarlos en el S/360-67. El CP-67 es una significativa re implementación
del CP-40 y es la primera implementación ampliamente disponible de la arquitectura de
'virtual machine'.
Durante 1968, se da a conocer National CSS (NCSS), una compañía que explora la idea de
ofrecer servicios de tiempo compartido, aprovecha la disponibilidad de CP/CMS para
iniciar la implementación de VP/CSS ya que el rendimiento de CP/CMS no es rentable para
sus planes de comerciales.
Al llegar los años 70, IBM empieza a desarrollar 'CP-370/CMS', una completa re
implantación del 'CP-67/CMS' para su nueva serie 'System/370' (S/370).
Posteriormente, IBM anuncia el primer sistema operativo de máquina virtual de la familia
VM (VM/CMS), el 'VM/370' (basado en 'CP-370/CMS') y destinado para 'System/370' con
hardware de memoria virtual. El 'VM/370' se basa en dos componentes; CP (Control
Program) y CMS (ahora llamado Conversational Monitor System). La función más
importante del nuevo CP es la habilidad de ejecutar una VM dentro de otra VM. Todo esto
fue desarrollado durante 1972.
Paralelamente la National CSS (NCSS), aporta VP/CSS a la serie 'System/370'. VP/CSS
mejora el rendimiento del CSS utilizando paravirtualization, a través de llamadas directas
al hypervisor con la instrucción no virtualizada DIAG, en lugar de simular las operaciones
de bajo de nivel de los comandos de E/S.
Durante los años de 1976 y 1987, periodo donde surge la revolución de los ordenadores
personales como: Apple II, Atari 400/800, Commodore VIC-20, IBM PC, ZX Spectrum,
Commodore 64, Apple Macintosh, Atari ST, Commodore Amiga; provoca que la industria
pierda interés en los sistemas operativos súper optimizados para 'mainframes'. Sin embargo,
IBM sigue el desarrollo de su família VM.
Ya para la década de los 80 y con la llegada de las relativamente económicas maquinas x86,
comenzó una nueva era de micro computadoras, aplicaciones cliente-servidor; en donde los
enormes y potentes “mainframes” con mil y una tareas y utilidades en una sola caja
gigantesca se comenzaron a cambiar por relativamente pequeños servidores y
computadoras personales de arquitectura x86, lo que se convirtió rápidamente en el
estándar de la industria.
Debido a esto, una vez más, el tema de la virtualización vuelve a quedar prácticamente en
el olvido, y no es hasta finales de la década de los 90 que gracias al alto desarrollo del
hardware volvemos a caer en un predicamento similar al que estábamos en los años 60: el
hardware existente es altamente eficiente, y utilizar cada equipo para una sola aplicación
seria un desperdicio de recursos, espacio, energía y dinero; y tampoco es conveniente
asignarle múltiples usos o instalar varias aplicaciones en un solo servidor convencional, por
más de una razón. Es por esto que vuelve a resurgir la idea de dividir el hardware, de
manera tal que funcione como múltiples servidores independientes pero compartiendo los
recursos de un mismo servidor físico. Y es de aquí que nace lo que hoy todos conocemos
como “Virtualización”.
En el año de 1988, la compañía Insignia Solutions, desarrolla el emulador de x86 “SoftPC”
que permite ejecutar 'MS-DOS' sobre UNIX y Mac OS.
Actualmente existen diferentes compañías que se dedican al desarrollo de aplicaciones y
soluciones de virtualización. Para la década de los noventa, la empresa VMware inventó la
virtualización para la plataforma x86 para abordar los problemas de infrautilización y de
otra índole, a lo largo de un proceso que obligó a superar gran cantidad de desafíos. En la
actualidad, VMware es líder mundial en virtualización para x86, con más de 190,000
clientes.
Una vez conocida el hecho histórico de esta tecnología se aprecia el hecho de que la
virtualización empezó a implementarse de la mano de IBM, como una manera lógica de
particionar ordenadores mainframe en máquinas virtuales independientes. Estas particiones
permitían a los mainframes realizar múltiples tareas: ejecutar varias aplicaciones y procesos
al mismo tiempo. Dado que en aquella época los mainframes eran recursos caros, se
diseñaron para particionar como un método de aprovechar al máximo la inversión.
4.2 INTRODUCCIÓN.
En estos últimos años, una de las tecnologías de computación de las que más se habla y que
más ha evolucionado es la virtualización. Hace algunos años la virtualización no era
tomada en cuenta como una alternativa real al momento de instalar servidores y otros
equipos de producción en la mayoría de los Data Center de las empresas e instituciones,
debido mayormente a que era una tecnología poco probada, demasiado costosa, o
simplemente por el miedo al cambio en donde simplemente se le teme a lo que no se
conoce o es diferente.
Sin embargo, actualmente la virtualización se ha posicionado en el mercado de la
informática como una opción económica y efectiva al momento de diseñar, ampliar, y
actualizar tecnología de Centros de Cómputos, al punto de que en muchos casos si no se
elige la virtualización, se estaría perdiendo dinero y/o la implementación podría ser menos
efectiva.
4.3 CONCEPTO.
Aunque este es un tema el cual se ha ampliado grandemente en estos últimos años, el
termino Virtualización se ha convertido en uno de los conceptos más usados últimamente
entre la comunidad de usuarios domésticos que quieren disponer de varios sistemas
operativos en un solo ordenador. Básicamente virtualización es una tecnología que
permite instalar y configurar múltiples computadoras y/o servidores completamente
independientes (conocidas como virtual machines o maquinas virtuales) en un solo equipo,
ya sea una computadora o servidor.
A pesar de que estas máquinas virtuales comparten todos los recursos de un mismo
hardware, cada una trabaja de manera totalmente independiente (con su propio sistema
operativo, aplicaciones, configuraciones, etc.). Por ejemplo; en lugar de utilizar 5
servidores físicos, cada uno de ellos corriendo una aplicación que solo utiliza el 10% de los
recursos de su servidor; podemos instalar 5 máquinas virtuales, cada una con su propia
aplicación y configuraciones específicas, en un solo servidor y utilizar el 50-60% de los
recursos del mismo.
Cabe señalar que cada una de estas máquinas virtuales, después de haber sido configurada
correctamente, deberá funcionar exactamente igual que un servidor o PC física (conexión a
una red, ingreso a un dominio, aplicar políticas de seguridad, conexión remota, etc.).
La manera en cómo funciona esta tecnología, es mediante el llamado Hypervisor o VMM
(Virtual Machine Monitor), que crea una capa de abstracción entre el hardware de la
máquina física (también llamado Host - Anfitrión), y el Sistema operativo de la máquina
virtual (también llamado Guest - Invitado). Esta capa de software (VMM) maneja, gestiona,
y arbitra los cuatro recursos principales de una computadora: CPU (Unidad Central de
Procesos), Memoria, Red y Almacenamiento; y repartiendo dinámicamente dichos recursos
entre todas las máquinas virtuales definidas en el computador principal. De esta manera
podemos tener varios ordenadores virtuales ejecutándose sobre el mismo ordenador físico.
La virtualización crea una interfaz externa que esconde una implementación subyacente
mediante la combinación de recursos en localizaciones físicas diferentes, o por medio de la
simplificación del sistema de control. Un avanzado desarrollo de nuevas plataformas y
tecnologías de virtualización han hecho que se vuelva a prestar atención a este importante
concepto.
La principal ventaja de la virtualización es que permite tener varios ordenadores virtuales
funcionando simultáneamente bajo un mismo hardware, y eso se consigue gracias a que un
sistema operativo actúa como anfitrión, dotando parte de sus recursos a un sistema invitado,
que es básicamente, el sistema operativo que se va a virtualizar.
Al final obtenemos una implementación que será:
• Más económica.– Requiere menos hardware, menos electricidad, menos
enfriamiento, menos espacio, menos infraestructura, y menos tiempo de
administración. Todo esto al final se traduce en ahorro de dinero.
• Menos compleja.– Por las mismas razones mencionadas en el punto anterior, ya
que existen menos cantidades de elementos pero se cumple con la misma demanda.
• Consume menos energía y espacio.– Ya que ayuda a la protección del medio
ambiente ahorrando energía y espacio.
• Más segura.– Con los niveles de seguridad adecuados, una red virtual cuenta con
menos puntos de ataque físicos, lo que la hace más segura. La virtualización es una
excelente estrategia de seguridad al momento de elaborar un plan de backup o
recovery.
• Más fácil de administrar.– Con el conocimiento de virtualización y dejando de
lado el famoso “temor al cambio”, administrar una red virtual debe ser más sencillo
que administrar una red regular.
4.4 TIPOS DE VIRTUALIZACIÓN.
La virtualización se puede hacer desde un sistema operativo Windows o Linux, sea
Windows XP, Ubuntu, o cualquier otra versión que sea compatible con el programa que
utilicemos, en el que virtualizamos otro sistema operativo como Linux o viceversa, que
tengamos instalado Linux y queramos virtualizar una versión de Windows. Al momento de
virtualizar disponemos de los siguientes tipos:
4.4.1 Virtualización por Hardware
Esta Virtualización asistida por Hardware funciona con extensiones introducidas en la
arquitectura de procesador x86 para facilitar las tareas de virtualización al software
corriendo sobre el sistema.
En computadores con arquitectura de x86, se cuenta con cuatro niveles de privilegio o
‘anillos’ de ejecución, desde el cero (de mayor privilegio), que se destina a las operaciones
del kernel de SO, al tres (con privilegios menores) que es el utilizado por los procesos de
usuario, al momento de utilizar este tipo de virtualización, se introduce un anillo interior o
ring -1 que será el que un hypervisor o Virtual Machine Monitor que se usará para aislar
todas las capas superiores de software de las operaciones de virtualización.
4.4.2 Virtualización de almacenamiento
Se refiere al proceso de abstraer el almacenamiento lógico del almacenamiento físico, y es
comúnmente usado en SANs (Storage Area Network - Red de área de almacenamiento).
Los recursos de almacenamiento físicos son agregados al "storage pool" (almacén de
almacenamiento), del cual es creado el almacenamiento lógico.
4.4.3 Particionamiento
Es la división de un solo recurso (casi siempre grande), como en espacio de disco o ancho
de banda de la red, en un número más pequeño y con recursos del mismo tipo que son más
fáciles de utilizar. Esto es muchas veces llamado “zoning”, especialmente en
almacenamiento de red.
4.4.4 Máquina Virtual
Se refiere básicamente como un sistema de virtualización, denominado "virtualización de
servidores", que dependiendo de la función que esta deba de desempeñar en la
organización, todas ellas dependen del hardware y dispositivos físicos, pero casi siempre
trabajan como modelos totalmente independientes de este. Cada una de ellas con sus
propias CPUs virtuales, tarjetas de red, discos etc. Lo cual podría especificarse como una
compartición de recursos locales físicos entre varios dispositivos virtuales.
4.5 GRUPOS DE VIRTUALIZACIÓN
Dentro de los tipos de virtualización, debemos encerrar tres grupos muy importantes en esta tecnología como son:
4.5.1 Emulación, La emulación de hardware simula cada instrucción del procesador
como si de otro hardware se tratara. Para implementar este tipo de virtualización se
sigue el siguiente esquema:
Emulación por Hardware
En este tipo de virtualización, la máquina virtual (MV) es empleada para emular
únicamente, un determinado tipo de hardware. De esta manera, cada instrucción debe
ser simulada por el hardware subyacente, la principal referencia es que es un sistema
lento con respecto a los otros tipos de virtualización. Aun así, este tipo de
virtualización está muy extendida entre los desarrolladores de firmware para hardware
que todavía no ha sido fabricado, o que está en fase experimental. Dentro de los
emuladores de software conocidos tenemos el Bochs y el Qemu.
4.5.2 Bochs
Bochs es un sistema de emulación bajo licencia LGPL (software libre) y que es capaz
de simular diferentes arquitecturas, todo ello mediante el hardware subyacente.
De esta manera, se puede simular un ordenador x86 que es portable entre varias
plataformas: x86, PowerPC, Alpha, SPARC y MIPS. Bochs es un sistema de
virtualización en el que se simula el ordenador completo: procesador, periféricos,
tarjetas gráficas, adaptadores de red. Permite la creación (emulación) de cualquier
arquitectura, y la ejecución de múltiples sistemas operativos sobre Linux (Windows
95/98/NT/2000, FreeBSD, OpenBSD, etc)
Es un sistema muy poco reconocido principalmente porque carece de una interfaz
gráfica muy amigable y sencilla, como ofrecen el resto de herramientas de
virtualización.
4.5.3 Qemu
Es una opción de virtualización que ofrece dos modos de operación:
• Modo de emulación de sistema completo, y
• Modo de emulación de usuario.
El primer modo es similar a Bochs ya que emula un ordenador completo (procesador,
sistemas de almacenamiento y periféricos) y puede emular diferentes tipos de
arquitecturas(x86, x86-64, etc). De esta forma se puede emular Windows y Linux,
sobre un sistema Linux, Solaris y FreeBSD.
El segundo modo solamente se puede alojar en Linux, y nos permite ejecutar binarios
para arquitecturas MIPS, ARM, SPARC, PowerPC, u otras en desarrollo, sobre un
Linux instalado en una arquitectura x86.
Al igual que Bochs, Qemu tampoco tiene una interfaz muy amigable con lo que su uso
no está muy extendido. Hay que rescatar algo muy importante, Qemu fue la base sobre
la que luego se desarrollaron otras tecnologías de virtualización, como entre otras,
Xen.
4.5.4Virtualización Completa, La virtualización completa es aquella reconocida en
gran parte de los ambientes virtualizados de la actualidad. Este tipo de tecnología,
envía las instrucciones de la MV (Máquina Virtual) al procesador físico de la siguiente
forma.
Virtualización Completa
La virtualización completa es una técnica mucho más extendida que la técnica de la
Emulación, ya que permite la posibilidad de ejecutar un sistema operativo sobre otro
totalmente distinto instalado en la máquina física.
La técnica empleada para ello se basa en una máquina virtual (o Hypervisor VMM)
que media entre el sistema operativo instalado en la Maquina Virtual y el hardware
físico. El Hypervisor se sitúa entre el hardware real y el sistema operativo virtual
ofreciendo con ello la posibilidad de ejecutar un sistema operativo tal cual.
Es el encargado de realizar las traducciones pertinentes de las instrucciones máquina
(generadas por la máquina virtual) para que puedan ser interpretadas por el procesador
físico. El único requisito es que dicho SO esté diseñado para ese hardware en concreto.
Este tipo de virtualización obtiene mejores rendimientos si el procesador da soporte a
instrucciones virtuales, como es el caso de las tecnologías VT y PACIFICA de Intel y
AMD respectivamente. Esto es debido a que el procesador es capaz, en cierta forma, de
interpretar las instrucciones generadas por la MV, sin ser necesaria su traducción. Cabe
acotar que será esta la tecnología implementada en el proyecto mediante un procesador
INTEL con tecnologías VT de fábrica. Esta tecnología es una de las más reconocidas y
estandarizadas por sus amigables interfaces con el usuario y la facilidad de
configuración, entre estas están: VMware y VirtualBox.
4.5.5 PARAVirtualización, Además de la
virtualización completa y la emulación, también existe otra técnica de virtualización
conocida como Paravirtualización. Este, es un sistema virtualizador mediante el cual,
las instrucciones de la VM se ejecutan directamente en el procesados físico, puesto que
emplea sistemas operativos modificados para ello.
Esquema de la PARAVirtualización
La PARAVirtualización es una variante de la virtualización completa en la que el
Hypervisor accede al sistema operativo directamente, a diferencia de la anterior que
funcionaba como un intermediador (traductor). Es decir, la máquina virtual envía las
instrucciones al procesador directamente, sin necesidad de ser traducidas. Así pues, la
gestión del código máquina se realiza de una forma considerablemente más eficiente,
al ejecutarse directamente, razón por la que el proceso de comunicación entre el
hardware nativo y el sistema operativo de la MV es más eficiente que en el caso de la
virtualización completa.
Dentro de esta técnica existen dos herramientas que la utilizan junto con la
virtualización completa, como lo son: XEN y UML.
4.5.5.1 XEN
Es la solución de fuente abierta creada en la Universidad de Cambridge que
inicialmente ofrecía a los usuarios únicamente PARAVirtualización a nivel del sistema
operativo. Actualmente X EN es una solución de virtualización que nos ofrece
virtualización completa únicamente bajo procesadores Intel VT o AMD Pacifica.
4.5.5.2 UML (User-mode LINUX)
Permite que un Linux ejecute otros sistemas operativos Linux en el espacio de usuario.
Estos sistemas operativos alojados se ejecutan como un proceso alojado en el sistema
Linux anfitrión. De esta forma sucede algo muy interesante, varios núcleos Linux se
ejecutan en el contexto de un solo núcleo de Linux.
UML permite virtualizar dispositivos permitiendo así a los sistemas operativos
alojados, compartir los dispositivos existentes: unidades CD-ROM, sistemas de
ficheros, consolas, dispositivos NIC, etc. El núcleo anfitrión se ejecutará sobre el
hardware y los núcleos alojados se ejecutan sobre el espacio de usuario del núcleo
anfitrión. Los núcleos pueden ser anidados de forma que un núcleo alojado actúe como
anfitrión de otro.
4.6 HERRAMIENTAS DE VIRTUALIZACIÓN.
Dentro del mercado de herramientas para la virtualización existirán un sin número de
productos, que nos permitirán desarrollar la tecnología en nuestro hogar, oficina o
universidad.
A continuación se expresan las marcas más representativas en el mercado de la
Virtualización.
4.6.1 PARALLELS
Es una firma comercial que se dedica a la virtualización y la automatización del
alojamiento. Es una empresa americana que ha tenido un crecimiento acelerado en toda
Europa a favor de sus servicios de software de virtualización. La característica principal
que hace que Parallesls se distinga de otras marcas es que utiliza únicamente tecnología
Intel, son su soporte Tecnología de Virtualización de Intel Core para permitir el acceso
directo a la máquina virtual desde el procesador que se encuentra en el host.
Gran parte del software de Parallels se basa en una ligera arquitectura de hypervisor, que
proporciona el acceso al o los sistemas operativos invitados.
Los productos de escritorio ofrecidos por esta empresa son:
• Parallels Desktop para MAC• Parallels Desktop Cambiar a Mac Edition• Parallels Desktop 4 para Windows y Linux• Parallels Workstation extrema• Parallels Transportador
Para virtualización de Servidores Parallels cuenta con:
• Parallels Virtuozzo Containers para Windows y Linux.• Parallels Server para MAC 4.0• Parallels Server Bare Metal• Parallels Server para MAC 4.0 MAC mini Edition
En lo que se refiere a automatización cuenta con:
• Parallels Plesk Panel• Parallels Small Business Panel 10• Parallels Plesk Billing• Parallels Operaciones de Automatización
• Parallels Business Automation• Parallels Virtual Automation
A pesar de ser una gran marca Parallels a concepto de expertos y personal no cuenta con
cubrir exigencias de manera general, ya que solo está reservado para procesadores Intel.
También se debe remarcar que la mayoría de sus productos son de uso comercial y deben
pagar licencia, y existen otros para fases de prueba y libres que no cumplen con las
características completas y necesarias. Para mayor información se puede su sitio web en
la siguiente dirección: www.parallels.com/products
4.6.2 WINDOWS VIRTUAL PC
Windows Virtual PC o antes reconocido como Microsoft Virtual PC es un software gestor
de virtualización, que permite crear equipos virtuales, fue adquirido por Microsoft a la
empresa Connectix.
Virtual PC no emula el procesador, sino que deja que el mismo ejecute las instrucciones
en el entorno emulado. Virtual PC también ha liberado una versión para MacOS, que
emula un procesador Intel Pentium 3, así como emula la placa madre, tarjetas de video,
tarjetas de sonido y tarjetas de red.
Una desventaja de esta herramienta es la de no presentar soporte para todos los
programas, debido a que pueden existir fallos debido a errores en la sincronización de las
operaciones. Virtual PC ofrece un sistema llamado Virtual Machine Additions, el cual
proporciona funcionalidades entre el sistema huésped y el anfitrión:
• Integración con el ratón.
• Controlador de video optimizado.• Sincronización de tiempo con el anfitrión.• Sincronización del portapapeles.• Capacidad de arrastrar archivos entre la ventana del Sistema Operativo
Anfitrión y el Sistema Operativo Huesped.
Actualmente se puede obtener una versión de esta herramienta en el siguiente enlace web
http://www.microsoft.com/windows/virtual-pc/download.aspx, considerando que
Microsoft realiza una validación del Sistema Operativo del computador para conocer si es
original y proceder a la descarga. Virtual PC es sencillamente una herramienta emuladora
de sistemas operativos en equipos o computadores personales.
4.6.3 VIRTUALBOX
VirtualBox es una solución de virtualización completa para la familia de arquitecturas
x86. VirtualBox nació con una licencia privada, y ha terminado convirtiéndose en GLP(no
tiene ningún costo ya que es libre), por lo que su uso se ha incrementado notablemente.
VirtualBox puede ser instalado en Windows, Linux y Macintosh y puede emular Windows
98/NT/2000/2003 Server/XP/Vista, Linux (2.4 y 2.6), FreeBSD, OpenBSD, etc.
Esta herramienta ha sido patentada por la empresa Oracle que también tiene productos para virtualización de servidores como son el Oracle VM Server. La última versión de esta herramienta a la presente fecha es la Oracle VM 3.0 pensada para las soluciones completas de las empresas como su página misma lo expresa, el centro de datos o Data Center puede ir más allá de la consolidación de servidores para mejorar la implementación de aplicaciones y de gestión.
Entre las características que destacan dentro de Oracle VM se encuentran:
• Fácil de implementar y administrar aplicaciones• Cuatro veces más escalable que VMware.• El costo es menor.
• Apto para todas las cargas de trabajo del DataCenter.
Oracle VirtualBox desktop también ofrece:
• Modularidad.- diseño modular con diseño cliente/servidor.• Portabilidad.- características de las máquinas virtuales almacenadas en fichero
XML.• Integrabilidad.- software con opciones adicionales para Windows y Linux.
Otras cualidades que ofrece esta herramienta son el controlador USB, el protocolo de
acceso remoto, carpetas compartidas entre el host y las máquinas virtuales.
Además ofrece una interfaz gráfica muy sencilla e intuitiva para una herramienta tan
potente. Tal es así que VirtualBox se ha convertido en un duro competidor de VMware, ya
que ofrece muchas opciones similares, y de forma gratuita.
4.6.4 XENSERVER
Xen es un monitor de máquina virtual de código abierto que nació en los laboratorios de la
Universidad de Cambridge. Su diseño tenía como meta poder ejecutar instancias de
sistemas operativos y sus características completas. Además proporciona un aislamiento
seguro, control de recursos, tener garantías de calidad de servicio y algo fundamental como
la migración de máquinas virtuales en caliente, es decir en el mismo instante en que se
encuentran en funcionamiento.
El producto fue patentado por la empresa Citrix y ahora es distribuido a nivel comercial.
Dentro de aquello surge el Citrix XenServer, la cual según sus fabricantes es la única
plataforma de virtualización de escala empresarial y probada para nubes(clouds), permite
también la migración en vivo(en caliente) y administración centralizada de múltiples
servidores.
Herramientas adicionales como Citrix Essentials complementan al XenServer, esta permite
ofrecer un conjunto de capacidades de administración y automatización, que le permiten
ayudar a los clientes a transformar los DataCenters en centros de entrega proactivos y
automatizados.
Los productos de esta marca los podemos encontrar en su sitio web http://www.citrixlac.com/products/
4.6.5 VMWARE
VMware es una solución comercial (con licenciamiento) muy extendida (tanto en
entornos empresariales como a nivel de usuario doméstico) que ofrece virtualización
completa.
Entre los sistemas operativos alojados y el hardware de la máquina real, se instala el
Hypervisor que es el encargado del entendimiento entre ambos. Esta solución virtualiza
también el hardware de E/S y ofrece drivers para dispositivos desde el Hypervisor.
Además crea una LAN virtual para conectar los sistemas virtualizados con el host
pudiendo dar conectividad al exterior. VMware guarda la representación de la máquina
emulada en un fichero alojado en la máquina real, por lo que la migración de una máquina
a otra es sencilla (simplemente copiar y pegar por medio de un dispositivo extraíble o la
red).
Su gran expansión se ha producido al incorporar el procesamiento de instrucciones
virtuales a nivel de procesador, con lo que se produjo una notable mejora en el
rendimiento de las máquinas virtuales.
Los productos de esta marca están expandidos tanto para entornos de escritorio o personales así como también para servidores y existe una gama muy extendida de ellos que se pueden encontrar en la siguiente dirección. http://www.vmware.com/products/
Entre los principales productos a rescatar tenemos:
Para Infraestructura DATACENTER
• VMware vSphere• VMware Go• VMware vCloud Product Family
Para entornos desktop
• VMware View.• VMware ThinApp.• VMware ACE.• VMware Workstation.
Para entornos MAC, VMware cuenta con VMware Fusion y para productos mobiles el VMware Mobile Virtualization. También se encuentran productos de seguridad, administración de negocios, plataformas de aplicación, administrador de aplicaciones y Otros.
A diferencia de las opciones comentadas anteriormente, VMWare tiene una interfaz de
usuario muy avanzada, permitiendo configurar prácticamente todo gráficamente. Esto le
ha permitido situarse en el mercado de la virtualización como una de las herramientas más
extendidas, además de su robustez y rapidez en la ejecución de máquinas virtuales.
VMWare también ofrece paravirtualización orientada principalmente a servidores y
grandes centros de datos, pero es una solución no muy extendida por su alto coste
económico. Cabe resaltar que las virtudes completas de esta herramienta se obtienen
únicamente bajo licenciamiento es decir son comerciales y se debe pagar un precio por
ellas, sin embargo se han liberado aplicaciones totalmente gratuitas pero muy limitadas.
4.6.6 VIRTUOZZO
Virtuozzo es una herramienta comercial para la virtualización de sistemas operativos bajo la
firma de la empresa SWsoft. Esta empresa empezó trabajando para virtualización para
Linux y más tarde implemento la virtualización para la plataforma Windows.
Virtuozzo crea múltiples entornos virtuales independientes, a los cuales los denomina como VPS, o Servidores Virtuales Privados, compartiendo recursos de hardware, tiempo y esfuerzo en la administración de sistemas. Virtuozzo puede crear decenas o centenares de VPS en un solo servidor debido a su forma de funcionamiento y realizar la virtualización a nivel de sistema.
A pesar de que esta herramienta es ‘hermano’ de Parallels, ya que fueron producidos por la misma compañía, son herramientas independientes y que han tenido éxitos trabajando en conjunto como trabajando de manera individual
4.7 VENTAJAS DE LA VIRTUALIZACIÓN.
La tecnología de la virtualización nos trae un sin número de grandes ventajas como son:
• Reducción de los costes de espacio y consumo necesario.
• Administración global centralizada y simplificada.
• Rápida incorporación de nuevos recursos para los servidores virtualizados.
• Mejora en los procesos de clonación y copia de sistemas: Mayor facilidad para la
creación de entornos de test que permiten poner en marcha nuevas aplicaciones sin
impactar a la producción, agilizando el proceso de las pruebas.
• No sólo aporta el beneficio directo en la reducción del hardware necesario, sino
también los costes asociados.
• Aumento de la disponibilidad, y reducción de los tiempos de parada.
• Migración en caliente de máquinas virtuales (sin perder el servicio prestado) de un
servidor físico a otro, eliminando la necesidad de paradas planificadas por
mantenimiento de los servidores físicos.
• Alto grado de satisfacción general, y en especial por la reducción de los costes de
administración.
• Aislamiento: las máquinas virtuales son totalmente independientes, entre sí y con el
Hypervisor. Es decir, un fallo en una aplicación o en una máquina virtual afectará
únicamente a esa máquina virtual. El resto de máquinas virtuales y el Hypervisor
seguirán funcionando normalmente.
• Seguridad: cada máquina tiene un acceso de privilegio independiente. Por tanto, un
ataque de seguridad en una máquina virtual sólo afectará a esa máquina.
• Flexibilidad: con la Virtualización, podemos crear máquinas virtuales con las
características de CPU, memoria, disco y red que necesitemos, sin necesidad de
“comprar” un ordenador con esas características. También podemos tener máquinas
virtuales con distintos sistemas operativos, ejecutándose dentro de una misma
máquina física.
• Agilidad: la creación de una máquina virtual es un proceso muy rápido y sencillo.
Por tanto, si necesitamos un nuevo servidor lo podremos tener casi al instante, sin
pasar por el proceso de compra, configuración, instalación, etc.
• Portabilidad: toda la configuración de una máquina virtual reside en uno o varios
ficheros. Esto hace que sea muy fácil clonar o transportar la máquina virtual a otro
servidor físico, simplemente copiando y moviendo dichos ficheros (que encapsulan
o almacenan la máquina virtual) de un computador a otro.
• Mejora de las políticas de backup, recuperación ágil mediante puntos de control de
las máquinas virtuales.
• Aprovechamiento óptimo de los recursos disponibles. Respuesta rápida ante
cambios bajo demanda.
• o
• Continuidad de negocio y recuperación ante desastres. En caso de fallo de un
sistema físico, los sistemas lógicos allí contenidos pueden distribuirse
dinámicamente a otros sistemas.
• Escalabilidad: Crecimiento ágil con contención de costes.
• Mantenimiento de aplicaciones heredadas. Aplicaciones propietarias que no han
sido adaptadas a las nuevas versiones de sistema operativo.
• Virtual appliance - Aparato virtual: máquinas virtuales pre-configuradas, es decir,
cargar y funcionar. Máquinas ‘ensambladas’ y preconfiguradas para desempeñar una
función determinada como por ejemplo: servidores de correo, bases de datos,
aplicaciones cerradas, etc.
• Eficiencia energética. Implementar la tecnología de virtualización también juega
un papel muy considerado en el ahorro de energía, y por ende para el bien del
nuestro ecosistema.
• Alta disponibilidad, facilita de una manera más rápida la característica de Alta
Disponibilidad que debe tener un Data Center de alto nivel y prestigio, es decir
todos los servicios de TI dentro de una empresa funcionando a cada instante en
cualquier momento a pesar de los contratiempos existentes. Los controles de calidad
de cualquier empresa en estos momentos exigen Alta Disponibilidad en sus
Departamentos de Sistemas.
4.8 APLICACIONES DE LA VIRTUALIZACIÓN.
El concepto de la Virtualización hoy es una económica realidad. La virtualización puede
aplicarse desde un pequeño Cyber Café, hasta grandes corporativos con cientos de
terminales en sus instalaciones y miles en su red de trabajo.
Esto es porqué el ahorro que representa la virtualización se refleja desde el primer equipo.
El principal factor de ahorro de la virtualización es la eliminación del costo de
obsolescencia: mientas ahora compramos computadoras cada tres años por que estas ya no
tienen la capacidad que deseamos, con este principio solo compraremos una de cada diez
terminales mientras ocupemos el programa de virtualización, teniendo a las actualizaciones
automáticas como nuestra principal arma.
Podemos encontrar la virtualización en los siguientes lugares:
El Hogar: permite aumentar la rentabilidad de nuestro equipo, aprovechando por completo
los recursos y poder tener diversidad de tecnologías dentro de más tecnología, reduciendo
las barreras.
Cyber o Centros de Computo: un cyber puede funcionar con una PC y 5 o 10 terminales
virtualizados.
Escuelas: por ejemplo, un típico salón de clases de 30 equipos terminales, solo requiere
de 3 PC’s centrales.
En estos dos casos la virtualización ofrece la ventaja de dar mantenimiento frecuente a los
equipos, es decir. Podemos vacunar o dar mantenimiento fácilmente a un equipo en lugar
de hacerlo con diez, por lo que la experiencia de los usuarios es mucho mejor y se
minimizan los accidentes imprevistos.
PYME: a medida que las ‘pequeñas’ empresas aumentan su plusvalía, y crecen sus
actividades, necesitarán procesar información con un grado de complejidad y dificultad
mayor, contando con uno o dos servidores, de acuerdo al servicio y desempeño de la
empresa. Es por esto que las PYMES también pueden optar por la virtualización como
estrategias de negocios.
Profesionistas independientes: pequeños despachos se ven beneficiados de la solución
principalmente implementando tecnologías complementarias como los “NAS” que
permiten un respaldo de la información al segundo, de manera que además de los ahorros
evidentes tienen una certeza de que su información será almacenada de forma segura y esta
podrá ser acezada desde cualquier lugar por Internet.
Empresas: Agencias de autos, Hospitales, Hoteles y muchos otros rubros utilizan la
virtualización en sus departamentos administrativos y de servicio/atención al cliente
evitando la posibilidad que sus usuarios operen con programas no autorizados o sustraigan
información de la empresa, ya que las terminales virtualizadas son administrables tanto en
sus permisos como en los programas que manejan.
Industria: dentro del campo de la industria, la virtualización también se hace presente
debido a que dentro de esta se encuentran los datacenters que cubren información de vital
importancia en las actividades y procesos de los usuarios que administran y utilizan dicha
información.
Gobierno: Además de ser una solución para su personal operativo, la virtualización da la
oportunidad de generar proyectos realmente sustentables, un acceso público rural con diez
terminales consume menos de 400 W, por lo que se puede operar con energía alternativa,
además que el costo de reposición se disminuye en un 90% por lo que los beneficiarios del
proyecto podrán con recursos propios mantener indefinidamente el centro comunitario. Por
ser este último lugar el gobierno, tiene la obligación de difundir una tecnología tan
beneficiosa como esta en los puntos anteriormente citados (hogar, industria, empresas,
PYMES, etc.), ya que traería beneficios para todos.
4.9 ¿PORQUÉ VIRTUALIZAR?
Sin duda conocer de las ventajas de la virtualización son hechos suficientes para
implementar esta tecnología en cualquier organización que procese y administre
información, pero además existen problemas o falencias a las cuáles la virtualización les
hace frente y por esta razón existe la necesidad de implementarla.
• Baja utilización de la infraestructura. O en otras palabras lo que se conoce como
desperdicio de los recursos, debido a que es más que un hecho que las
implementaciones típicas de servidores logran un promedio de utilización de entre
un 10 y un 15% de la capacidad total, según señala International Data Corporation
(IDC), una empresa de estudios de mercado. Normalmente, las organizaciones
ejecutan una aplicación por servidor para evitar el riesgo de que las vulnerabilidades
de una aplicación afecten a la disponibilidad de otra aplicación en el mismo
servidor.
• a
• Incremento de los costes de infraestructura física. Los costes operativos para dar
soporte al crecimiento de infraestructuras físicas han aumentado a ritmo constante.
La mayor parte de las infraestructuras de TI deben permanecer operativas en todo
momento, lo que genera gastos en consumo energético, refrigeración e
instalaciones.
• bb
• Incremento de los costes de gestión de TI. A medida que los entornos se hacen más
complejos, aumenta el nivel de especialización de la formación y la experiencia que
necesita el personal de gestión de infraestructuras y, consecuentemente, aumentan
los costes asociados a dicho personal. Las organizaciones gastan cantidades
desproporcionadas de dinero y recursos en tareas manuales ligadas al
mantenimiento de los servidores, y aumenta la necesidad de personal para
realizarlas.
• 1
• Escritorios de usuario final de mantenimiento elevado. La gestión y la seguridad
de los escritorios empresariales plantean numerosos desafíos. Controlar un entorno
de escritorios distribuidos y aplicar políticas de gestión, acceso y seguridad sin
perjudicar la capacidad del usuario de trabajar con eficacia es complejo y costoso.
Se tienen que aplicar continuamente muchos parches y actualizaciones en el entorno
del escritorio para eliminar los riesgos de seguridad.
• h
• Insuficiente protección ante desastres y failover. Las organizaciones se ven cada
vez más afectadas por las interrupciones del servicio de las aplicaciones de servidor
críticas y la falta de acceso a escritorios de usuario final fundamentales. La amenaza
de ataques a la seguridad, desastres naturales, pandemias y terrorismo han
acentuado la importancia de la planificación de la continuidad del negocio, tanto en
lo relativo a escritorios como a servidores.
• a
• Consolidación de Servidores. Detener la proliferación de servidores
consolidándolos en máquinas virtuales contenidas en un número inferior de
servidores muy potentes.
• a
• Obtener los recursos necesarios con los medios existentes. Poder rápidamente en
marcha aplicaciones y balancear las cargas de trabajo entre los recursos existentes
reduciendo en lo posible los sobre-dimensionamientos.
• Centros de tolerancia a desastres asequibles. Utilizar una infraestructura virtual
permite replicar su centro de datos principal. La Virtualización permite replicar en
máquinas virtuales los servidores más críticos antes de cualquier eventualidad.
• a
• Alargar la vida de los entornos antiguos. Nos permitirá ejecutar aplicaciones que
aún le hacen falta al Sistema Operativo principal, sobre servidores modernos de alto
rendimiento, es decir permite romper barreras de épocas.
• A
• Entornos de prueba y desarrollo flexibles. Independientemente del hardware es
elemental e una infraestructura virtual para probar gran número de entornos sobre
un pequeño número de sistemas físicos.
• A
• Virtualización de los puestos de trabajo, No solo dentro del Departamento de
TIC’S de una empresa necesita implementar la virtualización, sino que puede ser
aplicada para cualquier tipo de usuario en su computador personal, para repartir
tareas y agilizar tiempo.
Es este último, una de estas necesidades o problemas a los que la virtualización le hace
frente a gran escala y con resultados de primera mano.
5. INTERRUPCIONES DE SERVIDORES
Dentro de cualquier organización, independientemente de los servicios que se brinden, por
parte del Departamento de TIC’S, todos estos son vitales. Si no hay disponible ningún
sistema de mensajería, internet o aplicaciones internas de administración y control, la
productividad (para una industria) o mis cliente (para una empresa de servicios) puede bajar
y se pueden perder oportunidades comerciales y de lograr ingresos. Así por ejemplo, si
imaginamos que el correo electrónico no es vital en su organización, es muy posible que la
pérdida de los servicios de mensajería significara un serio problema en su organización.
Toda la redundancia, seguridad y tolerancia a errores del mundo no le ayudaría en caso de
tener una base de datos dañada o perdida. La realización de copias de seguridad de los
datos importantes de la organización es una tarea operativa que deben realizar todas las
organizaciones antes de que ocurra cualquier desastre.
5.1 DEFINICIÓN
Las interrupciones son alteraciones intenses de las personas, los bienes y los servicios, de
pequeña magnitud, causadas por un suceso natural o generado por el hombre, que exceden
la capacidad de respuesta de la comunidad afectada.
Los desastres y las interrupciones alteran el curso normal de una situación o procedimiento,
deteniendo las actividades de un usuario, hasta el trabajo rutinario de toda una empresa,
trayendo perdidas a la organización de tipo económicas, de trabajo, de organización y la
más importante de tiempo.
Se puede considerar entonces como un desastre la interrupción prolongada de los recursos
informáticos y de comunicación de una organización, que no puede remediarse dentro de
un periodo predeterminado aceptable y que necesita el uso de un sitio o equipo alterno para
su recuperación.
Ejemplos obvios son los grandes incendios, las inundaciones, los terremotos, las
explosiones, los actos de sabotaje, etcétera.
5.2 MECANISMOS DE INTERRUPCIÓN DE UN COMPUTADOR
El mecanismo de interrupción funciona de la siguiente manera; cada dispositivo que desea
comunicarse con el servidor en medio de interrupciones debe tener asignada una línea
única capaz de avisar al CPU llamada IRQ(Interrupt Re-Quest, petición de interrupción).
Estas IRQ son líneas que llegan al controlador de interrupciones, un componente
de hardware dedicado a la gestión de las interrupciones, y que puede estar integrado en el
procesador principal. El controlador de interrupciones debe ser capaz de habilitar o inhibir
líneas de interrupción, y establecer prioridades entre las distintas interrupciones habilitadas.
Cuando varias líneas de petición de interrupción se activan a la vez, el controlador de
interrupciones utilizará estas prioridades para escoger la interrupción sobre la que
informará al procesador principal.
Un procesador principal (procesador del servidor) que no tenga un controlador de
interrupciones integrado, consta de una única línea de interrupción. Esta línea es activada
por el controlador de interrupciones cuando tiene una interrupción que servir. Al activarse
esta línea, el procesador consulta los registros del controlador de interrupciones para
averiguar cual IRQ hay que atender.
Cabe destacar que este tipo de interrupciones refieren directamente al mecanismo o función
individual de cada servidor (virtualizado o no) el cual controla las peticiones de sus
distintos usuarios.
5.3 CAUSAS DE LAS INTERRUPCIONES MÁS COMUNES DENTRO DE UNA
RED DE TRABAJO.
Frecuentemente las personas piensan que la tecnología y las instalaciones son críticas para
recuperarse en caso de un desastre. Aunque dichos elementos son importantes, la
continuidad empresarial depende también de que tan bien ha planificado su empresa u
organización las interrupciones inesperadas en las operaciones. La planificación juega un
papel muy importante, ya que sin planificación, aún pequeñas molestias tienden a
convertirse en problemas grandes que pueden privar su empresa de ingresos por largos
periodos de tiempo.
Dentro de nuestro campo de trabajo (la Informática – Información Automática, mediante el
uso de la computadora) las causas por las que se pueden presentar interrupciones son:
Las interrupciones de servicio más habituales suelen producirse debido a:
• Fallos hardware. A pesar de que el tiempo medio entre fallos es muy alto y no
suelen producirse con frecuencia, puede suceder un fallo en un dispositivo que
provoque una pérdida de servicio.
• Actualización del software y/o del sistema operativo. En la mayoría de los casos,
las actualizaciones de software conllevan una parada del servicio considerable.
• Picos de demanda de un servicio. Este tipo de interrupción ocurre con mayor
frecuencia, en ocasiones, se producen picos de demanda en ciertos servicios que
pueden llegar a provocar una denegación de dicho servicio, debido a la
incapacidad de asumir un número puntual de peticiones.
5.4 TIPOS DE INTERRUPCIONES
Con respecto a la fuente en donde se produce, se derivan los siguientes tipos de
interrupciones. Por un lado se distinguirán si se producen por causas internas o por causas
externas al procesador. Entonces tenemos:
• Interrupciones de hardware.- Estas interrupciones se pueden producir en
cualquier momento independientemente de lo que esté realizando la Unidad Central
de Procesos (CPU) del procesador del Servidor.
Las causas que generan esta interrupción son externas al rendimiento del procesador
y por lo general están relacionadas con dispositivos de Entrada y Salida.
Las interrupciones de hardware son interesantes en cuanto a que estas nos
permiten mejorar la productividad del procesador ya que este puede ordenar una
operación de Entrada – Salida y en lugar de tener que esperar realizando una
espera activa, se puede dedicar a atender a otro proceso o aplicaciones y cuando el
dispositivo esté de nuevo disponible será el encargado de notificarle al procesador
mediante la línea de interrupción que ya está listo para continuar o terminar un
proceso.
• Traps.- Este tipo de interrupciones generalmente son causadas al existir operaciones
no permitidas tales como la división por cero, el desbordamiento o el acceso a una
posición de memoria no permitida, etc. De manera que podemos ver como las
excepciones son un mecanismo de protección que permite garantizar la integridad
de los datos tanto en el espacio de usuario como en el espacio kernel. El SO cuando
detecta una excepción intenta solucionarla pero en caso de no poder simplemente
notificará la condición de error a la aplicación y abortará la misma.
• Interrupciones por software.- Estas interrupciones son generadas por el programa
que se está ejecutando. Para que esta ocurra, deben existir distintas instrucciones en
el código máquina que permiten al programador producir una interrupción. Las
interrupciones por software suelen ser de vital importancia ya que a partir de estas
interrupciones se solicita al sistema operativo realizar determinadas funciones, para
ello, como ‘anticuerpos’ informáticos. De manera general una interrupción de
software funciona de la siguiente manera:1. Una aplicación ejecuta una instrucción que llama al Sistema Operativo y lee
un archivo del disco duro.2. Una vez leído el archivo en disco, se ejecuta el código máquina.3. La ejecución anterior permite hallar la subrutina del Sistema Operativo.4. Se ejecuta la subrutina.5. El S.O. ordenará reanudar la ejecución del programa auto interrumpido en
espera.6. La ejecución de la aplicación se reanuda.
5.5 CONSECUENCIAS DE UNA INTERRUPCIÓN A LARGO PLAZO.
Toda empresa debe asumir con responsabilidad las consecuencias de los tiempos de parada
de sus funcionarios debido a las causas que sean, tanto internos como externos. Una
interrupción que no es controlada a tiempo puede convertirse en desastre y traer serios
problemas a la institución, acarreando pérdidas de tiempo, dinero, personal, etc.
Es por eso que cada área de la empresa debe ser responsable y cuidadosa con su accionar
para no entorpecer el trabajo de los demás departamentos y así continuar con el
funcionamiento empresarial.
Sin embargo resulta un tanto más complejo y de mayor responsabilidad, ser parte del
equipo de trabajo de TIC’S de la empresa, debido a que más del noventa por ciento (90%)
de las actividades de la organización dependen directamente de nuestro departamento, es
por ello que las interrupciones deben ser mínimas y resueltas a la brevedad posible.
5.6 SISTEMAS DE PRIORIDAD
Los sistemas de prioridad son aquellos alojados internamente en el Sistema Operativo del
servidor y que se encargan de manejar las interrupciones por prioridades.
5.6.1 INTERRUPCIONES SIMULTÁNEAS
Estas interrupciones no tienen por qué ocurrir de manera simultánea sino que se
refieren a que en un momento dado estas pueden cambiar a varias interrupciones
activas. Para este sistema de prioridades pueden existir varios métodos entre los que
se destaca, el método de identificación de prioridades distribuidas, dentro del cual se
destacan las siguientes técnicas:
• Polling.- En este la Unidad Central de Proceso (CPU) es el que chequea los
dispositivos y el orden de sondeo determina la prioridad.
• Daisy-chain.- O cadena de conexión, en la cual podemos conectar los
distintos dispositivos en cadena, en orden decreciente de prioridad y por
tanto la señal de reconocimiento de interrupción solo será pasada al siguiente
dispositivo en caso de que el anterior (más prioritario) no haya solicitado los
servicios del procesador.
• Híbrida.- Consiste en trabajar con las dos técnicas enunciadas anteriormente,
tanto Polling y Daisy-chain.
5.6.2 INTERRUPCIONES ANIDADES
Este sistema de prioridad, consiste en que mientras se está procesando una
determinada rutina de servicio de interrupción sucede otra señal de interrupción.
Existen dos métodos para tratar las interrupciones anidadas. El primero se basa en
inhabilitar las interrupciones mientras se está ejecutando una determinada acción.
Esto puede realizarlo el hardware de manera automática en algunos procesadores,
pero en otros será el usuario el encargado de deshabilitarlas en caso de que no desee
que ninguna otra interrupción pueda interrumpir el transcurso normal de la rutina de
servicio de interrupción.
La segunda alternativa es permitir que solo las interrupciones más prioritarias
puedan suspender la ejecución de la acción actual. Para esto el usuario tendrá que
definir qué líneas son más prioritarias que otras. Otra consideración de esta segunda
alternativa es que al anidar distintas llamadas a rutinas tendremos que contar con
una pila suficientemente grande para que esta no se desborde.
5.6.3 INHIBICIÓN DE INTERRUPCIONES
En este sistema se deshabilitan las demás interrupciones mientras se está tratando
una en específico. Hay distintas técnicas de inhibición de interrupciones. Las
distintas opciones son:
Deshabilitar todas las interrupciones.
Deshabilitar al principio de la RSI y activarlas de nuevo al finalizar la misma.
Puede ser de manera automática o por el usuario.
Desactivar solo las interrupciones que tengan menor prioridad que la asociada a
la RSI que se está ejecutando en ese momento.
Deshabilitar de forma selectiva distintos niveles de prioridad de interrupción.
Para lo cual se emplean registros especiales denominados máscaras en el que
cada uno de sus bits identifican a un nivel distinto y modificando su contenido
se puede establecer que niveles están activos en ese momento. Se puede
cambiar por el programador.
5.7 MÉTODOS PARA RECUPERARSE DE UNA INTERRUPCIÓN O DESASTRE.
El diseñar e implementar un plan de contingencia para recuperación de desastres no es una
tarea fácil; puede implicar esfuerzos y gastos considerables, sobre todo si se está partiendo
de cero. Una solución comprende las siguientes actividades:
• Debe ser diseñada y elaborada de acuerdo con las necesidades de la empresa.
• Puede requerir la construcción o adaptación de un sitio para los equipos
computacionales.
• Requerirá del desarrollo y prueba de muchos procedimientos nuevos, y éstos deben
ser compatibles con las operaciones existentes. Se hará participar a personal de
muchos departamentos diferentes, el cual debe trabajar en conjunto cuando se
desarrolle e implemente la solución.
• Implicará un compromiso entre costo, velocidad de recuperación, medida de la
recuperación y alcance de los desastres cubiertos. .
6. MICROSOFT WINDOWS SERVER 2008
6.1 INTRODUCCIÓN A LOS S.O. DE SERVIDOR
Un S.O(Sistema Operativo) nos mas que aquel programa que trabaja con los procesos básicos o fundamentales de un sistema informático, es aquel que se encarga de regular, administrar y controlar las operaciones sobre las cuales se sostendrán el resto de procesos.
El Sistema Operativo es la primera aplicación de software después del hardware y sobre el cual se instalaran las demás aplicaciones que interactuarán con el usuario o cliente. Muchos
Es muy importante que sepamos cual será el Sistema Operativo base que instalemos en nuestro computador, ya que de él dependerán directamente las demás características que podamos o no hacer uso, en el instante de instalar un determinado S.O. nos veremos en la obligación de manera directa o indirecta de aceptar sus condiciones, características y limitaciones.
Entre los Sistemas Operativos existentes en el mercado se destacan:
• Windows de Microsoft con versiones como:o Windows XPo Windows Vista o Windows 7o Windows Server 2003o Windows Server 2008
• Mac OS de Apple• Linux con licencia GNU, y versiones como:
o Ubuntuo Fedorao Linux Minto CentOS
• Unix• Google Chrome OS de Google
6.2 WINDOWS SERVER 2008 R2
Windows Server 2008 R2 (cuya versión preliminar se lanzó en Enero 2009) es el nombre
de un Sistema Operativo comercial de la firma Microsoft Corporation (empresa dedicada al
Software), y que está diseñado exclusivamente para ser un Sistema Operativo de
Servidores.
A diferencia del WS2003(Windows Server 2003), WS2008R2(Windows Server 2008 R2)
trabaja únicamente para equipos con tecnología de hardware de 64 bits, en qué consiste esta
diferencia, bueno básicamente se registra en el procesador del equipo, y a la manera en
cómo este administra la información, además las versiones de 64 bits en la mayoría de los
casos pueden usar más memoria que las versiones de 32 bits, por ello existen versiones de
Sistemas Operativos Windows tanto de 32 como de 64 bits, diseñadas exclusivamente para
ser usadas en equipos con procesadores de 32 y 64 bits respectivamente. En este caso en
particular Windows Server 2008 es un software de 64bits y por ello el equipo en que se
instale de constar con un procesador de tecnología de 64 bits.
Este Sistema Operativo se diseñó para reemplazar a su antecesor Windows Server 2008, el
cuál tuve un gran éxito y acogida en el mercado de los Servidores, y fue pensado para
expandir la tecnología existente, además de agregar nuevas características para que las
organizaciones puedan incrementar la confiabilidad y flexibilidad de sus infraestructuras de
servidores.
Entre las herramientas adicionales que hacen de Windows Server 2008 R2 un potente
Sistema Operativos en el mercado son:
• Integración de Windows 7.• Internet Information Services(ISS) versión 7.5• Plataformas de Server Manager • Windows PowerShell• Hyper – V
Todas estas se combinan para ofrecer a los clientes mayor control, eficiencia incrementada
y capacidad de reacción a las necesidades comerciales con una velocidad como nunca
antes.
6.2.1 DEFINICIÓN
Windows Server 2008 R2 (cuya versión preliminar se lanzó en Enero 2009) es el nombre
de un Sistema Operativo comercial de la firma Microsoft Corporation (empresa dedicada al
Software), y que está diseñado exclusivamente para ser un Sistema Operativo de
Servidores.
6.2.2 CARACTERÍSTICAS
El nuevo Windows Server 2008R2 ha traído muchas características y cambios a destacar.
Estos cambios afectan a la manera en que se gestiona el sistema hasta el punto de que se
puede llegar a controlar el hardware de forma más efectiva (procesador, memoria RAM,
dispositivos). Entre las mejoras que se incluyen en esta versión de Windows se encuentran:
Nuevo proceso de reparación de sistemas NTFS: proceso en segundo plano que
repara los archivos dañados.
Creación de sesiones de usuario en paralelo: reduce tiempos de espera en
los Terminal Services y en la creación de sesiones de usuario a gran escala.
Cierre limpio de Servicios.
Sistema de archivos SMB2: de 30 a 40 veces más rápido el acceso a los servidores
multimedia.
Address Space Load Randomization (ASLR): protección contra malware en la carga
de controladores en memoria.
Windows Hardware Error Architecture (WHEA): protocolo mejorado y
estandarizado de reporte de errores.
Virtualización de Windows Server: mejoras en el rendimiento de la
virtualización.
PowerShell: inclusión de una consola mejorada con soporte GUI para
administración.
Server Core: el núcleo del sistema se ha renovado con muchas y nuevas mejoras.
6.2.2.1 VIRTUALIZACIÓN CON HYPER-V
Microsoft Windows Server 2008 R2 Service Pack 1 de Hyper-V se basa en la arquitectura y
la funcionalidad de Windows Server 2008 Hyper-V mediante la adición de varias nuevas
características que mejoran la flexibilidad del producto.
La adopción de la virtualización en toda empresa ha aumentado la flexibilidad en el
despliegue y la gestión del ciclo de vida de aplicaciones. Los profesionales de TI
implementan y utilizan la virtualización para consolidar cargas de trabajo y reducir la
propagación de servidores. Adicionalmente, implementar la virtualización con tecnologías
de clustering para proporcionar una sólida infraestructura de TI de alta disponibilidad y
recuperación ante desastres rápida.
6.2.2.1.1 BONDADES DE HYPER-V
Hyper-V ofrece una plataforma dinámica, la virtualización fiable y escalable combinadas
con un conjunto único de herramientas de gestión integradas para gestionar los recursos
físicos y virtuales, que le permite crear un centro de datos ágil y dinámico. Hyper-V nos
permite:
6.2.2.1.1.1 MEMORIA DINÁMICA
La memoria dinámica permite a los clientes a utilizar mejor los recursos de memoria de
hosts Hyper-V mediante el equilibrio cómo la memoria se distribuye entre las máquinas
virtuales en ejecución. La memoria puede ser reasignada dinámicamente entre diferentes
máquinas virtuales en respuesta a las cambiantes cargas de trabajo de estas máquinas.
El tener una gestión de Memoria dinámica permite un uso más eficiente de la memoria, la
que a la vez mantiene la carga de trabajo constante y escalabilidad. Implementación de la
memoria dinámica significa que los mayores niveles de consolidación de servidores se
pueden lograr con un mínimo impacto en el rendimiento. Otra virtud de la Memoria
dinámica es que permite un mayor número de escritorios virtuales por host Hyper-V.
El resultado neto para los dos escenarios es el uso más eficiente de los costosos recursos de
hardware del servidor, que puede traducirse en una gestión más sencilla y menores
costos. Para los equipos virtuales, el formato de archivo .vhd se ha convertido en un
estándar de facto para la implementación e intercambio de sistemas operativos y
aplicaciones.
6.2.2.1.1.2 CONSOLIDACIÓN DE SERVIDORES
Las empresas están bajo presión, siempre buscando facilitar la administración y reducir los
costos, conservando y mejorando las ventajas competitivas, como la flexibilidad, fiabilidad,
escalabilidad y seguridad. El uso fundamental de la virtualización para ayudar a consolidar
varios servidores en un único sistema, manteniendo el aislamiento ayuda a satisfacer estas
demandas. Uno de los principales beneficios de la consolidación de servidores es un menor
coste total de propiedad (TCO), no sólo de reducir los requisitos de hardware, sino también
de menor consumo de energía, refrigeración y los costos de administración.
Las empresas también se benefician de la virtualización de servidores a través de la
optimización de infraestructuras, tanto desde el punto de vista la utilización de activos, así
como la capacidad de equilibrar las cargas de trabajo a través de diferentes recursos.
La virtualización también hace posible mejorar la flexibilidad del medio ambiente en
general y la capacidad de integrar libremente las cargas de trabajo de 32 bits y 64 bits en el
mismo entorno es otro de los beneficios.
6.2.2.1.1.3 CONTINUIDAD DE LAS ACTIVIDADES DE LA EMPRESA
La continuidad del negocio es la capacidad de minimizar el tiempo de inactividad, tanto
programadas y no programadas. Que incluye el tiempo perdido en funciones rutinarias,
como el mantenimiento y backup, así como cortes imprevistos. Hyper-V incluye potentes
funciones de continuidad del negocio, tales como copia de seguridad en vivo y migración
rápida, permitiendo a las empresas para cumplir con el tiempo de funcionamientos estrictos
y las métricas de respuesta.
6.2.2.1.1.4 RECUPERACIÓN ANTE DESASTRES
Uno de los componentes claves que determinan la continuidad de las actividades de la
empresa son los desastres naturales, ataques maliciosos, y los problemas de configuración,
incluso de configuraciones sencillas, estos conflictos de software pueden paralizar los
servicios y las aplicaciones hasta que los administradores resolver los problemas y restaurar
los datos respaldados.
Aprovechando las capacidades de clustering de Windows Server 2008, Hyper-V
proporciona soporte para la recuperación de desastres (DR) en los entornos de TI y los
centros de datos, utilizando geográficamente diversas capacidades de clustering. Librarse
de desastres de forma rápida y fiable, sustentando la recuperación de negocios ayuda a
garantizar la mínima pérdida de datos y potentes capacidades de administración remota.
6.2.2.1.1.5 PRUEBAS Y DESARROLLO
Las pruebas y el desarrollo son con frecuencia las funciones de negocio primeros en tomar
ventaja de la tecnología de virtualización. Uso de máquinas virtuales, el personal de
desarrollo puede crear y probar una gran variedad de escenarios en una caja fuerte
(ambiente virtual), en donde se aproxima con precisión la operación de servidores físicos y
clientes.
Hyper-V maximiza la utilización de hardware de prueba que puede ayudar a reducir costos,
mejorar la gestión del ciclo de vida, y mejorar la cobertura de la prueba. Con amplias
funciones de sistema operativo invitado de apoyo y control, Hyper-V ofrece una excelente
plataforma para su prueba y entornos de desarrollo.
6.2.2.1.1.6 DINÁMICO CENTRO DE DATOS
Hyper-V, junto con sus soluciones existentes del sistema de gestión, tales como Microsoft
System Center, puede ayudarle a hacer realidad la visión del centro de datos dinámico que
proporciona la gestión de sistemas de auto-dinámica y agilidad operativa. Con
características como la reconfiguración automática de la máquina virtual, control flexible
de los recursos, y la migración rápida, se puede crear un entorno de TI dinámico que utiliza
la virtualización para no sólo responder a los problemas, sino también para anticiparse a las
crecientes demandas.
6.2.2.2 SERVICIOS DE ESCRITORIO REMOTO Y REMOTEFX (RDS)
El RDS o Servicio Remoto de Escritorio es un escritorio centralizado y una solución de
plataforma de aplicaciones que utiliza la virtualización de la sesión y las tecnologías VDI
(Virtual Desktop Infrastructure – Infraestructura de Escritorio Virtual), que le ofrece
grandes oportunidades para ofrecer y administrar escritorios corporativos pudiendo
conectarse rápidamente con sus recursos. Remote Desktop Services (RDS) en Windows
Server 2008 R2, ofrece una plataforma ideal para implementar una estrategia de escritorio
centralizada, ayudando a su organización a mejorar la flexibilidad y el cumplimiento al
tiempo que mejora la seguridad de datos y la capacidad de su personal de TI para
administrar escritorios y aplicaciones.
RDS permite ejecutar las aplicaciones de escritorio o en el centro de datos mientras
proporciona a los usuarios la funcionalidad de escritorio completo de la fidelidad,
independientemente de su ubicación. Con RDS, imágenes de pantalla son entregados a los
usuarios. A su vez, sus máquinas de los clientes enviar pulsaciones de teclas y movimientos
del ratón de nuevo al servidor.
Cuando se utiliza RDS, puede presentar a los usuarios un entorno de escritorio completo, o
con sus aplicaciones individuales y datos que sean necesarios para completar su
tarea. Desde la perspectiva del usuario, estas aplicaciones se integran a la perfección, mirar,
sentir y comportarse como aplicaciones locales.
6.2.2.3 ADMINISTRACIÓN DE ENERGÍA.
Microsoft llevó a cabo una serie de pruebas para comparar el consumo de energía de
Windows Server 2008 R2. Las pruebas revelaron que Windows Server 2008 R2 logró el
ahorro de energía de hasta un 18 por ciento con respecto a Windows Server 2003 a niveles
comparables de rendimiento. Windows Server 2008 R2 ha sido diseñado con la eficiencia
energética en la mente, para proporcionarle un acceso rápido y conveniente a una serie de
nuevas características de ahorro energético.
6.2.2.4 SERVIDOR DE ADMINISTRACIÓN
Obtener una administración continua de servidores en el centro de datos es una de las más
tediosas tareas que enfrentan los profesionales de TI hoy en día. Un servidor ineficiente
puede conducir hasta el uso de energía y costos. Windows Server 2008 R2 con Service
Pack 1 ofrece funciones de Administrador de servidores para reducir el esfuerzo
administrativo de las comunes del día a día las tareas operativas.
6.2.2.5 GESTIÓN DE DATOS
El llegar a tener una buena confianza en los datos y recursos de almacenamiento continúa
creciendo en importancia para la mayoría de las organizaciones. Las Compañías se
enfrentan a mayores regulaciones y preocupaciones de fuga de datos y administradores de
TI se enfrentan al reto cada vez mayor de la supervisión de grandes y complejas
infraestructuras de almacenamiento y al mismo tiempo se encargan de la responsabilidad de
asegurar el coste total de propiedad.
La gestión de los recursos de almacenamiento no es sólo sobre el volumen o la
disponibilidad de los datos, trata también de la aplicación de las políticas de la empresa y
saber cómo se consume de almacenamiento para permitir la utilización eficiente. La
cantidad de datos en el host de las empresas seguirá creciendo y esto requerirá la continua
necesidad de una sólida planificación estratégica y las respuestas adecuadas a los cambios
organizativos.
Windows Server 2008 R2 trabaja con un archivo de infraestructura de clasificación, el cual
da una idea de sus datos mediante la automatización de los procesos de clasificación para
que pueda gestionar sus datos de manera más eficaz. La solución integrada para la
clasificación de archivos provee de caducidad, tareas personalizadas y presentación de
informes.
Mediante la automatización de la clasificación manual de los datos de acuerdo a las
condiciones pre-establecido, usted puede administrar sus datos con mayor eficacia para
decidir lo que debe ser conservado y dónde se debe almacenar. Esto reduce los costos de
almacenamiento y los riesgos de pérdida de datos.
6.2.2.6 PLATAFORMA DE APLICACIONES WEB
Windows Server 2008 R2 incluye muchas mejoras que le permiten implementar con mayor
facilidad y gestionar aplicaciones Web. Se ofrece una versión actualizada del servidor Web
Internet Information Services (IIS) 7.5 y mayor soporte para. NET en Server Core. Además,
IIS 7.5 proporciona una seguridad mejorada, fácil de administrar la plataforma para el
desarrollo y alojamiento confiable de aplicaciones y servicios Web. Al proporcionar un
mayor control, más opciones, más fiabilidad y seguridad, las organizaciones pueden
asegurar que sus plataformas de Internet están disponibles cuando y donde se necesitan.
6.2.2.7 ESCALABILIDAD Y FIABILIDAD
Windows Server 2008 R2 soporta cargas de trabajo sin precedentes, escalabilidad dinámica,
disponibilidad y fiabilidad. Una gran cantidad de características nuevas y actualizadas se
encuentran disponibles, incluyendo sofisticadas arquitecturas de CPU aprovechamiento, el
aumento de creación de componentes del sistema operativo y un mejor rendimiento y
escalabilidad de las aplicaciones y servicios.
6.2.2.8 EXPERIENCIA INTEGRADA CON WINDOWS 7
Windows Server 2008 R2 tiene muchas características que están diseñadas específicamente
para trabajar con equipos cliente que ejecutan Windows 7, estas son BranchCache y
DirectAcces.
BranchCache
La característica BranchCache en Windows Server 2008 R2 reduce la utilización de la
WAN y mejora la capacidad de respuesta de las aplicaciones de red. BranchCache en el
Windows 7 y Windows Server 2008 R2 puede ayudar a aumentar la capacidad de respuesta
de la red de las aplicaciones centralizadas cuando se accede desde las oficinas remotas,
proporcionando a los usuarios en las oficinas de la experiencia de trabajar en su red de área
local. BranchCache también ayuda a reducir la red de área amplia (WAN) de utilización.
DirectAccess
DirectAccess es una característica compartida de Windows 7 y Windows Server 2008 R2
que permite a los usuarios la experiencia de estar perfectamente conectado a su red
corporativa en cualquier momento que tenga acceso a Internet. Con DirectAccess, los
usuarios pueden acceder a los recursos corporativos, como los servidores de correo
electrónico, carpetas compartidas o sitios web de intranet, de forma segura sin necesidad de
conectarse a una red privada virtual (VPN).
6.2.3 ESTRUCTURA Y PLATAFORMA
Windows Server 2008 R2 incluye muchas mejoras que hacen que esta versión sea la más
robusta Plataforma de Aplicaciones Web de Windows Server hasta el momento. También
brinda un rol actualizado de Servidor Web, el Internet Information Services (IIS) 7.5 y
mayor soporte para .NET en Server Core. Las metas de diseño para IIS 7.5 centradas en
mejoras que permiten a los administradores Web desplegar y administrar en forma más fácil
las aplicaciones Web incrementan la confiabilidad y escalabilidad. Además, IIS 7.5 ha
agilizado las capacidades de administración y ofrece más formas de personalizar su entorno
de servidor Web.
Las mejoras a IIS y la plataforma Web de Windows, que se incluyen en Windows Server
2008 R2, incluyen un menor esfuerzo en la administración y el soporte de aplicaciones
basadas en Web, seguridad optimizada para aplicaciones Web, mejoras en los servicios de
transferencia de archivos, la capacidad de ampliar la funcionalidad y las características para
aplicaciones basadas en Web y mejor disponibilidad y rendimiento para aplicaciones y
servicios basados en Web.
6.3 BENEFICIOS DE WINDOWS SERVER 2008R2 COMO HERRAMIENTA DE
IMPLEMENTACIÓN
Windows Server 2008 R2 es la mejor actualización de su centro de datos de Windows
Server, ayudando a mantener su infraestructura de gran alcance, bien gestionada y segura
hoy en día, al tiempo que permite nuevos paradigmas como el de mañana cloud computing
o tecnología en la nube.
6.3.1 TRANSFORME SU CENTRO DE DATOS.
El panorama actual de la tecnología está cambiando tan rápidamente y tan
radicalmente como nunca antes en su historia. La tecnología de virtualización y la
tecnología in cloud (nube) están abarcando planas de la prensa y el mercado, pero
otras tecnologías, incluyendo el acceso remoto y conectividad de sucursales, la
seguridad del servidor, y el rendimiento de la computación, incluso primas también
están avanzando rápidamente. Para mantener el negocio competitivo, tenga en
cuenta la transformación de su centro de datos. Para todas las tecnologías
mencionadas, Windows Server 2008 R2 logra el máximo provecho de la
virtualización y seguridad. Además, se pueden descubrir nuevas formas de conectar
a sus empleados o gestionar su centro de datos de manera más eficiente para ahorrar
costos.
6.3.2 REDUCIR LOS COSTOS GRACIAS A LA VIRTUALIZACIÓN.
La virtualización, una de las más recientes y profundas tecnologías de desarrollo en
los últimos años, ha cambiado los centros de datos modernos - la forma en que han
sido diseñados, organizados, apalancados, y administrados. Los usuarios siguen
ejecutando la edición de 2003 se están perdiendo las formas convincentes en que la
tecnología Hyper-V, en la plataforma de virtualización de Microsoft, puede ayudar a
mejorar el desempeño de su centro de datos y el retorno de la inversión
(ROI). Mientras que las versiones anteriores de Windows Server con capacidad
rudimentaria no le permiten obtener este beneficio, Windows Server 2008 R2 le
proporciona tanto una plataforma de servidor potente y un motor de virtualización
completa en un solo equipo.
Hyper-V pueden afectar a su centro de datos de la tierra-para arriba.
• Hyper-V le permite consolidar servidores para ofrecer importantes
ahorros de costes que afectan directamente los costos de las instalaciones, como
la energía y la refrigeración.
• Hyper-V puede mejorar la confiabilidad y la redundancia de aliviar las cargas
administrativas de los servidores espejo, servidores en cluster, y la
reconstrucción de los servidores a través de plantillas de software en lugar de la
instalación larga y los procedimientos de migración.
• Hyper-V se puede combinar con la suite de Microsoft System Center de
gestión de virtualización para gestionar hipervisores y otras máquinas virtuales
que ejecutan sistemas operativos distintos de Windows, incluyendo VMware y
plataformas Citrix, marcas que se pueden encontrar en la sección de
herramientas de virtualización de este proyecto.
La Virtualización está revolucionando la forma en que se diseña y gestiona un
centro de datos moderno, así como la forma en que sus empleados pueden
utilizar ese centro de datos de forma más productiva. Sólo Windows Server
2008 R2 puede ofrecer todas estas ventajas o beneficios a través de un potente
servidor y plataforma de gestión.
6.3.3 SIMPLIFICAR LA GESTIÓN DE CENTROS DE DATOS
Los nuevos avances como la virtualización significa que las plataformas de los
servidores necesitan de un cambio y mejora, incluso sus características de gestión
para mantener el ritmo, y Windows Server 2008 R2 ofrece a este requisito en
abundancia.
Windows Server 2008 introduce funciones de servidor de una manera fácil para que
el administrador pueda dedicar una instancia de servidor a una tarea en particular
como impresión, acceso remoto, de dominio y mucho más. Windows Server 2008
R2 se activa automáticamente sólo las funciones necesarias para realizar esa tarea,
aunque puede modificar las configuraciones si quiere. El resultado es un servidor
más seguro, ya que los servicios innecesarios no están habilitados. Esta función
también le permite crear rápidamente y asignar plantillas a los roles específicos del
servidor y las cargas de trabajo en caso de que los servidores tengan que ser
reconstruidos.
Windows Server 2008 R2 también añade una serie de consolas de gestión nuevas
que realizan tareas tales como la administración de Active Directory, administración
de servidores y administración de virtualización de una manera más fácil e intuitiva.
La habilitación de muchas de estas consolas es otro cambio de juego sólo disponible
en Windows Server 2008 R2, y eso se denomina PowerShell. Este lenguaje de
programación simple ofrece una manera completa personalizable para automatizar
tareas rutinarias de gestión y crear flujos de trabajo de gestión, diseñados
específicamente para su centro de datos y su negocio. Windows Server 2008 R2
incluye hasta 240 PowerShell scripts pre-construidos, así como una interfaz gráfica
de usuario para que sus administradores de TI pueden crear scripts de una manera
más rápida y sencilla.
6.3.4 MEJORA EL CENTRO DE DATOS DE SEGURIDAD
Amenazas relacionadas con el hacking, el malware, virus e incluso mal uso de los
empleados de los recursos informáticos hacen a la seguridad una consideración
importante para todos los gerentes de centros de datos. Windows Server 2008 R2
está equipado con potentes nuevas características de seguridad diseñadas para
mantener su centro de datos y su negocio a salvo del peligro, tanto dentro como
fuera.
La característica de la función de servidor, por ejemplo, significa que los servidores
destinados a tareas específicas permiten sólo aquellos servicios necesarios para
cumplir esas tareas, deshabilitar automáticamente cualquier servicio
innecesario. Eso significa que una superficie de ataques más pequeños en busca de
malware y hackers para explotar.
Windows Server 2008 R2 también ha incluido una función de encriptación de datos,
llamada BitLocker que se aplica algoritmos de cifrado de volúmenes de datos
específicos, bloquear valiosos datos de miradas o personas indiscretas. También este
Sistema Operativo ha incluido nuevos analizadores de procesos de negocios que de
forma automática realizan la auditoría de los servidores para asegurarse de que se
están ejecutando los servidores con los últimos parches de seguridad y las mejores
prácticas. Esta es una gran ayuda para que las empresas deban pasar los requisitos
normativos, como las impuestas por SOX, HIPAA y los auditores de tarjetas de
crédito de procesamiento.
6.3.5 REDUCE EL CONSUMO ENERGÉTICO
Windows Server 2008 introdujo una "equilibrada" política de poder, que controla el
nivel de utilización de los procesadores en el servidor y ajusta de forma dinámica
los estados de rendimiento del procesador para limitar el poder a las necesidades de
la carga de trabajo. Windows Server 2008 R2 mejora esta característica de ahorro de
energía mediante la adición del aparcamiento Core y la expansión de la energía
orientada a la configuración de directiva de grupo.
El Active Directory o directiva de grupo en Windows Server 2008, proporciona un
mayor control sobre la administración de energía en los ordenadores-cliente. Estas
capacidades son mejoradas en Windows Server 2008 R2 y Windows 7 para
proporcionar un control aún más preciso en los escenarios de implementación más
para mayor potencial de ahorro.
6.3.6 AUMENTA EL RENDIMIENTO DE APLICACIONES
La industria del hardware para servidores ha sido durante mucho tiempo el empleo
de procesadores con tecnología de 64 bits. Windows Server 2008 R2 es la primera
plataforma de productos Microsoft para pasar a un modelo único de 64 bits. Eso no
significa que no puede ejecutar aplicaciones de 32 bits en Windows Server 2008 R2,
pero sí quiere decir que aplicaciones de 64 bits se ejecutan mucho más rápido y
pueden manejar mayor cargas de trabajo que las anteriores plataformas de Windows
Server. También se ha mejorado el rendimiento de Windows Server de la red de
comunicación mucho más rápido entre los servidores, estaciones de trabajo, sitios
remotos de computación, y los usuarios.
Las nuevas características incluyen un completo rediseñado pila del TCP/IP, soporte
para SMB 2.0 y lo que es fácil para los administradores de TI para habilitar IPv6 en
su caso.
6.5 LICENCIAMIENTO DE WINDOWS SERVER 2008 R2
Luego del lanzamiento de Windows Server 2008 R2 no habrá cambios en el modelo de
Licencia de Acceso de Cliente (LAC) que actual proporciona Windows Server 2008. Todas
las LAC existentes de Windows Server 2008 pueden utilizarse para tener acceso a Windows
Server 2008 R2.
Esto incluye los requisitos actualizados de la Licencia de acceso de cliente (LAC) para
Windows Server 2008 ejecutado como sistema operativo en ciertos escenarios de
virtualización. Al ejecutar versiones heredadas de Windows Server en equipos virtuales, no
serán necesarias las Licencias de acceso de cliente de Windows Server 2008 en ciertos
escenarios.
6.6 REQUERIMIENTOS DE WINDOWS SERVER 2008 R2
MÍNIMOS RECOMENDADOS
PROCESADOR1 GHz(x86) o1.4 GHz(x64)
2 GHz o superior
MEMORIA512 MB RAM(pero se limitarían mucho el
rendimiento y algunas características del sistema)
2 GB de RAM o superior
- Máximo en sistema de 32bits, 6GB de RAM(en edición Standard) o 64 GB de RAM (en edición Enterprise o DataCenter)
- Máximo en sistema de 64bits, 32 GB de RAM(en edición Standard) o 2 TB de RAM(en edición Enterprise, DataCenter y para sistemas basados en Itanium)
TARJETA GRÁFICASuper VGA con resolución de
800x600Super VGA (800x600) o
resolución mayor.
ESPACIO LIBREEN DISCO DURO
10 GB
50 GB o más.Los equipos que dispongan de más de 16 GB de memora RAM requerirán más espacio en disco para archivos de paginación y volcado.
UNIDADES DVD – ROMDVD – ROM o superior (BLUE-RAY)
CAPITULO 2: DIAGNÓSTICO
2.1 Antecedentes.
Las técnicas de investigación necesarias para la obtención de información relevante a la
realidad existente en nuestro medio acerca de la tecnología de Virtualización fueron: La
Observación, Entrevista y Encuesta.
Los ambientes en donde se desarrollaron estas investigaciones fueron en las empresas de
mayor relevancia en la Ciudad de Esmeraldas, así por ejemplo se entrevistó a las personas
responsables de TIC’S de las siguientes instituciones: Refinería Estatal Esmeraldas, Termo
Esmeraldas, Municipio de Esmeraldas y Universidad Técnica Luis Vargas Torres.
Como no podía ser de otra manera, se trabajó dentro del campus universitario, ya que es la
fuente de información principal, concretamente el universo de mi población es igual al
personal administrativo de la Universidad, los cuáles utilizan las aplicaciones y servicios
prestado por el Departamento de Sistemas. Dicha población está conformada por un total de
26 empleados, los cuáles han sido seleccionados del total de trabajadores de la Universidad,
dejando a un lado al personal de servicio, el cual no interactúa con ninguna aplicación.
2.2 Objetivos Diagnósticos
A continuación se detallan los objetivos diagnósticos planteados:
1. Conocer los servidores (y sus funciones) utilizados para los servicios de la
Universidad.
2. Conocer los procedimientos utilizados al momento de que ocurra una interrupción o
caída de un Servidor.
3. Determinar las aplicaciones informáticas brindadas por el Depto. De Sistemas, más
utilizados por el Personal Administrativo de la PUCESE.
4. Identificar las aplicaciones informáticas brindadas por el Depto. De Sistemas, que
más inconvenientes presentan al Personal Administrativo de la PUCESE en sus
actividades.
2.3 Variables del Diagnóstico
Los aspectos generales a investigarse, y que se encuentran relacionados con los objetivos
diagnósticos son los siguientes:
Servidores.
Se encuentra como elemento principal de la investigación y su incidencia influye en
cualquier lugar del proyecto.
Procedimientos.
Conjunto de normas o pasos a seguir para cumplir con un objetivo determinado,
como por ejemplo, el levantamiento de un servidor o reinicio del servicio prestado.
Virtualización en Esmeraldas
Determinará la incidencia de la tecnología de Virtualización dentro de la Ciudad de
Esmeraldas, y cuáles serán las empresas en donde se ha desarrollado.
Aplicaciones informáticas.
Son los Entornos de trabajo en donde se desarrolla la actividad de los usuarios de
una empresa. Las aplicaciones son la interfaz entre el usuario y la máquina y tienen
como función principal procesar información.
2.4 Indicadores
Los indicadores para medir la incidencia de las variables diagnósticas de la investigación se
presentan a continuación:
Servidores
Cantidad de Servidores.
Características de los Equipos.
Años de Vida Útil.
Procedimientos
Frecuencia de Uso.
Tiempo de respuesta a los usuarios.
Virtualización en Esmeraldas.
Cantidad de empresas que utilizan virtualización.
Cantidad de empresas que implementarán virtualización.
Aplicaciones
Frecuencia de Uso.
Prioridad de actividades.
Nivel de Importancia.
Frecuencia de la caída del servicio.
Grado de satisfacción del usuario.
2.5 Matriz de Relación
Objetivo Variable IndicadoresTécnica de
InvestigaciónFuente de Información
Conocer los servidores(y sus
funciones) utilizados para los servicios de
la Universidad
Servidores
Cantidad de Servidores
Características de los equipos.
Años de vida útil
Observación
Entrevista
Responsable Depto.De TIC’S
Conocer los procedimientos
utilizados al momento de que
ocurra una interrupción o caída
de un Servidor.
Procedimientos
Frecuencia de Uso de estos
procedimientos. Tiempo de respuesta a los
usuarios
EntrevistaResponsable Depto.
De TIC’S
Indagar acerca de la implementación de
esta tecnología dentro de nuestro medio(Ciudad de
Esmeraldas)
Virtualización en Esmeraldas
Cantidad de empresas que utilizan virtualización.
Cantidad de empresas que implementaran virtualización.
Entrevista
Responsables de los Departamentos de TIC’S de las principales instituciones y empresas de la ciudad de
Esmeraldas.
Determinar las aplicaciones informáticas
brindadas por el Depto. De Sistemas, más utilizados por el
Personal Administrativo de la
Aplicaciones Informáticas
Frecuencia de Uso. Prioridad de
actividades. Nivel de
importancia.
Encuesta Personal Administrativo
PUCESE.Identificar las aplicaciones
informáticas brindadas por el Depto. De
Sistemas, que más inconvenientes
presentan al Personal Administrativo de la
PUCESE en sus actividades.
Aplicaciones Informáticas
Frecuencia de Uso. Frecuencia de
Caída del Servicio. Nivel de
importancia. Grado de
satisfacción del usuario
Encuesta Personal Administrativo
2.6 Mecánica Operativa
2.6.1 Identificación de la Población
El universo a ser estudiado e investigado serán los 26 empleados administrativos que
utilizan las aplicaciones internas de la universidad. A dichos individuos se les
entregará una encuesta para recabar información para conocer el servicio prestado por
el departamento de Sistemas.
También existen los jefes encargados de los Data Center de las principales empresas
de la Ciudad como son: Refinería Esmeraldas, Termo Esmeraldas y Universidad
Técnica Luis Vargas Torres, de quienes conoceremos su entorno de trabajo mediante
una entrevista directa.
Finalmente el Responsable del Departamento de Sistemas de la Universidad Católica
del Ecuador Sede Esmeraldas, será parte importante dentro del curso de trabajo, para
la supervisión del proyecto en su etapa de implementación.
2.6.2 Identificación de la muestra
Debido al universo de la población no existirá la necesidad de realizar muestra en este
proyecto, ya que se trabajará con el total de la población.
Para la obtención de la información primaria se aplicaron las 3 técnicas
fundamentales de la investigación:
La Observación
La Encuesta
La Entrevista
Pregunta 1: En su trabajo, ¿Qué sistema utiliza para cumplir sus actividades
laborales?
ALTERNATIVAS DATOFRECUENCIA
(%)
1 Sistema Contable 5 13.16
2 Sistemas Académico – registro de Notas 11 28.95
3 Sistema de Solicitud de Créditos y Matrículas 4 10.53
4 Sistema de Roles de pago 3 7.89
5 Sistema de Cobro de Aranceles 6 15.79
6 Otros 9 23.68
TOTAL: 38 100
Pregunta 2: ¿Cuál considera Ud. La aplicación más importante en el manejo de la
información?
ALTERNATIVAS DATOFRECUENCIA
(%)
1 Sistema Contable 10 13.16
2 Sistemas Académico – registro de Notas 20 28.95
3 Sistema de Solicitud de Créditos y Matrículas 8 10.53
4 Sistema de Roles de pago 6 7.89
Tabulación y análisis de la Información.
ENCUESTAS APLICADAS AL: Personal Administrativo de la Universidad
Análisis:
Observamos que el Sistema
más utilizado dentro del
personal Administrativo de la
PUCESE es el que lleva el
Control Académico de
Registro de Notas con el
28.95%
5 Sistema de Cobro de Aranceles 8 15.79
6 Otros 7 23.68
TOTAL: 38 100
Pregunta 3: ¿Cuáles son los programas con los que encuentra inconvenientes
frecuentemente?
ALTERNATIVAS DATOFRECUENCIA
(%)
1 Sistema Contable 1 3.45
2 Sistemas Académico – registro de Notas 8 27.59
3 Sistema de Solicitud de Créditos y Matrículas 7 24.14
4 Sistema de Roles de pago 10 34.48
5 Sistema de Cobro de Aranceles 2 6.90
6 Otros 1 3.45
TOTAL: 29 100.00
Pregunta 4: ¿Cuán a menudo se presentan interrupciones por fallas en el Servicio de
Correo Electrónico?
Análisis:
Observamos que el Sistema al
cual consideran más
importante para las tareas de
la Universidad es el de
Control Académico de
Registro de Notas con el
33.90%
Análisis:
Observamos que los Sistemas
con los cuales los usuarios
encuentran más inconvenientes
están repartidos de mayor a
menor: Control Académico de
Registro de Notas (34,48%),
Sistema Académico (27,59%) y
Sistema de Solicitud de
Créditos y Matricula (24,14%)
ALTERNATIVAS DATOFRECUENCIA
(%)
1 Siempre 1 3.85
2 Casi Siempre 7 26.92
3 Rara Vez 10 38.46
4 Nunca 8 30.77
TOTAL: 26 100.00
Análisis:
Observamos que las frecuencia
con que ocurren las
interrupciones están dadas
Rara Vez con un 38,46%,
seguido de un Nunca con
30,77%
Pregunta 5: ¿Cuán a menudo se presentan interrupciones por fallas en el servicio de
Internet?
ALTERNATIVAS DATOFRECUENCIA
(%)
1 Siempre 0 0.00
2 Casi Siempre 12 46.15
3 Rara Vez 13 50.00
4 Nunca 1 3.85
TOTAL: 26 100.00
Pregunta 6: ¿Cuán a menudo se presentan interrupciones por fallas en la aplicación o
Sistema que Ud. Utiliza?
ALTERNATIVAS DATOFRECUENCIA
(%)
1 Siempre 2 7.69
2 Casi Siempre 12 46.15
3 Rara Vez 4 15.38
4 Nunca 8 30.77
Análisis:
Observamos que las frecuencias
con que ocurren las
interrupciones en el servicio de
Internet están repartidas de
forma casi similar por Casi
Siempre con un 46.15%, y
Rara Vez con un 50,00%
TOTAL: 26 100.00
Análisis:
La encuesta determina que las
interrupciones por parte del
Sistema se dan Casi Siempre
con un 46.15%, y Nunca con
un 30,77%
Pregunta 7: ¿Cree Ud. que estas interrupciones traen perdidas a la Universidad?
Alternativas Dato Frecuencia (%)1 SI 25 96.15 2 NO 1 3.85
Total 26 100.00
SI
NO
Análisis:
La encuesta determina que un 96% de la población
da por hecho que las interrupciones informáticas
traen perdidas a la universidad. Lo cual perjudica
de gran manera las tareas y metas de la institución.
A continuación veamos qué tipos de perdidas traen
estas interrupciones según el personal
administrativo.
¿De qué tipo?
Perdidas Dato FrecuenciaEconómicas 10 20.00%
Tiempo 20 40.00%Personales 7 14.00%
Organizacionales 11 22.00%Otros 2 4.00%
Análisis:
El gráfico revela que, los usuarios ven en el tiempo el recurso
más valioso, ya que le dan una prioridad del 40% al momento
de que existen las interrupciones. Para los usuarios tener
interrupciones es perder tiempo para cumplir sus tareas con
profesionalismo.
Pregunta 8: De manera general, al momento de que ocurre un problema en el Sistema que Ud. utiliza, ¿Cuánto tiempo le lleva al Departamento de Sistemas resolver….
Alternativas Dato Frecuencia (%)1 Entre 5 y 10 minutos? 5 19.232 Entre 10 y 30 minutos? 11 42.313 Entre 30 min. y una hora? 7 26.924 Más de una hora? 1 3.855 Pasadas las 24 horas 2 7.69
Total 26 100.00
Análisis
Los usuarios administrativos, declaran que el Departamento de
Sistemas tarda un promedio de entre 10y30 minutos para resolver una
interrupción en el sistema que utilizan, esta cifra es muy alta para la
labor que ejerce la Universidad y la demanda que tiene por los
estudiantes.
NOMBRES Y APELLIDOS
EMPRESA ANÁLISIS
Lcdo. Kléber PosliguaPontificia Universidad
Católica del Ecuador Sede Esmeraldas
La Universidad tiene como visión implementar nuevos servidores (moodle, aplicaciones web internas). Cuenta con dos únicos servidores dedicados, y el resto son clones. Aún no se ha aplicado la virtualización de servidores, sin embargo tienen licencias Microsoft para hacerlo y cuentan con los conocimientos básicos acerca de esta nueva tecnología. No cuentan con planes de contingencia oficiales, pero si tienen en mente la manera de solucionar una interrupción.
El Internet y la falla de Energía son sus problemas más graves. El Señor Posligua ve en la Virtualización una gran inversión y algo innovador que beneficiaría no solo al Departamento de Sistemas, sino a todos los Usuarios de sus aplicaciones en general.
La facilidades para implementar esta tecnología en la Universidad son cercanas, comentó el también profesor de esta Institución.
Tlgo. Diego GuerraRefinería
Esmeraldas
Refinería Esmeraldas, cuenta con una infraestructura dócil, muy frágil, en especial para todos los servidores excepto el servido IBM OS/400, el cuál es el único que cuenta con planes de contingencia establecidos y lleva un estricto plan de mantenimiento y prevención a desastres. El Departamento no ha implementado Virtualización, sin embargo ya está en marcha un plan radical para el cambio del DataCenter en su totalidad.
2.7 Tabulación y análisis de la Información.
ENTREVISTAS APLICADAS A LOS: Jefes Depart. De Sistemas de las
Instituciones y Empresas de Esmeraldas
Ing. Carlos PlataUniversidad Técnica“ Luis Vargas Torres”
La Universidad Luis Vargas Torres no cuenta con un DataCenter establecido formalmente, con todas las reglas que una estación de estas lo demanda.
La Universidad Vargas Torres, no ha implementación la Virtualización de Servidores, sin embargo a implementado aulas con micro-PC, las cuales simulan un computador con la ayuda de un servidor principal. Cabe anotar que no se cuenta tampoco con planes de contingencia hábiles.
Encargado Sistemas CELEC
Termoeléctrica Esmeraldas
Es la única empresa que si ha implementado la tecnología de la Virtualización y se ha ahorrado gran cantidad de dinero, al crear un ambiente virtual en el cual se encuentran varios servidores y es aquí en donde se realizan pruebas de escritorio antes de la implementación de una aplicación para la empresa.
La Virtualización nos ah ahorrado grandes recursos nos comentó el entrevistado.
Ing. Francel García SacotoJefe Departamento de
Sistemas del Municipio de Esmeraldas
La Tecnología de la Virtualización es una de las herramientas fundamentales en nuestro trabajo, es algo indispensable dentro del funcionamiento de la empresa, debido a que gracias a ella hemos ahorrado recursos y aumentado servicios, tal es así que el 70% de nuestros servidores activos se encuentran virtualizados.
La virtualización ha mejorado de gran manera la calidad de los procesos y servicios informáticos del Municipio de Esmeraldas, alcanzando así la Alta Disponibilidad.
2.8 ANÁLISIS FODA (Fortalezas, Oportunidades, Debilidades y Amenazas)
FORTALEZAS
F1: Planes de Contingencia hábiles en caso de desastres.
F2: Alta Disponibilidad de Servicios por parte de la Universidad para usuarios
internos y externos.
F3: Disminución de la subutilización de los recursos disponibles de TI.
OPORTUNIDADES
O1: Mejorar el nivel tecnológico de nuestra universidad.
O2: Disminuir costos antes durante y después de la implementación de esta
tecnología.
O3: Mejorar el proceso de respaldo de uno de los recursos más importantes de
cualquier empresa
DEBILIDADES
D1: Costo de adquisición del equipo host o servidor físico en donde se hospedaran
a los servidores invitados.
D2: Insuficiente capacitación acerca de esta tecnología por no ser explotada al
máximo.
AMENAZAS
A1: Las aplicaciones o servicios informáticos que brinda la Universidad son tan
robustos que necesitaran un servidor dedicado y no virtual para su
funcionamiento.
A2: Fallo del hosting o Sistema Operativo principal en donde se hospedaran los
servidores invitados.
A3: Desastres externos posibles, incendios, inundaciones, terrenos.
2.9 MATRIZ DE ESTRATEGIA FODA (FA – FO – DA - DO)
AMENAZAS OPORTUNIDADES
FORTALEZAS
F1 y A3.
La información de una empresa siempre esta propensa a sufrir calamidades o desastres de tipo humano o natural.
Para ello se debe tener un Plan de Contingencia hábil y sostenible que pueda ponerse en marcha en estos casos a los cuáles la universidad no se encuentra exentan.
F3 y O3.
Las empresas e instituciones de alto nivel no pueden no pueden parar sus actividades nunca, por ningún motivo, por ello el Depto. De TI, debe mantener el flujo de información constantemente sin importar el desastre o contratiempo, la Alta Disponibilidad ofrece de mejor manera este servicio mediante la Virtualización.
DEBILIDADES
D2 y A1.
El no tomar cursos de capacitación personalizados a profundidad acerca de esta tecnología, conllevara a no explotar al máximo los servicios que puede brindar la misma, y por ende desconocer las limitaciones que presenta.
D1 y O2.
Sin duda alguna al momento de hablar de precios y costos debemos preguntarnos cuál es la inversión que obtendremos de este servicio a largo plazo, la cual sin duda alguna es beneficiosa, ya que invertiremos en un servidor de mayor costo, a cambio de no gastar en dos o tres servidores independientes, sin tomar el cuenta el consumo de energía que es muy importante.
2.10 DETERMINACIÓN DEL PROBLEMA DIAGNOSTICO
La Virtualización es una tecnología que no es nueva en el mercado, pero sin duda está
llegando a ser (por no decir es) parte fundamental en toda empresa que hace uso de todos
los servicios tecnológicos que un computador puede ofrecer, como sistemas informáticos,
páginas web, servidores de aplicaciones generales 0como son de correo, Active Directory o
Servicio de Directorio, y servidores de aplicaciones personalizadas de acuerdo a los
requerimientos de la empresa como son: sistemas contables, de recursos humanos, de notas
y matriculación(en el caso de entidades educativas). Sin ninguno de estos servicios o con el
pésimo servicio que estos puedan dar (por diversos factores), la empresa o institución se
vuelve vulnerable a ser una entidad poco confiable y seria, ya que la responsabilidad del
Departamento de Sistemas o TI es la de sustentar el trabajo de la mayoría o todos los
departamentos que componen la organización, en sus diversos servicios antes enunciados.
El presente proyecto cubre necesidades de todo tipo como son: administrativo, educativo,
tecnológico, ambiental y uno de los más importantes el económico, debido a que la
inversión que generaría adquirir un equipo de alto nivel con la capacidad de hospedar un
máximo de 3 servidores funcionando sin contratiempos de manera independiente,
disminuyendo costos de instalación, mantenimiento, consumo de energía, espacio físico,
entre los principales.
Hoy en día las empresas lo que buscan es reducir costos y aumentar beneficios, y la
Virtualización aporta con eso.
CAPITULO 3: PROPUESTA
“INSTALACIÓN DE SERVIDORES VIRTUALES
EN EL DEPARTAMENTO DE SISTEMAS
DE LA PUCESE”
3.1 ANTECEDENTES.
Como hemos visto la Virtualización de servidores es ayudar a las organizaciones de TI a
mejorar la productividad del centro de datos de manera fundamental, pero para poder
aprovechar al máximo de su rendimiento, funcionalidad y los beneficios que implica
aplicarla, debemos ser muy cautelosos en la selección de las herramientas que permiten que
la Virtualización se aprecie en su máximo apogeo, en el caso particular de este tema de tesis
con los requerimientos para que Hyper-V de Microsoft Windows Server 2008 R2 Data
Center, rinda al cien por ciento. A continuación se presentan las propuestas tanto en
Hardware como en Software para lo que sería el funcionamiento completo de Servidores
Virtuales en el Departamento de Sistemas dentro de nuestra Universidad en base a lo
observado, y la demanda del universo de usuarios del campus.
Desde siempre los servidores se han diseñado para albergar un solo sistema operativo. El
éxito de la Virtualización con estos sistemas requiere software que pueda emular un entorno
de hardware completo para cada sistema operativo invitado. Este es un proceso de cálculo
intenso que introduce sobrecarga de rendimiento significativo. Se puede reducir los tiempos
de respuesta, límite de escalabilidad, y crear la complejidad que pueda afectar la
confiabilidad y la seguridad.
3.2 DELIMITACIÓN DE OBJETIVOS
3.2.1 GENERAL
• Implementar SERVIDORES VIRTUALES en el Departamento de Sistemas
de la PUCESE que permitan ahorrar recursos y recuperarse de desastres e
interrupciones en el menor tiempo posible, aumentando la calidad de sus
servicios a la Universidad en sus diferentes departamentos tanto administrativos
como académicos.
3.2.2 ESPECÍFICOS
• Conocer y evaluar las aplicaciones o servicios que la PUCESE presta
actualmente y prestaría mediante la implementación de un servidor virtual.
• Proponer un plan operativo que permita dar a conocer el funcionamiento de la
nueva tecnología en la institución tanto en el área administrativa como en el
área académica.
• Evidenciar la instalación y puesta en marcha del servidor virtual, a estudiantes
de la universidad en forma directa y mediante componentes multimedia
(colgados al internet) al servicio de cualquier usuario en el mundo.
• Proponer un plan de contingencia para recuperarse de desastres dentro del
servidor mediante la implementación de la virtualización y así no entorpecer el
trabajo de los usuarios.
• Analizar los impactos que implicaría implementar servidores virtuales en el
Departamento de Sistemas de la PUCESE.
3.3 JUSTIFICACIÓN
El mundo tecnológico avanza, y la virtualización ha revolucionado las actividades
de importantes procesos empresariales, como Bancos, Empresas Térmicas,
Sistemas de Gestión de Información, Empresas de millones de flujos de usuarios
como Google, Facebook, YouTube, Hotmail, etc. Mediante la virtualización se hace
independiente el ente físico ya que las máquinas virtuales son eso, virtuales que solo
existen para el usuario pero realmente no existen como ente físico.
Instituciones del medio local como CELEC Termo Esmeraldas y el Municipio de
Esmeraldas, cuentan con sistemas de virtualización confiables y seguros que les
brindan a los usuarios y clientes satisfacción y confianza en sus actividades de
rutina, pero sobre todo permiten ahorrarle recursos económicos a gran escala.
Hoy en día el mayor éxito de las empresas o instituciones se encuentra en el hecho
de saber aprovechar las oportunidades, de ahorrar recursos y reducir costos sean
operacionales, administrativos o de control. Es por eso que al momento de
implementar la virtualización en los servidores del Departamento de Sistemas de la
PUCESE, la Universidad ahorrará en hardware (nuevos servidores), espacio físico,
consumo de energía, tiempo, y dinero por supuesto, entre otros.
Uno de los más grandes éxitos que implica la instalación de servidores virtuales en
un Data Center, es recuperarse de desastres o interrupciones de la manera más
rápida.
Otras ventajas que tienen los servidores virtuales son:
• Rápida incorporación de nuevos recursos para los servidores virtualizados.
• r
• Administración global centralizada y simplificada.
• t
• Mejora en los procesos de clonación y copia de sistemas: Mayor facilidad
para la creación de entornos de test que permiten poner en marcha nuevas
aplicaciones sin impactar a la producción, agilizando el proceso de las
pruebas.
• y
• Aislamiento: un fallo general de sistema de una máquina virtual no afecta al
resto de máquinas virtuales.
• p
• No sólo aporta el beneficio directo en la reducción del hardware necesario, así
como de sus costes asociados.
• u
• Reduce los tiempos de parada.
• l
• Migración en caliente de máquinas virtuales (sin pérdida de servicio) de un
servidor físico a otro, eliminando la necesidad de paradas planificadas por
mantenimiento de los servidores físicos.
• k
• Alto grado de satisfacción general.
Es así que resulta inevitable llevar a cabo el cumplimiento de este proyecto, por
medio de las ventajas ofrecidas por el uso de esta tecnología, la cual traerá grandes
beneficios a las labores tecnológicas y en especial a la disminución de paradas en
los procesos informáticos de la Universidad.
3.4 VIRTUALIZACIÓN DE SERVIDORES
3.4.1 INTRODUCCIÓN A LA IMPLEMENTACIÓN
Desde el principio de la iniciativa de este proyecto, se recibió mucha acogida por parte de
los docentes, el director de escuela y rector de la universidad, así como también de los
miembros del Departamento de Sistemas de la Universidad, en especial del encargado del
mismo como es el Lcdo. Kleber Posligua, quien considera oportuno el uso de la tecnología.
Llevar a cabo este proyecto implicó muchos riesgos, y vicisitudes que se presentaron a lo
largo de las fases de trabajo, pero cabe resaltar el agradecimiento a todos aquellos
colaboradores de la universidad que nunca ocultaron su apoyo a esta implementación.
Una ventaja funcional de la PUCESE es su convenio en línea directa con Microsoft
Corporation, lo que le permite utilizar todas sus herramientas establecidas en el convenio (y
contempladas al inicio de este documento) sin ninguna restricción indebida de licencias, lo
que abre el paso al aprovechamiento de la herramienta Windows Server 2008R2 con su
aplicativo Hyper-V, el cuál será clave para el desarrollo.
Es de destacar que todos los recursos y herramientas que estuvieron disponibles por parte
de la Universidad para llevar a cabo la implementación de este proyecto fueron facilitados
sin contratiempo alguno y de la mejor manera, en cambio todos aquellos recursos o
herramientas necesarias para complementar esta implementación son cubiertas en su
totalidad por parte del autor de este trabajo.
3.4.2 DETERMINACIÓN DEL SERVIDOR A VIRTUALIZAR
Son muchos los servicios que prestan los servidores del Departamento de Sistemas a la
comunidad Universitaria y el público en general y están detallados en el capítulo 1 del
Marco Teórico de este trabajo, es lógico establecer que no es posible virtualizar todos los
servidores existentes en el Centro de Datos de la Universidad, por falta de presupuesto y
tiempo, sabiendo que si podemos levantar sin problemas uno o más servicios, podremos a
futuro levantar todos aquellos y muchos más, pero se ha optado en virtualizar uno de los
servidores con más acceso por los usuarios y uno de los más vulnerables en todo el
universo de servidores de la PUCESE, y este es el servidor de Aplicaciones Web.
El Servidor de Aplicaciones Web tiene la función de brindar los diferentes servicios web a
la Universidad tanto a los estudiantes como a los profesores. Entre las aplicaciones que
están disponibles al público tenemos:
Educación virtual, aplicación en Moodle que permite el aprendizaje online. Bolsa de empleo, Es un sitio web disponible a las empresas y estudiantes, que
funciona como ventana abierta para puestos de empleo a los educandos de la
universidad. NOTAS DE ESTUDIANTES, aplicación web que permite al estudiante consultar
sus notas de manera fácil y directa desde cualquier lugar del mundo por medio del
internet. Esta aplicación será parte del proyecto de virtualización por su importancia
para con los estudiantes. BIBLIOTECA, esta aplicación web permite la búsqueda de libros y revistas
existentes en la biblioteca de nuestra universidad, esta aplicación también está
incluida como parte del proyecto de implementación de servidores virtuales. Web docentes, es un sitio web diseñado exclusivamente para los docentes de la
universidad, dentro del cual, mediante un usuario y contraseña, el decano puede
ingresar información personal y de sus estudiantes, así como notas, asistencias entre
otros. Evaluación a docentes, Este sitio web, tiene la facultad de pronunciar las preguntas
que servirán para medir las destrezas de sus profesores, este es un proceso que se da
al finalizar cada semestre y que los estudiantes deben realizarlo obligatoriamente. Web Directivos, es un sitio exclusivamente para los directores administrativos y
académicos de la universidad en donde se comparte información de esta índole. Evaluación a Directivos a Docentes, este sitio está facultado para evaluar a los
directores, de la misma manera que se evaluó a los profesores universitarios, los
decanos tendrán la facultad de evaluar a sus superiores.
De este modo se da por hecho que todas las aplicaciones existentes pueden ser levantadas
en servidores virtuales con el fin de aprovechar sus beneficios, pero sin embargo, por otros
factores relacionados, sencillamente se virtualizarán tanto el servicio de la consulta de las
notas de los estudiantes y la consulta a la biblioteca virtual de la Universidad.
3.4.3 JUSTIFICACIÓN DEL SISTEMA OPERATIVO A INSTALAR
Si bien es cierto la arquitectura de virtualización puede ser independiente a cualquier
Sistema Operativo base (sobre el cuál se levantarán los entes o servidores virtuales), tal es
el caso de herramientas como vmware vshpere que son marcas de uso comercial y cuyos
beneficios totales se pueden obtener única y exclusivamente al pago posterior de sus
derechos. VMware es una de las marcas más reconocidas en el mercado de la virtualización
y cuya experiencia le ha permitido ubicarse en los primeros lugares al momento de elegir
una herramienta de virtualización.
Sin embargo el Sistema Operativo base que se instalar en el servidor o hosting del Servidor
virtualizado será Windows Server 2008 R2, un potente Sistema Operativo de la marca
Microsoft Corporation que ha dejado su huella en gran parte de los datacenters del mundo,
de manera especial en nuestro medio, tanto empresas como Refinería Esmeraldas y CELEC
Termo Esmeraldas utilizan este S.O. en sus operaciones.
Siendo Windows Server 2008 un producto comercial de la multinacional Microsoft
Corporation, su uso debe ser debidamente licenciado ya que deriva un costo de compra, del
cual la Universidad Católica del Ecuador Sede En Esmeraldas cuenta como derecho de uso,
por su convenio anual, en el contrato de este y otros productos de la misma empresa como
son Microsoft Office, Visual Studio .NET, Microsoft SQL Server, entre otros, por esta
razón no existe preocupación alguna por el uso del software con el cual la Universidad
cuenta, para esta implementación, además se debe tener en consideración que dentro del
pensum de estudio de la carrera de Ing. De Sistemas de la PUCESE(Pontificia Universidad
Católica del Ecuador Sede Esmeraldas) y de la PUCE(Pontificia Universidad Católica del
Ecuador como matriz), se incluye la utilización de productos Microsoft para la enseñanza a
los estudiantes, dicho de otro modo, estas instituciones cumplen convenios legales no solo
de aprendizaje(licencias de aprendizaje) sino también de utilización en las instalaciones de
las universidades, por lo que se hace conveniente aprovechar al máximo recursos que están
siendo objeto de un gasto a la universidad, tal es el hecho del desarrollo de la virtualización
por medio de Windows Server 2008 R2.
3.4.4 JUSTIFICACIÓN DE LA HERRAMIENTA DE VIRTUALIZACIÓN A
UTILIZAR
Resulta lógico y concluyente, luego de todo lo que se ha tratado en este documento y en
base al punto anterior, que la herramienta a utilizar para la virtualización de servidores será
Hyper-V. Hyper-V es una potente característica adicional con múltiples beneficios, que no
debe pasar por alto, y se presenta dentro de uno de los varios beneficios de utilizar
Windows Server 2008R2, e incluso no existirá la necesidad de adquirir dos herramientas
totalmente diferentes que funcione, una como servidor físico y otro como herramienta de
virtualización. Es por esto que no hay discusión de trabajar con estas dos herramientas,
tanto el Sistema Operativo base como es Windows Server 2008R2 y su subsistema o
característica adicional de virtualización como es HYPER-V todas de la misma mano del
fabricante Microsft Corporation, lo que disminuye las incompatibilidades o versiones.
3.4.5 REQUERIMIENTOS DE HARDWARE
Luego de determinar el software necesario para llevar a cabo el proyecto de
implementación debemos recordar que es el hardware quién depende del software y no al
revés, es decir, que en base a los requerimientos del sistema operativo, en este caso
Microsoft Windows Server 2008 R2, debemos encontrar el hardware base con las
características necesarias para que puedan soportar nuestro Sistema Operativo y su
componente de virtualización HYPER-V.
De esta manera, se debe aclarar que HYPER-V funciona únicamente con un procesador con
tecnología de 64bits y tecnología de virtualización activa, y con una velocidad de
procesamiento significativa. El uso de la memoria debe ser de un mínimo de capacidad de
4GB de memoria RAM y un disco duro con capacidad para almacenar los servidores
virtuales, en este proceso de prueba bastará con un mínimo de 100GB de espacio en disco
duro.
Por motivos de presupuesto por los altos costos que involucra adquirir un servidor de estas
características el autor de este proyecto dispuso de la prestación de un equipo portátil marca
Sony VAIO, Serie EVPCEA37FL, con 4GB de memoria RAM, procesador Intel i5 de
64bits y con tecnología disponible para virtualización. Está maquina a la que de ahora en
adelante la llamaremos equipo modelo, cumple con los requisitos mínimos necesarios para
llevar a cabo el proyecto de implementación, el cual se va a llevar a cabo en una partición
de 100 GB de capacidad y excluyente de las actividades diarias del propietario de este
equipo.
3.4.6 REQUERIMIENTOS DE SOFTWARE
Una vez que el hardware se encuentra listo para proceder a la instalación y configuración
de cada uno de los instrumentos de software a instalar, debemos tener en claro cuáles serán
las soluciones de software necesarias para continuar con la implementación.
A continuación se enlistan los productos de software que van a ser utilizados:
• Windows Server 2008R2o Hyper-Vo ISS(Internet Information Server) Servidor de Internet
• Microsoft Office• Microsoft Visual Studio .NET 2010
Todas estas herramientas están a disponibles y fueron solicitadas al Departamento de
Sistemas de la Universidad, quien por medio de su encargado y responsable me facilito los
instaladores de estos productos, para continuar con la instalación y de esta manera no hubo
necesario el gasto de dinero en la adquisición de estos productos.
3.4.7 RESUMEN DE PROCESOS
3.4.7.1 CONDICIONES PREVIAS
Una vez conocidos cuáles serán las herramientas de software que permitirán lograr el
objetivo de implementación de la tecnología de virtualización, y de haber encontrado el
recurso de hardware aplicable a los requerimientos de los recursos necesarios para el buen
funcionamiento del software, se procederá a iniciar con el proceso de instalación.
3.4.7.2 INSTALACIÓN Y CONFIGURACIÓN DE SOFTWARE
Para la instalación del Sistema Operativo Windows Server 2008R2, se creó una partición
nueva con 100GB de espacio disponible en la maquina modelo, y se procedió a instalar el
Sistema Operativo Windows Server 2008R2 en ella. Dentro del proceso de instalación, el
sistema proporciona la opción de elegir qué edición del Sistema Operativo desea instalar,
entre las que se encuentran: Edición Professional Basic, Edición Professional Completa
Edición Estándar Basic, Edición Estándar Completa, Edición Premium Basic, Edición
Premium Completa, Edición DataCenter Basic y Edición DataCenter Completa, para
motivos de implementación y simulación del trabajo de un Servidor real, se seleccionó la
edición DataCenter versión Completa. El proceso de instalación del Servidor tardo
alrededor de veinte minutos, ahora el siguiente paso, consiste en instalar los drivers que
serán necesarios para el funcionamiento del servidor virtual y físico, drivers que sin los
cuales no funcionaría el servicio de red por ejemplo, en el caso del driver de la tarjeta de
red física del equipo modelo.
3.4.7.3 LEVANTAMIENTO DE HYPER-V EN EL S.O. HOST
Luego de que el Sistema Operativo Windows Server 2008R2, se encuentre instalado sin
inconvenientes, procederemos a activar e instalar la característica o el rol de virtualización
de Windows Server 2008 denominado Hyper-V mediante los siguientes pasos:
1. Acceder al administrador del Sistema Operativo, en la opción agregar roles. 2. Seleccionamos la opción de Hyper-V y dar clic en siguiente, en este punto es
importante destacar que esta opción se puede encontrar deshabilitada por dos
opciones; la primera si la arquitectura de hardware del procesador no es igual a 64
bits y la segunda, si la tecnología de virtualización del equipo se encuentra en modo
Disabled, o desactiva, para lo cual podremos activarla accediendo a la BIOS del
computador.3. Aceptar las condiciones y dar clic en instalar.4. El sistema requerirá el reinicio del equipo, para lo que le daremos clic en la opción
de aceptar para reiniciar el computador.
Sencillo, luego de estos pasos y si nuestro sistema no presenta ningún tipo de advertencias,
el Hyper-V de Windows Server 2008R2, estará listo para recibir los servidores virtuales que
desee mientras la capacidad del hardware lo disponga. Todos los servidores virtuales se
administraran en el Hyper-V Manager.
3.4.7.4 CREACIÓN Y CONFIGURACIÓN DE LA MÁQUINA VIRTUAL
Dentro de la interfaz de Hyper-V Manager, tenemos la opción de administrar cada una de
las máquinas virtuales existentes, así como configurar cada una de ellas, y en si es un
entorno muy completo para la administración virtual de los equipos creados. De esta
manera, para crear una máquina virtual, lo realizamos de la siguiente manera:
1. En la parte superior derecha se encuentra la opción de crear una nueva máquina
virtual, sobre la cual daremos clic.
2. A continuación se abre el asistente para crear una nueva máquina virtual en donde
procederemos al botón siguiente. 3. Luego ingresaremos el nombre que queremos darle a la máquina o servidor virtual,
y bajo esta la opción de elegir en donde deseamos almacenar dicho archivo.
Terminamos dando clic en siguiente.
4. El siguiente punto es la asignación de memoria, que debe ser considerada de
acuerdo a la siguiente formula: Total de Memoria Fisica – Total de Memoria Virtual
utilizada, es decir se deberá asignar en Megabytes que cantidad de memoria
queremos darle al servidor virtual en base a la cantidad de memoria sobrante que
tengamos, recordemos que no podemos asignar una cantidad de memoria que
nuestro equipo físico no posea. Damos clic en siguiente.
5. Luego nos pide elegir adaptador de red que deseemos conectar a nuestro servidor
virtual, en el caso que tengamos varios adaptadores virtuales, o en su defecto
elegiremos simplemente la opción ‘No conectado’.
6. Posteriormente el Asistente nos presenta tres opciones; la primera es si queremos
crear un Nuevo disco virtual para la máquina virtual; en cuyo caso colocaremos el
nombre del servidor y la ubicación en donde queremos guardar dicho disco virtual,
así como también el tamaño del virtual hard disk(vhd – disco duro virtual) en
Gigabytes, tomando en consideración el tamaño existente en el disco duro físico.
La segunda opción se refiere a Usar un disco duro virtual existente, es decir
tenemos la posibilidad de cargar el archivo .vhd que contiene toda la información de
otro servidor virtual. Esta opción es muy usada al momento de levantar un servidor
virtual en otro computador físico. La tercera y última opción consiste en conectar un
disco duro virtual más adelante. Para cualquiera de las tres opciones finalizaremos
dando clic en Siguiente.
7. Una vez especificado el tamaño de disco duro virtual y la capacidad en RAM que
tendrá el equipo virtual, el asistente nos solicitará instalar el Sistema Operativo del
Equipo virtual, lo cual lo podemos realizar en cuatro opciones: La primera
sencillamente es saltarme este paso seleccionando la opción Instalar un sistema
operativo más adelante. La segunda consiste en instalar el Sistema Operativo desde
una unidad óptica de arranque como un CD o DVD; para lo que elegiremos el
nombre de la unidad en donde ingresaremos el disco que contiene el Sistema
Operativo sea unidad F: , G: , etc. ; o también desde un archivo con extensión .iso o
archivo de imagen. La tercera opción es instalar el Sistema Operativo desde un
disquete de arranque, para ello debemos examinar dentro de nuestro directorio dicho
archivo con extensión .vfd. Para la cuarta opción debemos haber seleccionado un
adaptador de red virtual en el paso 5, como no elegimos ningún adaptador de red
esta opción se encontrará desactivada. Para continuar daremos clic en siguiente.
8. Finalmente el asistente mostrará la descripción de la máquina virtual que va a ser
creada. Habiendo constatado que todo lo establecido este correcto daremos clic en
finalizar.
De esta manera el Hyper-V Manager ha reservado un espacio en disco del computador y
está listo para funcionar dentro de él, al servidor al cuál queremos instalar, en este caso
Windows Server 2008R2, el cuál será instalado ya sea desde una imagen ISO o un DVD.
3.4.7.5 INSTALADOR DEL SERVIDOR VIRTUAL
3.4.7.5.1 INSTALACIÓN DEL SISTEMA OPERATIVO,
CONFIGURACIONES DE RED Y DRIVERS DEL SV.
Luego de configurada nuestra máquina virtual que almacenará al servidor que
vamos a virtualizar, procedemos a:
1. Encender la máquina virtual, dando doble clic en el nombre de la máquina
virtual.2. La máquina virtual comienza a cargar los componentes para el booteo y
arranque del sistema operativo. Debemos tener en cuenta que el DVD o la
imagen ISO se encuentren en el lugar correspondiente para iniciar el
proceso.3. Una vez que la máquina virtual arranca el Sistema Operativo a instalar sin
ningún tipo de inconvenientes, se inicia la instalación como si se estuviera
instalando en una máquina física cualquiera y se cumplen con los mismos
pasos. De esta razón volvemos a los mismos pasos para instalar Windows
Server 2008R2 para este acontecimiento en particular.
3.4.7.5.2 INSTALACIÓN DE APLICACIONES
Luego de que se ha creado nuestra máquina virtual, con los requerimientos de
hardware necesarios, y se haya instalado el Sistema Operativo que correrá dentro de
esta unidad virtual, procedemos a instalar las aplicaciones de software
complementarias, necesarias para el avance de la implementación. Es por ello que
avanzaremos con instalar dichos recursos en el siguiente orden:
1. Instalación de SQL Server 2008, por sus adicionales.2. Instalación de Visual Studio 2010.3. Instalación de Microsoft Office.
3.4.7.5.3 CONFIGURACIÓN DEL ISS
Tomando en consideración los argumentos prescritos en la Determinación del
Servidor a Virtualizar, que se encuentra en este mismo capítulo, debemos recordar
que el Servidor a Virtualizar será un Servidor de Aplicaciones WEB, en este caso en
particular, un servidor que abarcará los subsistemas de consulta de notas de los
estudiantes y el subsistema de consulta de libros de la biblioteca virtual de la
universidad. Por tal motivo nace la obligatoriedad de instalar las características
hábiles para un servidor de este tipo. Dichas características, son la instalación de
ISS (Internet Information Server), el cual es un servidor de internet de la marca de
Microsoft y que funciona como plataforma fundamental para un Servidor de
Aplicaciones Web.
El ISS se puede instalar de la misma manera en cómo se instala el Hyper-V, es decir
mediante roles. Para ello debemos:
1. Ingresar al Administrador de Servicios del Servidor Virtualizado y dar clic
en la opción de agregar roles.2. Elegir la característica ISS (Internet Information Server), y dar clic en
siguiente.
3. Aceptar las condiciones y dar clic en instalar. Una vez instalada esta
característica, el sistema deberá reiniciar sus servicios para completar la
instalación.
De esta manera el ISS se ha instalado correctamente en el Servidor Virtualizado que
se encuentra almacenado en una máquina virtual dentro del Windows Server
2008R2 instalado físicamente en nuestra laptop Sony Vaio. Podemos constatar dicha
instalación con solo abrir el explorador de internet y en la barra de direcciones
colocar la siguiente sentencia: http://localhost//, en donde debe aparecer la página
de bienvenida del ISS 7.1. en sus diferentes idiomas.
Otra manera de conocer que el servicio del ISS se ha instalado sin ningún
inconveniente es acceder al disco c:, y verificar la existencia de una carpeta
llamada, y dentro de la cual existe otra carpeta denominada wwwroot, en la cual se
almacenarán todos los sitios web que el Servidor de Aplicaciones dispondrá para
brindar los servicios determinados.
3.4.7.5.4 CREACIONES DE SITIOS WEB EN EL ISS
El siguiente paso consistirá en migrar los sitios web que permitirán visualizar el
servicio de consulta de notas y de biblioteca alojados en el servidor físico que se
encuentra en el Data Center de la Universidad. Esta migración se realizará de una
manera común, mediante un disco extraíble (pen drive), copiando y pegando los
archivos desde el servidor físico al servidor virtual en el directorio correspondiente.
Dicho directorio es el c:\inetinput\wwwroot\ en donde se alojarán todas las
aplicaciones webs.
Pero no basta con trasladar los archivos de aplicaciones web hábiles de consulta de
notas y biblioteca en el directorio correspondiente, sino también declarar estos
archivos como Sitios webs, por medio del ISS Administrator.
Para ello realizamos los siguientes cometidos:
1. Abrir el ISS Administrator del Servidor Virtual.
2. En la sección de Sitios Web, damos clic derecho, y seleccionamos la opción
Agregar Nuevo Sitio Web.3. Establecemos el nombre del sitio, y buscamos el directorio en el que se
encuentra el Sitio, de la misma manera seleccionamos la versión del .NET
Framework 4 y damos clic en Aceptar.
De esta manera levantamos los servicios de aplicaciones de él o los sitios web que
queramos levantar en nuestro Servidor Virtual. Para verificar que el Sitio Web ha
sido instalado en el ISS correctamente tendremos que acceder al explorador de
internet y en la barra de direcciones ubicar la siguiente dirección:
http://localhost/nombre_del_sitio_web, donde el nombre del sitio web es notas, para
el servicio de notas y biblioteca para el servicio de biblioteca.
3.4.7.6 CREACIÓN DE RED INTERNA
La red es un elemento fundamental, la buena ‘sintonía’ o configuración interna en primera
instancia entre los servidores virtuales y el servidor físico en el que estos se hospedan.
Tener una red bien definida, con direcciones IP y las puertas de enlaces indicadas significa
que el funcionamiento de nuestros servidores presentarán los menores errores posibles.
Es por ello que se debe especificar primeramente un adaptador de red virtual, dicha red, se
creará en el asistente de HYPER-V, en donde colocaremos un nombre de la red (virtual por
ejemplo), y el tipo de configuración correspondiente. Ubicada esta red, procederemos a
realizar test de red, o los populares ping, que consiste en verificar si al momento de hacer
una llamada al servidor virtual mediante su IP, desde el servidor, este responde a la petición
sin problemas. Tal hecho se ejecutó sin inconvenientes, tanto de la máquina física a la
virtual y viceversa, es más durante todo el proceso de implementación se compartió una
partición del disco duro para compartir archivos entre servidores, así mismo se puede
compartir cualquier tipo de recursos, tal cual como si funciona entre dos computadores
distintos.
3.4.7.7 PRUEBAS DEL SERVIDOR VIRTUAL
Varias son las instancias o pruebas que debe superar el Servidor Web, de menor a mayor
importancia tenemos:
3.4.7.7.1 PRUEBA INTERNA
La prueba interna es aquella que consiste en navegar en la página web desde el
servidor virtual en el que se encuentra instalado y configurado. Dentro del
navegador web, en su barra de direcciones colocamos la dirección
http://localhost/webprincipal, o http://localhost/notas,o http://localhost/biblioteca.,
de tal manera que deberán cargarse las respectivas páginas de estos sitios web.
Luego de esto procedemos a navegar por dichas páginas para detectar alguna
anomalía o falla; en la página de notas, por ejemplo comprobaremos su
funcionalidad con el ingreso de la cédula y el número de matrícula del estudiante y
deberían cargarse las notas de dichos estudiantes. De igual manera con la página de
la biblioteca, ingresando la materia, autor o el nombre del libro debería funcionar tal
cual como lo realiza el servidor físico de la PUCESE.
3.4.7.7.2 PRUEBA DE RED CON EL SERVIDOR FÍSICO
De igual manera realizamos la prueba del servicio del servidor de aplicaciones
desde el servidor hosting, que hospeda las máquinas virtuales por medio de la red
que se ha configurado.
La prueba consistirá en realizar los mismos procedimientos que se realizaron en el
servidor virtual es decir acceder mediante el navegador web, y colocar en la barra de
dirección, los siguientes enlaces:
http://DIRECCIÓN_IP_DEL_SERVIDOR_VIRTUAL_/webprincipal,
http://DIRECCIÓN_IP_DEL_SERVIDOR_VIRTUAL_/webprincipal,
http://DIRECCIÓN_IP_DEL_ SERVIDOR_VIRTUAL_/webprincipal ,
En donde DIRECCIÓN_IP_DEL_SERVIDOR_VIRTUAL, es la dirección IP que el
sistema le proporciona la máquina automáticamente si el tipo de configuración es
DHCP, o si es manual colocaremos la dirección que ingresamos, ej: 192.168.4.77
3.4.7.7.3 PRESENTACIÓN DE LA IMPLEMENTACIÓN DEL PROYECTO A ESTUDIANTES DE LA UNIVERSIDAD
Una vez que la prueba anterior funcionó correctamente, es solo cuestión de acceder
desde cualquier otro computador que se encuentre en la misma red, en la que se
encuentra conectado el servidor físico sobre el cual se encuentra el Servidor de
Aplicaciones Virtual. De esta manera se recurrió a la colaboración de 15 estudiantes
de Base de Datos 1 de la Universidad con el permiso de su profesor de materia y
también encargado del Departamento de Sistemas, Lcdo. Kleber Posligua.
La presentación se llevó a cabo el martes 25 de octubre del 2011 a partir de las 8y30
de la mañana en el laboratorio B de la Universidad. Se empezó exponiendo una
breve explicación de la tecnología, su funcionamiento y cuál es la propuesta de
implementarla en la Universidad. También se explicó que servidor ha sido
virtualizado y de qué manera funcionaría.
La prueba consistió en que cada estudiante accede desde su computador por medio
del navegador web a la página que se encuentra en el servidor virtualizado, y poder
realizar la mismas pruebas que realizamos tanto en el servidor físico como en el
servidor virtual, es decir ingresar a consultar sus notas o a la biblioteca virtual de la
universidad como lo harían desde el servidor físico, pero esta vez probamos con
estudiantes reales y pruebas reales.
3.4.7.7.4 EVIDENCIAS O ANEXOS DE LAS PRUEBAS DE APLICACIÓN
Lo oportuno de esta vivencia fue el compartir con los estudiantes experiencias y
conocimientos, tanto así que desarrollamos un ‘mini foro’ con preguntas y
respuestas por parte de los presentes.
Toda esta vivencia ha sido gradaba en video y fotos y está abierta para el público en
general en la página web del autor de este proyecto en la siguiente dirección:
http://www.elpisrubio.jimdo.com, en ella pueden observar completos los videos y
fotos de lo que fue este cometido.
3.5 ASPECTOS ADMINISTRATIVOS DE LA HERRAMIENTA QUE SE PROPONE
Si bien es cierto la implementación de la virtualización fue un éxito, y no produjo mayores
inconvenientes, más que el de invertir tiempo en virtualizar todos y cada uno de los
servidores existentes, pero para llevar este cometido, se hace indispensable que el hardware
que se utilice cumpla con otro tipo de características, debido a la demanda de los usuarios o
clientes y todo el sistema de control que debe ser instalado y configurado en cada servidor
virtual, es por ello que para que se lleve a cabo una virtualización a gran escala proponer
los siguientes puntos.
3.5.1 PROPUESTA DE RECURSOS
3.5.1.1 PROPUESTA DE HARDWARE
Es imprescindible contar con un equipo de hardware que soporte la
tecnología de virtualización y se encuentre al nivel de los grandes servidores,
por ello se describe un equipo con las siguientes características.
Procesador
Uno de los núcleos fundamentales (siendo el más importante) de la
Virtualización es el procesador. Se propone implementar un Procesador
marca Intel® tipo Xeon series 5500, ya que este dispositivo maximiza las
ventajas de Virtualización. Estos procesadores, son diseñados con exclusivas
funciones asistidas por hardware que optimizan el centro de datos virtual,
fortalecen las capacidades de intercambio tras fallas de máquinas virtuales,
el balanceo de carga y la recuperación tras desastres que es lo parte esencial
en los objetivos del tema o del Departamento de TIC’S para el rescate
inmediato de las tareas normales de los servidores.
Otra característica de este procesador es que ha sido diseñado con un mayor
ancho de banda de E/s para aumentar el desempeño de Virtualización y
facilitar la migración de VM (Máquinas Virtuales) de varias generaciones.
La tecnología del Intel® Xeon series 5500 ofrece una flexibilidad
inigualable en entornos virtualizados, permitiendo al Departamento de
Sistemas consolidar más aplicaciones y cargas de trabajo de mayor volumen
en cada servidor, es decir, aumentar el número de tareas y aplicaciones.
Este tipo de procesadores es el primero de su ‘especie’ y marca el inicio de
una nueva generación de procesadores, enfocados especialmente en la
tecnología de la Virtualización, mejorando el rendimiento de Virtualización
nativa de hasta 2.1x y reduce la latencia de ida y vuelta (tiempos de
respuesta) hasta la Virtualización 40 por ciento con tecnologías mejoradas de
hardware integrados tanto en el procesador Intel®, el chipset y el adaptador
de red, ayudando también a reducir los posibles cuellos de botella.
Características adicionales del Procesador de Intel.
Procesador Intel® VT FlexPriority: Cuando un procesador está realizando
una tarea, a menudo recibe peticiones o ‘interrupciones’ de otros dispositivos
o aplicaciones que requieren ser atendidas. Para minimizar el impacto en el
rendimiento, un registro especial en el procesador (APIC o TPR, Tarea
Prioritaria de Registro) controla la prioridad de las tareas, por lo que sólo las
interrupciones que dan una prioridad mayor que la tarea actualmente en
ejecución y recibir de forma instantánea la atención. El Intel FlexPriority
crea una copia virtual del TPR la cual puede ser leída o en algunos casos,
cambiar los sistemas operativos huéspedes sin intervención de Máquinas
Virtuales. Esto proporciona importantes mejoras de rendimiento para
Sistemas operativos de 32bits.
Procesador Intel® VT FlexMigration: una de las principales ventajas de la
Virtualización es la posibilidad de migrar las aplicaciones en ejecución física
de un servidor a otro sin tiempo de inactividad. FlexMigration Intel VT ha
sido diseñado para permitir a las migraciones sin fisuras entre los actuales y
futuros basados en procesadores Intel servidores. Con esta tecnología, los
Hipervisores pueden crear un conjunto coherente de instrucciones en todos
los servidores, en el campo de migración, lo que permite la migración sin
fallas de las cargas de trabajo.
El resultado es un conjunto más flexible y unificado de los recursos del
servidor que funciona sin problemas a través de generaciones de hardware.
El Chipset: Intel® VT-d: Esta herramienta aumenta velocidades de
movimiento de datos y elimina gran parte de rendimiento de gastos mediante
la reducción de la necesidad de la participación de VMM en la gestión de
E/S de tráfico.
MEMORIA RAM
La memoria RAM también cumple parte importante con la óptima
funcionalidad de cualquier tipo de servidor, más aún si hablamos de instalar
varios servidores en uno solo, siendo que este recursos (memoria RAM), así
como muchos otros serán compartidos entre los distintos servidores
existentes.
Un hecho fundamental a tomar en cuenta es los límites, es decir el número
de servidores que van a ser virtualizados dentro de este equipo, ya que la
memoria RAM es un recurso que puede ser alterable, entonces, teniendo
como frontera la instalación de 3 servidores virtuales dentro de nuestro
servidor físico, será necesario la instalación de un equipo con un mínimo de
16 GB de RAM para su óptimo funcionamiento, debido a las exigencias de
los usuarios y al tráfico de la red.
DISCO DURO
Al igual que el recurso de Memoria RAM que se vaya a utilizar, la capacidad
de almacenamiento del disco duro, también es relativo al número de
servidores virtuales que se implementen. Por ello se toma con
recomendación que se reserve un total de 200 GB por cada servidor virtual.
3.5.1.2 PROPUESTA DE SOFTWARE
Debemos tomar en cuenta que lo que propone este proyecto de tesis es la
virtualización de servidores en el Centro de Datos de la PUCESE, para
cumplir este cometido, existen múltiples herramientas con similares y
diferentes características entre sí.
En este caso en particular se recomienda aprovechar los recursos de software
existentes en la Universidad, y ahorrarnos un gasto adicional en la
adquisición de licencias como VMware, Parallels, etc., teniendo una
herramienta como Windows Server 2008R2 que contiene características y
ventajas que deben ser consideradas en este campo tecnológico, tomando en
cuenta que WS2008 se encuentra entre los tres primeros opciones de
virtualización en el mercado. Es por ello que se propone como primera
opción el uso de Windows Server 2008 con su herramienta HYPER-V.
3.5.2 COSTO DE ADQUISICIÓN
Los siguientes costos están sujetos a cambios y se obtuvieron en el sitio web de HP internacional.
ITEM SERIE - MODELO PRECIO FUENTE1 Procesador Intel Xeon Series
E5200(830 EUROS)
1 144.321
http://h10010.www1.hp.com/wwpc/es/es/sm/WF06b/15351-15351-3328412-241475-241475-3929672-5102054.html?exp=direct&jumpid=re_r10104_es/es/smb/tsg/promoindex-ot-xx-pu-selected_servers/chev-470065_491_12982/
8 Memoria DDR3
2 GB (73.07 c/u) 584.56 http://h41225.www4.hp.com/price_cat_rss/index.php?cc=es&ll=es&segment=ata-acc&showcat=Memorias
Disco Duro 500 GB 100.00
3.6 PLAN DE CONTIGENCIA.
Uno de los activos más importantes de una empresa, y hasta de un usuario común es la
Información. Sin embargo pocas veces se toman todas las medidas para protegerla, y un
desastre informático o de otro tipo puede hacerla perder para siempre.
Hoy, los procesos de comunicación productividad y manejo de información dependen casi
por completo de distintas tecnologías, y el flujo y la generación de información crece
exponencialmente año tras año. Por ello, la información, que se representa en documentos y
archivos que se alojan en los servidores de las empresas debe ser cada vez más relevante y
de mayor interés y precaución tomando todas las medidas que sean necesarias para
salvaguardar la misma. Si bien es cierto la Virtualización ahorra tiempo importante en lo
que respecta a la caída de un servidor, sencillamente con levantar un disco duro virtual en
cualquier otro computador.
3.6.1 DIFERENCIAS ENTRE LEVANTAR UN SERVIDOR FISICO Y UN
SERVIDOR VIRTUAL.
Levantar un servidor virtual es mucho más sencillo que levantar un servidor real, ya
que no dependemos de ningún hardware específico y podemos arrancar la máquina
virtual desde cualquier otro servidor del que dispongamos y solucionar
temporalmente el fallo.
Es por ello que se presenta a continuación un plan de contingencia que detalla los
pasos para superar un desastre informático mediante la Virtualización.
3.6.2 ALTA DISPONIBILIDAD
La alta disponibilidad es un protocolo de diseño del sistema y su implementación
asociada que asegura un cierto grado absoluto de continuidad operacional durante
un periodo de medición dado. Es decir la Alta Disponibilidad es el resultado de que
los usuarios puedan acceder al sistema, someter nuevos trabajos, actualizar o alterar
trabajos existentes o recoger los resultados de trabajos previos. En el instante que un
usuario no pueda acceder al sistema o servicio se dice que este no está disponible
por lo que su producción o calidad de servicio es pobre.
La Virtualización eleva la característica de alta disponibilidad dentro de una
empresa, debido a que si un servidor ha sido levantado no solo físicamente sino
también virtualmente, y este conjuntamente enlazado con la técnica de replicación
de datos, este asegurara un rendimiento más duradero y de menor tiempo de
respuesta en el momento que ocurra un fallo o suceso inesperado con el servidor
físico, ya que en el instante que el servidor físico sufra una falla, ya sea por
memoria, disco duro, fuente de energía o cualquier inconveniente físico, bastará con
levantar nuestro servidor virtual (que preferiblemente estará ubicado en otro
computador), en cuestión de minutos, devolviendo el servicio a los usuarios, o hasta
en algunos casos dependiendo de las herramientas que se utilicen el usuario tendrá
la menor percepción de lo ocurrido y trabajará como que si nada hubiera pasado. Es
decir para el usuario el problema será invisible.
En el momento de que se haya implementado la tecnología de la virtualización; con
los recursos de hardware detallados anteriormente, dentro del Centro de Datos de la
universidad surge la oportunidad de poner en funcionamiento la Alta
Disponibilidad, elemento cumbre de todo DataCenter, eh aquí una razón más por lo
que este proyecto debe llevarse a cabo.
3.6.2 REPLICACIÓN DE SERVIDORES
La replicación es una buena solución para el problema de mover datos entre
servidores conectados de forma continua o en caliente (en directo). Consiste en
copiar de forma automática información entre 2 servidores conectados en una red,
con la finalidad de mantener un respaldo y librarse de posibles desastres, es muy útil
para estos casos.
Dentro de un ambiente virtual la replicación de servidores se convierte en un
mecanismo que no debe dejarse pasar por alto, debido a que resultado de este, es la
alta disponibilidad que con lleva y de esta manera también forma parte de un plan
de contingencia.
CAPITULO 4:
ANÁLISIS DE IMPACTOS
Los niveles de impacto se califican numéricamente con la siguiente serie:
-3 Impacto Alto negativo
-2 Impacto Medio negativo
-1 Impacto Bajo negativo
0 No hay impacto
1 Impacto Bajo positivo
2 Impacto Medio positivo
3 Impacto Alto positivo
4.1IMPACTO TECNOLÓGICO
Matriz de Impactos
NivelIndicadores
-3 -2 -1 0 1 2 3
Implementación de Tecnología de Punta
X
Aprovechamiento al máximo de las herramientas existentes.
X
Elevar el DataCenter de la PUCESE al más alto nivel
X
TOTAL 9
∑ = 9
Nivel de Impacto Tecnológico =
Nivel de Impacto Tecnológico =
Nivel de Impacto Tecnológico = 3
Nivel de Impacto Tecnológico = Alto positivo
∑
Número de indicadores
9
3
Análisis del Impacto Tecnológico
Sin duda alguna la puesta en marcha de esta tecnología resalta el concepto en como la
Universidad Católica Sede en Esmeraldas, particularmente el Departamento de Sistemas,
maneja los procesos de gestión y administración de la información y de los servicios a los
usuarios de la manera. Hoy en día las empresas apuntan a trabajar con herramientas de
última generación para aprovechar sus beneficios.
La Virtualización está copando todos (por no decir que ya lo ha hecho) los Centros de
Datos del mundo por las muchas ventajas que esta trae, y la Universidad no puede ser
excepción de ello, peor aún ser expectante de la misma, debe ser pionera en todos los
servicios que brinda, administración, finanzas, servicio al público, rol educativo, etc.
Estamos en la era de la información y luego del recurso humano, el recurso más importante
de una empresa es la información y esta debe encontrarse sustentada con la mejor seguridad
y acceso, esta solo se consigue con la implementación de tecnología de último momento, ya
que permiten facilitar las tareas a los trabajadores.
4.2 IMPACTO ECOLÓGICO
Matriz de Impactos
NivelIndicadores
-3 -2 -1 0 1 2 3
Disminución del consumo de energía de los equipos.
X
Disminución del consumo de energía de los sistemas de
acondicionamiento de temperaturaX
Aporte a la disminución del Calentamiento Global
X
TOTAL 9
∑ = 9
Nivel de Impacto Tecnológico =
Nivel de Impacto Tecnológico =
Nivel de Impacto Tecnológico = 3
Nivel de Impacto Tecnológico = Alto positivo
Análisis del Impacto Ecológico
El aporte al medio ambiente se debe realizar en todas las áreas de trabajo o departamentos
existentes en una empresa, organización o institución como es la Universidad, y sin duda
∑
Número de indicadores
9
3
alguna la tecnología de Virtualización aporta de gran manera en este punto, ya que el
permitir contener 3 servidores independientes en un solo equipo físico disminuye el
consumo de energía o emisión de CO2 al ambiente, si hablamos de manera general que
nuestro Centro de Datos cuenta con 15 servidores, de los cuales el 5 de ellos son servidores
virtualizados, es decir gracias a la virtualización, el 30% del total de mis servidores no
consume energía, podemos hablar de la misma relación con un número de 50 o más
servidores en una empresa mayor, resulta significativo el ahorro de energía y
contaminación al planeta.
De igual manera el consumo de energía y el grado de contaminación que este emita, es el
sistema de enfriamiento que está relacionado al calentamiento de los equipos de cómputo o
servidores que surge de la sumatoria total de los mismos. Es obligatorio que el sistema de
enfriamiento que se utilice deba mantener una temperatura ideal (relacionados al total de
equipos físicos), acorde a los estándares ISO que regulan los DataCenter.
4.3 IMPACTO EDUCATIVO
Matriz de Impactos
NivelIndicadores
-3 -2 -1 0 1 2 3
Inclusión como asignatura a la Virtualización
X
Enseñanzas a los estudiantes del funcionamiento de la tecnología en los servicios de la Universidad que
ellos mismos utilizan
X
Formar estudiantes a la vanguardia dela tecnología de último minuto,
no solo en las aulas, sino en la práctica
X
TOTAL 9
∑ = 9
Nivel de Impacto Tecnológico =
Nivel de Impacto Tecnológico =
Nivel de Impacto Tecnológico = 3
Nivel de Impacto Tecnológico = Alto positivo
Análisis del Impacto Educativo
La Virtualización no solo debe brindar una respuesta a los beneficios administrativos de una
organización o empresa, sino también debe darse a conocer a sus usuarios, más aún a
∑
Número de indicadores
9
3
entidades educativas como es el caso de nuestra Universidad, la cual siempre está
preocupada por brindar los conocimientos de último momento a sus estudiantes para que de
esta manera puedan formar profesionales al mismo nivel en que la tecnología actual se
mueve, y cuando incursionen en el ámbito laboral, brinde soluciones con tecnología de
punta para resolver los problemas del mundo real.
Una adición de la Virtualización como asignatura en el pensum de la especialidad de
Ingeniería en Sistemas y Computación sería un gran acierto por parte de los rectores y
directores académicos responsables, debido a que por palabras de los entrevistados y
expertos en la materia, quién no sabe virtualización está perdido.
4.3 IMPACTO ECONÓMICO
Matriz de Impactos
NivelIndicadores
-3 -2 -1 0 1 2 3
Ahorro de costos en la adquisición de dos o más servidores, tanto por
su adquisición, ubicación e instalación, como por su consumo
de energía.
X
Ahorro de costos en la administración, respecto a la
disminución de tiempos de paradas frente a interrupciones y desastres.
X
Inversión justificable en la adquisición de un solo servidor con
un costo superior a un servidor estándar e inferior dos o más
servidores estándar
X
TOTAL 2 6
∑ = 9
Nivel de Impacto Tecnológico =
Nivel de Impacto Tecnológico =
Nivel de Impacto Tecnológico = 2.67 =3
Nivel de Impacto Tecnológico = Alto positivo
Análisis del Impacto Económico
En toda empresa se busca ahorrar costos y aumentar ganancias o beneficios, y la virtualización es
una ayuda alternativa que permite alcanzar este objetivo satisfactoriamente. Se ha comprobado que
el ahorro de valores monetarios funciona con la aplicación de la virtualización, desde la adquisición
de un computador en vez de 3 o más, el costo en espacio que necesitaría para instalar tres equipos
∑
Número de indicadores8
3
físicos distintos, a diferencia de la virtualización en el que se puede tener uno solo almacenando a
los tres.
La empresa que haga uso de la virtualización no solo ahorrará dinero en la adquisición de múltiples
equipos, o en el pago de un menor consumo de energía eléctrica, sino también en la disminución de
los tiempos de parada ante desastres voluntarios o involuntarios que se produzcan dentro de la
organización. El uso de la virtualización posibilita la alta disponibilidad de servicios, es decir
tendremos la posibilidad de cumplir con la disponibilidad absoluta de los servicios que la
universidad tanto a su personal interno como son las áreas financieras y contables que trabajan con
transacciones monetarias diariamente y no pueden para sus actividades por un problema que
provenga del DataCenter de la universidad ya que perderían dinero y oportunidades de negocios en
instantes. Estos beneficios también se visualizan a los usuarios externos, como posibles estudiantes
u organizaciones que a futuro se convertirían en clientes de la organización y aumentarían los
ingresos de la universidad.
MATRIZ DE IMPACTO GENERAL
Matriz de Impactos
NivelIndicadores
-3 -2 -1 0 1 2 3
Impacto Tecnológico XImpacto Ambiental XImpacto Educativo XImpacto Económico X
TOTAL 12
∑ = 9
Nivel de Impacto Tecnológico =
Nivel de Impacto Tecnológico =
Nivel de Impacto Tecnológico = 3
Nivel de Impacto Tecnológico = Alto positivo
Por medio de esta matriz general podemos evidenciar que la tecnología de Virtualización
declara un impacto de nivel 3(tres), es decir Alto Positivo, lo que libera de toda duda los
maravillosos beneficios que se obtienen al implementar estas Ciencias Aplicadas en el
ámbito informático dentro de nuestra universidad por lo que es muy aconsejable meditar
esta situación y declinar a la aceptación de que la Virtualización sea una realidad latente en
nuestra universidad.
∑
Número de indicadores
12
4
CONCLUSIONES Y RECOMENDACIONES
CONCLUSIONES
La virtualización no es una tecnología de la cual se puede tener como opción, por el
contrario es un elemento indispensable a la que hoy en día todas las empresas hacen uso
de ella, para gozar de sus ventajas.
Es importante aprovechar las bondades que la tecnología brinda en lo que al excelente funcionamiento de una empresa o institución se refiere, más aún si estas nos permiten ahorrar costos como energía eléctrica, espacio físico, etc., y aumentar beneficios como la alta disponibilidad de los servicios informáticos en cualquier área de la organización..
Uno de los elementos más importantes dentro de toda empresa, institución u organización, de cualquier tipo, clase o constitución a la que pertenezca, es sin duda la información, y más aún si nos encontramos en la era conocida como la era de la información, esta información que va asociada a recursos informáticos que la hacen rápida, segura y confiable, por ello es fundamental que se tomen las medidas necesarias para que dicho elemento sea integral en todos los sentidos y la virtualización aporta con ello, pasando a ser una herramienta tecnológica a una herramienta administrativa.
S
•
RECOMENDACIONES
Unas 4
BIBLIOGRAFÍA
FUENTE DE INFORMACIÓN WEB
• http://www.microsoft.com/en-us/server-cloud/windows-server/defa ult.aspx
• http://diario.carolinaquintana.info/web/nota.php?iENC_ID=10841 • http://www.cerocomputer.net/index.php?
option=com_content&view=article&id=96&Itemid=86• http://www.youtube.com/watch?NR=1&v=rO03Pit5pjQ • http://es.wikipedia.org/wiki/Direcci%C3%B3n_IP •
GLOSARIO
HYPERVISOR.- es una plataforma que permite aplicar diversas técnicas de control de
virtualización para utilizar, al mismo tiempo, diferentes sistemas operativos en una misma
computadora.
SOFTWARE.- Se refiere a la parte lógica de un equipo informático, es decir, lo que no se
puede palpar ni sentir, es la parte que maneja el funcionamiento del equipo, o también
conocido como sistema.
BITLOCKER.- Es una función de encriptación de datos, que aplica algoritmos de cifrado
de volúmenes de datos específicos, pudiendo bloquear valiosos datos.
PING.- Proviene de las iniciales en español Buscador o rastreador de paquetes en redes. Es
decir es una sentencia de código que se utiliza en el símbolo del sistema (cmd) y permite
conocer si uno o varios equipos se encuentran conectados en una misma red a través de la
llamada de su dirección IP(protocolo de internet).
ANEXOS
FICHA DE OBSERVACIÓN – Al Depto. De Sistemas de la PUCESE
Servidor Aplicaciones o Servicios
Marca Modelo
RAM Procesador
Disco Duro
Sistema Operativ
o
Virtualizado
(Si/No)
Lo antes expuesto se realizó a fecha de ………….…….. de………… del 2011
PONTIFICIA UNIVERSIDAD CATÓLICA DEL ECUADOR
SEDE ESMERALDAS
La siguiente es una encuesta dirigida al Personal Administrativo de la PUCESE, por motivo de obtener la información necesaria para la Implementación de Servidores Virtuales en el Departamento de Sistemas, cuyo mención es el tema de Tesis del Estudiante Elpis Rubio Ramos. Sírvase responder con un visto a cada pregunta, y si alguna inquietud tiene aquí estaré para aclarársela. Gracias.
1) En su trabajo, ¿Qué sistema utiliza para cumplir sus actividades laborales?Sistema de ContabilidadSistema de Académico - registro de notasSistema de Solicitud de créditos y MatrículasSistema de Roles de PagosSistema de cobro de Aranceles UniversitariosOtro ______________________
2) ¿Cuál considera Ud. La aplicación más importante en el manejo de información de la Universidad?
Sistema de ContabilidadSistema de Académico - registro de notasSistema de Solicitud de créditos y Matrículas Sistema de Roles de Pagos Sistema de cobro de Aranceles Universitarios
Otro ___________________________¿Porqué?_________________________________________________________________________________________________________________________________________________________________________________________
3) ¿Cuáles son los programas con los que encuentra inconvenientes frecuentemente?Sistema de Contabilidad Sistema de Académico - registro de notasSistema de Solicitud de créditos y MatrículasSistema de Roles de PagosSistema de cobro de Aranceles Universitarios Otro ______________________________
4) ¿Cuán a menudo se presentan interrupciones por fallas en el servicio de Correo Electrónico?
Siempre Casi SiempreRara vez Nunca
5) ¿Cuán a menudo se presentan interrupciones por fallas en el servicio de Internet?
(ANEXO 1)
(ANEXO 2)
Siempre Casi SiempreRara vezNunca
6) ¿Cuán a menudo se presentan interrupciones por fallas en la aplicación o Sistema que Ud. Utiliza?
SiempreCasi SiempreRara vezNunca
7) ¿Cree Ud. que estas interrupciones traen perdidas a la Universidad?Si ( ) No ( )
¿De qué tipo? (Puede elegir varias)Económicas Tiempo Personales Organizacionales Otro ________________
8) De manera general, al momento de que ocurre un problema en el Sistema que Ud. Utiliza, ¿Cuánto tiempo le lleva al Departamento de Sistemas resolverlo….
(Elija solo una)
Entre 5 y 10 minutos? Entre 30 minutos y Una hora?Entre 10 y 30 minutos? Más de una hora? Pasadas las 24 horas
ENTREVISTA – Jefe de Departamento de Sistemas
1. ¿Por qué son importantes los servidores dentro de las actividades cotidianas de la Universidad?2. ¿Se realizan planes técnicos de mantenimiento preventivo para los servidores? ¿Con que
periodo lo realizan?3. ¿Existe la posibilidad de implementar nuevos servidores a futuro? ¿Qué servidores tienen en
mente instalar?4. ¿Existen planes de emergencia en caso de desastres en los servidores?
5. ¿Cuáles son los procedimientos que se siguen al momento de que ocurre una interrupción en un Servidor?
1) ____________________________________________________________________________________________________________________
2) ____________________________________________________________________________________________________________________
3) ____________________________________________________________________________________________________________________
4) ____________________________________________________________________________________________________________________
6. ¿Cuáles son los inconvenientes que se presentan actualmente en los servidores y pueden convertirse en verdaderos problemas más tarde? ¿Por qué?
7. ¿Cuáles son los motivos más frecuentes por lo que ocurren los tiempos de paradas de los Usuarios(o interrupciones de servidores)?
8. En promedio, ¿Cuánto tiempo se tarda en levantar un servidor luego de que ha sufrido una interrupción?
9. En breves palabras, para Ud., ¿Qué es Virtualización?
10.¿Cree Ud. Que la virtualización traería grandes ventajas a las actividades del Departamento? ¿Por qué?
11.¿Con que facilidades cuenta la Universidad para llevar a cabo la implementación de Servidores Virtuales en el Departamento de Sistemas?
12.¿Qué le parece la propuesta de implementar Servidores Virtuales en el Departamento de Sistemas de la PUCESE?
13.
(ANEXO 3)