View
127
Download
0
Category
Preview:
Citation preview
INVESTIGACIÓN
JORGE VERGARA
SINDY MONTERROSA
DARY ELENA OCHOA
Tutora:
NATALIA MARTÍNEZ
Asignatura:
INFORMATICA III
Grupo:
BACHILLERES ACADÉMICOS
UNIVERSIDAD COOPERATIVA DE COLOMBIA
LICENCIATURA CON ÉNFASIS EN TECNOLOGÍA E INFORMÁTICA
II SEMESTRE
CAUCASIA – ANTIOQUIA
28 de Abril de 2012
INFORMATICA
1. ¿Realice una investigación sobre las 5 generaciones de los
computadores?
Las primeras computadoras eran verdaderos gigantes, como la ENIAC. Las
siglas de ENIAC corresponden a ElectronicNumericalIntegrator and
Computer fue el nombre que recibió la primera computadora electrónica que
en 1943 comenzaron a construir John W. Mauchly y John P. Eckert en la
universidad de Pensilvania (EE.UU.). Esta enorme máquina medía más de
30 metros de largo y pesaba 32 toneladas, estaba compuesta por 17.468
válvulas. El calor de las válvulas elevaba la temperatura de la sala donde se
hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones
para las que se había diseñado.
Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había
terminado. El fin de la contienda hizo que los esfuerzos hasta entonces
dedicados principalmente a objetivos militares, se destinaran también a otro
tipo de investigación científica más relacionada con las necesidades de la
empresa privada. Los esfuerzos múltiples dieron resultados en 1945
Mauchly y Eckert comenzaron a trabajar en una sucesora de la ENIAC, el
EDVAC (ElectronicDiscrete Variable AutomaticComputer) y Aiken inició el
diseño de la Mark II. En 1951, el que está considerado como la primera
computadora ampliamente comercializada, la UNIVAC I , comenzó a
funcionar con éxito. En 1952 John Neumann y Herman Goldstine
construyeron la computadora IAS, que incorporaba notables mejoras al
respecto a sus predecesoras. En 1928 la empresa Fairchild y Texas
Instruments produjeron los primeros circuitos integrados basados en
semiconductores y en 1962, Steven Russell creó el primer juego para
computadoras. Se llamaba Spacewar y desde la evolución ha sido continua.
En 1952 la computadora UNIVAC se utilizó para realizar el recuento de
votos en las elecciones presidenciales de EE.UU. El resultado victoria
(Eisenhower sobre Adlai Stevenson) se conoció 45 minutos después de que
se cerraran los colegios electorales
Primera Generación: (1.940-1.952): En esta etapa las computadoras
funcionaban con válvulas y se utilizaban exclusivamente en el ámbito
científico o militar. La programación implicaba la modificación directa de los
valores de los circuitos de las máquinas, con el consecuente gasto de
tiempo y esfuerzo.
Segunda Generación: (1959-1964) Transistor Compatibilidad Limitada: El
invento del transistor hizo posible una nueva Generación de computadoras,
más rápidas, más pequeñas y con menores necesidades de ventilación. Sin
embargo el costo seguía siendo una porción significativa del presupuesto de
una Compañía. Las computadoras de la segunda generación también
utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para
el almacenamiento primario. Estos núcleos contenían pequeños anillos de
material magnético, enlazados entre sí, en los cuales podían almacenarse
datos e instrucciones.
Los programas de computadoras también mejoraron. El COBOL
desarrollado durante la 1era generación estaba ya disponible
comercialmente. Los programas escritos para una computadora podían
transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no
requería entender plenamente el hardware de la computación.
Las computadoras de la 2da Generación eran sustancialmente más
pequeñas y rápidas que las de bulbos, y se usaban para nuevas
aplicaciones, como en los sistemas para reservación en líneas aéreas,
control de tráfico aéreo y simulaciones para uso general. Las empresas
comenzaron a aplicar las computadoras a tareas de almacenamiento de
registros, como manejo de inventarios, nómina y contabilidad.
La marina de E.U. utilizó las computadoras de la Segunda Generación para
crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como
el primer competidor durante la segunda generación de computadoras.
Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores
de IBM durante los 60s se conocieron como el grupo BUNCH.
Tercera generación de la computadora
Tercera generación de computadoras (1964-1971): A mediados de
los años 60 se produjo la invención del circulo integrado o microchip, por
parte de Jack St. clairekilby y robertnoise. Después llevó a tedhoff a la
invención del hols en Intel. A finales de 1960, investigadores
como gerogegamow notó que las secuencias de nucleótidos en el ADN
formaban un código, otra forma de codificar o programar.
A partir de esta fecha, empezaron a empaquetarse
varios transistores diminutos y otros componentes electrónicos en un solo
chip o encapsulado, que contenía en su interior un circuito completo: un
amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos
chips (circuitos integrados) era mucho más fácil montar aparatos
complicados: receptores de radio televisión y computadora. En 1965,
IBM anunció el primer grupo de máquinas construidas con circuitos
integrados, que recibió el nombre de serie 360.
Estas computadoras de tercera generación sustituyeron totalmente a los
de segunda, introduciendo una forma de programar que aún se mantiene en
las grandes computadoras actuales. Esto es lo que ocurrió en (1964-1974)
que comprende de la Tercera generación de computadoras:
Menor consumo de energía
Apreciable reducción del espacio
Aumento de fiabilidad
Teleproceso
Multiprogramación
Renovación de periféricos
Minicomputadoras, no tan costosas y con gran capacidad de
procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-
11
Cuarta Generación: Se generalizó el microchip. Esto dio lugar a las
máquinas de menor tamaño y costo, cada vez más poderosas. Nacieron las
computadoras personales, la primera fue la APPLE desarrollada en 1976.En
1981 IBM lanzó su pc con una arquitectura abierta que permitía integrar
componentes de otros fabricantes.
Quinta Generación: La quinta generación de computadoras, también
conocida por sus siglas en inglés, FGCS
(de FifthGenerationComputerSystems) fue un ambicioso proyecto propuesto
por Japón a finales de la década de 1970. Su objetivo era el desarrollo de
una nueva clase de computadoras que utilizarían técnicas y tecnologías
de inteligencia artificial tanto en el plano del hardware como del software,
usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían
capaces de resolver problemas complejos, como la traducción
automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
Como unidad de medida del rendimiento y prestaciones de estas
computadoras se empleaba la cantidad de LIPS (LogicalInferences Per
Second) capaz de realizar durante la ejecución de las distintas tareas
programadas. Para su desarrollo se emplearon diferentes tipos de
arquitecturas VLSI (VeryLargeScaleIntegration).
El proyecto duró once años, pero no obtuvo los resultados esperados:
las computadoras actuales siguieron así, ya que hay muchos casos en los
que, o bien es imposible llevar a cabo una paralelización del mismo, o una
vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los
casos, se produce una pérdida de rendimiento. Hay que tener claro que para
realizar un programa paralelo debemos, para empezar, identificar dentro del
mismo partes que puedan ser ejecutadas por separado en
distintos procesadores. Además, es importante señalar que un programa
que se ejecuta de manera secuencial, debe recibir numerosas
modificaciones para que pueda ser ejecutado de manera paralela, es decir,
primero sería interesante estudiar si realmente el trabajo que esto conlleva
se ve compensado con la mejora del rendimiento de la tarea después de
paralelizarla
2. ¿Qué es un sistema operativo?, mencione 5 de ellos
Un sistema operativo (SO): Es un programa o conjunto de programas que en
un sistema informático gestiona los recursos de hardware y provee servicios
a los programas de aplicación, y se ejecuta en modo privilegiado respecto
de los restantes.
Nótese que es un error común muy extendido denominar al conjunto
completo de herramientas sistema operativo, es decir, la inclusión en el
mismo término de programas como el explorador de ficheros, el navegador
web y todo tipo de herramientas que permiten la interacción con el sistema
operativo, también llamado núcleo o kernel. Esta identidad entre kernel y
sistema operativo es solo cierta si el núcleo es monolítico. Otro ejemplo para
comprender esta diferencia se encuentra en la plataforma Amiga, donde
el entorno gráfico de usuario se distribuía por separado, de modo que,
también podía reemplazarse por otro, como era el caso de directory Opus o
incluso manejarlo arrancando con una línea de comandos y el sistema
gráfico. De este modo, al arrancar un Amiga, comenzaba a funcionar con
el propio sistema operativo que llevaba incluido en una ROM, por lo que era
cuestión del usuario decidir si necesitaba un entorno gráfico para manejar el
sistema operativo o simplemente otra aplicación. Uno de los más
prominentes ejemplos de esta diferencia, es el núcleo Linux, usado en las
llamadas distribuciones Linux, ya que al estar también basadas en Unix,
proporcionan un sistema de funcionamiento similar. Este error de precisión,
se debe a la modernización de la informática llevada a cabo a finales de los
80, cuando la filosofía de estructura básica de funcionamiento de los
grandes computadores2 se rediseñó a fin de llevarla a los hogares y facilitar
su uso, cambiando el concepto de computador multiusuario, (muchos
usuarios al mismo tiempo) por un sistema monousuario (únicamente un
usuario al mismo tiempo) más sencillo de
gestionar. AmigaOS, beOS oMacOS como los pioneros de dicha
modernización, cuando los Amiga fueron bautizados con el sobrenombre
de Video Toasters5 por su capacidad para la Edición de vídeo en
entorno multitarea round robin, con gestión de miles de colores e interfaces
intuitivos para diseño en 3D.
Uno de los propósitos del sistema operativo que gestiona el
núcleo intermediario consiste en gestionar los recursos de localización y
protección de acceso del hardware, hecho que alivia a los programadores de
aplicaciones de tener que tratar con estos detalles. La mayoría de aparatos
electrónicos que utilizan microprocesadores para funcionar, llevan
incorporado un sistema operativo. (Teléfonos móviles, reproductores de
DVD, computadoras, radios, enrutadores, etc). En cuyo caso, son
manejados mediante una Interfaz Gráfica de Usuario, un gestor de
ventanas o un entorno de escritorio, si es un celular, mediante una consola
o control remoto si es un DVD y, mediante una línea de comandos o
navegador web si es un enrutador.
WINDOWS XP
WINDOWS VISTA
WINDOWS SEVEN
LINUX
MAC OS
3. ¿Qué es internet?
Internet es un conjunto descentralizado de redes de
comunicación interconectadas que utilizan la familia de protocolos TCP/IP,
garantizando que las redes físicas heterogéneas que la componen funcionen
como una red lógica única, de alcance mundial. Sus orígenes se remontan
a 1969, cuando se estableció la primera conexión de computadoras,
conocida como ARPANET, entre tres universidades en California y una
en Utah, Estados Unidos.
Uno de los servicios que más éxito ha tenido en Internet ha sido la World
Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión
entre ambos términos. La WWW es un conjunto de protocolos que permite,
de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un
desarrollo posterior (1990) y utiliza Internet como medio de transmisión.
Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de
la Web: el envío de correo electrónico (SMTP), la transmisión de archivos
(FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y
presencia, la transmisión de contenido y comunicación multimedia -
telefonía(VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP),
el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea
4. ¿Defina que es web 2.0 vs web 3.0? Realice un cuadro comparativo en
la herramienta cmaptools.
EL TÉRMINO WEB 2.0
Está asociado a aplicaciones web que facilitan el compartir información,
la interoperabilidad, el diseño centrado en el usuario y la colaboración en
la World Wide Web. Un sitio Web 2.0 permite a los usuarios interactuar y
colaborar entre sí como creadores de contenido generado por usuarios en
una comunidad virtual, a diferencia de sitios web donde los usuarios se
limitan a la observación pasiva de los contenidos que se ha creado para
ellos. Ejemplos de la Web 2.0 son las comunidades web, los servicios web,
las aplicaciones Web, los servicios de red social, los servicios de alojamiento
de videos, las wikis, blogs, mashups y folcsonomías.
El término Web 2.0 está asociado estrechamente con Tim O'Reilly, debido a
la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el
término sugiere una nueva versión de la World Wide Web, no se refiere a
una actualización de las especificaciones técnicas de la web, sino más bien
a cambios acumulativos en la forma en la que desarrolladores de
software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es
cualitativamente diferente de las tecnologías web anteriores ha sido
cuestionado por el creador de la World Wide Web Tim Berners-Lee, quien
calificó al término como "tan sólo una jerga"- precisamente porque tenía la
intención de que la Web incorporase estos valores en el primer lugar.
Tim Berners y Robert Cailliau crearon la web alrededor de 1990, durante
estas dos últimas décadas ha sufrido una evolución extraordinaria y
asombrosa, apareciendo en 2004 el concepto de Web 2.0 fruto de esta
evolución.
Antes de la llegada de las tecnologías de la Web 2.0 se utilizaban páginas
estáticas programadas en HTML (Hyper Text Markup Language) que no
eran actualizadas frecuentemente. El éxito de las .com dependía de webs
más dinámicas (a veces llamadas Web 1.5) donde los sistemas de gestión
de contenidos servían páginas HTML dinámicas creadas al vuelo desde
una base de datos actualizada. En ambos sentidos, el conseguir hits (visitas)
y la estética visual eran considerados como factores.
Los teóricos de la aproximación a la Web 2.0 piensan que el uso de la web
está orientado a la interacción y redes sociales, que pueden servir contenido
que explota los efectos de las redes, creando o no webs interactivas y
visuales. Es decir, los sitios Web 2.0 actúan más como punto de encuentro o
webs dependientes de usuarios, que como webs tradicionales.
EL TERMINO WEB 3.0
Es una expresión que se utiliza para describir la evolución del uso y la
interacción de las personas en internet a través de diferentes formas entre
los que se incluyen la transformación de la red en una base de datos, un
movimiento social hacia crear contenidos accesibles por múltiples
aplicaciones non-browser, el empuje de las tecnologías de inteligencia
artificial, la web semántica, la Web Geoespacial o la Web 3D. La expresión
es utilizada por los mercados para promocionar las mejoras respecto a
la Web 2.0. Esta expresión Web 3.0 apareció por primera vez en 2006 en un
artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías
como AJAX. Actualmente existe un debate considerable en torno a lo que
significa Web 3.0, y cuál sea la definición más adecuada.
Las tecnologías de la Web 3.0, como programas inteligentes, que
utilizan datos semánticos, se han implementado y usado a pequeña escala
en compañías para conseguir una manipulación de datos más eficiente. En
los últimos años, sin embargo, ha habido un mayor enfoque dirigido a
trasladar estas tecnologías de inteligencia semántica al público general.
El primer paso hacia la "Web 3.0" es el nacimiento de la "Data Web", ya que
los formatos en que se publica la información en Internet son dispares,
como XML, RDF y microformatos; el reciente crecimiento de la
tecnología SPARQL, permite un lenguaje estandarizado y API para la
búsqueda a través de bases de datos en la red. La "Data Web" permite un
nuevo nivel de integración de datos y aplicación inter-operable, haciendo los
datos tan accesibles y enlazables como las páginas web. La "Data Web" es
el primer paso hacia la completa “Web Semántica”. En la fase “Data Web”, el
objetivo es principalmente hacer que los datos estructurados sean
accesibles utilizando RDF. El escenario de la "Web Semántica" ampliará su
alcance en tanto que los datos estructurados e incluso, lo que
tradicionalmente se ha denominado contenido semi-estructurado
(como páginas web, documentos, etc.), estén disponibles en los formatos
semánticos de RDF y OWL.
CUADRO COMPARATIVO
5. ¿Qué es inteligencia artificial?
La Inteligencia Artificial es una combinación de la ciencia del computador,
fisiología y filosofía, tan general y amplio como eso, es que reúne varios
campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen
en común la creación de máquinas que pueden pensar.
La idea de construir una máquina que pueda ejecutar tareas percibidas
como requerimientos de inteligencia humana es un atractivo. Las tareas que
han sido estudiadas desde este punto de vista incluyen juegos, traducción
de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica,
suministro de asesoría experta en diversos temas.
Es así como los sistemas de administración de base de datos cada vez más
sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción,
borrado y locación de datos, así como el intento de crear máquinas capaces
de realizar tareas que son pensadas como típicas del ámbito de la
inteligencia humana, acuñaron el término Inteligencia Artificial en 1956.
La Inteligencia Artificial trata de conseguir que los ordenadores simulen en
cierta manera la inteligencia humana. Se acude a sus técnicas cuando es
necesario incorporar en un sistema informático, conocimiento o
características propias del ser humano.
6. ¿Qué es oovoo?
ooVoo es un programa de mensajería y chat desarrollado por ooVoo LLC
para las plataformas Microsoft Windows, Mac OS X, Android y ios. Fue
liberado en el año 2007 teniendo un parecido similar a skype y el facetime
de apple. Las llamadas pueden grabarse en tiempo real, tiene soporte para
doce personas en el chat. ooVoo LLC proporciona al usuario datos sobre la
latencia y rendimiento que tiene el programa
Características:
ooVoo permite comunicarse a los usuarios registrados a través de
mensajería instantánea de voz y video chat. Además permite conferencias
de video en alta calidad y llamadas de audio a doce lugares (video y audio)
diferentes, y el intercambio de escritorio y PC o Mac a las llamadas
telefónicas a teléfonos fijos y móviles por una tarifa.
Video llamadas (gratis): Video chat con seis personas incluso tú.
Video Conferencia (pago): Permite comenzar un videoconferencia entre
doce personas en una llamada, además de añadir 6 personas más.
Video chat por website (gratis): Permite al creador de una web invitar o
no a distintas personas a una conversación en redes sociales,
mensajerías etc....
Mensajería de video (gratis/pago): Mensajes de video de hasta un minuto
con cuenta free hasta cinco minutos con cuenta Premium, puede ser
grabado y enviado a otro usuario pro correo electrónico.
Mensajería instantánea (gratis): Compatibilidad con sus cliente de
mensajería en el chat de texto como en video.
Llamadas telefónicas (pago): se permite llamadas telefónicas a fijos y
móviles a más de 50 países del todo mundo.
Desktop (pago): Permite al usuario compartir las pantallas del escritorio
durante los videos llamadas.
Intercambio de archivos (gratis): Enviar de forma rápida y segura
archivos de gran tamaño (25 mb).
Grabación videollamas (gratis): Almacenamiento o compartir
videollamadas de diferentes fechas.
7. ¿Qué es Skype?
Skype (pronunciado /ˈskaɪ p/) es un software que permite comunicaciones
de texto, voz y vídeo sobre Internet (VoIP). Fue desarrollado en 2003 por el
danés JanusFriis y el sueco NiklasZennström, también creadores de Kazaa.
El código y protocolo de Skype permanecen cerrados y propietarios, pero los
usuarios interesados pueden descargar gratuitamente
la aplicación ejecutable del sitio web oficial. Los usuarios de Skype pueden
hablar entre ellos gratuitamente.
Esta aplicación también incluye una característica denominada YY
SkypeOut, que permite a los usuarios llamar a teléfonos convencionales,
cobrándoseles diversas y bajas tarifas según el país de destino, pudiendo
llamar a casi cualquier teléfono del mundo.
Otra opción que brinda Skype es SkypeIn, gracias a la cual se otorga un
número de teléfono para que desde un aparato telefónico, en cualquier parte
del mundo, se pueda contactar al computador. Además, se provee de un
servicio de buzón de voz.
La interfaz de Skype es muy parecida a la de otro software de mensajería
instantánea, tales como Windows Live Messenger o Yahoo! Messenger, y,
de igual forma que en éstos, es posible entablar una conversación de
mensajes instantáneos entre usuarios del mismo software. Este programa
también permite dejar mensajes de voz (buzón) en caso de que el usuario
no se encuentre disponible, siendo ése un servicio de pago que viene
incluido con SkypeIn.
En septiembre de 2005 la empresa fue comprada por eBay por 2.600
millones de dólares. Sin embargo, en Julio de 2009 los desarrolladores
antiguos del sistema demandaron a eBay porque las licencias de Joltid (que
provee los códigos que utiliza el núcleo del sistema y que es una subsidiaria
de los antiguos dueños) habían caducado y eBay estaba infringiendo sus
derechos al seguir usándolas.3 Finalmente y al no poder reemplazar la
tecnología que estaba siendo infringida, eBay vendió el 70% de su
participación de Skype a Silver Lake Partners, un grupo que si incluye a
Joltid.
En octubre de 2010, Skype 5.0 para Windows fue liberada con un conjunto
de complementos y nuevas funciones, entre las más importantes, la
inclusión de una pestaña de Facebook que permite a sus usuarios enviar
mensajes SMS, efectuar chat o llamar a sus amigos de Facebook,
directamente del Feed de Noticias. Por otra parte la versión 5 ha empeorado
la usabilidad de la pantalla compartida y del acceso a los teléfonos de los
contactos.
El 10 de mayo de 2011 Microsoft anunció la compra completa de Skype por
8.500 millones de dólares con el objetivo de reforzar su negocio de
Smartphones.
En 2011 todas las versiones anteriores de Skype se empezaron a actualizar
a Skype 5 sin consentimiento de los usuarios actuando en este caso
como Malware. Es inútil que en configuraciones avanzadas estén
desactivadas las actualizaciones automáticas
Características:
Comunicación gratuita por texto, voz o vídeo entre dos usuarios de
Skype con computadores personales conectados a Internet. Requiere
registro y aceptación de las condiciones del servicio, sin coste.
Comunicación grupal o conferencia de voz gratuita (videoconferencia
grupal es de pago) entre varios usuarios de Skype, todos ellos con PC
conectados a Internet. Requiere registro sin coste.
Generación de llamadas de voz a bajo coste desde un usuario de Skype
con PC conectado a Internet, hacia teléfonos de red fija o móvil.
Requiere contrato de pago, mensual o anual.
Comunicación y envío de datos a bajo coste (texto y gráficos) desde un
usuario de Skype con PC conectado a Internet hacia equipos de fax (u
ordenadores con software de fax) conectados a redes de telefonía fija.
Requiere contrato de pago.
Llamadas de voz a tarifa de llamada local desde teléfonos de red fija o
móvil al número telefónico de un usuario abonado a Skype con PC
conectado a Internet. Si el usuario receptor no está disponible, Skype
ofrece un servicio de contestador automático. Requiere contrato de pago
por parte del receptor. Las llamadas generadas desde teléfonos móviles
pagan las tarifas locales del servicio celular.
Comunicación y envío de datos a tarifa de llamada local desde equipos
de fax conectados a redes de telefonía fija hacia un abonado de Skype
con PC conectado a Internet. Requiere contrato de pago por parte del
receptor.
Comunicación por desvío telefónico y de texto a bajo coste desde
teléfonos de red fija o celular hacia un abonado de Skype con PC
conectado a Internet. Requiere contrato de pago por parte del receptor.
CUADRO COMPARATIVO
SKYPE OOVOO
Solo se pueden llamar gratis de computadora a computadora con otro usuario que tenga también Skype, no es como el ooVoo que también se puede realizar llamadas gratis entre computadoras, además se puede realizar llamadas a otros países, pero no a todos solo a unos cuantos totalmente gratis. Con Skype si se puede realizar llamadas a otros países no gratis, se puede llamar a fijos y móviles cobrándoseles diversas y bajas
Es el programa que surge como competidor directo con el famoso y archiconocido Skype y que lanzó su primera versión en 2007. Se trata de un software que permite realizar videoconferencia de calidad de vídeo y audio perfecto, pero la diferencia radica en que con Oovoo se pueden mantener conversaciones múltiples, charlar entre varios contactos. Se amplía la posibilidad de importar contactos, grabar mensajes o realizar play-backs.
tarifas según el país de destino, pudiendo llamar a casi cualquier teléfono del mundo.
Entre las mejoras que se pueden encontrar en esta nueva versión 1.5, se encuentra la posibilidad de grabar video o efectos visuales. La grabación de video permite grabar las conversaciones mantenidas a través del programa y guardarlas en un formato AVI, a diferencia de Skype con el que necesitas otra aplicación adicional para poder realizar la misma acción.
8. ¿Qué es un antivirus?
Es un programa creado para prevenir o evitar la activación de los virus, así
como su propagación y contagio. Cuenta además con rutinas de detención,
eliminación y reconstrucción de los archivos y las áreas infectadas del
sistema.
Un antivirus tiene tres principales funciones y componentes:
VACUNA: es un programa que instalado residente en la memoria, actúa
como "filtro" de los programas que son ejecutados, abiertos para ser
leídos o copiados, en tiempo real.
DETECTOR: que es el programa que examina todos los archivos
existentes en el disco o a los que se les indique en una determinada ruta
o PATH. Tiene instrucciones de control y reconocimiento exacto de los
códigos virales que permiten capturar sus pares, debidamente
registrados y en forma sumamente rápida desarman su estructura.
ELIMINADOR: es el programa que una vez desactivada la estructura del
virus procede a eliminarlo e inmediatamente después a reparar o
reconstruir los archivos y áreas afectadas.
Es importante aclarar que todo antivirus es un programa y que, como todo
programa, sólo funcionará correctamente si es adecuado y está bien
configurado. Además, un antivirus es una herramienta para el usuario y no
sólo no será eficaz para el 100% de los casos, sino que nunca será una
protección total ni definitiva.
La función de un programa antivirus es detectar, de alguna manera, la
presencia o el accionar de un virus informático en una computadora. Este es
el aspecto más importante de un antivirus, independientemente de las
prestaciones adicionales que pueda ofrecer, puesto que el hecho de
detectar la posible presencia de un virus informático, detener el trabajo y
tomar las medidas necesarias, es suficiente para acotar un buen porcentaje
de los daños posibles. Adicionalmente, un antivirus puede dar la opción de
erradicar un virus informático de una entidad infectada.
El modelo más primario de las funciones de un programa antivirus es la
detección de su presencia y, en lo posible, su identificación. La primera
técnica que se popularizó para la detección de virus informáticos, y que
todavía se sigue utilizando (aunque cada vez con menos eficiencia), es la
técnica de scanning. Esta técnica consiste en revisar el código de todos los
archivos contenidos en la unidad de almacenamiento -fundamentalmente los
archivos ejecutables- en busca de pequeñas porciones de código que
puedan pertenecer a un virus informático. Este procedimiento, denominado
escaneo, se realiza a partir de una base de datos que contiene trozos de
código representativos de cada virus conocido, agregando el empleo de
determinados algoritmos que agilizan los procesos de búsqueda.
La técnica de scanning fue bastante eficaz en los primeros tiempos de los
virus informáticos, cuando había pocos y su producción era pequeña. Este
relativamente pequeño volumen de virus informáticos permitía que los
desarrolladores de antivirus escaneadores tuvieran tiempo de analizar el
virus, extraer el pequeño trozo de código que lo iba a identificar y agregarlo
a la base de datos del programa para lanzar una nueva versión. Sin
embargo, la obsolescencia de este mecanismo de identificación como una
solución antivirus completa se encontró en su mismo modelo.
El primer punto grave de este sistema radica en que siempre brinda una
solución a posteriori: es necesario que un virus informático alcance un grado
de dispersión considerable para que sea enviado (por usuarios capacitados,
especialistas o distribuidores del producto) a los desarrolladores de antivirus.
Estos lo analizarán, extraerán el trozo de código que lo identificará, y lo
incluirán en la próxima versión de su programa antivirus. Este proceso
puede demorar meses a partir del momento en que el virus comienza a
tener una dispersión considerable, lapso en el cual puede causar graves
daños sin que pueda ser identificado.
Además, este modelo consiste en una sucesión infinita de soluciones
parciales y momentáneas (cuya sumatoria jamás constituirá una solución
definitiva), que deben actualizarse periódicamente debido a la aparición de
nuevos virus.
En síntesis, la técnica de scanning es altamente ineficiente, pero se sigue
utilizando debido a que permite identificar rápidamente la presencia de los
virus más conocidos y, como son estos los de mayor dispersión, permite una
importante gama de posibilidades. Un ejemplo típico de un antivirus de esta
clase es el Viruscan de McAfee.
En virtud del pronto agotamiento técnico de la técnica de scanning, los
desarrolladores de programas antivirus han dotado a sus creaciones de
métodos para búsquedas de virus informáticos (y de sus actividades), que
no identifican específicamente al virus sino a algunas de sus características
generales y comportamientos universalizados.
Este tipo de método rastrea rutinas de alteración de información que no
puedan ser controladas por el usuario, modificación de sectores críticos de
las unidades de almacenamiento (master boot record, boot sector, FAT,
entre otras), etc. Un ejemplo de este tipo de métodos es el que utiliza
algoritmos heurísticos.
De hecho, esta naturaleza de procedimientos busca, de manera bastante
eficiente, códigos de instrucciones potencialmente pertenecientes a un virus
informático. Resulta eficaz para la detección de virus conocidos y es una de
las soluciones utilizadas por los antivirus para la detección de nuevos virus.
El inconveniente que presenta este tipo de algoritmo radica en que puede
llegar a sospecharse de muchisimas cosas que no son virus. Esto hace
necesario que el usuario que lo utiliza conozca un poco acerca de la
estructura del sistema operativo, a fin de poseer herramientas que le faciliten
una discriminación de cualquier falsa alarma generada por un método
heurístico.
Algunos de los antivirus de esta clase son: F-Prot, Norton Anti Virus y Dr.
Solomon'sToolkit. Ahora bien, otra forma de detectar la presencia de un
virus informático en un sistema consiste en monitorear las actividades de la
PC señalando si algún proceso intenta modificar los sectores críticos de los
dispositivos de almacenamiento o los archivos ejecutables. Los programas
que realizan esta tarea se denominan chequeadores de integridad.
Sobre la base de estas consideraciones, podemos consignar que un buen
sistema antivirus debe estar compuesto por un programa detector de virus,
que siempre esté residente en memoria y un programa que verifique la
integridad de los sectores críticos del disco rígido y sus archivos ejecutables.
Existen productos antivirus que cubren los dos aspectos, o bien pueden
combinarse productos diferentes configurados de forma que no se
produzcan conflictos entre ellos.
MODELO DE ANTIVIRUS
La estructura de un programa antivirus, está compuesta por dos módulos
principales: el primero denominado de control y el segundo denominado de
respuesta. A su vez, cada uno de ellos se divide en varias partes:
1. Módulo de control: Posee la técnica verificación de integridad que
posibilita el registro de cambios en los archivos ejecutables y las zonas
críticas de un disco rígido. Se trata, en definitiva, de una herramienta
preventiva para mantener y controlar los componentes de información de un
disco rígido que no son modificados a menos que el usuario lo requiera. Otra
opción dentro de este módulo es la identificación de virus, que incluye
diversas técnicas para la detección de virus informáticos. Las formas más
comunes de detección son el scanning y los algoritmos, como por ejemplo,
los heurísticos. Asimismo, la identificación de código dañino es otra de las
herramientas de detección que, en este caso, busca instrucciones peligrosas
incluidas en programas, para la integridad de la información del disco rígido.
Esto implica descompilar (o desensamblar) en forma automática los archivos
almacenados y ubicar sentencias o grupos de instrucciones peligrosas.
Finalmente, el módulo de control también posee una administración de
recursos para efectuar un monitoreo de las rutinas a través de las cuales se
accede al hardware de la computadora (acceso a disco, etc.). De esta
manera puede limitarse la acción de un programa restringiéndole el uso de
estos recursos, como por ejemplo impedir el acceso a la escritura de zonas
críticas del disco o evitar que se ejecuten funciones de formato del mismo.
2. Módulo de respuesta: La función alarma se encuentra incluida en todos
los programas antivirus y consiste en detener la acción del sistema ante la
sospecha de la presencia de un virus informático, e informar la situación a
través de un aviso en pantalla. Algunos programas antivirus ofrecen, una
vez detectado un virus informático, la posibilidad de erradicarlo. Por
consiguiente, la función reparar se utiliza como una solución momentánea
para mantener la operatividad del sistema hasta que pueda instrumentarse
una solución adecuada. Por otra parte, existen dos técnicas para evitar el
contagio de entidades ejecutables: evitar que se contagie todo el programa o
prevenir que la infección se expanda más allá de un ámbito fijo. Aunque la
primera opción es la más adecuada, plantea grandes problemas de
implementación.
Avast
Nod32
Norton
Avira
Mcafee
karpesky
Recommended