Upload
luis-felipe
View
237
Download
0
Embed Size (px)
DESCRIPTION
trabajo semanal
Citation preview
If you know
Revista interesada en dar a conocer las nuevas ideas e innovaciones de la actualidad a demás de
poder ayudar a las personas a actualizarse y aprender acerca de las novedades que vienen en el
futuro. La tecnología no es difícil, depende de quien te enseñe
En este numero presentaremos, la quinta generación de computadoras, una idea interesante que
termino perdiéndose en el tiempo, la computación y los niños, cuales son las ventajas y
desventajas para los pequeñines, la robótica el sueño de cualquiera siempre a sido crear su propio
robo (En mi caso crear mi propia armadura ironman), Seguridad informática, para que siempre
estés seguro contra cualquier ataque
Quinta generación de computadoras
La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth
Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la
década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían
técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software,
usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían capaces de resolver
problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al
inglés, por ejemplo).
Inicio
En 1981 a iniciativa del MITI se celebró una
Conferencia Internacional, durante la cual
Kazuhiro Fuchi anunció el programa de
investigación y el 14 de abril de 1982 el
gobierno decidió lanzar oficialmente el
proyecto, creando el Institute for New
Generation Computer Technology
(Instituto para la Nueva Generación de
Tecnologías de Computación o ICOT por
sus siglas en inglés), bajo la dirección de Fuchi, a quien sucedería en el puesto como director del
instituto Tohru Moto-Oka, y con la participación de investigadores de diversas empresas japonesas
dedicadas al desarrollo de hardware y software, entre ellas Fujitsu, NEC, Matsushita, Oki, Hitachi,
Toshiba y Sharp.
Los campos principales para la investigación de este proyecto inicialmente eran:
Tecnologías para el proceso del conocimiento.
Tecnologías para procesar bases de datos y bases de conocimiento masivo.
Sitios de trabajo del alto rendimiento.
Informáticas funcionales distribuidas.
Supercomputadoras para el cálculo científico.
Impacto institucional internacional
Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los
artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el
área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación
entre los otros países.
Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Microelectronics and
Computer Technology Corporation8 y la Strategic Computing Initiative; por parte europea, en
Reino Unido fue ALVEY,8 y en el resto de Europa su reacción fue conocida como ESPRIT (European
Strategic Programme for Research in Information Technology, en español Programa Estratégico
Europeo en Investigación de la Tecnología de la Información).
El proyecto duró once años, pero no obtuvo los resultados esperados:
las computadoras actuales siguieron así, ya que hay muchos casos en
los que, o bien es imposible llevar a cabo una paralelización del mismo,
o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor
de los casos, se produce una pérdida de rendimiento. Hay que tener
claro que para realizar un programa paralelo debemos, para empezar,
identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos
procesadores. Además, es importante señalar que un programa que se ejecuta de manera
secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera
paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se
ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.
La computación y los niños, Ventajas y desventajas
La computadora es una parte importante de la realidad actual. El mundo ha evolucionado de tal
modo que depende de la informática para desarrollar la mayoría de sus funciones, entre ellas la
educación de los niños y jóvenes. En ese contexto es natural que nos preguntemos hasta dónde
son beneficiosas las computadoras para ellos y hasta dónde esta relación se convierte en insana.
Indudablemente las computadoras son herramientas muy útiles, esta es la razón de su
popularidad. Ello ha beneficiado a los niños grandemente pues, al estar tan relacionados con el
mundo tecnológico y con toda la información que Internet genera, estos son cada vez más
inteligentes. La alfabetización digital que para muchos es engorrosa, en ellos ya no es necesaria,
puede decirse casi nacen sabiendo cómo utilizar todos los accesorios informáticos.
La posibilidad de estar conectados facilita que los niños realicen sus tareas desde cualquier lugar
y, sobre todo, que puedan emplear un volumen de referencia increíble. Gracias a la computación,
hoy en día, si un estudiante no asiste al colegio porque está enfermo, aun así puede ponerse al día
con sus deberes desde el ordenador.
Por otra parte, la computadora plantea desafíos a nuestros hijos cuya solución requiere de
múltiples habilidades mentales, por lo que se desarrollan los sentidos, la concentración, la
habilidad para buscar su propio ritmo o para transgredirlo, la capacidad para hacer
generalizaciones y para profundizar en diversas temáticas.
Son herramientas maravillosas para fomentar la creatividad y el intelecto, pero también permite
que se desarrollen habilidades emocionales. Mediante las computadoras, los niños ganan
confianza en sí mismos, elevan sus autoestimas, se vuelven seguros y valientes, sin mencionar que
aprenden también a sonreír.
Sin embargo, una limitante del uso constante de estos equipos es que los padres cada vez más se
alejan de sus hijos, para dejar su educación en manos de la tecnología. El elemento educativo más
importante de un menor es la interacción con los otros seres humanos. Estar sentado frente al
monitor todo el día reduce las posibilidades de compartir con otros niños y con los propios padres.
La realidad no es una pantalla. Somos seres sociales y como tales necesitamos de la relación
humana.
Otra desventaja es la cada vez mayor probabilidad de abuso infantil que hay a través de los
ordenadores. La inocencia de los niños es aprovechada por personas inescrupulosas para sus fines
insanos. Ellos no están preparados para defenderse de estas agresiones y pueden ser lastimados
en muchos sentidos, especialmente el psicológico.
La solución inteligente es que los padres mantengan una comunicación sólida con sus hijos que
les permita manejar las desventajas que la informática trae consigo. Encontrar un punto medio en
el cual se aprovechen los beneficios de las computadoras, sin perder el afecto, la interacción
familiar, las actividades extra-computacionales y las formas tradicionales de aprendizaje validadas
por la experiencia humana
Robótica
La robótica como tal es un manipulador multifunciónal, reprogramable destinado a realizar
actividades como mover materiales, piezas, herramientas etc., mediante movimientos
programados y variables que permiten llevar a cabo diversas tareas.
En la actualidad se ha observado que la robótica se fue desarrollando a pasos agigantados de tal
manera que cumple con las demandas del mercado.
Hay muchas personas que no saben bien de lo que es robot, la hacer mención de esta palabra, se
imaginan a lo que observan por T.V. como es en las películas de ciencia ficción, sin saber que hoy
en día el robot es una herramienta esencial para el hombre moderno.
El robot por su parte, en una industria busca siempre reducir el numero de horas de trabajo
hombre, esto es posible gracias a que los robots sustituyen ventajosamente al hombre en todas
las labores repetitivas, de asegurar la transferencia de piezas fabricadas y en manera general
realizar los trabajos en serie, por lo que se
obtiene una aceptable velocidad de
ejecución y una tasa de error mínima.
El panorama actual de la robótica es muy
variado, hay de todo: desde kits para
armar un robot humanoide de 6.000
USD hasta como armar robots caseros
con piezas de PC . Cada vez son más
comunes las competencias de lucha
entre robots, fútbol y carreras de autos
manejados por robots entre otras
disciplinas.
Partamos de la base que todo lo que
contenga un microprocesador y lo
haga funcionar puede transformarse en
un robot ya que este será el “cerebro” del mismo. Es así que han aparecido ideas muy ingeniosas
como transformar un handheld o un notebook en un robot evitando tener que crear desde cero
toda la interface de comunicación (puertos) así como la devolución de resultados (la pantalla del
monitor) . De esta manera el diseñador solo tiene que concentrase en la función del robot y en el
movimiento del mismo que no es algo menor, sino lo fundamental.
El auge actual de la robótica tiene varias causas, entre las que podemos destacar: la alta velocidad
de procesamiento de los microprocesadores actuales y la baja de costos de los componentes de
computación. A esto debemos agregar todo el conocimiento acumulado por más de 50 años de
investigación en Inteligencia Artificial (IA) y también el uso de Internet que permite compartir
experiencias entre investigadores de distintas partes del mundo.
De la misma manera que la creación y mejora del sistema Linux hubiera sido imposible sin la
existencia de Internet, el auge de la robótica se debe en buena parte a Internet ya que a través de
la gran Red podemos conocer robots ya creados y también adquirir piezas (motores, servos, etc)
que a nivel local muchas veces son muy difíciles de conseguir.
Ninguno de los robots actuales (incluso los más avanzados) han pasado satisfactoriamente el Test
de Turing , es decir que ,rigurosamente, ninguno es inteligente.
El test de Turing dice básicamente que si un jurado hace una serie de preguntas a un humano y a
un robot y no puede distinguir cuales son respondidas por una maquina y cuales por una persona,
el robot poseerá inteligencia similar a la humana y por lo tanto se habrá llegado a la inteligencia
artificial plena.
El test de inteligencia artificial creado por el matemático Alan Turing en 1950 junto a otras de sus
investigaciones sentó las bases de la IA.
Para pasar un test de Turing se necesitaría de una inteligencia
artificial completa con conocimientos generales, adquiridos y de
sentido común que son muy difíciles de lograr en maquinas. Por
otra parte hay una tendencia que dice que no se trata de (o no
importa) ser inteligente sino parecerlo y si por ejemplo para
atrapar una pelota un robot hace miles de calculos de trayectoria
(que evidentemente un humano no hace) si lo hace bien lo
estaría haciendo como si fuera inteligente.
Otra vía para llegar a un robot 100 % inteligente es la
investigación cerebral a nivel de las relaciones que existen entre
las neuronas. Se han seccionado cerebros y estudiado la relación que hay entre las distintas
neuronas y en base a eso se han creado modelos matemáticos de redes neuronales. La idea
expresada muy simplemente sería: si no podemos crear una inteligencia artificial desde cero, pues
copiemos (o aprendamos de) lo que hay ya creado.
Virus
La palabra virus asociada a los ordenadores a más de uno le causa congojo. Unas veces porque se
trata de una personalidad paranoide y otras porque el recuerdo de uno de estos ingenios es mejor
olvidarlo. Y es que los virus atacan de nuevo.
Esto de los virus informáticos no es nada nuevo. Casi desde el comienzo de la aventura de silicio
los virus han estado ahí. Unas veces en forma de experimentos obra de ególatras programadores
que, traumatizados quizá por una infancia poco feliz, intentan demostrar sus habilidades con la
línea de comandos, y otras veces disfrazados de evidentes fórmulas malignas cuyo único objetivo
es sembrar el desconcierto y las dudas sobre todo lo que huela a ordenador. También hay quien
dice que todo es obra de las empresas que fabrican y venden software antivirus, pero eso es una
elucubración compleja y que, para ser sinceros, aquí nos importa poco.
Lo divertido de los virus, porque a todo hay que buscarle el rollo positivo, es que el ingenio de sus
creadores se vio aguzado cuando los medios de difusión de los mismos se limitaban a las redes
locales de las empresas y a los vetustos disquetes de tres y medio. Eran tiempos en los que
internet estaba exclusivamente reservada a unos pocos privilegiados allende los mares. Así, el
famoso ?Barrotes?, uno de los primeros virus populares creados en la península, se dejaba ver en
los discos de instalación de juegos y algunos controladores de vendedores cutres de ratones.
A decir verdad no les falta razón a quienes
preconizan la llegada del fin del mundo, un
caos mundial o una multiplicación exponencial
de acontecimientos del tipo 11S. Y es que si
nos paramos a pensar, la proliferación de
mensajes de aviso de virus, los propios virus,
lo que no son virus, y los ríos de tinta
cibernética que habitan en las publicaciones
electrónicas, el caldo de cultivo para el caos es
el óptimo. Y es que las consecuencias del
histerismo vírico pueden llegar a ser
arrolladoras. Imaginad por un momento que
un rumor, un simple rumor que hable sobre la existencia y advierta de la peligrosidad de un virus,
empieza a correr por la red de tal forma que se genere tal cantidad de mensajes de correo-e
encadenados que se empiecen a saturar los servidores de correo de los grandes ?carriers? de este
tipo de servicio en el mundo. ¿No es eso el comienzo del caos? Si a esto le sumamos, por ejemplo,
acontecimientos y estados de hipnosis globalizada como los vividos en septiembre de 2001, el
caos puede ser aún mayor. Y es que el miedo es libre, pero las consecuencias de éste no lo son
tanto.
¿Cómo funciona un antivirus?
La clave de los antivirus reside en unos ficheros de configuración donde se almacenan una serie
de patrones que sirven para identificar los virus. El antivirus analiza cada uno de los correos
entrantes en el sistema, ficheros, disquetes, etc y busca dentro ellos esos patrones. Si el fichero o
correo bajo análisis tiene alguno de los patrones, entonces se ha detectado el virus. Dependiendo
de la configuración del antivirus, éste informará al usuario o simplemente lo borrará. Por esta
razón es muy importante que los ficheros de datos del antivirus estén permanentemente
actualizados. En general, los antivirus modernos se actualizan automáticamente (conectándose al
proveedor) cada vez que se inicia una conexión con Internet.
Seguridad informática
La seguridad informática, es el área de la informática que se enfoca en la protección de la
infraestructura computacional y todo lo relacionado con esta (incluyendo la información
contenida). Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y
leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La
seguridad informática comprende software, bases de datos, metadatos, archivos y todo lo que la
organización valore (activo) y signifique un riesgo si ésta llega a manos de otras personas. Este tipo
de información se conoce como información privilegiada o confidencial.
El concepto de seguridad de la información no debe
ser confundido con el de seguridad informática, ya
que este último sólo se encarga de la seguridad en
el medio informático, pudiendo encontrar
información en diferentes medios o formas.
La seguridad informática está concebida para
proteger los activos informáticos, entre los que se
encuentran:
La información contenida: Se ha convertido en uno de los elementos más importantes dentro de
una organización. La seguridad informática debe ser administrada según los criterios establecidos
por los administradores y supervisores, evitando que usuarios externos y no autorizados puedan
acceder a ella sin autorización. De lo contrario la organización corre el riesgo de que la información
sea utilizada maliciosamente para obtener ventajas de ella o que sea manipulada, ocasionando
lecturas erradas o incompletas de la misma. Otra función de la seguridad informática en esta área
es la de asegurar el acceso a la información en el momento oportuno, incluyendo respaldos de la
misma en caso de que esta sufra daños o pérdida producto de accidentes, atentados o desastres.
La infraestructura computacional: Una parte fundamental para el almacenamiento y gestión de la
información, así como para el funcionamiento mismo de la organización. La función de la
seguridad informática en esta área es velar que los equipos funcionen adecuadamente y prever en
caso de falla planes de robos, incendios, boicot, desastres naturales, fallas en el suministro
eléctrico y cualquier otro factor que atente contra la infraestructura informática.
Los usuarios: Son las personas que utilizan la estructura tecnológica, zona de comunicaciones y
que gestionan la información. La seguridad informática debe establecer normas que minimicen los
riesgos a la información o infraestructura informática. Estas normas incluyen horarios de
funcionamiento, restricciones a ciertos lugares, autorizaciones, denegaciones, perfiles de usuario,
planes de emergencia, protocolos y todo lo necesario que permita un buen nivel de seguridad
informática minimizando el impacto en el desempeño de los funcionarios y de la organización en
general y como principal contribuyente al uso de programas realizados por programadores.
Una vez que la programación y el funcionamiento de un dispositivo de almacenamiento (o
transmisión) de la información se consideran seguras, todavía deben ser tenidos en cuenta las
circunstancias "no informáticas" que pueden afectar a los datos, las cuales son a menudo
imprevisibles o inevitables, de modo que la única protección posible es la redundancia (en el caso
de los datos) y la descentralización -por ejemplo mediante estructura de redes- (en el caso de las
comunicaciones).
Estos fenómenos pueden ser causados por:
El usuario: causa del mayor problema ligado a la seguridad de un sistema informático (porque no
le importa, no se da cuenta o a propósito).
Programas maliciosos: programas destinados a perjudicar o a hacer un uso ilícito de los recursos
del sistema. Es instalado (por inatención o maldad) en el ordenador abriendo una puerta a
intrusos o bien modificando los datos. Estos programas pueden ser un virus informático, un
gusano informático, un troyano, una bomba lógica o un programa espía o Spyware.
Un intruso: persona que consigue acceder a los datos o programas de los cuales no tiene acceso
permitido (cracker, defacer, script kiddie o Script boy, viruxer, etc.).
Un siniestro (robo, incendio, inundación): una mala manipulación o una malintención derivan a la
pérdida del material o de los archivos.
El personal interno de Sistemas. Las pujas de poder que llevan a disociaciones entre los sectores y
soluciones incompatibles para la seguridad informática.
Generalmente, los sistemas de información incluyen todos los datos de una compañía y también
en el material y los recursos de software que permiten a una compañía almacenar y hacer circular
estos datos. Los sistemas de información son fundamentales para las compañías y deben ser
protegidos.
Generalmente, la seguridad informática consiste en garantizar que el material y los recursos de
software de una organización se usen únicamente para los propósitos para los que fueron creados
y dentro del marco previsto.
La seguridad informática se resume, por lo general, en cinco objetivos principales:
•Integridad: garantizar que los datos sean los que se supone que son
•Confidencialidad: asegurar que sólo los individuos autorizados tengan acceso a los recursos que
se intercambian
•Disponibilidad: garantizar el correcto funcionamiento de los sistemas de información
•Evitar el rechazo: garantizar de que no pueda negar una operación realizada.
•Autenticación: asegurar que sólo los individuos autorizados tengan acceso a los recursos