25
1 EL PODER DE LA INFORMACIÓN 1 Nanolitografía (1999) os teléfonos móviles actuales, las computadoras y los sistemas GPS no serían tan compactos como son, sin la técnica conocida como nanolitografía, una rama de la ciencia revolucionaria de la nanotecnología. Nanolitografía es una manera de manipular la materia en la escala de átomos individuales con el fin de crear las placas de circuitos para una variedad de dispositivos electrónicos. Mediante el uso de un microscopio de fuerza atómica, los nanomateriales átomo de tamaño como nanocristales, nanocapas, y los nanotubos se organizan en estructuras. Inmersión en la nanotecnología pluma, desarrollado en 1999 por Chad Mirkin de la Universidad Northwestern, ha permitido que las placas de circuitos para ser mucho más pequeño. Esto, a su vez, ha conducido al desarrollo de los ordenadores tan pequeños que podían ser utilizados en otras tecnologías de nanoescala, como la materia programable. >>Nota: Nanolitografía tiene su fundamento en la invención del microscopio en 1590. L

El poder de la información

Embed Size (px)

DESCRIPTION

El poder de la información

Citation preview

Page 1: El poder de la información

1

EL PODER DE LA INFORMACIÓN

1 Nanolitografía (1999)

os teléfonos móviles actuales, las

computadoras y los sistemas GPS no serían

tan compactos como son, sin la técnica

conocida como nanolitografía, una rama de la

ciencia revolucionaria de la nanotecnología.

Nanolitografía es una manera de manipular la

materia en la escala de átomos individuales con el

fin de crear las placas de circuitos para una

variedad de dispositivos electrónicos. Mediante el

uso de un microscopio de fuerza atómica, los

nanomateriales átomo de tamaño como

nanocristales, nanocapas, y los nanotubos se

organizan en estructuras. Inmersión en la

nanotecnología pluma, desarrollado en 1999 por

Chad Mirkin de la Universidad Northwestern, ha

permitido que las placas de circuitos para ser

mucho más pequeño. Esto, a su vez, ha

conducido al desarrollo de los ordenadores tan

pequeños que podían ser utilizados en otras

tecnologías de nanoescala, como la materia

programable.

>>Nota: Nanolitografía tiene su fundamento en la

invención del microscopio en 1590.

L

Page 2: El poder de la información

2

2 Nanotubos de Carbono (1991)

n 1991 el físico japonés Sumio lijima descubrió los nanotubos de carbono, considerado como uno de los

descubrimientos más importantes en la historia de la física. Los nanotubos pueden ser construidos por un método de evaporación de arco, en la que se hace pasar una corriente de 50 amperios entre dos electrodos de grafito en helio. Los resultados son nanotubos y mencionan que miden de 3 a 30 nanómetros de diámetro Una de las sorprendentes propiedades de los nanotubos de carbono es su fuerza. Su resistencia al esfuerzo es cinco veces mayor que la del acero,

y su resistencia a la tracción es de hasta 50 veces mayor que la del acero. Los nanotubos de carbono también se pueden utilizar como semiconductores. La conductividad de algunos nanotubos es mayor que la del cobre, por ejemplo. Los científicos e ingenieros están buscando formas de utilizar los nanotubos en la industria de la construcción, así como en aplicaciones aeroespaciales. Hoy en día, las pantallas planas y los microscopios y algunos dispositivos de detección incorporan nanotubos de carbono. En el futuro, muchos elementos cotidianos desde viviendas a los chips de computadora de baterías de auto, podrán hacerse de los nanotubos de carbono.

E

Page 3: El poder de la información

3

EL PODER DE LA INFORMACION

en todo el mundo la Web (1990)

l ancho mundo ha cambiado la vida para siempre mediante la vinculación de millones de ordenadores en todo el mundo, con lo que

toda la información que contienen al alcance de todos. Aunque los términos en todo el mundo se casó y de Internet a menudo se utilizan indistintamente, no son lo mismo. Internet es el sistema que es el matrimonio. es posible tener Internet sin casarse, pero el casarse no puede existir sin Internet. Internet comenzó en 1962 como ARPANET, una red de dos ordenadores concebido por los militares de EE.UU.. que la red creció hasta más de un millón de computadoras en 1992. en 1990 el científico informático británico Tim

Berners-Lee inventó el Mié, es decir, creó las primeras páginas Wed incorporan hipertexto-texto que se muestra en un monitor que contiene hipervínculos a otros documentos-una concepción que datoes a la década de 1960. Y el resto, como dice el refrán, es historia. la manera más profunda en la que el Mar ha afectado la vida económica y social es la facilidad de la comunidad. La gente en Canadá, Sudáfrica y Australia pueden compartir ideas con otros o participar en un debate sobre los acontecimientos actuales. Una mujer en Moscú puede comprar un artículo de colección de un hombre en Brasil que tiene la pieza exacta que está buscando.

E

3

Page 4: El poder de la información

4

4 Buckyball (1985)

n 1965, científicos predijeron la existencia teórica de una molécula de múltiples átomos de carbono con la forma de una esfera o cilindro. Pero no fue hasta 20 años después que Richard

Smalley y Robert Curl, ambos profesores de la Universidad de Rise en Houston, Texas, y Harry Kroto, profesor de la universidad de Sussex, Inglaterra, descubrieron uno. Centrando láser en barras de grafito generaron moléculas de forma simétrica, algo como jaulas simétricas regulares. Viendo que estas moléculas tenían una similitud remarcable a los domos geodésicos –una construcción hecha de enrejados triangulares y diseñado por el visionario arquitecto R. Buckminster Fuller- llamaron a la nueva molécula buckminsterfullereno, o fullereno- buckyballs de manera abreviada. Las tres investigaciones recibieron el Premio Nobel de Química en 1996. El descubrimiento del fullereno tuvo implicaciones científicas y tecnológicas, la mulecula tiene muchos usos prácticos. El análisis de las buckyballs ayudó en la comprensión de la conducta y manipulación de las hojas de metal. Excelentes conductores de calor y electricidad, los materiales del fullereno pueden reemplazar a los dispositivos basados en silicio en ordenadores, celulares y electrónicos similares. El material también brinda increíble resistencia a la tracción, lo que promete nuevas posibilidades en arquitectura, ingeniería y diseño de aeronaves.

En 1991, el descubrimiento del investigador japonés Sumio Iijima de una versión alargada de la bola hueca, en última instancia, llamado el nanotubo, estimuló la revolución nanotecnológica a inicios del siglo 21.

Un fullereno (detallado, arriba, y arriba a la izquierda) es una

molécula de forma reticular que de carbono. llamado así de

manera abreviadad por el arquitecto R. Buckminster Fuller.

E

Page 5: El poder de la información

5

EL PODER DE LA INFORMACION

Sistema de posicionamiento global (1978)

bicada a 12,000 kilómetros sobre la Tierra y viaja a una velocidad de 7,000 mil por hora, el sistema de navegación basado en satélites

fue lanzado en 1978 por el Departamento de Defensa de EE.UU. con fines militares. Poco después, los fabricantes de equipos GPS reconoció su masa potencial de mercado y clamaba por su uso como una aplicación civil. El Departamento de Defensa cumplido con su solicitud en la década de 1980. GPS, que es extremadamente preciso. Trabaja sobre el principio de triangulación, por el cual la posición de un objeto dado (una persona en un coche, por ejemplo) se determina por la distancia del objeto a partir de cuatro satélites de la red con la que un dispositivo

se está comunicando. La red GPS se compone de 24 satélites, con 3 a la espera en caso de fracaso, y cada satélite tiene dos vueltas completas alrededor del planeta cada día Entonces, ¿qué le depara el futuro del GPS

parece? Sin duda, la red son cada vez más

precisa y para proporcionar información cada vez

más fina en un lugar determinado. Los

conductores todavía tienen que tomar sus ojos del

camino para observar el dispositivo GPS, pero eso

puede cambiar. Una compañía llamada Making

Virtual Solid está trabajando en una solución

llamada Virtual Cable, el cual está diseñado para

ser integrado en el parabrisas de un coche. Una

línea roja que parece seguir el paisaje guía al

conductor a su destino.

HECHO: Los 24 satélites de la red GPS funcionar con energía solar.

U

5

Page 6: El poder de la información

6

6 Computadora Personal (1977)

e acuerdo con la compañía Nielsen, alrededor del 80 por ciento de los hogares en Estados Unidos tenía una computadora en 2008, y de

ellos, alrededor del 90 por ciento tenía acceso a internet. Ya se trate de un modelo de principios- como la Commodore PET (muy popular en las escuelas en la década de 1970), La Apple II (Una de los primeras microcomputadoras exitosas producidas en masa)- y el IBM PCs (diseñado para reemplazar los dos primeros dispositivos en el hogar)- o la última y mejor en las máquinas, todos los equipos tienen los mismos componentes básicos. Un equipo se compone de una placa base, una procesadora una unidad central de procesamiento, memoria, discos, un ventilador, y los cables. Conectado a la computadora son sus periféricos: el ratón, teclado,

monitor, altavoces, impresora, escáner, y así sucesivamente. Estos componentes trabajan juntos para ejecutar el software: el sistema operativo y los programas adicionales, tales como un procesador de textos, software de gestión de dinero, o el software de edición de fotos.

Con el ordenador personal, la tecnología de la computación se convirtió al público en general. Computadoras ya no eran grandes, piezas muy caras de los equipos que sólo las grandes corporaciones o agencias gubernamentales podían pagar o que sólo los informáticos pueden operar. Este significativo avance en última instancia, dio a luz nuevas industrias, cambiaron la forma de comunicarse, e irrevocablemente alterado su vida laboral y personal

D

Page 7: El poder de la información

7

EL PODER DE LA INFORMACION

7 Realidad Aumentada

diferencia de la realidad virtual, la cual está basada en un entorno generado por computadora, la realidad aumentada esta diseñada para realzar el mundo real por medio de audio súper impuesto, visuales y

otros elementos en tus sentidos.

El investigador de Boeing Tom Caudell acuño el término realidad virtual primero en 1990 para describir la pantalla digital usada por los electricistas de las líneas aéreas, la cual combina gráficos virtuales con realidad física. Pero el concepto es aun más viejo que eso. La película de 1988 Who Framed Roger Rabbit (¿Quién engañó a Roger Rabbit?) es un buen ejemplo de la tecnología y originada antes de eso una versión más simplista está demostrada en las flechas amarillas que los anunciadores usan en los juegos de Football televisados cuando analizan una jugada.

Realidad aumentada esta actualmente llevando el desarrollo de electrónicos de consumo debido a su gran utilidad en las aplicaciones de los smart-phone (teléfonos inteligentes). Una aplicación llamada Layar.

5 El sistema de posicionamiento global es esencial para la realidad aumentada, la cual depende del GPS para identificar la ubicación de una persona.

Usa la cámara de un teléfono celular y las capacidades del GPS para reunir información sobre ciertos sitios cercanos, como restaurantes y cines y superposiciona esta información en la pantalla del teléfono celular. Posiciona el teléfono en algún edificio y Layar reporta si alguna compañía en ese edificio está contratando o localiza la historia de ese edificio en la enciclopedia en line Wikipedia.

Hay algunas limitaciones para la tecnología de la realidad aumentada como existe hasta ahora: El sistema GPS tiene un alcance de aproximadamente 30 pies (9.14400 metros), las pantallas de los teléfonos celulares son pequeñas y hay comprensibles preocupaciones acerca de la privacidad, especialmente como la tecnología afecta mas y mas aspectos de nuestra vida. Aun así, el futuro de esta tecnología es prometedor y es evidente que pronto su potencial será aprovechado para los juegos, la educación, la seguridad, la medicina, los negocios y otras áreas.

10 SMART PHONES (teléfonos inteligentes) son los dispositivos en los cuales se ha implementado la tecnología de la realidad aumentada actualmente.

A

Page 8: El poder de la información

EL PODER DE LA INFORMACION

8

EL PODER DE LA INFORMACION

Aprenda Más

Así como los títulos en una página, la realidad aumentada puede proveer conocimientos y explicaciones, tales como la biografía del arquitecto Frank Gehry cuando se visita sus edificios emblemáticos.

Orientar y Navegar

El sistema de posicionamiento global permite etiquetas geográficas que se asignan a la ubicación de una persona en un momento y luego traza los sitios de los alrededores y las vías.

Tomar decisiones Considerar opciones y tomar decisiones virtualmente. Aquí las galerías están representadas por imágenes de exposiciones de museo, tales como “La Materia del Tiempo” de Richard Serra.

Use un smart phone (teléfono inteligente) para ver señales conectadas a un lugar actual, tal como el museo Guggenheim en Bilbao y puedes acodar información.

Page 9: El poder de la información

EL PODER DE LA INFORMACION

9

EL PODER DE LA INFORMACION

8

nventada en 1976 por el profesor de la

Universidad de Stanford, Martin

Hellman, estudiante graduado de

Whitfield Diffie, la llave criptográfica es

una seguridad tecnológica que ayuda a la

gente a usar una red insegura (como

internet) para transmitir datos privados

como números de cuentas de banco con

seguridad. Así es como se trabaja: Un

certificado de autoridad simultáneamente

crea una “llave” pública y una “llave”

privada. Así como una llave desbloquea

una puerta, estas llaves en particular son

valores que desbloquean datos

encriptados. La llave privada está dada

solamente a la persona que lo requiera, la

llave pública está hecha públicamente

disponible. La llave privada es usada para

descifrar información que ha sido

actualmente descifrada por la llave

pública. Este es un proceso complejo,

pero el resultado final es lo que importa:

Ya sea comprando una colección

codiciada en eBay, pagando facturas, o

renovando la licencia de conducir en

línea, la llave pública de criptografía

protege datos personales.

La llave pública criptográfica asegura que los datos

confidenciales transmitidos en Internet permanezcan

protegidos.

>>Nota: La llave pública criptográfica ha encerrado varias

lagunas de seguridad en transmisión inalámbrica.

I

Criptografía: La llave

Pública (1976)

Page 10: El poder de la información

10

9Electrónica molecular (1974)

omo en el tiempo lo implica, la electrónica molecular se refiere a la utilización de componentes moleculares para construir

dispositivos electrónicos. ya que los químicos Marck Ratner y Ari Aviram crearon el primer dispositivo de electrónica molecular, en 1974 - un rectificador que convierte la corriente alterna a corriente de científicos han seguido avanzando tanto en su comprensión de la ciencia y sus aplicaciones potenciales.

Muchos investigadores están trabajando para reemplazar semiconductores en todas sus aplicaciones con interruptores electrónicos moleculares. Algunas empresas están en condiciones de ofrecer tales cambios a la computadora y dispositivos electrónicos de fábrica, un ejemplo es la empresa de Huntsville, Alabama, con sede llamada CALMEC, que a creado un interruptor molecular. Este dispositivo puede ser utilizado en la tecnología electrónica para ser miniaturizado aún más de lo que ahora lo es.

C

El metal oro se

deposita sobre

una oblea para

formar circuitos

para los dispositivos

micro- electronicos

(MEM)

Page 11: El poder de la información

11

EL PODER DE LA INFORMACIÓN

Teléfono Celular (1973)

s difícil decir lo que es más ubicuo en el mundo de hoy computadora personal o el teléfono celular, que fue inventado en 1973 por Martin

Cooper cuando él era el director de investigación y desarrollo de Motorola. Un teléfono celular es en realidad un aparato de radio, aunque muy sofisticada. Es un dispositivo dúplex completo, lo que significa que dos frecuencias diferentes se utilizan para hablar y escuchar. La comunicación se produce en los canales, de los cuales el teléfono celular promedio contiene más de 1.650. En una red de telefonía celular típica, un vehículo, que proporciona el servicio de telefonía celular, se le asigna 800 frecuencias, que se dividen en unidades llamadas células hexagonales. Cada célula contiene una decena de kilómetros cuadrados. Cada célula tiene su propia estación base y la torre. Tanto los teléfonos celulares y las torres de celulares tienen transmisores de baja potencia en los mismos. El teléfono y la torre uso4 una frecuencia especial para comunicarse entre sí. (Si esta frecuencia no se puede encontrar, un “Fuera del rango” o “No hay ningún mensaje” Servicio se muestra en la pantalla de los teléfonos). Como una persona que llama utiliza el teléfono y se mueve de una célula a otra, la frecuencia se pasa de una célula a la siguiente. El portador mantiene la frecuencia necesaria para comunicarse con la persona en el otro extremo y controla continuamente la intensidad de la señal.

Si la persona que llama se mueve de una red de transportistas a la de otro, la llamada no será dado de baja, pero la mandíbula personas que llaman pueden caer cuando ve que las tarifas de itinerantica en su proyecto de ley. Los primeros teléfonos móviles eran voluminosos y tenían antenas (izquierda), los teléfonos inteligentes de hoy (abajo) son más pequeños y mucho más potente.

E

10

Page 12: El poder de la información

12

11 Internet (1969)

racias al internet, la mayoría de los aspectos de la vida se están moviendo en línea más que nunca antes. Lo que comenzó como una

colaboración entre la academia, gobierno e industria a finales de 1960 y principios de 1970 se ha convertido en una infraestructura de gran cantidad de información.

El Internet funciona gracias a unas pocas tecnologías. El primero es la conmutación de paquetes, lo cual los datos están contenidos en las unidades de formato especial, o paquetes, que se dirigen desde el origen al destino a través de los conmutadores de red y routers. Cada paquete contiene información sobre la dirección que identifica el remitente y el destinatario. Usando una dirección, conmutadores de red y routers a determinar la mejor forma de transferir el paquete entre los puntos en el camino hacia su destino.

El Internet también se basa en un concepto clave conocida como red de arquitectura abierta. En cierto

sentido, esto es lo que hace que el Internet de Internet. Con este concepto, los diferentes proveedores pueden utilizar cualquier tecnología de red individual que quieran, y las redes de trabajar juntos a través de una arquitectura de interconexión de redes. Por lo tanto estas redes actúan como pares por una y otra y ofrecen sin fisuras de extremo a extremo de servicio.

Una importante tecnología de tercera es la transmisión de control / Protocolo de Internet, y TCP / IP. Esto es lo que hace que una red abierta de arquitectura sea posible. Piense en ello como la lengua de comunicación básica de Internet. TCP reúne un mensaje o archivo en pequeños paquetes que son transmitidos a través de la dirección IP internet, e IP lee la parte de dirección de cada paquete para que llegue a su destino correcto. Cada equipo de puerta de enlace en la red comprueba esta dirección para determinar dónde enviar el mensaje.

Nota: Se estima que más de dos millones de personas en todo el mundo accede a Internet en

2011.

G

Un mapa de uso de Internet en todo el mundo muestra la densidad de conexiones en América del Norte y Europa

Page 13: El poder de la información

13

EL PODER DE LA INFORMACION

12 Nanotecnología (1959)

finales de 1959 el objetivo de crear dispositivos más pequeños y más pequeños estaba en las mentes de los

científicos e investigadores, y han hecho algún progreso. Por ejemplo, los inventores has desarrollado motores que eran aproximadamente del tamaño de una punta de dedo. Richard Feynman profesor de física, de un Instituto de Tecnología de California, previo avances más grandiosos. En la tarde del 29 de Diciembre de 1959, el dio su ahora famosa platica sobre nanotecnología en un evento para la Sociedad Americana de Física. En su plática, titulada “Hay mucho espacio en el fondo” el describió la habilidad para escribir la Enciclopedia Británica completa en la cabeza de un alfiler usando herramientas o maquinas del tamaño de un átomo. La visión de Feynman de la nanotecnología considero muchas de sus aplicaciones prácticas. Baso después sus ideas revolucionarias en el hecho de que cada célula viva de un organismo contiene toda la información de genética necesitada para crear ese organismo. Esta era su prueba de que el almacenamiento de grandes volúmenes de datos se monta en objetos diminutos ha sido posible.

Vidrio resistente al fuego contiene una capa de nano

partículas de sílice que ayuda a soportar temperaturas de

arriba de 1800 F por más de dos horas

A

Page 14: El poder de la información

14

Circuitos

Integrados (1958)

ircuitos integrados (ICs) se encuentran en casi

todos los usos dispositivo electrónico de hoy, desde

teléfonos celulares a los conjuntos de Televisión.

Un circuito electrónico complejo, cada IC contiene un

diodo, un transistor, una resistencia, y un condensador.

Estos componentes trabajan juntos para regular el flujo

de la electricidad mediante un dispositivo. Sin embargo,

los circuitos integrados tienen desventajas: Todas las

conexiones deben permanecer intactos o el dispositivo

no funcionará, y la velocidad es un factor

definitivamente. Si los componentes de la IC son

demasiado largos, por ejemplo, el dispositivo es lento e

ineficaz.

En 1958, Jack Kilby americanos y Robert Noyce

separado resuelto este problema utilizando el mismo

material para la construcción tanto en el circuito

integrado y el chip que se sentó en. Los cables y

componentes ya no tenían que montar manualmente.

Los circuitos podrían hacerse más pequeño, y el proceso

de fabricación podría ser automatizado. (Para demostrar

lo pequeño que estos circuitos se puede, considere esto:

El original sólo tenía un CI de transistores, resistencias

de tres, y un condensador, y era del tamaño del dedo

meñique de un adulto de hoy, un CI inferior a un

centavo. puede contener 125 millones de transistores.)

En 1961, los primeros circuitos integrados disponibles

comercialmente, se han introducido, y los fabricantes de

ordenadores de inmediato vio la ventaja que ofrecen. En

1968, Noyce fundaron Intel, la compañía que introdujo el

microprocesador, el cual tomó la IC un paso más allá

mediante la colocación de una unidad central de

procesamiento, la memoria y los controles de entrada y

salida en un pequeño chip.

>>Nota: la invención de los semiconductores en 1911

allanó el camino para el desarrollo de circuitos integrados.

C

13 Los circuitos integrados

se han montado en

placas de circuitos de

ordenador.

Page 15: El poder de la información

15

La computación en

nube

n el pasado, la informática se basó en una infraestructura física: routers, tubos de datos, hardware y servidores. Estos elementos no

han desaparecido ni es probable que desaparezca conjuntamente perfil, pero el proceso de entrega de los recursos y servicios se está moviendo a un modelo en el que se utiliza el Internet para almacenar teh aplicaciones necesarias. una benéfica inmediata de este modelo es un costo menor. por ejemplo, las empresas ya no tienen que comprar licencias de software individuales para cada empleado. con el cloud computing, un cinco años de aplicación de acceso único de múltiples usuarios a distancia para el software. basado en la web de correo electrónico, como Gmail de Google, es un ejemplo de cloud computing. para entender el concepto de cloud computing, que ayuda a pensar en términos de capas. las capas frontales son lo que los usuarios ver e interactuar con-una cuenta de Facebook, por ejemplo. la parte final consiste en la arquitectura de hardware y software que se ejecuta la interfaz de usuario en la parte delantera. ya que los equipos se configuran en una red, las aplicaciones pueden tomar ventaja de toda la potencia de cálculo combinado como si se estuvieran ejecutando en una máquina. en particular. si bien hay ventajas de este modelo, no carece de inconvenientes. privacidad y la seguridad son dos de las mayores preocupaciones.

Después de todo, una empresa está permitiendo que los datos importantes, potencialmente sensibles a residir en la Internet, donde, en teoría, cualquier persona podría acceder a él. Las empresas que ofrecen servicios de computación en la nube, sin embargo, están muy motivados para garantizar la privacidad y seguridad de su reputación están en juego. Un sistema de autenticación que utiliza los nombres de usuario y contraseñas u otro tipo de autorización de ayuda para asegurar la privacidad. 3 aplicaciones de computación en la nube, por las definiciones, residen en el WORLD WIDE WEB. 6 El ordenador personal es el medio por el cual la mayoría de las personas tendrán acceso a la nube. 8 criptografía de clave pública permite el cifrado de la información transmitida electrónicamente privado. 11 de la fundación de la INTERNET computación en nube y permite a los usuarios ejecutar aplicaciones en otros equipos de la propia. 19 RED DE GRAN ESCALA suministro eléctrico es necesario para el uso de la Infraestructura de computación en nube

E

14

Page 16: El poder de la información

16

EL PODER DE LA INFORMACIÓN

Teoría de la información

(1948)

a teoría de la información tiene su origen en un documento de 1948 por el ingeniero estadounidense matemático Claude Shannon. La

teoría matemática de la comunicación. Esta teoría permite que la información en un mensaje para ser cuantificadas, por lo general como bits de datos que representan uno de dos estados dentro o fuera. También dicta cómo codificar y transmitir la información en la presencia de ruido, que puede corromper un mensaje en el camino.

El corazón de la teoría de Shannon es el

concepto de incertidumbre. la mayor incertidumbre

que existe con respecto a lo que la señal es, más bits

de información están obligados a asegurarse de que

la información esencial se transmite. Shannon llamó

a esta medida de la incertidumbre basada en la

entropía de la información. Él demostró

matemáticamente que una señal puede ser

codificado, reducido a su forma más simple,

eliminando así la interferencia o ruido para

transmitir un mensaje claro, y sólo el mensaje.

Aunque no es siempre una posibilidad de error en la

transmisión, la aplicación de la teoría de la

información enormemente minimiza esta

posibilidad.

A través de la teoría de la codificación, una

rama importante de la teoría de la información, los

ingenieros estudian las propiedades de los códigos

con el propósito de diseñar datos eficientes y

confiables, eliminando la redundancia y los errores

en los datos transmitidos. Tiene dos características

primarias. La codificación de fuente es un intento de

comprimir los datos de una fuente con el fin de

transmitir los datos de manera más eficiente (si

alguna vez ha comprimido en un archivo para enviar

a alguien, usted ha visto codificación de origen en la

acción). La codificación de canal añade bits

adicionales de datos para hacer la transmisión de

datos más resistente a las perturbaciones presentes

en el canal de transmisión. Consola de mezcla de música electrónica combina, rutas y cambios en la dinámica de las señales de audio

L

15

Page 17: El poder de la información

17

16 Transistor (1947)

ransistor es un tipo de semiconductor, sin

que los modernos dispositivos electrónicos

incluidos los ordenadores-no podía

funcionar, aunque hay varios tipos diferentes de

transistor, al contener una pieza sólida de material

semiconductor, con al menos tres terminales que

se pueden conectar a una externa circuito. esta

tecnología transfiere corriente a través de un

material que normalmente tiene una alta resistencia

en otras palabras un Resisto, de ahí, es una

resistencia de transferencia, acortado a transistor.

antes de la introducción de los ordenadores

transistor operados por era de tubos de vacío, que

eran voluminosos y caros de producir. los

ordenadores más potentes contenida miles de

ellos, por lo que las primeras computadoras llena

de habitaciones enteras, en 1947 los físicos John

Bardeen americano y Walter Brattain un Bell Labs

observó que cuando los contactos eléctricos

se aplicaron a un cristal de germanio, la energía

generada fue mayor que el poder utilizada.

Estadounidense William Shockley, también físico,

vio el potencial en este, uno más de los próximos

meses el equipo ha trabajado para ampliar sus

conocimientos de los semiconductores. En 1956 los

tres hombres ganó el Premio Nobel de Física por

inventar el transistor.

¿Por qué es tan importante que el transistor de la

electrónica moderna? Entre otras ventajas, se

puede massproduced utilizando un proceso

altamente automatizada para un costo

relativamente bajo. Además, los transistores se

pueden producir por separado o, más comúnmente,

empaquetado en circuitos integrados con otros

componentes para producir completos circuitos

electrónicos.

T

El transistor fue

inventado en 1947 para

remplazar el tubo de

vacio voluminoso y caro

100 descubrimientos científicos que cambiaron el mundo

Page 18: El poder de la información

18

Satélites de

Comunicación (1945)

unque la mayoría de la gente lo conoce como un prolífico autor de ciencia ficción C. Clarke hizo una contribución significativa a la

tecnología de la comunicación. En octubre de 1945, expuso su concepto de los satélites de comunicaciones geoestacionarios en un artículo titulado "extraterrestres", los relés de las estaciones de cohetes puede dar la cobertura de radio en todo el mundo? ", aunque Clarke no fue el primero en llegar a la teoría, fue el primero en popularizar él.

La órbita geoestacionaria término se refiere a la órbita de la posiciónde un satélite alrededor de la tierra `s. La órbita de un geosincrónicas repite regulary satelitales sobre puntos específicos. cuando la órbita regular se encuentra sobre la línea ecuatorial y es circular, se llama geoestacionaria.

Las ventajas de los satélites geoestacionarios son muchas. Recibir y transmitir las antenas en el

suelo no es necesario realizar un seguimiento de los satélites, ya que no vacilan en sus órbitas. antenas sin seguimiento son más baratas que las antenas de seguimiento,

Por lo que la Costa del funcionamiento de dicho sistema se reducen. las desventajas: debido a que los satélites son tan altos, las señales de radio tardan un poco más que recibio y se transmite, lo que resulta en un retardo de la señal pequeña pero significativa. Además, estos satélites tienen una cobertura geográfica incompleta, ya que la estación terrestre en el más alto que aproximadamente el 60 º de latitud tienen dificultades para recibir las señales de forma fiable en elevaciones más bajas.

Independientemente de las desventajas, no se puede negar que los satélites de comunicación han revolucionado áreas como las comunicaciones globales, la radiodifusión, la Televisión y los pronósticos meteorológicos, y que tienen una defensa importante y las aplicaciones de inteligencia.

A

17

Satélites

geoestacionarios

ORBITA DE TIERRA

Page 19: El poder de la información

19

18 Ondas de Radio (1888)

l físico escocés James Clerk Maxwell fue uno de los primeros científicos que especulo sobre la naturaleza del electromagnetismo.

Las ecuaciones que formulo describen el comportamiento de los campos eléctricos y magnéticos, así como sus interacciones con la materia. Maxwell teorizo que los campos eléctricos y magnéticos viajan a través del espacio vacío, en forma de ondas y ondas de radio son dos formas de radiación electromagnética. En 1888, el físico alemán Heinrich Hertz fue el primero en demostrar la teoría de Maxwell satisfactoriamente cuando probó la existencia de las ondas de radio. Hertz hizo esto mediante la construcción de un dispositivo que puede detectar muy altas frecuencias y ondas de ultra alta frecuencia de radio. Publico su trabajo en un libro titulado

ondas eléctricas: los investigadores se encuentran sobre la propagación de la acción eléctrica con velocidad finita a través del espacio. Estos experimentos ampliaron considerablemente el campo de la transmisión electromagnética, y otros científicos en el campo con el tiempo desarrollaron la antena del receptor Hertz. Hertz también encontró que las ondas de radio se pueden transmitir a través de diferentes tipos de materiales y se refleja por otros. Este descubrimiento condujo finalmente a la invención del radar. Incluso allanó el camino para la comunicación inalambrica, aunque él nunca reconoció ese importante aspecto de sus experimentos. En reconocimiento a sus contribuciones Hertz fue designado de manera oficial en el sistema métrico internacional desde 1933. Es el término utilizado para las unidades de frecuencias de radio y eléctricas.

>>Hecho: las ondas de radio han ayudado a desarrollar este tipo de dispositivos

inalámbricos como teléfonos y teclados de las computadoras...

E

Obras de arte

representa los

picos y valles de

las ondas de radio.

Page 20: El poder de la información

20

EL PODER DE LA INFORMACIÓN

Gran Escala de la Red de Suministro Eléctrico

(1880)

l inventor Thomas Edison fue el primero en idear y poner en práctica la generación de energía eléctrica y la distribución a los

hogares, negocios, fábricas y un hito clave en el desarrollo de la moderna industrializada de world.Edison patentado este sistema en 1880 con el fin de capitalizar su invención de la eléctrica de la lámpara, no era nada si no es un astuto hombre de negocios, en diciembre 17,1880, fundó la empresa Edision iluminación, con sede en la calle Pearl de generación eléctrica de la estación del sistema de distribución de energía, lo que propició 110 voltios de corriente directa a cerca de 60 clientes en el bajo Manhattan .

Aunque Edison perdió la llamada guerra de las corrientes que siguió con la consecuencia de que la corriente alterna se convirtió en el sistema a través de energía eléctrica cual se distribuyó su sistema de distribución de energía es todavía significativo para unas pocas razones .Esta establecido el valor comercial de tal sistema, y este ayudó para simular los avances en el campo de la ingeniería eléctrica, como la gente empezó a ver el campo como una ocupación valiosa. Por ejemplo. El ingeniero eléctrico estadounidense Charles Proteus Steinmetz, a través de su trabajo en corriente alterna hizo posible la expansión de la industria de energía eléctrica en los Estados Unidos mediante la formulación de las teorías matemáticas para los ingenieros quienes estuvieron diseñando motores eléctricos para la industria.

E

19

Page 21: El poder de la información

21

Lógica Boleana (1854)

as operaciones de las computadoras están basadas sobre una cosa: determinando si una puerta o interruptor es abierto o serrada, la cual es a menudo

señalada por los números cero y uno, esta es la esencia lógica de Boolean que subyacen en toda la computación moderna. El concepto fue llamado después del inglés matemático George Boolean, quien definió un sistema algebraico de lógica en 1854. La motivación de Boole para crear esta teoría fue su creencia de que el símbolo de operación matemático podría ser separado de esa cantidad y podría ser tratado como objeto distinto de cálculo.

De hecho aunque inventó en el siglo XIX Boolean Logic forma la base de casi 21 siglo en la búsqueda del internet.

Casi un siglo más tarde, Claude Shannon mostro ese circuito electrónico con relés que eran modelos perfectos para la lógica de Boolean, un hecho que llevó al desarrollo de la computadora electrónica.

Las computadoras usan la lógica de Boolean para decidir si una instrucción es verdadera o falsa (esta tiene que hacer con un valor, no con veracidad). Hay tres puertas básicas: AND, OR, and NOT. La operación de AND dice que sí y solamente si todas las entradas están encima, la salida será acabo. La operación OR dice que si alguna entrada está activada, la salida estará encima. La operación NOT dice que la salida tendrá un estado opuesto a la de la entrada.

L

20

0= OPEN

1= CLOSED

La tradición algebraico a la

lógica desarrollado por el

Ingles Matemático George

Boole (arriba) hoy se

encuentra la aplicación en

varios tipos de toma de

desiciónes (a la izquierda)

Page 22: El poder de la información

22

Material Programable

aterial programable, que se introdujo por

primera vez por el Massachusetts Institute of

Technology (MIT) los investigadores

Tommaso Toffoli y Margolus Norman en un

documento de 1991, se está convirtiendo en una

realidad, aunque a una escala relativamente

pequeña.

Materia programable es un asunto que puede

simular o de los objetos diferentes como

consecuencia de la entrada del usuario ya sea o de

sus propios cómputos. Algunos materia programable

está diseñado para crear formas diferentes, mientras

que otras materias, tales como las células biológicas

sintéticas, está programado para funcionar como un

interruptor genético que se activa y señala a otras

células para cambiar las propiedades como el color o

la forma. Los beneficios potenciales y aplicaciones

programables de la materia-en particular, la

posibilidad de usarlo para realizar el procesamiento

de la información y otras formas de computación-han

creado un montón de emoción en el mundo de la

investigación. Desde la publicación de Toffoli y papel Margolus,

el trabajo se ha hecho mucho para cumplir con el

potencial de lo que predijeron.

1 NANOLITOGRAFÍA

En 2008, por ejemplo, Intel Corporación anunció que

sus investigadores habían utilizado materia

programable desarrollar los primeros prototipos de un

dispositivo de teléfono celular en la escala en

centímetros y milímetros. En 2009, la Defense

Advanced Research Projects Agency del

Departamento de Defensa de EE.UU, informó que

cinco equipos diferentes de investigadores de la

Universidad de Harvard, el MIT y la Universidad de

Cornell están haciendo progresos en la investigación

de la materia programable. En 2010 uno de estos

equipos, dirigido por Daniela Rus, del MIT, ha

anunciado su éxito en la creación de auto-plegado de

las hojas de origami. La Defense Advanced Research

Projects Agency puertos espera para aplicación

futurista del concepto. Sus miembros prever, por

ejemplo, un soldado equipado con un cubo de

material ligero programable que podría configurarse,

en el lugar, en casi cualquier cosa que él o ella sea

necesario.

12

NANOTECNOLOGÍA

M

21

Origami-como

diseños de

proyectos de

unidad en la

escala nano micro

y uniforme.

Page 23: El poder de la información

23

Cuando está plegado,

el telescopio prototipo

de gafas no mide más

de 15 pies de ancho.

Desplegado

300 pies

amplio

Los motores

programados desplegar

el telescopio de 300 pies

de ancho cuando haya

sido lanzado al espacio.

Su gran lente enfoca la

luz sobre un ocular de

socio en órbita

alrededor de la mitad de

una milla de distancia.

Desplegado

10-15 pies

amplio

Page 24: El poder de la información

24

EL PODER DE LA INFORMACIÓN

Máquina Diferencial (1822)

harles Babbage, un matemático, filósofo, inventor, e ingeniero mecánico Inglés, se dio cuenta en 1822 que un motor de tipo podría

ser programado con el uso de tarjetas de papel que almacenan información en columnas que contienen patrones de agujeros perforados. Babbage vio que una persona podría programar una serie de instrucciones por medio de tarjetas perforadas,

y la máquina automáticamente podría llevar a cabo esas instrucciones. El uso previsto de la máquina diferencial de Babbage fue calcular diversas funciones matemáticas, tales como logaritmos. A pesar de que nunca se completó, es considerado uno de los primeros propósitos generales de las

computadoras digitales.

>>DATO: En 2011 los investigadores británicos comenzaron la construcción del motor Babbage diseñado pero nunca construido.

C

22

Un prototipo de la diferencia del motor de Babbage No.2

Page 25: El poder de la información

25

EL PODER DE LA INFORMACIÓN

Números Binarios/ Código binario(1697)

n 1670 el filosofo y matemático Gottfried Wilhelm Leibniz filósofo y matemático alemán cuyos logros

incluyen la invención del cálculo, y muchos de los avances importantes en las matemáticas, la lógica y la ciencia inventó una máquina aritmética que podía multiplicar, así como añadir. Leibniz también vio cómo su equipo podía ser modificado para utilizar un sistema binario de cálculo un concepto que está en el corazón de la computación digital. Enel sistema binario de Leibniz el termino binario se refiere a un sistema de

números, mediante el cual todos los valores son expresados con los números1 y 0, el sistema binario se puede entender mejor por contraste con la base 10 del sistema actual, que expresa los números del 0 al 9. En la base 10, el número 367, por ejemplo, representa 3 * 100 +6 * 10 +7 * 1. Cada posición en el número 367 representa una potencia de diez, a partir de cero y el aumento de derecha a izquierda.En el binario o base 2 del sistema. Cada posición representa una potencia de dos. Por lo que en binario 1101 representa 1 * 2^2+1*2+0*2+1 * 2º, el cual es igual a 8+4+0+1, o 13.

E

E

23

En el código

binario toda la

información esta

expresada por los

números 1 y 0.