Upload
antonio-onate
View
217
Download
0
Embed Size (px)
DESCRIPTION
descripcion de la materia
Citation preview
QUE ES INFORMATICA
El vocablo informática proviene del alemán informatik acuñado por Karl Steinbuch en 1957.aparecieron
en francés, italiano, español, rumano, portugués y holandés, entre otras lenguas, refiriéndose a la
aplicación de las computadoras para almacenar y procesar la información. Es una contracción de las
palabras information y automatik (información automática). En lo que hoy día conocemos como
informática confluyen muchas de las técnicas, procesos y máquinas (ordenadores) que el hombre ha
desarrollado a lo largo de la historia para apoyar y potenciar su capacidad de memoria, de pensamiento
y de comunicación. En el Diccionario de la lengua española de la Real Academia Española se define
informática .
Conceptualmente, se puede entender como aquella disciplina encargada del estudio de métodos,
procesos, técnicas, desarrollos y su utilización en ordenadores (computadoras), con el fin de almacenar,
procesar y transmitir información y datos en formato digital. En 1957 Karl Steinbuch acuñó la palabra
alemana Informatik en la publicación de un documento denominado Informatik: Automatische
Informationsverarbeitung (Informática: procesamiento automático de información). En ruso, Alexander
Ivanovich Mikhailov fue el primero en utilizar informatika con el significado de «estudio, organización, y
la diseminación de la información científica», que sigue siendo su significado en dicha lengua
IMPORTANCIA DE LA INFORMATICA
La informática es la disciplina que estudia el tratamiento automático de la información utilizando
dispositivos electrónicos y sistemas computacionales. También es definida como el procesamiento de la
información en forma automática. Para esto los sistemas informáticos .
El vocablo Informática es proveniente del francés informatique, acuñado por el ingeniero Philippe
Dreyfus en 1962, es acrónimo de las palabras information y automatique. En lo que hoy conocemos
como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a
lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de
comunicación.La informática se aplica a numerosas y variadas áreas, como por ejemplo: gestión de
negocios, almacenamiento y consulta de información, monitorización y control de procesos, robots
industriales, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño
computarizado, aplicaciones/herramientas multimedia, etc.
QUE ES HADWARE
Hardware (pronunciación AFI: *ˈhɑːdˌwɛə+ ó *ˈhɑɹdˌwɛɚ+) corresponde a todas las partes tangibles de un
sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos.1 Son
cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado;
contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma
inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por
tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de
los componentes que integran la parte material de una computadora».2 El término, aunque es lo más
común, no solamente se aplica a una computadora tal como se la conoce, también, por ejemplo, un
robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware (y
software).3 4
La historia del hardware del computador se puede clasificar en cuatro generaciones, cada una
caracterizada por un cambio tecnológico de importancia. Este hardware se puede clasificar en: básico, el
estrictamente necesario para el funcionamiento normal del equipo; y complementario, el que realiza
funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (UCP/CPU), encargada de
procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y
uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva)
a los datos procesados
TIPOS DE HARDWARE
Una de las formas de clasificar el hardware es en dos categorías: por un lado, el "básico", que abarca el
conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima a una
computadora; y por otro lado, el hardware "complementario", que, como su nombre indica, es el
utilizado para realizar funciones específicas (más allá de las básicas), no estrictamente necesarias para el
funcionamiento de la computadora.
Así es que: un medio de entrada de datos, la unidad central de procesamiento (C.P.U.), la memoria
RAM, un medio de salida de datos y un medio de almacenamiento constituyen el "hardware básico".
Los medios de entrada y salida de datos estrictamente indispensables dependen de la aplicación: desde
el punto de vista de un usuario común, se debería disponer, al menos, de un teclado y un monitor para
entrada y salida de información, respectivamente; pero ello no implica que no pueda haber una
computadora (por ejemplo controlando un proceso) en la que no sea necesario teclado ni monitor; bien
puede ingresar información y sacar sus datos procesados, por ejemplo, a través de una placa de
adquisición/salida de datos
QUE ES SOFTWARE
Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático,
comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de
tareas específicas, en contraposición a los componentes físicos, que son llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el
procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de
textos; el software de sistema, tal como el sistema operativo, que, básicamente, permite al resto de los
programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y
el resto de las aplicaciones, y proporcionando una interfaz con el usuario.
MEMORIA RAM
La memoria de acceso aleatorio (en inglés: random-access memory),se utiliza como memoria de trabajo
para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las
instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso
aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual
para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera
más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de
memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los
módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria
principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM
indicando fallos mayores en la misma.
MEMORIA ROM
Es memoria no volátil de solo lectura. Igualmente, también hay dos características a destacar en esta
definición. La memoria ROM es memoria no volátil: Los programas almacenados en ROM no se pierden
al apagar el ordenador, sino que se mantienen impresos en los chips ROM durante toda su existencia
además la memoria ROM es, como su nombre indica, memoria de solo lectura; es decir los programas
almacenados en los chips ROM son inmodificables. El usuario puede leer ( y ejecutar ) los programas de
la memoria ROM, pero nunca puede escribir en la memoria ROM otros programas de los ya existentes.
La memoria ROM es ideal para almacenar las rutinas básicas a nivel de hardware, por ejemplo, el
programa de inicialización de arranque el ordenador y realiza el chequeo de la memoria y los
dispositivos.La memoria ROM suele estar ya integrada en el ordenador y en varios periféricos que se
instalan ya en el ordenador. Por ejemplo, en la placa madre del ordenador se encuentran los chips de la
ROM BIOS, que es el conjunto de rutinas mas importantes para comunicarse con los dispositivos. O,
también, las tarjetas de vídeo, las tarjetas controladoras de discos y las tarjetas de red tienen un chip de
ROM con rutinas especiales para gestionar dichos periféricos.
GENERACIONES DE LAS COMPUTADORAS
Las primeras computadoras eran verdaderos gigantes, como la ENIAC. Las siglas de ENIAC corresponden
a Electronic Numerical Integrator and Computer fue el nombre que recibió la primera computadora
electrónica que en 1943 comenzaron a construir John W. Mauchly y John P. Eckert en la universidad de
Pensilvania (EE.UU.). Esta enorme máquina medía más de 30 metros de largo y pesaba 32 toneladas,
estaba compuesta por 17.468 válvulas. El calor de las válvulas elevaba la temperatura de la sala donde
se hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones para las que se había
diseñado. Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había terminado. El fin de la
contienda hizo que los esfuerzos hasta entonces dedicados principalmente a objetivos militares, se
destinaran también a otro tipo de investigación científica más relacionada con las necesidades de la
empresa privada. Los esfuerzos múltiples dieron resultados en 1945 Mauchly y Eckert comenzaron a
trabajar en una sucesora de la ENIAC, el EDVAC (Electronic Discrete Variable Automatic Computer) y
Aiken inició el diseño de la Mark II. En 1951, el que está considerado como la primera computadora
ampliamente comercializada, la UNIVAC I , comenzó a funcionar con éxito. En 1952 John Neumann y
Herman Goldstine construyeron la computadora IAS, que incorporaba notables mejoras al respecto a
sus predecesoras. En 1928 la empresa Fairchild y Texas Instruments produjeron los primeros circuitos
integrados basados en semiconductores y en 1962, Steven Russell creó el primer juego para
computadoras. Se llamaba Spacewar y desde la evolución ha sido continua. En 1952 la computadora
UNIVAC se utilizó para realizar el recuento de votos en las elecciones presidenciales de EE.UU. El
resultado victoria ( Eisenhower sobre Adlai Stevenson ) se conoció 45 minutos después de que se
cerraran los colegios electorales.
CPU
La unidad central de procesamiento, UCP o CPU (por el acrónimo en inglés de central processing unit), o
simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos
programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU
proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de
los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el
almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU
que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los
microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en
día, el término "CPU" es aplicado usualmente a todos los microprocesadores.
La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase
de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia
definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho
antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo
han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960. La
forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros
ejemplos, pero su operación fundamental ha permanecido bastante similar.
MICROPROCESADORES
Desde la introducción del primer microprocesador, el Intel 4004, en 1971, y del primer microprocesador
ampliamente usado, el Intel 8080, en 1974, esta clase de CPUs ha desplazado casi totalmente el resto de
los métodos de implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y
minicomputadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar
sus más viejas arquitecturas de computador, y eventualmente produjeron microprocesadores con
conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares.
Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo computadora personal, el
término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores.
Las generaciones previas de CPUs fueron implementadas como componentes discretos y numerosos
circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado,
los microprocesadores son CPUs fabricados con un número muy pequeño de IC; usualmente solo uno. El
tamaño más pequeño del CPU, como resultado de estar implementado en una simple pastilla, significa
tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la capacitancia
parásita de las puertas.
MONITOR O PANTALLA
Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome Display
Adapter) eran monitores monocromáticos (de un solo color) de IBM.
Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal, e
invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics
Adapter-gráficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta
gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC
optaban por comprar el monitor monocromático por su costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de graficos
mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más
colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array - graficos de
video arreglados) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para
solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también
aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de
fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.
QUE ES UNA IMPRESORA
Una impresora es un periférico de ordenador que permite producir una gama permanente de textos o
gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos,
normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser.
Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un
cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente
wireless o ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento
para cualquier usuario de la red.
Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia
electrónicos como las tarjetas CompactFlash, Secure Digital o Memory Stick, pendrives, o aparatos de
captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que
constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un
escáner puede funcionar básicamente como una fotocopiadora.
QUE ES WORD
La primera versión de Microsoft Word fue un desarrollo realizado por Charles Simonyi y Richard Brodie,
dos ex-programadores de Xerox contratados en 1981 por Bill Gates y Paul Allen. Estos programadores
habían trabajado en Xerox Bravo, que fuera el primer procesador de textos desarrollado bajo la técnica
WYSIWYG (“What You See Is What You Get”); es decir el usuario podía ver anticipadamente, en pantalla,
el formato final que aparecería en el impreso del documento. Esta primera versión, Word 1.0, salió al
mercado en octubre de 1983 para la plataforma Xenix MS-DOS; en principio fue rudimentario y le
siguieron otras cuatro versiones muy similares que no produjeron casi impacto en las ventas a usuarios
finales.
La primera versión de Word para Windows salió en el año 1989, que si bien en un entorno gráfico
resultó bastante más fácil de operar, tampoco permitió que las ventas se incrementaran notablemente.
Cuando se lanzó al mercado Windows 3.0, en 1990, se produjo el real despegue. A Word 1.0 le
sucedieron Word 2.0 en 1991, Word 6.0 en 1993. El posterior salto en los números de versión se
introdujo a fin de que coincidiera con la numeración del versionado de Windows, tal como fue Word 95
y Word 97. Con la salida del Windows 2000 (1999) también surgió la versión homóloga de Word. La
versión Word 2002 emergió en la misma época que el paquete Microsoft Office XP, en el año 2001. Un
año después le siguió la versión Microsoft Word 2003. Posteriormente se presentó Microsoft Word 2007
junto con el resto de aplicaciones del paquete Office 2007, en esta versión, Microsoft marcó un nuevo
cambio en la historia de las aplicaciones office presentando la nueva interfaz Ribbons más sencilla e
intuitiva que las anteriores (aunque muy criticada por usuarios acostumbrados a las versiones
anteriores). La versión más reciente lanzada al mercado es Microsoft Word 2010, en el mismo año en el
que salió el sistema Microsoft Windows 7.
QUE ES UNA TARJETA MADRE
La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o
mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la
computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil.
Tiene instalados una serie de circuitos integrados, entre los que se encuentra el chipset, que sirve como
centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de
expansión y otros dispositivos.
Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para
conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes
dentro de la caja.
La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades
básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y
carga del sistema operativo.
Que es un escáner
Un escáner de computadora (escáner proviene del idioma inglés scanner) es un periférico que se utiliza
para convertir, mediante el uso de la luz, imágenes impresas o documentos a formato digital. El scanner
nace en 1984 cuando Microtek crea el MS-200, el primer scanner blanco y negro que tenia una
resolución de 200dpi. Este scanner fue desarrollado para Apple Macintosh. Los escáneres pueden tener
accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias.
Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o
también digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo
dispositivo o aplicaciones especiales.