Upload
geovanna-mejia
View
215
Download
1
Embed Size (px)
DESCRIPTION
descrpcion de la materia
Citation preview
QUE ES UNA COMPUTADORA
Una computadora o computador (del inglés computer y este del latín computare -calcular),
también denominada ordenador (delfrancés ordinateur, y este del latín ordinator), es
una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una
computadora es una colección de circuitos integrados y otros componentes relacionados que
puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o
automáticamente por otro programa, una gran variedad
de secuencias o rutinas deinstrucciones que son ordenadas, organizadas y sistematizadas en
función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al
cual se le ha denominado con el nombre de programación y al que lo realiza se le
llama programador. La computadora, además de la rutina o programa informático, necesita de
datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de
entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para
proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output"
o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o
retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o
remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada
o almacenada en algún tipo de dispositivo o unidad de almacenamiento.
La característica principal que la distingue de otros dispositivos similares, como
la calculadora no programable, es que es una máquina de propósito general, es decir, puede
realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de
programación y el hardware.
QUE ES INFORMATICA
Conceptualmente, se puede entender como aquella disciplina encargada del estudio de
métodos, procesos, técnicas, desarrollos y su utilización en ordenadores (computadoras), con
el fin de almacenar, procesar y transmitir información y datos en formato digital. En 1957 Karl
Steinbuch acuñó la palabra alemana Informatik en la publicación de un documento
denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento
automático de información). En ruso, Alexander Ivanovich Mikhailov fue el primero en
utilizar informatika con el significado de «estudio, organización, y la diseminación de la
información científica», que sigue siendo su significado en dicha lengua.[cita requerida]
. En inglés, la
palabra Informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en
1962, cuando Bauer cofundó la empresa denominada «Informatics General, Inc.». Dicha
empresa registró el nombre y persiguió a las universidades que lo utilizaron, forzándolas a
utilizar la alternativa computer science. La Association for Computing Machinery, la mayor
organización de informáticos del mundo, se dirigió a Informatics General Inc. para poder utilizar
la palabra informatics en lugar de computer machinery, pero la empresa se negó. Informatics
General Inc. cesó sus actividades en 1985, pero para esa época el nombre de computer
science estaba plenamente arraigado. Actualmente los angloparlantes utilizan el
término computer science, traducido a veces como «Ciencias de la computación», para
designar tanto el estudio científico como el aplicado; mientras que designan como information
technology ( o data processing, traducido a veces como «tecnologías de la información», al
conjunto de tecnologías que permiten el tratamiento automatizado de información.
MONITOR
Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome
Display Adapter) eran monitores monocromáticos (de un solo color) de IBM.
Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva,
normal, e invisibilidad para textos. Poco después y en el mismo año salieron los monitores
CGA (Color Graphics Adapter-gráficos adaptados a color) fueron comercializados en 1981 al
desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la
vez que los MDA los usuarios de PC optaban por comprar el monitor monocromático por su
costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de
graficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este
monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA
(Video Graphics Array - graficos de video arreglados) fue un estándar muy acogido y dos años
más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando
así SVGA (Super VGA), que también aumentaba colores y resoluciones, para este nuevo
estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como
S3 Graphics, NVIDIA o ATI entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían
estando en la mayoría de hogares donde había un ordenador.
TECLADO
En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el
teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que
actúen como palancas mecánicas o interruptores electrónicos que envían información a la
computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través
de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las
computadoras. El teclado tiene entre 99 y 127 teclas aproximadamente, y está dividido en
cuatro bloques:
1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de
F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en
muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa.
2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los
números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además
de algunas teclas especiales.
3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas
especiales como ImprPant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir,
RePág, AvPág, y las flechas direccionales que permiten mover el punto de inserción en las
cuatro direcciones.
4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa al presionar la
tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin
de facilitar la digitación de cifras. Además contiene los signos de las cuatro operaciones
básicas: suma +, resta -, multiplicación * y división /; también contiene una tecla de Intro o
Enter.
RATON
El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador utilizado para
facilitar el manejo de un entorno gráfico en unacomputadora. Generalmente está fabricado
en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos
dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de
un puntero o flecha en el monitor.
Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las
personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla
táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en
el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el
reconocimiento de voz.
UNIDAD CENTRAL DE PROCESAMIENTO
La unidad central de procesamiento, UCP o CPU (por el acrónimo en inglés de central
processing unit), o simplemente el procesador omicroprocesador, es el componente del
computador y otros dispositivos programables, que interpreta las instrucciones contenidas en
los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la
computadora digital (la programabilidad) y son uno de los componentes necesarios
encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y
los dispositivos deentrada/salida. Se conoce como microprocesador el CPU que es
manufacturado con circuitos integrados. Desde mediados de los años 1970, los
microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y
hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.
La expresión "unidad central de proceso" es, en términos generales, una descripción de una
cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora.
Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores
que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el
término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo
menos desde el principio de los años 1960. La forma, el diseño y la implementación de los CPU
ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha
permanecido bastante similar.
Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande,
generalmente una computadora única en su especie. Sin embargo, este costoso método de
diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y
se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados
adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó
generalmente en la era de los transistores discretos,computadoras centrales,
y microcomputadoras, y fue acelerada rápidamente con la popularización del circuito
integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en
espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la
estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la
vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación
dedicadas. Los microprocesadores modernos aparecen en todo,
desde automóviles, televisores, neveras,calculadoras, aviones, hasta teléfonos móviles o
celulares, juguetes, entre otros.
En la actualidad muchas personas llaman CPU al armazón del computador (torre),
confundiendo de esta manera a los principiantes en el mundo de la computación.
IMPRESORA
Una impresora es un periférico de ordenador que permite producir una gama permanente de
textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos en
medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o
tecnología láser.
Muchas impresoras son usadas como periféricos, y están permanentemente unidas al
ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de
red interno (típicamente wireless o ethernet), y que puede servir como un dispositivo para
imprimir en papel algún documento para cualquier usuario de la red.
Además, muchas impresoras modernas permiten la conexión directa de aparatos de
multimedia electrónicos como las tarjetas CompactFlash, Secure Digital o Memory
Stick, pendrives, o aparatos de captura de imagen como cámaras digitales y escáneres.
También existen aparatos multifunción que constan de impresora, escáner o máquinas
de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar
básicamente como una fotocopiadora.
Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no
requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado
documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por
minuto es considerado rápido), y el coste por página es relativamente alto.
Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la
misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de
impresión de gran volumen como sería la impresión de periódicos. Las imprentas son capaces
de imprimir cientos de páginas por minuto o más.
MEMORY FLASH
La memoria flash es una tecnología de almacenamiento —derivada de la memoria EEPROM—
que permite la lecto-escritura de múltiples posiciones de memoria en la misma operación.
Gracias a ello, la tecnología flash, siempre mediante impulsos eléctricos, permite velocidades
de funcionamiento muy superiores frente a la tecnología EEPROM primigenia, que sólo
permitía actuar sobre una única celda de memoria en cada operación de programación. Se
trata de la tecnología empleada en los dispositivos pendrive.
SOFTWARE
Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático,
comprende el conjunto de los componenteslógicos necesarios que hacen posible la realización
de tareas específicas, en contraposición a los componentes físicos, que son llamadoshardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales
como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la
edición de textos; el software de sistema, tal como el sistema operativo, que, básicamente,
permite al resto de los programas funcionar adecuadamente, facilitando también la interacción
entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con
el usuario.
HADWARE
Hardware (pronunciación AFI: [ˈhɑːdˌwɛə] ó [ˈhɑɹdˌwɛɚ]) corresponde a todas las partes
tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos,
electromecánicos y mecánicos.1 Son cables, gabinetes o cajas, periféricos de todo tipo y
cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es
llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras),
su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal
cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes
que integran la parte material de una computadora».2 El término, aunque es lo más común, no
solamente se aplica a una computadora tal como se la conoce, también, por ejemplo, un robot,
un teléfono móvil, una cámara fotográfica o un reproductor
multimedia poseen hardware (ysoftware).3 4
La historia del hardware del computador se puede clasificar en cuatro generaciones, cada una
caracterizada por un cambiotecnológico de importancia. Este hardware se puede clasificar
en: básico, el estrictamente necesario para el funcionamiento normal del equipo;
y complementario, el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (UCP/CPU),
encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el
ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida
(normalmente en forma visual o auditiva) a los datos procesados.
Generaciones de las Computadoras
Todo este desarrollo de las computadoras suele divisarse por generaciones.
Primera Generación (1951-1958)
En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:
Usaban tubos al vacío para procesar información.
Usaban tarjetas perforadas para entrar los datos y los programas.
Usaban cilindros magnéticos para almacenar información e instrucciones internas.
Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad
de calor y eran sumamente lentas.
Se comenzó a utilizar el sistema binario para representar los datos.
En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares).
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.
Segunda Generación (1958-1964)
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero.
Características de está generación:
Usaban transistores para procesar información.
Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad
de calor y eran sumamente lentas.
Se mejoraron los programas de computadoras que fueron desarrollados durante la primera
generación.
Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales
eran comercialmente accsesibles.
Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico
aéreo y simulaciones de propósito general.
La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
Surgieron las minicomputadoras y los terminales a distancia.
Se comenzó a disminuir el tamaño de las computadoras.
Tercera Generación (1964-1971)
La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.
Características de está generación:
Se desarrollaron circuitos integrados para procesar información.
Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza
de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.
Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas
eléctricas.
Surge la multiprogramación.
Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis
matemáticos.
Emerge la industria del "software".
Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.
Consumían menos electricidad, por lo tanto, generaban menos calor.
Cuarta Generación (1971-1988)
Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".
Características de está generación:
Se desarrolló el microprocesador.
Se colocan más circuitos dentro de un "chip".
"LSI - Large Scale Integration circuit".
"VLSI - Very Large Scale Integration circuit".
Cada "chip" puede hacer diferentes tareas.
Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica.
El tercer componente, la memoria primaria, es operado por otros "chips".
Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
Se desarrollan las supercomputadoras.
Quinta Generación (1983 al presente)
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
Se desarrollan las supercomputadoras.
Inteligencia artíficial:
La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento humano usados en la solución de problemas a la computadora.
Robótica:
La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo diseñados con inteligencia artificial, para que puedan responder de manera más efectiva a situaciones no estructuradas.
Sistemas expertos:
Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas.
Redes de comunicaciones:
Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes de comunicaciones; todo el "hardware" que soporta las interconexiones y todo el "software" que administra la transmisión.
Microsoft Word
Fue creado por la empresa Microsoft, y actualmente viene integrado en la suite ofimática Microsoft
Office.1
Originalmente fue desarrollado por Richard Brodie para el computador de IBM bajo sistema
operativo DOS en 1983.Versiones subsecuentes fueron programadas para muchas otras
plataformas, incluyendo, las computadoras IBM que corrían en MS-DOS (1983). Es un componente
de la suite ofimática Microsoft Office; también es vendido de forma independiente e incluido en la
Suite de Microsoft Works. Las versiones actuales son Microsoft Office Word 2010 para Windows y
Microsoft Office Word 2011 para Mac. Ha llegado a ser el procesador de texto más popular
del mundo.
Reseña histórica
En sus inicios, Word tardó más de 5 años en lograr el éxito en un mercado en el que se usaba
comúnmente MS-DOS, y cuando otros programas, como Corel WordPerfect, eran mucho más
utilizados y populares.
La primera versión de Microsoft Word fue un desarrollo realizado por Charles Simonyi y Richard
Brodie, dos ex-programadores de Xeroxcontratados en 1981 por Bill Gates y Paul Allen. Estos
programadores habían trabajado en Xerox Bravo, que fuera el primer procesador de textos
desarrollado bajo la técnica WYSIWYG (“What You See Is What You Get”); es decir el usuario podía
ver anticipadamente, en pantalla, el formato final que aparecería en el impreso del documento. Esta
primera versión, Word 1.0, salió al mercado en octubre de 1983 para la plataforma XenixMS-DOS;
en principio fue rudimentario y le siguieron otras cuatro versiones muy similares que no produjeron
casi impacto en las ventas a usuarios finales.
La primera versión de Word para Windows salió en el año 1989, que si bien en un entorno gráfico
resultó bastante más fácil de operar, tampoco permitió que las ventas se incrementaran
notablemente. Cuando se lanzó al mercado Windows 3.0, en 1990, se produjo el real despegue. A
Word 1.0 le sucedieron Word 2.0 en 1991, Word 6.0 en 1993. El posterior salto en los números de
versión se introdujo a fin de que coincidiera con la numeración del versionado de Windows, tal como
fue Word 95 y Word 97. Con la salida del Windows 2000 (1999) también surgió la versión homóloga
de Word. La versión Word 2002 emergió en la misma época que el paquete Microsoft Office XP, en
el año 2001. Un año después le siguió la versión Microsoft Word 2003. Posteriormente se presentó
Microsoft Word 2007 junto con el resto de aplicaciones del paquete Office 2007, en esta versión,
Microsoft marcó un nuevo cambio en la historia de las aplicaciones office presentando la nueva
interfaz Ribbons más sencilla e intuitiva que las anteriores (aunque muy criticada por usuarios
acostumbrados a las versiones anteriores). La versión más reciente lanzada al mercado es Microsoft
Word 2010, en el mismo año en el que salió el sistema Microsoft Windows 7.
Microsoft Word es en el 2009 líder absoluto en ese sector del mercado, contando con alrededor de
500 millones de usuarios (cifras de 2008); 2 y si bien ya ha cumplido sus 25 años,
3 continúa su
liderazgo; pero ya los procesadores de texto basados en la red y las soluciones de código abierto
comenzaron a ganarle terreno.
El 11 de agosto de 2009, el juez Leonard Davis de la Corte Federal de los EE.UU. en el Distrito Este
de Texas, División Tyler, emitió una orden judicial por la que debe ponerse en práctica dentro de 60
días la prohibición de la venta de Microsoft Word en los Estados Unidos,4 después de aceptar las
reclamaciones que Microsoft infringió deliberadamente la patente EE.UU. 5787449 en poder de la
empresa canadiense i4i con base en Toronto que describe la utilidad de la estructura de la edición
por separado (por ejemplo, SGML, XML) y el contenido de los documentos de Microsoft Word,
originalmente implementada en 1998, en editor de i4i XML add-on para Microsoft Word con el
nombre S4.5 El juez Davis también ordenó a Microsoft pagar a i4i 40 millones dólares
de daños mayores por infracción deliberada así como otros gastos, una sentencia en adición a la
sentencia de 200 millones dólares contra Microsoft en marzo de 2009.6 trajes de Patentes se han
interpuesto en los tribunales del Distrito Este de Texas, como es conocido por favorecer a los
demandantes y por su experiencia en casos de patentes.7 Antes de entrar en la escuela de leyes en
1974, el juez Davis trabajó como programador de computadoras y analista de sistemas8 .
Microsoft ha presentado una moción de emergencia en la que pidió la suspensión de esa decisión.
En su petición, la empresa afirma que es "gastar un enorme capital humano y financiero para hacer
su mejor esfuerzo para cumplir con el plazo del tribunal de distrito de 60 días". Además de que la
alegación de la de patentes en el corazón de esta cuestión ya ha sido provisionalmente rechazada
por la Oficina de Patentes de EE.UU. tras un nuevo examen de la patente.9