Pág 1 de 254
Bicentenario en Betazeta
Volumen Compilatorio Artículos CHW
Todo el material contenido en este documento se publicó originalmente en CHW. El
contenido pertenece a sus respectivos autores y las imágenes, logos y marcas a sus
respectivos dueños. Eres libre de citar cualquiera de estos artículos publicando la fuente.
Pág 2 de 254
Índice
Reflexiones con Historia ................................................................................................................. 3
(004) El Reventón de la Burbuja Dot Com ....................................................................................... 4
(011).- Steve Jobs, perfil de un Rockstar ....................................................................................... 15
(018) Windows 95: Un botón lo inició todo .................................................................................. 27
(025) El Legado de Palo Alto Reseach Center de Xerox Por Francisco Bravo .................................. 36
(039) Cuando Google compró Youtube Por Felipe Figueroa .......................................................... 52
(053) Googleplex: El oasis de Silicon Valley................................................................................... 68
(060) Macintosh 128K .................................................................................................................. 73
(067) Cuando llegó el puerto AGP al mundo ................................................................................. 82
(074) Cyrix MediaGX: CPU+GPU existió hace 14 años ................................................................... 91
(081) Consolas que marcaron nuestra historia ............................................................................. 96
(088) Sergey Brin y Larry Page, los arquitectos de Internet ......................................................... 110
(095) Fabricantes de microprocesadores x86 que pasaron a la historia ...................................... 115
(102) Steve Ballmer, todo un personaje tech .............................................................................. 123
(109) Cuando PCI Express reemplazó al AGP .............................................................................. 129
(116) Los 10 mejores IGP de la historia ....................................................................................... 139
(123) La historia del disco duro: 60 años de evolución ................................................................ 148
(130) Fabricantes de GPUs que murieron en el camino .............................................................. 156
(137) Procesador Intel 8086 ....................................................................................................... 169
(144) El primer CPU QuadCore x86 ............................................................................................. 178
(151) George Hotz, GeoHot: el maestro jailbreaker .................................................................... 184
(158) ENIAC: La primera computadora electrónica programable ................................................ 191
(165) La compra de ATI por AMD – Parte I: Dificultades iniciales ................................................ 199
(172) La compra de ATI por AMD – Parte II: El resurgir de AMD .................................................. 207
(179) El primer CPU dual-core x86 .............................................................................................. 215
(186) Unidades de almacenamiento extraíble: Desde el disquete al pendrive ............................. 222
(193) Mark Zuckerberg ............................................................................................................... 232
(200) La llegada de los tablets .................................................................................................... 244
Pág 3 de 254
Reflexiones con Historia
Para los que estamos en Chile, septiembre es el mes de la patria, porque el día 18 se
celebra un aniversario más de la realización de la primera Junta de Gobierno, en 1810, la
cual dio inicio a un proceso independentista que culminó con éxito algunos años más
tarde. Por lo mismo, este septiembre de 2010 es más especial que nunca para nosotros,
porque estamos celebrando nuestro Bicentenario como nación, pero en compañía de
varios otros países latinoamericanos.
Para Argentina, Bolivia, Chile, Colombia, Ecuador, El Salvador, México, Paraguay y
Venezuela, son doscientos años de vida independiente, un hecho que no se puede dejar
pasar sin dedicarle algo de nuestro tiempo para reflexionar en torno a los temas e íconos
que a lo largo de todos estos años han ido forjando — de una u otra manera — nuestra
historia, personalidad e idiosincrasia.
Con este objetivo en mente, en septiembre de 2010 la red Betazeta decidió celebrar
publicando una colección de 200 artículos repartidos en las comunidades Belelú, CHW,
FayerWayer, Ferplei, Niubie, VeoVerde y Wayerless; nuestros recuerdos, intereses,
anécdotas y conclusiones en torno a lo que hemos sido como subcontinente durante este
largo camino de doscientos años.
La presente compilación reúne lo que se publicó en CHW a lo largo de ese mes. Cada
artículo está precedido por un número entre paréntesis que indica el orden que ocupó en
la colección original.
Pág 4 de 254
(004) El Reventón de la Burbuja Dot Com Por Felipe Figueroa Fagandini
Bienvenido a nuestro primer artículo de la colección “Los 200 de Betazeta“, en donde les hablaremos sobre un fenómeno que marcó un antes y un después en la breve historia de la web.
Querido lector, la red no fue siempre como usted la ve hoy. Si ud. lee las noticias de este y otros sitios de actualidad tech ya debe tener una idea bastante clara del quién es quién en la web. Sabe quienes son Google, Yahoo, eBay, Microsoft, Amazon, Twitter, Digg, Facebook, y por supuesto los representantes de los medios tradicionales que se han forjado una posición de fuerza en la web: News Corporation, NBC Universal, VIACOM, Time Warner. Pero eso es hoy, y para llegar aquí hubo un proceso de selección natural que no fué paulatino como el de la teoría evolucionista. Esa selección ocurrió en un par de años y fue bastante sangrienta.
Pero nos estamos adelantando, hablando de burbuja cuando no necesariamente el lector sabe lo que es una burbuja. Para empezar, las burbujas sólo se advierten en retrospectiva, porque ha habido muchas ocasiones en las cuales el mercado apuesta firme por una tecnología, industria, producto o servicio, pero no siempre son burbujas. Uno puede decir que son burbujas cuando mira hacia atrás y dice: “En realidad, se infló en demasía el precio, hasta que reventó”.
Por poner un ejemplo, muchos mercados han tenido auges repentinos, ya sea por el boca a boca, porque se pone de moda, porque las rentabilidades son muy convenientes,
Pág 5 de 254
porque el riesgo es muy bajo, etc. Entre estos auges hay ejemplos tanto legales como ilegales: la esclavitud (siglo XVIII), el microtráfico de droga en los barrios marginales, el cultivo de canola, soja y otros elementos destinados a hacer biodiesel, el cultivo de algodón en New Orleans en el siglo XIX, los videoclubes de barrio en los años 80, los ferrocarriles a mediados del 1800 y bueno, las puntocom durante la segunda mitad de los 90.
Algunos eran negocios legítimos y altamente rentables, y a medida que fueron entrando más jugadores al mercado se fueron ajustando las rentabilidades en una curva decreciente que tiende a un equilibrio. Otros eran o siguen siendo actividades altamente rentables porque son ilegales o moralmente incorrectas, y en esos casos no se puede hablar de un negocio sustentable porque cualquier día las fuerzas del orden te caen encima (en el caso del narcotráfico) o emiten una ley contra tu negocio (la esclavitud). Esas no son burbujas, y en cambio las puntocom sí lo fueron. ¿Por qué?
Pág 6 de 254
El ejemplo del jamón y los tupperware
Ejemplifiquémoslo de la siguiente manera: todos sabemos que una pierna de jamón ibérico pata negra vale unos USD 200. Un día en la bolsa de jamones (un mercado ficticio) ves que un jamonero emite 100 acciones por una pierna de jamón, y cada acción la vende a USD 1 en circunstancias que el 1% de un jamón que vale USD 200 debieran ser dos dólares. En ese caso compras porque te das cuenta de que las acciones están baratas, que estás comprando un pedazo de algo que, proporcionalmente, vale más. Otras veces compras acciones de una empresa de paraguas porque sabes que viene un invierno lluvioso, y en ese caso tu intuición te sugiere que la demanda hará subir el valor de tu inversión más allá del precio actual.
En el caso de las puntocom, la gente empezó a comprar acciones sin saber cuánto valía realmente el jamón completo, ni si acaso tenía buenas proyecciones como los paraguas. Era una industria que nadie entendía pero, como todo el mundo estaba comprando, arrastraba a los demás y el fenómeno se perpetuaba.
Ahora bien, es injusto decir que estas empresas puntocom no tenían un modelo de negocios. En realidad sí lo tenían pero era cojo en la mayoría de los casos: expandir el mercado y luego, cuando lo lideraran ampliamente, capitalizarlo. ¿Cómo? Bueno, eso ya era otro problema y muchos patearon su solución.
¿Alguien se acuerda de los Tupperware? Los traigo a colación para ilustrar una idea, pero por si no lo saben los tupperware eran una colección de potes plásticos. Los había de todos los tamaños y colores, con y sin tapa, y servían para servir o presentar la comida así como para guardarla en el refrigerador. Los tupperware no se vendían en tiendas sino que se distribuían a través de un sistema piramidal: ganabas plata vendiendo tupperware, pero ganabas más si podías convertir a otros en vendedores, de los cuales recibías comisión hasta X niveles.
Para vender los tupperware se hacían “reuniones tupperware”. La vendedora preparaba bocadillos y bebestibles y los ofrecía generalmente en los mismos tupperware que promocionaba. Unas galletitas por aquí, unos pancitos por allá, unas ramitas de apio para las viejas hipócritas que pretenden cuidar la línea pero después la remojan en un pote de mayonesa, unos traguitos y bueno, ya me entiende. Con ese convite la vendedora invitaba a las vecinas del barrio y a sus amistades, y mientras degustaban la comida les iba hablando de las bondades de tupperware. Algunas iban a puro comer y no compraban nada pero ese no es el tema. Alguien podría decir: “oye, pero así nunca vas a ganar plata, debieras cobrar por la comida”. Y ahí llegamos a nuestro punto: la comida construye mercado, pero el modelo de negocios no es ganar plata por la comida así que la regalas para atraer gente acelerada y agresivamente. El modelo en este caso era vender tupperwares o convertir a una vecina en tu vendedora referida, la comida era sólo un gancho.
Pág 7 de 254
Con las puntocom se practicó un sistema parecido: muchas crecieron agresivamente ofreciendo servicios gratuitos para construir una gran participación de mercado, pensando que cuando la tuvieran podrían inventar un modelo rentabilizable a base de cobrar por un servicio premium o algo así. Cuando ofreces algo grátis la demanda teóricamente puede ser infinita, así que efectivamente muchos de estos servicios crecieron en tráfico muy rápido. Esa tasa de crecimiento impresionó a inversionistas y Venture Capitals, que sin saber valorizar bien la empresa que financiaban les ponían aportes de millones de dólares sin siquiera hacer un due diligence previo. Se habían olvidado de las prácticas contables y financieras que te permiten evaluar una inversión, y en medio de esa fiebre los VC simplemente metían plata en emprendimientos sobre cuyo éxito no tenían seguridad, y entonces se “divesificaban” invirtiendo no en una sino en 10 puntocoms al mismo tiempo, esperando que alguna fuera un tremendo negocio tal que diera igual si el resto era un fracaso. Lo malo es que si inviertes en 10 empresas del mismo rubro estás poniendo todos los huevos en el mismo canasto: si el rubro facasa como un todo, hasta ahí llegaste.
Pág 8 de 254
Quemando dinero
Hablar de los VC que perdieron su plata es sólo una fracción de la historia. Desde que existe el capitalismo hay gente que se hace millonaria y gente que pierde su plata: son las reglas del juego. Pero este caso fue especial porque fue acompañado de otros fenómenos, de entre los cuales el mayor es el fenómeno del quemar dinero.
Se dieron casos de empresas que tenían cuatro o cinco empleados y recibían un aporte de un VC por un millón de dólares. Una parte la invertían, claro, pero con otra arrendaban oficinas a todo lujo en los barrios más caros, se ponían sueldos de 5 cifras, y a veces al cabo de un año ya habían quemado el aporte del millón de dólares sin haber consolidado un modelo de negocios que les permitiera ser autosustentables. Es más, muchas terminaban ese período de quema sin haber ganado un solo dólar.
Por otro lado, hubo quienes construyeron un servicio lo suficientemente masivo como para despertarle el apetito a gigantes de las comunicaciones o de otras industrias, las cuales compraron por ejemplo servicios de correo (como Microsoft que compró a Hotmail) haciendo de sus fundadores verdaderos multimillonarios que a veces reinvirtieron su plata en otras puntocom, y otras sólo se dedicaron a recorrer el mundo dando charlas. Aquí entre nos, esas charlas debieran ser de “cómo inflar un servicio, venderlo mil veces más caro de lo que vale en cuanto a retorno esperado, y dejar a otro con el problema“. Pero no, son charlas de emprendimiento y visión estratégica. El mundo no es un lugar justo.
También se dio el caso de empresas puntocom que en vez de apoyarse en un VC se fueron directo a IPO, saliendo a la bolsa. Cuando sales a la bolsa, haces pública una parte de la propiedad de la empresa y a cambio recibes mucho dinero fresco como para crecer. Por ejemplo, el tipo que es dueño de esa pierna de jamón serrano del ejemplo anterior, decide salir a la bolsa y vender el 49% de sus acciones. Resulta que estamos parados en la era de “la burbuja del jamón ibérico” y vende cada acción, que vale un 1%, en 10 dólares, valorizando por tanto en USD 1000 el jamón completo. Al final del día ya no es dueño de un jamón de USD 200, sino del 51% de un jamón de USD 1000 (o sea su patrimonio personal creció pese a vender casi la mitad de éste) y la empresa tiene USD 490 en caja para invertir, crecer, pagar sueldos y hacer campañas de márketing.
Ahora, el jamón serrano sigue valiendo USD 200, así que si en bolsa de valoriza a USD 1000 podemos estar ante una burbuja. Este fenómeno llegó a ser increíble en algunos casos. Por poner un ejemplo, la acción de AOL creció tanto en los años 90, que entre cash y canje de acciones compraron a la mayor empresa de medios del mundo, Time Warner, el año 2000. Cuando la burbuja explotó, el valor real de AOL fue quedando en evidencia y
Pág 9 de 254
al nombre AOL Time Warner al poco tiempo le quitaron el prefijo “AOL”, pero más importante, finalmente Time Warner terminó escindiendo AOL, deshaciéndose de ella como una empresa independiente cosa que luchara por su supervivencia sin vampirizar los recursos del resto. Es una contradicción patente, que un gigante compre a otra empresa y luego ese gigante se desinfle hasta que la parte adquirida cobre todo el protagonismo y termine deshaciéndose de la primera.
Sólo estamos citando algunos de los fenómenos que acompañaron a la burbuja y la fiebre por invertir en empresas dot com, pero reflejan lo irracional que llegó a ser la época, retroalimentada por créditos muy blandos que la Reserva Federal intentó frenar subiendo la tasa de interés hasta un 6%, consiguiendo indirectamente el efecto contrario.
Pág 10 de 254
Explota la Burbuja
Ocurrió el 10 de marzo del año 2000. El NASDAQ llego a su peak histórico superando los 5000 puntos y a esa altura estaban jugando los descuentos de la fiebre dot com. Decimos esto porque con todo ese miedo que metieron con “el bug del año 2000 o Y2K” muchas empresas anticiparon su renovación de equipos y los últimos meses del año 99 así como los dos primeros del 2000 la demanda por hardware y licencias de software subió a niveles históricos, pero como decimos, esto pasó porque las empresas adelantaron sus calendarios de renovación de equipos.
Esta demanda acelerada y concentrada disparó las utilidades de las empresas tech, y las empresas tech asumieron que ese aumento se mantendría en el tiempo así que reinvirtieron fuertemente para hacer frente a una demanda tan contundente. Como podrán suponer, pasó lo contrario: cuando llegó marzo 2000 la mayoría de las empresas que iban a cambiar de equipos durante los años 2000 y 2001 ya habían hecho su renovación, y las órdenes bajaron bruscamente.
Segundo, empezó a haber cada vez más temor en el ambiente acerca de la demanda por monopolio que el estado norteamericano le estaba siguiendo a Microsoft. Al final si alguien temía que Microsoft colapsara producto de esa demanda se equivocaba, Microsoft sigue siendo tremendamente fuerte hasta el día de hoy.
Tercero, cuando ese viernes el Nasdaq llegó a superar la barrera sicológica de los 5000 puntos muchos traders dijeron “es hora de vender y hacer la pasada de mi vida” pero fue tal la agitación de ese día que cuando ingresaron las órdenes de venta, éstas se digitaron fuera de rueda y quedaron agendadas para el día lunes 13 de marzo. Esta simple coincidencia provocó que muchas órdenes de venta de acciones de Microsoft, Dell, IBM, Cisco, Oracle y otras se cursaran efectivamente ese lunes por la mañana. Terminar un viernes vendiendo es cosechar ganancias, pero abrir un lunes vendiendo tiene otra connotación: todos pensaron que era una “estampida” y decidieron vender. Una semana después el NASDAQ había caído un 9% a 4500 puntos.
Con el temor reinante, las puntocom dejaron de recibir inversiones de ángeles y VC, y sin esa plata para quemar no tenían cómo mantenerse. Las que se iban a abrir a la bolsa cancelaron sus IPO anticipando que les iría pésimo ante el mal escenario reinante. En los dos años que siguieron muchas se declararon en bancarrota y los inversionistas perdieron su plata.
Pág 11 de 254
Daños Colaterales
Cuando se arma una burbuja como la vivida en los años 90 no se trata de un fenómeno aislado. Hay todo una industria satélite que florece, y por lo tanto colapsa, en forma paralela.
El ejemplo más pintoresco fue una explosiva concurrencia a las universidades para carreras humanistas. Muchos programadores, informáticos y analistas que quedaron sin trabajo volvieron a vivir con sus padres y se metieron a estudiar otras carreras con 30 años a cuestas.
Otros no cambiaron de carrera pero se enfocaron en otros temas. Los traders que se acostumbraron al vértigo bursátil vivido en la cresta de la ola siguieron buscando en qué emplear su conocimiento y gusto por la adrenalina. Algunos se volcaron al negocio de los bienes raíces y entre el 2004 y el 2005 aumentó en un 50% la cantidad de propiedades compradas no con fines de vivienda sino como inversión. Eso, como ya sabemos, generó otra burbuja debido a que los pagos de hipoteca y el pie requerido eran ridículamente bajos, lo cual llevó a una crisis todavía peor a fines del 2008. Pero ese es otro tema.
Otro fenómeno: muchas ciudades de los Estados Unidos aspiraban a convertirse en nuevos Silicon Valley. Crearon parques de edificios de oficinas a todo lujo, plantas libres que parecían un potrero y todos equipados con los equipos más avanzados de control, climatización, seguridad y conectividad. Muchos de esos parques de oficinas quedaron semiabandonados luego de la debacle, con pérdidas sustantivas para las constructoras y a veces los municipios de la ciudad en cuestión.
Los proveedores de equipamiento también sufrieron. Tal vez el caso más emblemático fue Nortel Networks, en su momento la empresa más grande de Canadá. Nortel venía creciendo sostenidamente desde los años 70, y cuando se dió el fenómeno de la burbuja puntocom invirtió agresivamente para ser el mayor proveedor de soluciones integrales de conectividad. Tenían de todo, desde teléfonos hasta fibra óptica, pasando por routers, switches, firewalls y lo que se les ocurra.
En el año 2000 tenían más 94.000 empleados. Ellos solos representaban como el 35% del valor total del Toronto Stock Exchange, algo así como USD 267.000 millones, más de lo que hoy valen Google, Apple, IBM u Oracle ¿Se imaginan? Bueno, dos años después la empresa valía USD 3.350 millones, o sea un 1.25% del valor original. Todo esto, porque tenían un modelo de negocios que les hacía perder plata pero a cambio crecían muy rápido en participación de mercado. Cuando ese mercado se desinfló y la demanda bajó abruptamente, se quedaron con una capacidad instalada enorme que se había vuelto un lastre, un costo hundido. A lo mejor si la burbuja se hubiese mantenido, Nortel hubiera llegado a una meseta de crecimiento en donde hubieran modificado el modelo de negocios pasando de “crecer perdiendo plata” a “mantener participación ganando plata”… pero nunca lo sabremos.
Pág 12 de 254
Nortel no quebró en ese entonces. Se reestructuró, repactó sus deudas, despidió a miles de personas, pero nunca se recuperó del todo. Igual a la larga quedó en bancarrota y se declaró en quiebra el 2009. Ahora, cuando cayó bruscamente el valor de Nortel no sólo cayó una empresa privada. No sólo quedaron miles de personas desempleadas. Lo más grave, probablemente, es que los fondos de pensiones canadienses tenían la mayor parte de sus fichas en acciones de Nortel, y con su caída dejaron a muchas personas sin poder jubilar, o con pensiones inusualmente bajas. Un desastre.
Pág 13 de 254
Los que sobrevivieron
Asi como muchos colapsaron, unos cuantos se salvaron. Es curioso, porque si al principio de la burbuja nos hubieran contado quienes permanecerían en el tiempo, a lo mejor no hubiesen calzado con los que mejor pintaban.
Junto con los que perduraron como empresa, hubo servicios que perduraron como tales pero sólo gracias a que una empresa grande los compró. Alguien podría decir que Hotmail y Geocities sobrevivieron a la debacle dot com, pero en realidad sus dueños se hicieron millonarios, le enchufaron el problema de rentabilizar los servicios a Microsoft y Yahoo, respectivamente, y se mandaron a cambiar (o a dar charlas). Yahoo terminó cerrando Geocities hace pocos meses, y Microsoft, bueno, no creo que haya ganado mucha plata con Hotmail. En realidad, si no fuera porque los compraron empresas solventes, esos dos servicios hubieran sido de los primeros en colapsar durante el 2000.
Pero bueno, no nos quedemos en supuestos. ¿Quiénes sobrevivieron y por qué sobrevivieron?
Google sobrevivió y hoy es el rey indiscutido de la web, pero cuando ocurrió la debacle Google no era un ejemplo de esas puntocom artificialmente infladas. Eran una empresa experimental que en vez de quemar dinero se dedicó a perfeccionar sus algoritmos y capacidad instalada para crecer, reinvirtiendo casi todo aporte de capital. No es difícil ver por qué Google sobrevivió: es otra generación.
Yahoo también sobrevivió, y cuando ocurrió la gran debacle ya era líder de su mercado. Con el tiempo las cosas fueron empeorando para ellos y paulatinamente perdieron la punta, pero lo importante es que cuando la burbuja estalló ellos ya estaban en una posición tan sólida que no se vinieron abajo. Es importante entender esta correlación entre el ciclo de crecimiento y el momento en que el reventón te pilla. Si te pilla en un plan agresivo de expansión en donde no tienes retorno y estás dedicado a quemar plata para crecer rápido, estás condenado. Si en cambio ya pasaste la etapa del crecimiento meteórico y te pilla consolidado, probablemente sobrevivas y, si tu empresa nunca se planteó para quemar dinero y crecer rápido sino ir despacito por las piedras, puede que nunca estés expuesto a caer estrepitosamente, aunque tampoco crecerás meteóricamente.
Otros sitios que eran líderes y lograron sobrevivir pese a venir saliendo de una etapa en donde perdieron plata para crecer agresivamente fueron eBay y Amazon. El segundo es tal vez el único ejemplo real de una empresa que planteó la tecnología como un canal mejor para un negocio existente. Yahoo ofrece búsquedas web, pero no sustituye un servicio tangible. No había búsquedas web antes de la web. Amazon, en cambio, fue uno de los que planteó las ventajas de los eTailers vs los retailers tradicionales, y aunque pasó varios años con números en rojo, finalmente alcanzaron el break-even. Lograron crecer hasta un tamaño en donde el hecho de manejarse via web en vez de tener una cadena de tiendas
Pág 14 de 254
los hacía más eficientes que cualquier retailer de carne y hueso. Y entonces empezaron a retroalimentar ese crecimiento ganando ya no sólo en utilidades porcentuales y en tasa de crecimiento, sino en volumen y totales.
eBay, en cambio, planteó un negocio nuevo que eran los remates por internet. A diferencia de Amazon, no se puede decir que haya planteado un negocio antiguo en un canal nuevo, porque en el mundo real no hay remates de pendrives ni vinilos raros. Sin embargo, lo importante es que el reventón los pilló ya consolidados, líderes del mercado y con decenas de clones repartidos por el mundo. Con el tiempo fueron cambiando su modelo a uno de menos remates y más compra inmediata, y por otro lado su negocio de pagos en línea, Paypal, terminó siendo lo que realmente mantiene la empresa con vida, pero hace 10 años eso aún no ocurría.
Google, Yahoo, Amazon, eBay… son todos nombres que en los años que siguieron sonaron muy fuerte, incluso más fuerte de lo que sonaban en la era de la bonanza web. Esto es la consecuencia indirecta, y de alguna manera el aporte del reventón para dar forma a la década que siguió. Cuando todo se vino abajo, los que sobrevivieron no sólo dieron gracias de haber aguantado el chaparrón, sino que se encontraron con una WWW en la cual quedaban muy pocos jugadores realmente grandes, así que se repartieron la torta entre unos pocos, un estado que se mantuvo por más de 5 años hasta que la irrupción de los actuales gigantes (Facebook, Twitter) volvió a sacudir el escenario… pero eso, estimado público, da para otra historia.
Pág 15 de 254
(011).- Steve Jobs, perfil de un Rockstar Por Francisco Luco
No resulta fácil hablar de Steve Jobs sin inmiscuirse en lo que ha sido Apple durante todos estos años. De hecho, tal intersección resulta casi inevitable y hasta necesaria. Por más que sea sólo un hombre, y por más que haya dedicado parte importante de su tiempo a otras cosas, Steve Jobs es Apple. Y a la inversa, indiscutiblemente Apple es Steve Jobs.
Pero todo en la vida tiene un orden, y el particular relato de Steven Paul Jobs no es la excepción. En una historia que se vio marcada por eventos aparentemente insignificantes, pero que años más tarde acabarían concordando, se configuró algo realmente grande y que al final del camino ha permitido ver la gran fotografía. Se trata de “conectar los puntos”, como diría el propio Jobs.
El comienzo
Los peculiares rasgos de la vida de Jobs comenzaron a gestarse incluso antes de que naciera. Su madre, joven y soltera, había decidido darlo en adopción bajo la condición de que los padres adoptivos debían garantizarle una educación universitaria.
Los nuevos padres de Paul Steven resultaron ser una pareja de clase media (tirando para humilde) que a pesar de las dificultades económicas acabó cumpliendo su promesa. A los 17 años Steve entró a la universidad, aunque alcanzó a mantenerse allí sólo un semestre, tras verse enfrentado a sus propios cuestionamientos vocacionales y darse cuenta de que sólo estaba haciendo perder dinero a sus padres.
Poco tiempo después, no siendo más que un adolescente aún sin rumbo definido, Jobs emprendió un viaje a la India, donde experimentó un acercamiento hacia la cultura oriental y la psicodelia, lo que seguramente ayudaría a conformar parte importante de su personalidad y le atraería a la religión que profesa hasta el día de hoy –el budismo–. Como buen rebelde y genio incomprendido, tampoco hizo ascos a la experimentación alucinógena, en lo que Jobs llamaría algún día “una de las dos o tres cosas más importantes que [hizo] en [su] vida”, refiriéndose al consumo de LSD.
Años después, junto al querido Stephen Wozniak (amigo conocido tiempo atrás y con quien pasó bastante tiempo a raíz de sus intereses compartidos) se instalaron en su garaje –como todo buen emprendedor del Valle–, donde comenzaron a fabricar computadores, los cuales en realidad no eran más que tableros o circuitos electrónicos bastante simples y mucho menos sofisticados que la máquina más ordinaria en la que pudieran pensar hoy en día. A pesar de ello, su trabajo artesanal resultó ser bastante avanzado para lo que el panorama informático (dominado por la omnipresencia de IBM) ofrecía en aquella época. De hecho, el mercado de la computación personal como tal aún no existía.
Pág 16 de 254
Woz fabricaba y Steve, con particular capacidad de convencer, se encargaba de hacer los negocios. La incipiente empresa funcionaba, la sencilla pero exitosa computadora que habían producido reportaba algunos beneficios y había llegado la hora de profesionalizar su trabajo. Fundaron Apple y denominaron a su primer y humilde engendro Apple I.
Luego Woz se encargó de trabajar en la Apple II, primera computadora personal de la empresa comercializada a gran escala y la que catapultaría esta última hacia ligas mayores. Durante este período Apple se consolidó con el marcado liderazgo de Steve Jobs, caracterizado por muchos como excéntrico y hasta autoritario.
Cuestionamientos morales más o menos a su personalidad y a sus particulares dotes para imponer orden y disciplina, lo concreto es que para 1980, con tan sólo 25 años, Jobs ya se había hecho de un impresionante patrimonio de 200 millones de dólares.
Años más tarde vendrán los infaltables ángeles inversores y tendrá lugar, tras el fracaso que fue el lanzamiento del costoso computador personal Lisa, el nacimiento del Macintosh 128K.
Visión
Nadie podría asegurarlo con certeza (probablemente sólo el propio Jobs y alguna de las divinidades en que cree), pero pareciera que las grandes metas a las que aspiraría como proyecto personal y profesional, y la forma de aproximarse a ellas, estaban bien definidas desde un principio.
Pág 17 de 254
La impronta que el creador quiso dejar patente en su obra, y el sello distintivo que diferenciaría a esta última de IBM y el resto de la competencia existente en aquellos lejanos años, fueron muy bien determinados y probablemente hayan permanecido inalterables hasta hoy en día, concordando tales elementos, a su vez, a la perfección con la propia filosofía de Jobs.
Eficiencia, pasión por lo que se hace, belleza y simpleza (que casi o derechamente se torna en minimalismo) serían los rasgos característicos de la compañía, su imagen y cada uno de los productos –tanto de hardware como de software– que fueran manufacturados bajo el sello de la manzana. Aquel fruto debía ser sinónimo de algo único.
Para no quedarnos en palabras y en deuda con los ejemplos, tomemos el caso del primigenio Macintosh 128K. Apple parecía ser (al menos en sus inicios) una empresa enfocada a las necesidades del usuario, de manera tal que aún cuando la idea de una GUI (interfaz gráfica de usuario) no fuera original, ésta acabaría transformándose en el caballito de batalla de la marca a la hora de ofrecer su primera computadora. Así fue como Apple Computer, Inc. se ganó el mérito de llevar a cabo la primera comercialización exitosa de un dispositivo con GUI en la historia; interfaz gráfica que, por cierto, tampoco podía limitarse a ser el tránsito ordinario entre una interfaz antigua, invadida por líneas de comando, y una serie de ventanas.
A propósito de la GUI del primer computador comercial de Apple, resulta interesante sacar a colación una cuestión cuanto menos curiosa: cómo aquellos conocimientos adquiridos en la universidad y que antes podrían haber parecido baladíes terminarían siendo puestos en práctica por el CEO de la compañía años después –según él asegura–, para ser aplicados en la misma interfaz gráfica de lo que acabó convirtiéndose en el sistema operativo del Macintosh. Me refiero, en concreto, a las lecciones que el joven Jobs tomó de caligrafía y tipografía y sus esfuerzos académicos por entender qué hace a una determinada fuente un estilo de letra bello y agradable a la vista, todo lo cual derivó en una imagen confortable para el usuario.
Sin embargo aquella visión de belleza (casi de artista, como se extrae de la película Pirates of Silicon Valley) no se limitaba al software. El hardware, que integraba un manojo de cables y circuitos apenas comprensible –y por lo demás irrelevante– para el usuario común, debía estar revestido de una carcaza, una cubierta, un “empaque” que se caracterizara por ser agradable y estilizado, al menos para los estándares de diseño industrial de la época.
Y cómo no, además de ser visualmente atractivo tanto en “forma” como en “fondo”, el sistema debía ser asimismo amigable para el usuario: manejable y sencillo; dócil. Se trata de una visión de simpleza radical y distintiva, que durante las décadas siguientes evolucionaría a polos tan minimalistas que apenas podrían haberse concebido en el ideario informático algunos años antes. Sólo es cosa de recordar algunos de los mejores diseños de Mac creados por Apple (los que específicamente corresponden al diseñador
Pág 18 de 254
británico Jonathan Ive), como el no tan anticuado iMac de policarbonato blanco, el “G4 Cubo” o el popular G4 “lamparita”, algunos de los cuales hoy se exhiben como verdaderas piezas de colección, junto al iPod, en el Museo de Arte Moderno en Nueva York.
Jonathan Ive, iMac "lamparita" G4 y Steve Jobs.
Incluso el mismo iPod es muestra patente de la aventura de Jobs por hacer las cosas diferentes, desde un prisma quizá alternativo (imposible de haberse materializado de mejor manera que a través del mítico y decidor spot publicitario “1984″) y lo más simple posible. Mac OS X podría ser otro ejemplo de ello.
Pág 19 de 254
Reviviendo Apple Computer, Inc.
Precisamente por lo que afirmaba al principio de este artículo es que temo que se extienda en demasía, perdiéndose el foco que debe ser, en este caso, el creador.
Por ello, pasaremos revista sólo a algunos de los hitos más importantes de Apple en su historia, todos ellos impulsados siempre por su CEO.
Edad antigua
En lo que fuera la primera etapa de Apple y el primer ciclo de Jobs a la cabeza de la misma, destaca el lanzamiento del Macintosh 128K, la primera computadora comercial exitosa de Apple.
Se lanzó en 1984, tuvo una buena recepción inicial en ventas y además masificó las interfaces gráficas, junto con convertirse en el primer y último éxito del que Steve sería artífice antes de ser despedido, para luego dar paso al período oscuro de la compañía.
El iMac o el renacimiento de Apple
Para la gran mayoría es bien sabido que si Apple dejó de perder una millonada de dólares y sorteó el agujero financiero inconmensurable en el cual estaba destinada a caer, fue gracias al retorno de Jobs a la compañía de la cual hubiera sido despedido unos años atrás y que paradójicamente él mismo fundó.
Producido el reencuentro a fines de 1996, Apple comercializó en 1998 –una vez más con las innovadoras ideas de Jobs al frente– el que sería su verdadero salvavidas y renacimiento: el iMac, un computador personal destinado íntegramente al consumo doméstico y perfectamente distinguible de cualquier otra cosa que se hubiera hecho antes por sus características carcazas semi-transparentes y multicolores.
Mac OS X
Como el propio Jobs afirmara en el discurso de graduación pronunciado en Stanford, a pesar del sufrimiento provocado por uno de los episodios más traumáticos y significativos de su vida –su despido de Apple– algo no cambió en él: su pasión por lo que hacía. De manera que durante aquella década de exilio (entre 1985 y 1996), Steve fundó NeXT, empresa cuyo SO basado en UNIX acabaría siendo la base del futuro Mac OS X.
En 1996 NeXT fue comprada por Apple, Jobs volvió a la compañía que él mismo hubiera fundado junto a Steve Wozniak y comenzaron los preparativos para que Mac OS 9 pasara a mejor vida. En 2001 el competidor directo de Windows XP ya había nacido, con el consiguiente salto de una interfaz anacrónica a la nueva generación.
Pág 20 de 254
Demás está señalar que la superioridad visual caracterizó fuertemente a Mac OS X desde un principio. Y a pesar de los iniciales fallos de funcionamiento que fueron corregidos en el transcurso del tiempo con el progresivo lanzamiento de versiones posteriores (secuencia caracterizada curiosamente con nombres de felinos), Mac OS X sigue siendo la esencia de un Mac hoy en día y probablemente la única razón por la que valga la pena pagar de más.
iPod+iTunes
A pesar del exitazo que fuera Mac OS X “Cheetah”, la gran sorpresa aún estaba por venir. En el último trimestre del mismo año, Steve Jobs materializó la osada decisión de adentrarse por primera vez en una faceta del entretenimiento digital totalmente ajena a lo único que habían venido haciendo desde que la empresa fuera fundada.
El salto fue magistral. Con un genio, percepción, visión de negocios y oportunismo únicos, Steve Jobs anticipó (tras especulaciones de analistas y consumidores acerca de si la próxima jugada de Apple sería lanzar una cámara fotográfica o un teléfono) que el negocio de la música era el futuro, tanto de la compañía como en el campo de los usuarios, y que ellos debían estar ahí. Aparentemente no se equivocó.
En la keynote en que se introdujo por primera vez el iPod (el cual fue desarrollado a un ritmo vertiginoso en tan sólo 8 meses), un acertado Steve Jobs afirmó haber encontrado el estándar de la reproducción portátil de música. Ahora nos parecerá obvio, pero no lo era tanto hace 9 años, cuando el CD todavía se encontraba en pleno apogeo y el nicho era disputado por reproductores de CD, reproductores flash y discos duros que tan portátiles como ahora no eran. Jobs sabía que los formatos de audio abiertos eran lo que venía, y escogió igualmente el formato de hardware correcto, junto con sentar el estándar para los años siguientes en cuanto a reproducción musical portátil se refiere.
Eso sí, debe recalcarse que el “boom” comercial y de popularidad del iPod no tuvo lugar sino recién hasta 2004-2005. Sólo a partir de allí las ventas empezaron a incrementarse de forma brutal, y el verdadero fenómeno publicitario de los audífonos blancos comenzó a dar fruto (recomiendo profundizar en el tema viendo el documental History of iPod, pues si algo hay que reconocer es que Jobs, además de ser un privilegiado hombre de negocios, es un genio del marketing).
Punto aparte merece la apertura, en 2003, de la tienda digital de música iTunes, otra precursora en lo que le toca y una de las más preciadas gallinas productoras de huevos dorados de Apple.
Con todo, el gran mérito realizado por Steve en este aspecto fue haber masificado su marca, de manera que lo que inicialmente fue concebido como “alternativo” o “independiente” acabó convirtiéndose en un verdadero icono de la cultura pop.
Pág 21 de 254
iPhone
Si con el iPod Apple se abrió al mercado de Windows y popularizó sus productos, la masificación definitiva y lo que probablemente acabaría provocando hasta un descenso en los estándares de manufactura de la compañía –debido a su casi incontenible crecimiento– llegó de la mano del iPhone en 2007.
A pesar de todas las limitaciones sumamente básicas existentes en un inicio (como la incapacidad de grabar video o instalar otras aplicaciones, por ejemplo), el iPhone no sólo elevó las utilidades de Apple y los valores de sus acciones a límites insospechados (salvo por el propio Jobs, quizá), sino que revitalizó y –por qué no– revolucionó la industria de la telefonía móvil, obligando a todo peso pesado del rubro que se preciara de tal a presentar su propio “iPhone killer”. Demás está decir que varios fracasaron y siguen fracasando estrepitosamente.
Evolución de la capitalización bursátil de Apple en los últimos dos años.
iPad
Por último pero no por ello menos importante, tenemos el vapuleado iPad. Según “confesó” Jobs al periodista de tecnología Walt Mossberg, la idea de lanzar un tablet fue anterior al iPhone. Sin embargo, llegada la hora de ver los resultados de laboratorio, al CEO le pareció que con todo el material disponible podrían lanzar un teléfono, por lo que el proyecto de computación personal doméstica quedó en standby en desmedro del mencionado smartphone.
Pág 22 de 254
Quizá sea sólo una excusa para legitimar la adaptación íntegra de iOS a una pantalla más grande sin tanta reingeniería de por medio. Sea cierto o no, el hecho es que la sola ventaja de contar con una mayor superficie se ha transformado en una virtud en mano de desarrolladores creativos, quienes una vez más acaban siendo los responsables de definir si una plataforma es exitosa o no.
Jobs con iOS apunta a mucho más de lo que podría haberse pensado en un principio. No se trata de lanzar más y más productos operando sobre el mismo sistema para no ver incrementados desmesuradamente los gastos en investigación e innovación, sino de jugársela al ciento por ciento por lo que él cree que es el futuro. En ese sentido, tanto diversos analistas de mercado como cierto sector de la propia industria parecieran estar contestes en que el futuro de la computación personal es la portabilidad y, más precisamente, el espectro móvil. Dicho aquello, la filosofía de Jobs es que quizá en un par de años cualquier usuario que necesite llevar a cabo tareas domésticas o “sencillas” acabará reemplazando su netbook, notebook e incluso PC de escritorio por algo como un iPad; pasando así al cuasi-olvido toda aquella filosofía de las ventanas, los archivos y las carpetas, e instaurándose de facto las interfaces táctiles con lo intuitivas que son.
De todas maneras, y siendo bastante francos, si aquello efectivamente llegara a darse algún día, éste parece ser algo lejano. Pero de que el iPad cuenta con el potencial para lograr en el campo de la computación personal lo mismo que consiguió el iPhone algún día en el área de la telefonía móvil, lo tiene.
Pág 23 de 254
No todo lo que brilla es oro
Más allá del holgado éxito que hayan logrado conseguir la mayoría de los productos comercializados bajo el sello de la manzana, más de alguno ha debido enfrentar alguna crítica generalizada y –en ciertos casos– sobreponerse a verdaderas controversias mediáticas.
Curiosamente, y al menos en el caso más emblemático y el único que se mencionará por ahora –el del iPhone 4 y el llamado ““antennagate”–, pareciera despertar una crítica desmedida no tanto la deficiencia técnica del producto en sí, sino cómo el mandamás de Apple intenta sortear la polémica.
Haciendo memoria tenemos que, tras haber sido revelados por Gizmodo los problemas de señal del iPhone 4, la primera respuesta de Apple, materializada a través de un correo electrónico de su máximo representante, fue “simplemente no sostengas el teléfono de esa manera”, revelándose una vez más el carácter parco y hasta arrogante del CEO.
Luego la bien conocida historia adquiere ribetes telenovelescos, donde se niega la existencia del problema, se desmiente que el e-mail supuestamente enviado por Jobs haya sido real, más tarde se reconoce que sí hay un problema de recepción y finalmente se anuncia que sólo bastaría una actualización de firmware para que el antennagate fuera cosa del pasado.
Pero la gota que rebasó el vaso fue el anuncio de Consumer Reports, en el que de plano afirmaron que no era recomendable comprar el iPhone 4. Consciente de la repercusión mediática y probablemente comercial de tal evento, Steve tuvo que dejarse de tonterías y realizar una conferencia de prensa de última hora, en la que no encontró mejor forma de afrontar el drama que encendiendo y apuntando el ventilador contra la industria de los smartphones en general (e incluso compañías y teléfonos con nombre y apellido), recurriendo a la muletilla de urgencia “por último si no le gusta, no compre o devuélvalo”, informando que Apple no era perfecta ni él tampoco, y finalmente intentando apaciguar las aguas regalando “bumpers” a todos.
Si el conflicto fue resuelto o no es otro cuento. Sin embargo, la historia no se dio por terminada con el anuncio de un programa de repartición de fundas plásticas para (casi) todos, ya que hace sólo algunas semanas se conocía la determinación de despedir a Mark Parpemaster, ex empleado de IBM, encargado de ingeniería de hardware de Apple y por ello “responsable” del diseño de la polémica antena externa del iPhone 4, convirtiéndose así en el chivo expiatorio perfecto del drama. Una vez más el peso autoritario de Jobs parecía sentirse en los pasillos de Apple.
Pág 24 de 254
Más allá de Apple
Es importante recordar que no sólo de Apple se alimenta Steve Jobs. Si bien ésta es su magnum opus, el CEO-rockstar igualmente ha sido reconocido por su posición al frente del prestigioso estudio de animación Pixar.
Pixar fue comprada por Steve a Lucas Films en 1986, aunque en aquel entonces el estudio se llamaba The Graphics Group.
Probablemente la gran mayoría conozca la sucesión de exitosos títulos –tanto en términos de crítica como de recaudación– nacidos en los computadores de Pixar por encargo de Disney. Sin embargo, tal vez no todos estén igualmente enterados de cómo Jobs llegó a verse enfrentado con el gigante del entretenimiento, para terminar formando parte de un estamento notablemente alto dentro del mismo.
Corría el año 2003 y el contrato que había mantenido a Pixar lanzando un exitazo tras otro en compañía de Disney llegaba a su fin. Tras un fracaso en las negociaciones entre el director ejecutivo de Disney y Jobs, éste anunció que el noviazgo había terminado, de manera tal que comenzaría la búsqueda de un nuevo distribuidor apenas el contrato expirara de forma definitiva.
Sin embargo, en el último trimestre de 2005 el presidente ejecutivo de Disney fue reemplazado. El nuevo directivo reanudó las conversaciones con Jobs, y tras arreglarse las relaciones entre ambas empresas y llegar a un nuevo acuerdo, se determinó que Pixar fuera adquirida por Disney, lo que significó no sólo que en adelante la colaboración Pixar-Disney estuviere asegurada para el lanzamiento de nuevas superproducciones animadas, sino que Steve Jobs se convirtiera en miembro del directorio de Disney y en el accionista individual más poderoso, con un nada despreciable 7% de la compañía. Esta cifra supera incluso la cuota que posee el propio director ejecutivo de la compañía y la que poseía el último descendiente de la dinastía Disney involucrado en aquella.
Definitivamente se trató de otra jugada comercialmente exitosa que, además de garantizar una posición de poder privilegiada en la industria del entretenimiento, probablemente haya significado un aumento significativo de dólares en la billetera de Jobs.
Pág 25 de 254
Futuro incierto
Honrado como el hombre de negocios más importante del mundo en 2007 y CEO de la década por la prestigiosa revista Fortune, Steve Jobs es con su particular estilo, y para gusto o disgusto de muchos, uno de los personajes más importantes en la historia de la computación y la electrónica de consumo.
No entra en la lista de los magnates de la informática que forman parte de los 100 más ricos del mundo según Forbes, como sí ocurre con quienes actualmente se posicionan, por ejemplo, en el puesto #2 de dicha lista (Bill Gates), el puesto #8 (Lawrence Ellison, fundador de Oracle) o el puesto #24 (Larry Page y Sergey Brin). Sin perjuicio de ello, Steven Paul Jobs sí alcanzó a ser incorporado en la lista de los más poderosos del mundo –elaborada por la misma Forbes a fines de 2009–, donde fue ubicado en el lugar #57, detrás de algunos de los ya mencionados magnates de la informática, otros relacionados con la industria de los medios de comunicación, jeques, ministros y presidentes.
A pesar del legado que ya ha sembrado, de los miles de millones de dólares que posee y la influyente posición de poder que ostenta, para la opinión pública probablemente la vida de Steve Jobs no haya sido más que la sombra de Bill Gates, tal como la trayectoria de los Mac se ha visto siempre opacada por Windows. Sin embargo, ahora mismo el problema principal radica menos en si fue, es o será más rico o poderoso que el creador del imperio Microsoft, que en si será capaz de desligarse de una empresa que sin él se encontraría en franca decadencia. Es una paradoja en que el exceso de poder “pasa la cuenta”.
Un cáncer de páncreas estuvo cerca de llevárselo a una mejor vida (o quizá a reencarnarse, como probablemente crea el mismo Jobs), y ya fue muerto alguna vez por especuladores inescrupulosos a través de la Web. En ambos casos las acciones de Apple se han visto a la baja, y existe la percepción generalizada y probablemente correcta de que el día en que Jobs se tenga que marchar, a quien le toque emprender la titánica misión de continuar y repotenciar su legado le resultará tremendamente difícil.
Pág 26 de 254
Lo anterior no es otra cosa que una gran consecuencia del culto a la personalidad, de la misma manera que el nazismo fue Hitler y la revolución rusa Lenin. En una especie de caudillismo informático y financiero, el excesiva y peligrosamente carismático liderazgo de Jobs se ha terminado convirtiendo en un arma de doble filo, creando una dependencia nociva entre el sello Apple y el nombre de su CEO; todo lo cual nos lleva a la conclusión de que predecir lo que pueda ocurrir en los años que vienen sea, muy probablemente, un ejercicio de futurología más torcido e inverosímil que vaticinar los nuevos lanzamientos de Apple antes de cada keynote.
Después de todo, y al menos durante los años pasados y los que transcurren, Steve Jobs es Apple y Apple simplemente es Steve Jobs.
Pág 27 de 254
(018) Windows 95: Un botón lo inició todo Por Italo Baeza
Como muchos en ese tiempo, yo tampoco tenía una computadora cuando llegó Windows
95. Los escasos equipos, el escaso tiempo y la poca accesibilidad a éstos era una de las
causas por las que muchos no se dignaban a aprender algo de computadoras para, por lo
menos, simplificarle la vida. Pero me acuerdo, por ejemplo, que se podía hacer una tabla
en Excel para poner poner a los los equipos que estaban clasificando para Francia ‘98, o
que podrías crear una carta sin rastro de correcciones. Windows 3.11 en ese tiempo era
conocido pero no por todos, en las sombras cocinaba a la gente que tenía acceso a uno al
igual que algunos Macintosh para ser fiel.
Y cuando llegó Windows 95, definitivamente se sintió el remezón. Particularmente
hablando, la interfaz había sido algo más simple y colorida, y cualquiera que podía
actualizar su equipo a esta versión de Windows quedaba asombrado – después de
mamarse varios cambios de disquete en algunos casos – especialmente por la facilidad de
uso y la gran evolución que tuvo el no-sé-por-dónde-empezar Windows 3.1. Quien tenía el
Pág 28 de 254
dinero ya era un hecho que su computadora aguantaba y si no compraban otra, y quienes
nunca tuvieron la posibilidad tendrían que esperar años para saber qué sucedió aquí.
Por alguna razón empecé a ver más gente metida en una computadora para hacer cosas
que en la realidad les tomaría más tiempo, dejando de lado la maña de aprender a escribir
con el teclado. Cartas, documentos, pruebas y exámenes, invitaciones, tareas, etcétera.
Después de ese año empecé a ver muchas más cosas hechas en una computadora, y por
supuesto muchos niños jugando en sus equipos que, además de correr Sonic & Knucles 3,
servían para todo lo demás. Aún recuerdo esos días emulando juegos Pokémon Red con
REW, intercambiando disquetes con más juegos o rabeando con MDK porque no nos
funcionaba en algunas computadoras del colegio. Antes de 1995, sólo veíamos
computadoras en las películas, y el papel que desempeñaban era simple: había que
destruirlas sino terminaríamos con una Inteligencia Artificial amenazando la supervivencia
de la humanidad y viajando en el tiempo para evitarlo.
Pero claro, a nosotros nos importaba un comino, sólo le dábamos al botón “Inicio” y luego
planeábamos qué íbamos a hacer, no antes.
Hola botón Inicio
Antes de Windows 3.11 el mundo era poco menos que colorido, a 256 colores como el
mejor de los casos. Pero el paso a los 16 bit de color fue bastante notorio. Sumado a eso la
máquina de publicidad que Microsoft realizó para Windows 95, y los cambios bastante
grandes en la interfaz, terminó todo por apuntar a un bendito botón Inicio. Y sí, se merece
la mayúscula en la primera letra.
Pág 29 de 254
La primera vez que uno de mis compañeros puso el cursor frente a ese botón fue algo así
como cuando comemos por primera vez una comida que nos aparenta mala. ¿A quién no
le ha pasado eso? Por lo menos mi madre me dijo “¿Cómo puedes saber que está malo si
no lo has probado?”. El miedo a lo desconocido era evidente, pero las Clases de
Computación en el colegio eran para aprender, y si terminaba por explotar la sala,
terminaríamos con echarle la culpa a las niñas. Al presionarlo, quedamos más perdidos
que de costumbre, pero un rato más tarde, ya teníamos permiso para borrar toda la
carpeta C:\Windows\. Por cierto, NO LO HAGAN.
El funcionamiento de ese menú era tan simple, que lentamente se transformó en un icono
de la computación moderna. Desde abrir programas hasta buscar aquellos archivos que
alguna vez se perdieron, o abrir un nuevo documento de Microsoft Office sin abrir
ventana tras ventana; todo en su lugar y como debía estar organizado. Todo era
fácilmente encontrable, nada más de dar vuelta en ventanas de ventanas de ventanas de
ventanas como solía suceder. Y su funcionamiento no ha recibido muchos cambios de raíz,
sigue siendo el primer lugar donde ir cuando quieres hacer algo, al que tuvieses el acceso
directo al Escritorio.
Pág 30 de 254
Ahora esto es multitarea
Dicen que el ser humano es un ser multitarea por naturaleza, que sólo ocupa el 3% de su
capacidad cerebral mientras el resto se va en puras tareas secundarias, que mi abuela
puede hacer el almuerzo mientras habla por teléfono y le saca brillo al piso de la cocina,
etcétera. Pero eso era una vil mentira antes de Windows 95, muy pocas personas
lograban dominar la Calculadora y Wordpad al mismo tiempo sin que se les perdiera una
de ambas, especialmente al minimizarlas. También era ese tipo de usuario que copiaba el
acceso directo de “Internet” al disquete y luego le decía a los compañeros que tenía la
Internet en un disquete para poder navegar donde quisiera, y que colocaba el CD al revés.
Creo que yo era el único que podía hacer esto.
Pero la siempre visible barra de tareas solucionó ese maldito problema. Cada programa
abierto tenía su espacio en la barra que compartía con el menú inicio. Los programas no
se cerraban por arte de magia, siempre estaban ahí de forma visible esperando que
hicieras clic en él. Definitivamente eso trajo un flujo de trabajo mucho más entendible
para aquellos que tenían el drama anterior.
Pág 31 de 254
En segundo plano
La barra de notificaciones nació para quedarse. Así como inconscientemente
respirábamos, podíamos ver con certeza procesos y programas en segundo plano sin
tener que preocuparnos de ellos, al menos, al ver la hora. Evidentemente nadie sabía que
un programa podía correr en segundo plano, o dejarlo así para que no molestara por un
buen rato. Nunca en mi vida vi a alguien colocar música mientras escribía algún
documento, hasta que en Windows 95 el Reproductor de CD – que ya estaba hace rato en
las versiones anteriores – y Winamp se hicieron más conocidos y combinables con algún
otro programa minimizado.
Lo genial, por lo menos después de algunos años, fue la posibilidad de usar un espacio
mínimo para connotar algún programa corriendo atrás de todo, sin molestar a nadie, pero
en memoria al fin y al cabo. El control de volumen era muy útil cuando queríamos
escuchar algo a nivel normal porque algún mandril se lo dio todo antes que tú, o bien, ese
ícono con la agenda que nos programaba cosas para hacer en cierto momento sin tener
que atender la computadora en ese momento. ¿Alguien dijo… “Defragmentador de
disco”?
Bienvenido sea DirectX.
Les puedo comentar las gracias que nos permitió jugar DirectDraw y Direct3D. En ese
tiempo, tener una tarjeta aceleradora de gráficas, cualquier cosa infinitamente más cara
que una Trident VGA de 8MB, daba para cualquier juego en MS-DOS incluyendo
Wolfenstein 3D. Pero cuando cuando DirectX apareció, y muchos de nosotros ni idea para
qué era, los videojuegos empezaron a transformarse en entretenimientos más avanzados.
El ejemplo clásico fue FIFA 96, donde por primera vez en mi corta existencia logré jugar un
juego de fútbol casi de verdad. La gracia era “Virtual Stadium” la tecnología hacía el
estadio y la cancha en un lugar de tres dimensiones en vez de una textura más detrás de
los jugadores. Hubo otros juegos más que crearon un mundo más llamativo, como MDK y
otros juegos que llegaron años más tarde.
Casi todos los desarrolladores hacían juegos pensando en gráficas VESA y Creative
SoundBlaster, algo así como los estándares elegidos por ellos para sus videojuegos. Esto
demostraba no sólo que no había estándar impuesto, sino también a que los mismos
tenías que programar para cada hardware en específico en muchos casos. Con la llegada
de DirectX, los programadores escribían para este API y sería el mismo quien lidiaría con el
Hardware, mientras los fabricantes actualizaban los controladores para su hardware y
DirectX.
Pág 32 de 254
Caso aparte: Internet Explorer
Internet, en esos años, era tan difícil de acceder como llamar por teléfono celular, la
televisión con sonido surround, y la PlayStation. Pero con la inclusión de Internet Explorer,
varios usuarios que tenían acceso a ese lugar virtual se encontraron con una nueva opción
para mirar la red además de Netscape. Igual se agradecía que existieran dos Accesos
Directos para Internet y Bandeja de Entrada en el Escritorio, y aunque la gran mayoría de
la población que no tenía Internet nunca supiese para qué servía, igual se merece una
mención por intentarlo.
La piedra en el zapato: MS-DOS y BSOD
Yo también pensaba que Windows 95 se parecía más a una GUI por encima de MS-DOS
que un sistema operativo grande, algo un poco más evidente con Windows 3.x, pero eso
dejó de caer en evidencia cuando MS-DOS pasó a ser a la vista como otro programa más
dentro del menú inicio, y quizás fue todo lo que bastó para que la gente pudiese entender
que la computación era más fácil una línea de comandos olvidándose de él. Como las
cámaras point-n-shoot, aquí era point-n-click. De todas maneras este sistema sólo se
preocupaba de arrancar Windows 95, quien después de cargado se hacía cargo de MS-
DOS dentro de él.
Esa piedra en el zapato seguía vivo, pero era necesario en esos momentos porque habían
muchas aplicaciones en 16-bit dando vuelta y que sólo andaban dentro de una ventana de
Pág 33 de 254
MS-DOS – menos mal casi todas funcionaban sin problema. Microsoft supo hacerla bien, y
con los 32-bit de acceso y LFN logró que dejásemos de lidiar más con “Comple~1.doc”.
Ahora sí podías guardar archivos con más de 8 letras – hasta un máximo de 255 – sin
confundirte entre dos que comenzaban igual, pero sólo en Windows. No había forma de
explicarle a un ser humano porqué no podía encontrar su archivo “Canción de cuna.wav”
en MS-DOS o Windows 3.11, pero menos mal Windows 95 dejó muy claro que si le ponías
el nombre a algo, con certeza lo encontrarás bajo el mismo nombre. Ahora ser secretaria
con muchos documentos era más fácil, por lo menos, era lo que decía una madre de mis
amigas cuando el jefe le compró una computadora nueva (ni idea si pagó en carne… con
algún asado).
No saques el CD mientras un programa lo está leyendo
La principal crítica de Windows 95 era que al principio era bastante inestable. Alegaba por
absolutamente todo, hasta por el mas mínimo error teníamos dos opciones: o
reseteábamos el sistema o esperábamos a que el programa culpable terminase de
trabajar. CTRL+ALT+SUPR se
hizo muy amigo de muchos,
y con la ventaja de finalizar
esas tareas que no
respondían, todavía
teníamos opción para no
desestabilizar el sistema,
pero al final de todo, si
Windows no podía leer el
disco, igual te tiraría el
pantallazo azul de la muerte.
Hasta por los disquetes que
se leían mal.
En ese tiempo los consumidores finales, esos usuarios que armaban sus propias
computadoras, tendrían que lidiar con la inestabilidad. Pero los OEMs eran gente
importante para Microsoft, y les tiró 5 versiones de Windows 95, además del famoso
“Plus!”, a estos tipos durante los siguientes 2 años. Menos mal hubo gente que supo la
artimaña y se conseguía esos discos con apellido “OSR” para colocarlos en su
computadora. De hecho, yo recuerdo haber tenido una versión OSR después que la
anterior instalación de Windows 95 cayera en la desdicha de Scandisk.
Pág 34 de 254
Yo jugaba con el autoexec.bat
MS-DOS no es malo, pero menos mal, en ese tiempo casi todos los juegos que me
gustaban eran basados en ese sistema que en Win32. Un día estaba leyendo la Encarta 97
en mi computadora, y sucedió un corte de electricidad en toda mi población. Después de
restaurada, y con las ganas de seguir donde me había quedado, lo prendí de nuevo para
que ScanDisk me avisara que revisaría el disco por errores. Dicho y hecho, no me
preocupé por nada y esperé… esperé… y esperé.
Resultado: Toda la carpeta C:\Windows\System estaba mala, y como scandisk es de esos
chicos porfiados que cree saber qué hace pero en realidad no, terminó por tomar todos
esos archivos y dejarlos en la raíz con un formato irreconocible hasta ese entonces, entre
ellos, “win.com”, el programa que inicia Windows. Nunca más pude iniciar el sistema
operativo, por lo que tuve que vivir varios meses con MS-DOS: dir, attrib, deltree, copy,
edit, echo off, format, todos ellos fueron mis amigos, y como sólo funcionaban los juegos,
edité el autoexec.bat para saltar inmediatamente a esos programas. Vamos… ¿Quién no lo
ha hecho?
Mirabas feo a Windows 95 y se caía, eso era cierto, pero menos mal, luego que mi viejo
desembolsara USD$70,11 para que lo repararan, además de ganarme un buen sermón de
cosas que ni si quera él podía entender, una versión de Windows OSR llegó – creo haberlo
escuchado del mismo técnico – a mi computadora, que se terminó por comportar mucho
mejor que antes. El único reparo que tenía era que se les había olvidado formatear el
disco, así que me encontré borrando esos archivos rotos del C:\ que siempre pensé que
servirían para algo, y por ese dinero, ahora pienso que era lo mínimo que pudieron haber
hecho.
Pág 35 de 254
¿Algo ha cambiado?
Durante unas vacaciones de verano llevé a mi familia a una tienda especializada en Mac,
para mostrarles que habían computadoras algo más fáciles de usar. Eventualmente me
encontré con la inevitable pregunta… “¿Dónde está el botón inicio?”. Luego de eso, los
acompañé hacia afuera, mientras pensaba que en realidad, nada ha cambiado durante los
últimos años en Windows.
La forma de trabajo del sistema operativo sigue siendo esencialmente el mismo, eso sí con
todas las actualizaciones por debajo necesarias con las posibilidades nuevas que el
hardware ha creado. Creo que la frase justa para definir lo que dejó Windows 95 es
“cambio drástico”, en pro de dejar al usuario con una percepción mucho más amigable del
equipo. Desde ahí en adelante todo terminó por evolucionar naturalmente la interfaz y el
resto del software.
Es simpático que una barra gris en el fondo de la pantalla haya instaurado las bases de la
computación moderna hace 15 años y sólo recibido cambios cosméticos en las versiones
siguientes. Windows 98, Windows ME, Windows NT, Windows XP, Vista y 7: Ninguno de
ellos ha decido matar al Botón Inicio ni su funcionamiento primordial, menos cómo
funcionan las ventanas y cómo percibimos el funcionamiento de los programas.
Windows sigue siendo lo mismo de hace 15 años, y tampoco espero a que cambie. El
único pretexto que tendría Microsoft para mostrar un Windows distinto sería con la
llegada del multi-touch y 3D, o que misteriosamente todos los ratones y teclados del
mundo se quemaran simultáneamente.
Pág 36 de 254
(025) El Legado de Palo Alto Reseach Center de Xerox Por Francisco Bravo
Quien copia a copión tiene cien años de perdón… Un refrán que acabo de parafrasear
pero que refleja la realidad en la industria de la tecnología de la información (y
seguramente todas las
ramas conocidas del
quehacer humano). Toda
creación buena,
sobresaliente o exitosa en el
ámbito comercial es
copiada tarde o temprano.
Muchas veces quién creó el
producto no ve ni un
centavo por concepto de
éste pues llegó alguien, vio
los defectos del producto,
las quejas de los clientes y
lo mejoró basándose en
aquél ‘feedback’.
Si hiciéramos un parangón
entre una sala de clase de
primaria con la industria en
Silicon Valley, Xerox sería el
nerd del curso, mientras
que Microsoft y Apple
serían los matones que
copian en los exámenes de
estos nerds. Muchas veces
los matones quedan en los
anaqueles de la historia y
los nerds son olvidados.
Xerox Alto, primera computadora personal
Si algo podemos decir en favor de estos ‘matones’ es que tuvieron la visión de llevar estos
inventos a niveles comerciales con un éxito aplastante, la incapacidad de Xerox de
Pág 37 de 254
cristalizar estos grandes inventos en productos comercialmente rentables es evidente. Por
otro lado la misión del PARC nunca fue, aunque no necesariamente se descarta, pero
ciertamente no era lo principal, crear grandes riquezas de sus inventos, sino más bien
crear avances que pudiesen servir a la compañía y, por qué no, a la humanidad entera en
el futuro. Simplemente la plana ejecutiva, los ‘peces gordos’ de Xerox, estuvieron
sentados por años sobre aquellos inventos, y a pesar de todos los intentos de los
ingenieros del PARC por explicarles el éxito que podían llegar a ser, simplemente no lo
comprendían. Y por supuesto llegaron los ‘matones’ y se llevaron el pastel.
Un legado que no puede quedar en el olvido
El PARC o Palo Alto Research Center, con sede en Palo Alto, California, Estados Unidos, es
una compañía de investigación y co-desarrollo fundada el año 1970 por Xerox Corporation
bajo la dirección del Dr. George Pake, como una división más luego del bullante éxito de
Xerox por esos días.
Pág 38 de 254
Xerox Star, primer computador personal con sistema gráfico y mouse
El PARC pasó a la historia y es recordado, razón principal de esta nota a modo de
homenaje, como el centro de investigación de tecnologías de la información y sistemas de
hardware más prolífico de todos los tiempos.
De él nacieron avances tan importantes como la electrónica y el software para la
impresión láser, desde donde John Warnock y Chuck Geschke pudieron basarse para
posteriormente fundar Adobe Systems en 1982; la tecnología Ethernet (creada en
conjunto con Intel y Digital Equipment) y una incipiente “Internet” que conectaba esta
Ethernet a ARPAnet utilizando PUP (PARC Universal Protocol), precursor del TCP/IP; el
computador personal moderno tal como lo conocemos hoy gracias al ‘Alto’; se utilizó por
primera vez el teclado y el mouse como mecanismo de control principal del computador
(en la Xerox Star); la interfaz gráfica de usuario (GUI) incluyendo íconos y las primeras
ventanas “pop-ups”; Smalltalk, precursor de lenguajes de programación orientada a
objetos tales como C++ y Java; el primer procesador de texto de interfaz amigable
(WYSIWYG) de la historia, Bravo y Tioga, que Charles Simonyi tomó como base y se lo llevó
a Microsoft para desarrollar Microsoft Word; el primer chip gráfico 3D (“Geometry
Engine”) para computadora, creado por James Clark, profesor de la Universidad de
Stanford, usando principios ideados en el PARC para posteriormente fundar Silicon
Graphics (SGI) en 1982, gracias a lo cual años después nacieron películas como Jurassic
Park y la hilarante Toy Story; la tecnología de almacenamiento en dispositivos magneto-
óptico, creado especialmente para el Alto; entre muchos otros.
El paraíso para la creatividad
Esta historia no estaría completa sin un personaje clave, Bob Taylor, gran responsable del
temprano éxito del PARC siendo administrador del Computer Science Laboratory (CSL)
(1970–83), posterior fundador y adminsitrador de Digital Equipment Corporation’s
Systems Research Center (SRC) (1983–96), sí, la misma Digital Equipment que ayudó a
crear la tecnología Ethernet junto con Intel. Para darles una idea de los pensamientos de
Taylor, éste creía que “La Internet no se trata de tecnología; es sobre la comunicación.
Internet conecta a las personas que comparten los mismos gustos, necesidades, intereses e
ideas, sin importar la ubicación geográfica”. Todo un visionario, ¿no lo creen?
Para que entendamos la época en que esto se desarrolló debemos entender la explosión
de creatividad de la época. Según explican algunos empleados de Xerox el año 1996 en un
documental creado por PBS.org, “Triumph of the Nerds”, – donde se relata la turbulenta
historia de esos años donde los nerds triunfaron y muchos se hicieron millonarios, Bill
Gates, Steve Jobs, Paul Allen, Steve Ballmer, entre muchos otros – , una vez que la
Pág 39 de 254
compañía (Xerox) se dio cuenta que la computación iba a reemplazar gran parte del
papeleo del que ellos vivían con las fotocopiadoras, tuvieron que poner manos a la obra y
crear el PARC.
Imagínense a Google en los años 70, ese era el PARC con Bob Taylor a la cabeza, fueron los
primeros en instaurar sesiones de “brain storming” en unas especies de “puff” que
pueden ver en el video. Ellos estimulaban la creatividad, así es como nacieron tantos
inventos geniales. Con decirles que de los top 100 investigadores de computación, 58
trabajaban en el PARC. Taylor les ofreció a esos genios nerds protección de presiones
comerciales, recursos ilimitados y un ambiente de trabajo propicio para la invención, libre
de presiones.
Sobre ímpetu de juventud, incapacidad de materializar productos y juicios por montón
Pasemos a la parte sabrosa entonces de la historia de Xerox, su centro de investigación y
su legado.
En los años 70 Xerox era una compañía
con un éxito imparable, el flujo de dinero
que entraba en sus arcas no cesaba,
básicamente esto debido a la posición casi
monopólica en el negocio de las
fotocopiadoras de oficina.
En 1972 los ingenieros del PARC
concibieron una máquina tal que dejaba a
las computadoras de entonces como
verdaderos elefantes blancos y las
acercaba a las personas gracias a la
“escala humana” con que fueron
fabricadas; había nacido ‘El Alto’.
Si en ese entonces para comunicarse con
una computadora había que introducir un
papel perforado, con el ‘Alto’ nacía la
interactividad, la respuesta instantánea hacia el usuario, no más esperar días para obtener
una respuesta. Y nacía también el concepto de “computadora personal”, que dicho sea de
paso era considerado un verdadero despilfarro de recursos, la eficiencia estaba, en esos
tiempos, en que cientos de individuos utilizaran aquellas enormes moles.
Pág 40 de 254
En diciembre de 1979 un joven Steve Jobs junto a un equipo de ingenieros de una briosa y
entusiasta Apple Computer (recordemos que Apple fue fundada en Abril de 1976 por Jobs
y Steve Wozniak) visitaba las instalaciones del PARC, presenciando todos los avances de
hardware y software en vivo y en directo. Mal que mal todo lo interesante por esos años
en Silicon Valley ocurría en el PARC. Así es como luego de un tiempo Jobs se “inspira” en
estos avances del PARC para crear Lisa y posteriormente el Macintosh. Pero ahí no
acabaría la relación e “inspiración” de Jobs con inventos salidos del PARC. Cuando el
Macintosh vio la luz del día en 1984, estaban en plena batalla con “Big Blue” IBM, las
ventas no fueron de acuerdo a lo previsto, de hecho fueron desastrosas. Apple necesitaba
diferenciarse de IBM de alguna forma, necesitaba una “killer application”. Esa fue la
impresora láser. Era la forma de llevar exactamente lo que se veía en la GUI perfecta del
Mac al papel. Y Apple la tomó prestada junto con Adobe en una suerte de asociación.
Todo encajaba perfectamente, pero Xerox nuevamente se quedaba fuera de la película.
Una de las situaciones más polémicas y coloridas que tienen su origen en las oficinas del
PARC es la demanda de Apple hacia Microsoft el año 1988 donde Apple Computer
clamaba que el “look and feel” de su sistema operativo estaba bajo copyright y que
Microsoft había violado el acuerdo firmado con ellos cuando esta le cedió ciertas licencias
con respecto al GUI para Windows 1.0. En el momento que Microsoft agregó a Windows
2.0 ventanas que se sobreponían unas a otras y diversas otras características presentes en
la GUI de Macintosh, Apple demandó. Pero Bill Gates, tan zorro como él solo, respondió
que Apple no tenía nada que alegar, ambos habían copiado de Xerox. Un ‘crack’ el
hombre.
Mientras esto ocurría Xerox movió sus cartas y aprovechó de demandar a Apple Computer
de forma similar a la que esta presentó contra Microsoft, pero fue desechada por el
tribunal debido a la caducidad de una de las cláusulas. Finalmente la corte le dio la razón a
la compañía de Redmond en 1994, Apple para la casa con la cola entre las piernas, esto en
sentido figurado, claro está, pues los miles de millones de dólares estaban a la vuelta de la
esquina para la compañía de la manzana mordida.
Pág 41 de 254
Xerox versus IBM
En el área de los computadores personales no les fue mucho mejor que con el resto de
inventos desaprovechados. De partida el Alto, un equipo con un costo de USD$75.000 por
una configuración básica, lo dejaba fuera del mercado, y así fue, pero no es menos cierto
que nunca fue concebido para ser un producto comercial.
Luego la Xerox Star, que poseía, por lo bajo, un GUI con ventanas, íconos, carpetas, un
mouse, interfaz ethernet, servidores de archivos, servidores de impresión y e-mail, sí
pretendía llegar a serlo. Con un precio de USD$16.000 de la época, una oficina común
debía comprar al menos 3 equipos, un servidor de archivos y servidor de impresión, lo que
elevaba la suma entre USD$50.000 y USD$100.000. Así es como su precio y la salida ese
mismo año del IBM con procesador Intel basado en 8088 fueron los que dieron la
estocada de muerte al emprendimiento de la maltrecha Xerox.
Pág 42 de 254
El presente y futuro del Palo Alto Research Center
Actualmente el PARC es una compañía independiente desde el año 2002, pero aún
propiedad de Xerox y trabaja creando innovaciones en un amplio espectro para industrias
comerciales no-competidoras de Xerox, tales como Fujitsu, Dai Nippon Printing Co., Ltd.
(DNP), Samsung, NEC, SolFocus, Powerset, entre muchas otras, mientras que Xerox mismo
sigue incorporando las tecnologías acá creadas en sus productos y soluciones (el 50% de
estas para ser exactos).
Entre las investigaciones que posee actualmente el PARC están áreas tan diversas como:
sistemas bio-médicos y bio-informáticos, etnografía, sistemas de control inteligentes y
autónomos, reconocimiento inteligente de imágenes, microfluidos, procesamiento natural
del lenguaje, optoelectrónica y sistemas ópticos, privacidad y seguridad, computación
ubicua, entre muchos otros.
Finalmente, si existe un material que condensa la historia, enfocada desde el lado
humano, del PARC, ese es sin duda el libro “Dealers of Lightning: Xerox PARC and the
Dawn of the Computer Age” de Michael A. Hiltzik, publicado por HarperCollins, una lectura
imprescindible para aquellos que deseen profundizar en las aventuras y desventuras del
centro de investigación de Xerox, un gigante amable e incomprendido.
Pág 43 de 254
(032) Creación de Google, nace un Gigante Por Francisco Luco
Debe ser difícil sentarse a desarrollar una simple tesis doctoral con la convicción de que,
en realidad, se está trabajando en hacer germinar una idea que si acaso no cambiará el
mundo, por lo menos moldeará la tecnología de las décadas venideras –tanto en el plano
doméstico como empresarial– y los hábitos de decenas de millones de personas, yendo
incluso más allá del ámbito estrictamente informático.
Sergey Brin y Lawrence “Larry”
Page eran, como tantas otras
mentes brillantes del Valle, sólo
estudiantes universitarios a la
hora de idear lo que acabaría
convirtiéndose en Google.
Particularmente notable es el
caso de Larry, de origen ruso, hijo
de un científico de la NASA y una
profesora de matemáticas, y
considerado una eminencia en
esta última ciencia ya en la
educación secundaria.
El perfil en detalle de ambos
creadores será materia de otro
venidero artículo. En razón de
ello, baste decir, por el momento,
que los dos eran sujetos bastante
apasionados por sus ideas,
conformaban un buen equipo y
pasaban bastante tiempo juntos,
a pesar de que discutieran frecuentemente (cumpliéndose así el segundo cliché de las
historias de este tipo: el de los emprendedores que ya se conocían, discutían y llevaban
bien de jóvenes).
La idea original de Google, en todo caso, fue de Page. Buscando un tema de investigación
que le apasionara lo suficiente como para basar en él su tesis doctoral, y por
recomendación de un profesor (en lo que el mismo Page definirá después como el mejor
consejo que recibió en toda su vida), Larry acabó decantándose por el funcionamiento de
Internet –tras descartar una treintena de alternativas– porque detrás de sus colores,
Pág 44 de 254
ventanas y caracteres existía una variedad de fórmulas matemáticas, algoritmos, redes de
nodos, gráficos y demás cosas raras que a matemáticos como él le fascinaban (y a
humildes hombres de letras como yo dejarían en un estado catatónico).
Visto en retrospectiva, la decisión adoptada a la hora de determinar su área de
investigación fue tan sabia como la frase que su padre hubiera pronunciado tiempo atrás:
“un trabajo puede definir una carrera académica entera” (aunque probablemente haya
olvidado agregar: “además de hacer millonario al investigador y dejar una huella indeleble
en el mundo”).
El proyecto, bautizado en aquel entonces “BackRub”, pronto concitaría también el interés
de Sergey Brin, quien tras buscar sin éxito un tema académico de interés, se involucró en
el trabajo de su amigo porque, por una parte, era su amigo, y por otra parte porque le
parecía que Internet representaba la centralización del conocimiento humano.
La apuesta era innovadora, si bien para nada pretensiosa en un comienzo. En una época
en que la red de redes tenía como gran referente a AltaVista a la hora de realizar
búsquedas, la piedra angular sobre la cual se erigió el proyecto –que no consistía sino en
organizar una especie de biblioteca digital universitaria– resultó ser algo totalmente
nuevo y se llamó PageRank. Éste es el algoritmo que implantaría en Internet una especie
de sistema de citas bibliográficas, permitiendo determinar más tarde la importancia de los
datos existentes y jerarquizarlos, de acuerdo a la cantidad y calidad de sitios que “citaran”
a tales datos.
En el mundo académico la relevancia de una obra se suele extraer no sólo de la cantidad
de publicaciones que se citan como referencia, sino también de la cantidad de
publicaciones que, a su vez, citan a la primera entre sus fuentes. Esta sencilla premisa fue
la que Page aplicó a la WWW, desarrollando así el ya citado algoritmo (y que hoy, a pesar
de sus constantes modificaciones, sigue siendo la base del motor de búsqueda de Google).
Para ilustrar de mejor manera el funcionamiento de PageRank, piénsese en cualquier
sistema de competencia (como en un torneo de ajedrez o quizá un juego en línea) en el
cual el puntaje obtenido por cada competidor dependerá no sólo de cuántas partidas haya
ganado o perdido, sino también del puntaje que posean sus contrincantes, cuyos puntajes
se determinarán, a su vez, por los puntos que hayan tenido los otros jugadores contra los
que hayan ganado o perdido, y así ad infinitum.
Con el correr de algunos años, lo que inicialmente fue concebido tan sólo como un
proyecto de indexación de contenidos y biblioteca digital en la Universidad de Stanford
(en la que tanto Page como Brin cursaban sus respectivos Ph.D) acabó transformándose
en una actividad que demandaba gran parte del tiempo y esfuerzo que sus autores
Pág 45 de 254
debieran haber estado empleando en quehaceres académicos. Sin embargo, esta empresa
estaba destinada a ser mucho más que un hobby o un proyecto universitario, de manera
que aquella idea que fuera originada pocos años antes, en 1997 adquirió nombre, forma e
identidad propia.
Eso sí, la ambiciosa meta de organizar sitios web requería de recursos, si bien el
financiamiento de la mano de los infaltables ángeles inversores no tardó en llegar. Con
ello, no se hablaría más de aquel primitivo proyecto llamado BackRub; se hablaría en
adelante de Google.com.
El ascenso hacia la cumbre
En 1998 Google se convierte en una empresa con todas las de la ley. Y nuevamente, como
en toda historia de chips y jóvenes millonarios, la sede escogida para trabajar fue un
garaje (en este caso el de un amigo en Menlo Park, California). A partir de allí, el de estos
dos jóvenes será un relato lleno de éxito y fortuna; con sus correspondientes caídas y
controversias, claro está, pero apenas capaces de opacar un historial tremendamente
fructífero desde todo punto de vista: financiero, tecnológico, mediático y hasta
sociológico.
Financiero, pues –qué duda cabe– Google se ha convertido en una compañía altamente
rentable, con ingresos que en 2009 ascendieron a la suma de 23.651 millones de dólares y
le han reportado a Sergey Brin y Larry Page una fortuna de 17.500 millones de dólares,
posicionándose ambos en el puesto #24 del ranking Forbes de los más ricos del mundo.
Por otra parte, y siendo probablemente el aspecto que merezca menos explicación por su
natural obviedad, Google también ha resultado ser toda una epopeya desde el punto
tecnológico. La compañía es a día de hoy una de las más reconocidas en el ámbito de la
informática –y la más importante de Internet– no sólo por las estruendosas cifras verdes
que recaba, sino también por la influencia que logra ejercer en el resto de la industria
gracias a una innovación permanente y al afán por convertirse en el principal referente a
la hora de realizar cualquier actividad en la red de redes.
El punto de vista mediático no puede escapar a los aspectos anteriormente mencionados.
Una empresa sana en lo que respecta a sus finanzas, y así de importante en cuanto a la
repercusión tecnológica que produce, no puede menos que ser reconocida por cuanta
revista, periódico y medio prestigioso en general exista, de la misma manera que un
sujeto con dinero y poder probablemente termine convirtiéndose tarde o temprano en
una especie de magnate-rockstar.
Pág 46 de 254
Muestra patente de lo anterior son no sólo las infinitas crónicas y biografías que se han
escrito a lo largo de miles de páginas sobre Google y sus fundadores, sino también su
consolidación en rankings
internacionales. En este sentido,
recordemos que Google resultó
ganadora dos años consecutivos en la
lista elaborada por Fortune de las
mejores compañías en donde trabajar,
debido a su peculiar ambiente laboral y
cultura corporativa. Y si de
posicionamiento se trata, demás está
decir que Google es a día de hoy el sitio
web más visitado en todo el orbe,
aunque en este punto hay que hacer
una salvedad: hay épocas en que
Facebook.com es más visitado que
Google.com, pero si contamos todos los
sitios regionales de Google (.cl, .com.ar,
.pe, .es) esa ventaja se revierte, y más si
sumamos Google Reader, Gmail y
Google News, por ejemplo, que son
percibidos por la gente como parte de
Google mismo.
Por último, consideremos también la manera en que Google ha traspasado las fronteras
digitales, para alcanzar una inmersión en la cultura popular y una repercusión tal en la
sociedad contemporánea, que ha llegado a moldear hasta el comportamiento de nuevas
generaciones e incluso modificar el lenguaje. En tal sentido no debiera sorprender, por
ejemplo, que el Oxford English Dictionary (lo que es para el español el Diccionario de la
Real Academia) haya incorporado el término “google” en sus páginas, definiéndolo como
“usar el motor de búsqueda de Google para obtener información en Internet”. Sin ir más
lejos, y aun cuando nuestra lengua evolucione a un ritmo mucho menos veloz desde el
punto de vista académico, ya no extraña a nadie la utilización popular de un símil:
“googlear”.
En razón de lo anterior es que resulta interesante observar hasta qué punto influye
Google en el día a día de cualquier persona, y ya no necesariamente en el de una
corporación o un asiduo a la tecnología. Hoy, probablemente sea imposible para un nativo
digital desenvolverse o siquiera imaginar un mundo sin Gmail o sin las búsquedas de
Pág 47 de 254
Google; e incluso podríamos aventurarnos a decir que hasta la dueña de casa o un abuelo
relativamente aventajado (en términos cognitivos) realiza actualmente, cuanto menos, un
par de búsquedas diarias para encontrar determinada información –en un acto ejecutado
casi por inercia, sin cuestionamiento alguno de por medio, y que nos parece a todos de lo
más natural–.
Finalmente, si nos inmiscuimos en la vida de alguien ya más interiorizado en el manejo de
las nuevas tecnologías, podríamos pensar en al menos una decena de situaciones
cotidianas en que empleamos alguna herramienta provista por Google, incluso a veces
rebasando las fronteras del notebook o PC de escritorio. ¿O ninguno de los presentes ha
debido localizar una determinada dirección encontrándonos en plena calle?
Como corolario de lo anteriormente dicho en cuanto a la exitosa carrera de Google, sus
fundadores han llevado a cabo un par de contrataciones que difícilmente podrían dejar
indifierente a alguien y que vale la pena mencionar.
En 2001 Google contrató a un prestigioso Eric Schmidt para que oficiara de CEO,
conformándose así un verdadero triunvirato al interior de la compañía, pues el peso de
alguien como Schmidt apenas podría resaltarse relatando que previamente ostentó
algunos cargos en Bell Labs –centro de investigación y desarrollo de Alcatel y hasta hace
algunos años de AT&T, fundada originalmente en el siglo XIX por el mismísimo Graham
Bell–, en Sun Microsystems y en el afamado Xerox’s Palo Alto Research Company.
Por último, en 2005 el mismísimo Vinton Cerf –proclamado por muchos como el padre de
Internet– pasó a formar parte de las filas de Google, desde donde lanza de cuando en
cuando algunas predicciones sobre cuestiones como el desarrollo de la red e inteligencia
artificial. Imposible realizar una mejor contratación, pues el padre de Internet no engruesa
la planta de cualquier compañía, ¿no?
Pág 48 de 254
Google en la actualidad
A pesar de todo lo anteriormente expuesto, resulta natural pensar que tamaña
multinacional no podría haberse posicionado en donde se encuentra actualmente sin
haber enfrentado a lo largo de su historia críticas y controversias tan grandes como la
compañía misma (algunas de las cuales, de hecho, son bastante actuales y se encuentran
plenamente vigentes).
Precisamente por el tamaño de Google es que no pocas veces se ha puesto en duda la
forma en que ésta maneja la información de millones de usuarios en todo el mundo,
llegando a surgir cuestionamientos respecto de la vigencia y el respeto de ciertos
derechos fundamentales o valores como la libertad de información, la libertad de
expresión y la –ya a estas alturas prácticamente demacrada– privacidad.
Una vez más, para dimensionar la relevancia del invento de Brin y Page y el vertiginoso
crecimiento de Google en los últimos años, baste recordar episodios como el de los
encontrones con China y la censura, que terminó cerrándose con la salida de la empresa
de dicho país y en el que pudimos apreciar cómo una multinacional es capaz de
posicionarse de tú a tú frente un régimen particularmente poderoso (tanto en términos
políticos como económicos) como el chino. Asimismo, podemos recordar el escandaloso
“robo” de información privada en el caso de las redes Wi-Fi abiertas (concitando
demandas en toda Europa y Estados Unidos, además de un mea culpa por parte de Sergey
Brin) y la candente guerra abierta contra escritores y asociaciones de autores por la
indexación de obras protegidas.
Mención aparte merece la recientemente desatada polémica sobre la propuesta de
neutralidad en la red, realizada en conjunto con la operadora estadounidense de
telecomunicaciones Verizon. Dicho esto, creo que no existe en la actualidad una mejor
manera de graficar cómo una empresa logra expandirse tanto, al punto que puede poner
en peligro la propia naturaleza e integridad del medio en que nació, creció y del cual vive
(llegando a desarrollarse una relación casi simbiótica, en la que Google perdura gracias a
Internet y el sustento de esta última se debe en considerable medida a la “Gran G”).
En el contexto de esta última idea, realicemos el siguiente ejercicio de ficción: imaginen
que la pisada de Google acabara presionando tan fuerte que, al cabo de unos años, la
propuesta aludida llegara a concretarse. Probablemente sería el momento de decir adiós a
la prostituida “libertad”, al más manoseado aún “don’t be evil“, y de dar la bienvenida a
las restricciones y el manejo de Internet según el interés de unos pocos.
Pág 49 de 254
El pulpo expande sus tentáculos
Ya decíamos que desde el punto de vista puramente comercial, Google no se ha detenido
en ningún momento. En este sentido, hitos que marcan la ampliación hacia nuevos
negocios –como la compra de Keyhole, Inc. en 2004 y el posterior lanzamiento de Google
Earth, o la adquisición del portal de vídeos más visitado del mundo, en 2006, por 1.650
millones de dólares– parecen episodios anecdóticos al lado de decisiones que
verdaderamente marcan un antes y un después, y que representan no sólo una ganancia
financiera sino también de poder real.
Ejemplos de esto último son la compra en 2003 de Pyra Labs y su plataforma Blogger –con
la consecuente inmersión y protagonismo cobrado por Google en la verdadera revolución
informática y sociológica que ha sido la Web 2.0– y la incursión de nuestra compañía
favorita en el promisorio espectro móvil (que nadie cuestiona que sea el futuro), con el
lanzamiento de Android, más tarde con la comercialización de su propio smartphone –el
Nexus One– y la descarnada competencia emprendida –aún pesar de su estrecha y
todavía perdurable colaboración– contra Apple.
Pero así como el día de ayer la identidad de la Gran G no era más que la Internet
“doméstica”, y hoy el gigante se ha asentado hasta en nuestros teléfonos móviles, el día
de mañana Google se encontrará instalado hasta en nuestros computadores personales,
con un sistema operativo propio y una amplísima gama de software de escritorio
disponible desde hace ya un tiempo considerable (dentro del que encontramos, por
Pág 50 de 254
ejemplo, el exitoso navegador Chrome, cuyo uso ha aumentado muy rápidamente desde
que irrumpiera públicamente a fines de 2008). ¿Qué espacios quedarán libres para el día
de mañana?
Dicho lo anterior, los más asustadizos podrían llegar al extremo de pensar en una entidad
literaria que ya se ha convertido en un cliché a estas alturas: el Gran Hermano. Extraído de
la distopía orwelliana “1984″, el concepto alude a un ente de autoridad que no es en
realidad una corporación (como podría ocurrir en el caso de Google); en cambio se trata
del régimen político imperante, el cual tenía conocimiento de todas las acciones que sus
ciudadanos llevaban a cabo a cada momento, sirviéndose para ello de tecnologías
futuristas y, sobretodo, de la premisa fundamental de que “la información es poder”. ¿Y
qué otra empresa de Internet, sino Google, podría vanagloriarse de operar hoy en día con
tamañas masas de información, en una era en que esta última es precisamente su piedra
angular?
Conclusión
Desde luego es imposible explorar cada uno de los lanzamientos o hitos en general que
han marcado a esta emblemática compañía a lo largo de su historia. Sin embargo, con la
sucinta selección realizada, espero que pueda quedar suficientemente claro por qué el
nacimiento y posterior crecimiento de una empresa como Google, cuya marca quedará
impregnada en el ADN de las nuevas generaciones, y cuya trascendencia ha merecido
hasta una adaptación cinematográfica (no creo que exista mejor manera de reconocer lo
que al hombre le parece importante, sino produciendo un largometraje), con toda justicia
deben ser considerados uno de los eventos más trascendentes para la tecnología en los
últimos 200 años.
Al final, qué duda cabe, Google ha llegado a transformarse en la identidad e imagen por
antonomasia del período histórico en que nos encontramos: la sociedad de la
información.
Pág 51 de 254
Pág 52 de 254
(039) Cuando Google compró Youtube Por Felipe Figueroa
Los Garage Days de Youtube
A mediados de la primera década del siglo empezaron a florecer un tipo de sitios que
antes no se veían. Sitios dedicados al video, pero alimentados en forma social. Los mismos
usuarios se ocupaban de subir su material, compartirlo y comentarlo, viralizar el
contenido de terceros y, de a poco, construir un ecosistema de videos que incluía
bloopers, segmentos pirateados de películas o series de TV, cortometrajes absolutamente
amateurs y, en fin, de todo un poco.
De entre esos sitios todos recordamos a Youtube, pero también destacaban Metacafe y
DailyMotion, por ejemplo, y luego se sumaron otros como Vimeo, Blip.tv, Veoh y Viddler.
A todos les iba relativamente bien, pero Youtube era por mucho el líder de la manada.
Youtube fue fundado a principios del año 2005 por Steve Chen, Chad Hurley y Jawed
Karim. Los tres se habían conocido mientras trabajaban en Paypal, una compañía
subsidiaria de eBay.Se supone que una vez fueron a una fiesta en San Francisco y cuando
quisieron compartir el video de la jarana, se dieron cuenta de que no había un servicio que
lo hiciera sencillo, así que decidieron armar el sitio. Esa era la versión oficial, claro. En
realidad después se supo que nunca hubo fiesta, nunca tomaron un video, y San Francisco
Pág 53 de 254
no existe (epa, eso lo inventamos nosotros) pero lo importante es que la historia no es tan
anecdótica. Lo cierto es que querían hacer un sitio de parejas, para conocer otros solteros
(o casados traviesos) y calificarlos según su video. Esa idea no era tan apoteósica, pero
afortunadamente para ellos nunca limitaron el tipo de video que se podía subir, y
paralelamente habilitaron el reproductor para pegarlo en otros sitios. Resultado: exitazo.
La historia dice también que en un comienzo simplemente tomaron muchos PCs y los
juntaron en el garage de uno de los fundadoress. Pusieron el mejor enlace que pudieron
pagar con sus ahorros y se sentaron a esperar lo mejor: la plataforma ya estaba y había
que esperar a que los visitantes fueran llenando el sitio con sus videos, lo cual ocurrió más
que rápido. En realidad eso debe ser tan falso como la fiesta en San Francisco, pero al
menos sabemos que cuando Google los compó, arrendaban un amplio segundo piso en
San Bruno y tenían 60 empleados.
Pág 54 de 254
Entra Google al Negocio
Ocurrió en octubre de 2006. Sorpresivamente para muchos (aunque el rumor se había
escuchado un poco antes), se anunció una compra millonaria que ascendía a nada menos
que USD 1.650 millones. Google se quedaba, mediante esa compra, con el sitio de videos
más exitoso del planeta. Trascendió que paralelamente Yahoo también había puesto sus
billetones en la mesa, pero la gran G se impuso. Cabe preguntarse cuál hubiera sido el
devenir de Yahoo -y por tanto de Youtube- si la historia hubiera sido distinta.
Decimos lo anterior por algo que no es el tema central del artículo, pero que ocurrió de
todos modos y vale la pena mencionarlo. Resulta que nueve meses después de que
Google comprase a Youtube, el CEO de Yahoo, Terry Semel, tuvo que dejar su cargo.
Razones habían muchas y todas hablaban de la palidez con que el gigante de la web
estaba enfrentando la era de la Web 2.0. La empresa se sentía estancada y culparon a
Semel, pero luego pasaron todo el 2008 llorando la estabilidad que les había dado, visto
que bajo Jerry Yang la firma anduvo de mal en peor y pasó meses arrancando de Microsoft
para luego ir a pedir que reconsideraran la idea de comprarlos. En fin, es otro tema, pero
si Yahoo hubiese comprado Youtube la Web sería distinta hoy. A lo mejor Yahoo estaría
mejor parado, o a lo mejor Youtube se habría ido a pique.
Mientras Youtube era un servicio de video que corría en unos servidores roñosos en un
garage, a nadie le molestaba. Para los estudios cinematográficos y discográficos que veían
con molestia que los usuarios del sitio social subieran material protegido por derecho de
autor, era sólo un tema doméstico el usar o no las cláusulas DMCA. Al final a veces uno
deja que una mosca revolotee en la habitación simplemente porque el esfuerzo de
matarla no parece valer la pena.
Luego Youtube creció, y mientras más crecía peor lo miraban los estudios. Pero hablando
en serio, uno no demanda al que no tiene con qué pagarle: los triunfos morales son muy
bonitos pero los abogados no cobran en bolitas de dulce, y las corporaciones no te
demandan si no tienes plata. A veces te echan encima unas cartas de Cease & Desist y en
algunos casos han logrado cerrar sitios y servicios que les molestaban particularmente,
pero una cosa es lograr cerrarlos y otra distinta es querer ganar plata en la corte.
Cuando Google se convirtió en dueño de Youtube, la situación cambió radicalmente y una
semana después Mark Cuban instaló la noción de que los estudios se tirarían en picada a
demandar a Youtube ahora que eran parte de un gigante tan forrado como Google.
Cuando esa vez publicamos una columna al respecto hubo opiniones encontradas. No
faltó el que dijera que era una opinión alarmista y que no pasaría nada, pero como más
sabe el diablo por viejo… la predicción se cumplió.
Pág 55 de 254
Fue nada menos que VIACOM (Dreamworks, Paramount Pictures, MTV, Comedy Central,
VH1, entre otros) que en marzo 2007 interpuso una demanda por USD 1.000 millones.
Dijo que Youtube no era lo suficientemente colaborativo como para dar de baja los videos
que violaban copyrights, y por lo tanto no podían ampararse en la DMCA. Esos USD 1.000
millones eran su cálculo estimado de los perjuicios sufridos por el material difundido a la
mala. Lo que no es tan evidente es que dos meses antes habían exigido el retiro de todos
los videos infractores. Aparentemente, mientras Youtube eliminaba algunos, la gente
subía otros y nunca terminaron de limpiar el sistema (pero esto tiene otra explicación).
El juicio se prolongó por 3 años y tuvo hitos como:
• Que un juez ordenó que Google entregaraa VIACOM el historial de sus usuarios
para determinar quienes eran los culpables directos
• Que VIACOM desistió de recibir esos datos (nos salvamos)
• Que se descubrió que la misma gente de VIACOM había subido miles de videos, lo
cual equivale a fabricarse un penal
Combos iban, combos venían, pero al final Youtube venció y la corte determinó que
habían cumplido con la Digital Millenium Copyright Act, por lo que las exigencias de
VIACOM no prodecían. Fue un litigio que tiñó el devenir del sitio que nos convoca casi
desde que llegó a manos de Google, y terminó hace tan poco que uno tiene la noción de
que la demanda siempre estuvo, que era parte inherente y consustancial a Youtube.
Pero bueno, el lector podría pensar que este es el único problema que ha tenido Google
por culpa de Youtube, cuando en realidad hay una lista incontable. Incluso hubo un caso
en que un juez italiano condenó a ejecutivos de Youtube por un video de Bulling subido en
la península. Inaudito.
Pág 56 de 254
Y qué pasó después
Hace pocos meses Youtube cumplió 5 años, y a fines del año pasado ya celebraban haber
sobrepasado los 1.000 millones de reproducciones diarias. Todo indica que desde
entonces hasta ahora han aumentado otro poco. Cuando Google los compró a fines del
2006 tenían aproximadamente la décima parte del tráfico actual: en julio de 2006
reportaban 100 millones de impresiones diarias.
Ante todo, la pregunta recurrente de la industria fue ¿Cómo hará Google para rentabilidad
Youtube? Una cosa es tener un servicio exitoso con millones de visitas diarias, y otra muy
distinta lograr que ese servicio deje dinero. Pues bien, la rentabilización de Youtube es un
tema que hasta el día de hoy no está cerrado. Se han hecho avances eso sí, pero son
tibios. Se despliega publicidad en algunas secciones de la página y también en algunos
segmentos de los videos, pero nada de eso es lo que se dice un negocio redondo.
Como una idea paralela con que los estudios quisieron oponer resistencia a Youtube, fue
justamente que nació Hulu, un servicio que agrupa a NBC/Universal y a Fox, conteniendo
casi la totalidad de los episodios de esas y otras cadenas, los cuales son visualizables
mediante un pago. Ahora último, hasta tienen planes de suscripción mensual, claro que
funciona solamente en los Estados Unidos. Contrariamente a lo que suele ocurrir cuando
las corporaciones intentan imitar a las redes sociales orgánicamente evolucionadas, a Hulu
le va bastante bien. Un año después de su lanzamiento ganaba tanto dinero como
Youtube (contando sólo la audiencia de USA), claro que tiene solamente una fracción de
las visitas. Hulu no es el tema central de esta historia, pero es importante notar que sería
erróneo pensar que “no hay cómo ganar plata con un sitio de videos”. Plata se puede
ganar, pero es difícil con un sitio gratuito. Vale la pena precisar eso sí, que Youtube
también tiene secciones de pago, o mejor dicho, arriendo de películas. Claro que es un
negocio pequeño: le deja como USD 30.000 al mes, que para Youtube es nada y, para
Google, menos.
Otro cambio bastante relevante en la oferta de Youtube es la posibilidad de desplegar
video en mejor resolución que la originaria. Cuando recién había partido el servicio, los
videos se reproducían a 360p. El visor flash puede escalarse al tamaño que se desee, pero
eso obviamente no influye en la calidad del video, que en esa época seguía siendo bien
pobre. Allá por el 2006 el ancho de banda de los planes promedio que ofrecían los ISP ya
sufría para ver esos videos 320p sin detenerse a cargar cada 10 segundos.
Las cosas cambiaron y Youtube cambió con ellas, pero sería injusto decir que esto fue idea
de ellos o que la medida fue implementada exclusivamente por Youtube. Lo cierto es que
servicios como Vimeo y Dailymotion hicieron gala de mejores resoluciones de video con
Pág 57 de 254
anticipación, pero al menos Youtube pudo ponerse a tono y hoy en día muchos videos
ofrecen la posibilidad de reproducir a 240, 360, 480p, 720p, 1080p y en casos extremos
hasta 4096p.
Hay más, mucho más, pero la mayoría son pequeñas mejoras que a veces pasan
desapercibidas, pero que en conjunto han ido haciendo de Youtube un servicio cada vez
más completo. Google ha pregonado incrementalmente su idea de que la web es un
sistema operativo, y por lo mismo enriquece sus servicios integrando aplicaciones.
Youtube, por ejemplo, tiene un editor de videos y últimamente incorpora subtítulos.
Algo que, en cambio, es una mejora que no pasa desapercibida, es la función de Youtube
como impulsor del video HTML5. No es el único sitio que ha habilitado la posibilidad de
ver videos sin pasar por el reproductor flash, pero sí el más significativo.
Gracias a que Youtube habilitó los videos HTML5, el iPhone y luego el iPad pudieron
prescindir de flash y desplegar los videos usando el codec H.264, desencadenando una
pequeña guerra con Adobe. Pero la guerra de Apple con Adobe es sólo una cara de un
tema mucho más complejo, puesto que al prescindir de flash en realidad el tema tampoco
queda zanjado. Sucede que el codec H.264 no es gratuito ni abierto, por lo que
Pág 58 de 254
incorporarlo como estandar en los navegadores implica exponerse a que la MPEG LA te
cobre royalties.
Con esto en vista, Google compró la empresa On2 a fines del año pasado. Esta empresa
poseía varios codecs ampliamente utilizados (como el VP6) y Google tomó esa tecnología
y la recicló emitiendo un codec libre y gratuito, WebM. La difusión y soporte de WebM no
es tan masiva como la de H.264, pero es muy interesante que Google, como dueños del
mayor sitio de videos, de un códec y de un browser, se haya puesto en una posición tan
estratégica… lo cual nos lleva al punto siguiente.
Pág 59 de 254
No hay puntada sin hilo
¿Qué perseguía Google con esta enorme adquisición? Como muchos deben saber, la
especialidad de Google, su negocio central, son las búsquedas. En eso son buenos y
lideran el mercado, pero no es su principal fuente de ingresos, ya que nadie paga por
buscar. Su modelo de negocios obtiene ingresos de forma indirecta gracias a Adsense y
Adwords, su red de publicidad que se despliega en sitios propios y afiliados. Podríamos
partir diciendo que comprar un sitio de tráfico masivo le da a Google más inventario para
mostrar avisos, y más avisos es más dinero.
Sin embargo, pensamos que es más acertado pensar que Google no compró Youtube
pensando en ganar plata, o mejor dicho no lo compró pensando en explotarlo como un
negocio directo. Más bien pudo intuir su rol estratégico en la manera en que la web
evolucionaría a medida que se masificaban las conexiones de banda ancha fija y móvil. Un
informe que elaboraron para Eric Schmidt en la época sugería que Youtube valía, cuando
mucho, USD 700 millones por su potencial de rentabilidad: significa que el resto (nada
menos que USD 1000 millones extra) Google los pagó por externalidades positivas que
intuyó en el producto.
Verán, hace cuatro años el video online era un hobby interesante, pero no tenía los
ribetes universales que alcanza hoy. Actualmente hay múltiples actores usando el video
web como canal de difusión (políticos, empresas, medios de prensa) y Google supo mover
sus piezas justo a tiempo para capturar la tajada más gruesa de ese mercado.
A lo mejor no es un mercado que deje tanto dinero de por sí. Comparado con los costos
de mantener la enorme plataforma, creo que lo que se recauda por publicidad y arriendo
de películas es una cifra menor. Pero al mismo tiempo hay sinergias que fortalecen
sobremanera la posición de Google en todos sus otros negocios. ¿Ejemplos? El solo hecho
de usar HTML5 en Youtube es un golpe masivo para los evangelistas del video Flash. A su
vez, definir si ese HTML5 utiliza WebM o H.264 afecta la balanza que decidirá el estándar
del video web. Gracias a su compra de Youtube, Google es actualmente juez y parte en
muchas de las grandes decisiones que afectan y comprometen el futuro de la internet.
Podemos seguir pensando en otros ejemplos. Cuando Apple decidió prescidir de Flash del
iPhone y el iPad, podía descansar tranquilamente en que sitios como Youtube funcionan
con HTML5, pero de paso, Google es competidor de Apple si pensamos en el sistema
Google Android (versus iOS) y en el browser Chrome (versus Safari). En otras palabras, fue
la compra de Youtube lo que le permite a Google tener en sus manos el estándar de video
de un sitio tan masivo, tan popular, que puede usarse para asestar un golpe demoledor a
las plataformas y productos Apple. Si quita el soporte HTML5 o lo restringe al codec
Pág 60 de 254
WebM, puede poner a Apple patas arriba en pocas horas. No necesariamente lo hará,
pero el poder de empuñar una espada de Damocles sobre la testa de Apple vale más que
USD 1.650 millones.
Junto a su navegador y al sistema operativo móvil Google Android, la gran G también tiene
muy avanzado un sistema de escritorio (Google Chrome OS). Esos tres
proyectos/productos ofrecen entre sus características un fuerte énfasis en la conectividad
y por supuesto en una completa experiencia de lo que ofrece la web, dentro de lo cual el
video online es tal vez la mayor proporción en tráfico si no en tiempo consumido online.
Al tener a Youtube en su cartera, Google es autosuficiente en este sentido. Moldea sus
productos para aprovechar Youtube, y Youtube para ser compatible con sus productos.
Nuevamente, eliminar el riesgo de cualquier apuesta al tener la mitad de las dudas de
compatibilidad resueltas, vale más de USD 1.650 millones.
Google no da puntada sin hilo, y aunque es cierto que muchas veces compra
aparentemente a lo loco simplemente porque tiene más dinero del que puede gastar, hay
que entender que por debajo hay una estrategia de largo plazo que se adivina en
pequeños chispazos cuando de pronto pequeñas cosas, aristas inconexas, parecen hacer
milagrosamente una buena combinación, casi por fruto de la coincidencia. Pero no,
queridos lectores: cuando se trata de Google no hay coincidencias, y de entre todos los
ejemplos, Youtube es probablemente el más revelador y masivo de todos.
Pág 61 de 254
(046) Cell, el chip que se quedó solo
Por Italo Baeza
En el mundo de las consolas, la generación que traería los sucesores de la PlayStation 2,
Gamecube y XBOX tenía como objetivo demostrar que por hardware se podía llegar a
crear mejores juegos. Así, mientras Nintendo armaba Revolution tras bambalinas, Sony y
Microsoft empezaban a mejorar mover las piezas internas de sus respectivos productos.
XBOX 360 golpeó primero, con la típica camada de videojuegos que rozan las dificultades
técnicas y varios problemas de sobrecalentamiento, pero que se recuperó al año. ¿Y Sony,
dónde estaba? Ellos anunciaban que tenían una bomba nuclear en la palma de la mano.
PlayStation 3 fue uno de esos productos hiper-recontra-hypeados que sembró fanboys en
los campos de la Internet mucho antes de su lanzamiento. Prometía volarle la cabeza en
poder – tanto gráfico como de cálculo – a cualquier cosa que se le pasara por delante,
hackear la NASA, transformarte en el más inteligente del colegio, y dejar cualquier otra
consola mordiendo el polvo, o por lo menos, así lo mostraban las numerosas
demostraciones de la consola que presentaban Ken Kutaragi – padre del PlayStation – y
Kazuo “Kaz” Hirai, el cabezón de Sony Entertainment Entertainment Inc.
El responsable de todo esto era CELL, en gran parte, y así Sony lo hizo ver: cuando alguien
decía “Cell” también decía “PlayStation 3″ y al revés. Mientras IBM se jactaba que, junto
con Toshiba, era el producto de 4 años de desarrollo y 400 millones de dólares. Junto al
RSX (Reality Synthesizer) de NVIDIA, lo que mostraron en la E3 de lo que era capaz tanto la
consola como su núcleo era casi como lo mejor que hacía Industrial Light & Magic en esas
películas de La Guerra de las Galaxias. Todo tardó 1 año más tarde en salir que su
competencia más directa, a precios estrafalarios, pero que según los mandamáses de
Sony, valían la pena esas horas extra en tu trabajo para adquirirla. Consumismo en su más
puro estado.
¿Qué tenía de interesante este chip? Además de estar basado en PowerPC, básicamente
rompía el molde con lo que teníamos entendido de un procesador común y corriente,
pues su arquitectura era, en pocas palabras, un chip de 8+1 núcleos. El funcionamiento es
muy parecido a lo que podemos encontrar en los procesadores multinúcleo, como CPUs
de Quad-Cores o tarjetas gráficas, pero hecho para tareas mucho más particulares. Cell
consta de 8 SPE, todos funcionando de forma organizada por un PPE, y que podían
acceder directamente a la memoria XDR. Creo que no muchos me entendieron…
Pág 62 de 254
¿Qué acabas de decir?
El PPE, Power Processor Element, es el núcleo multihilo organizador de la fiesta, muy
parecido al CPU de un procesador de escritorio de arquitectura PowerPC. Mientras, los
SPE, Synergistic Processing Elements, son mini-procesadores de arquitectura RISC (como
algunos procesadores PowerPC y ARM) diseñados especialmente para procesar
instrucciones vectoriales, cada uno con 256KB de SRAM.
Como analogía, bastante rara y básica para no dejarlos dormidos frente a la pantalla,
imagínense una Tienda de Ropa Personalizada, algo así como un sastre pero más top y con
más gente trabajando. En éste hay un dueño y 8 sastres 100% especializados en hacer
trabajo de… sastre. Al entrar un cliente, el dueño (PPE) recibe al cliente, escucha la
petición, y manda a cada asistente (SPE) a tareas específicas: uno toma medidas en la
cabeza y las anota en una hoja (SRAM), otro toma medidas en la cintura, de los brazos,
piernas, etcétera. Al final el dueño junta todas las medidas, las analiza, arma la cotización
y despide al cliente.
Pág 63 de 254
A diferencia del PPE, que es comparable con el procesador de esos antiguos Mac G5, los
SPE son núcleos donde no existe Out-Of-Order Execution, Branch Predictor y Caché: aquí
hay completo control de lo que hace cada SPE, el cual corre mejor código vectorial que
escalar. Eso quiere decir que se tendrá un mayor rendimiento si le decimos a un SPE
“Suma A1, A2, A3 con B1, B2, B3 y dame los resultados en C1, C2, C3” que “Suma A con B y
dame el resultado en C, pero hazlo tres veces“. Se puede alcanzar mucho rendimiento
programando de forma vectoral (o en SIMD, o en Array, como quieran llamarlo), pero
también tiene sus problemas: ¿Cómo le pides que en la segunda vuelta no sume sino
multiplique A2 con B2? Sí, no es fácil programar para Cell que como cualquier otro
procesador de escritorio, porque a veces todo el rendimiento ganado se puede perder con
algunas líneas de código mal optimizadas.
En una consola, este modus operandi, donde cada SPE se puede especializar en una tarea
en específica mientras el PPE corre código escalar sin problemas soberbios de
rendimiento, es muy provechoso. No está en una computadora multi-propósito, sino en
un aparato pensado específicamente para las decenas de procesos que tienen lugar en los
videojuegos como inteligencia artificial, detección de colisiones, físicas, casi todo
paralelizable. Pero existía un problema gigante, que terminaron por sepultar a PS3 en sus
primeros días como a Cell por el resto de su vida. Dicen que el papel soporta mucho, las
palabras se las lleva el viento, siempre podrás usar un render para tus presentaciones,
WYSINWYG, y que del dicho al hecho, hay mucho trecho.
Pág 64 de 254
Lento y complicado por favor
Hace 4 años me dí cuenta que no todo sería un paraíso para los desarrolladores de
PlayStation 3. Quienes tendrían que lidiar con la consola, y sobretodo Cell, debían
soportar un pastelazo con el diseño del procesador y el acceso a memoria, algo muy
importante cuando se trata de simplificar procesos y el movimiento de información. En la
PS3 existen dos memorias: una XDR para uso de Cell, algo así como la RAM de nuestros
equipos, y la memoria GDDR3 para RSX, el chip gráfico. Ambos chips pueden leer las
memorias del otro chip ¿Van conmigo?
El pastelazo que mencioné es el siguiente: Cell era lento para escribir en la memoria
vecina GDDR3 de RSX y ¡250 veces más lento para leerla! Para los desarrolladores, el
problema se traducía en más trabajo: Para llegar a la memoria de RSX desde el procesador
sin perder rendimiento, tenían que darse la vuelta a la manzana y pasar lo que querían en
Cell a RSX para que desde ahí pudiesen hablar con la memoria gráfica, y viceversa. La
memoria XDR podía servir como una extensión a la memoria gráfica GDDR3, porque el
chip gráfico RSX no tenía problemas en leer ambas memorias a máxima velocidad, pero
Cell no podía extender a GDDR3 su memoria principal ya que andaba a la velocidad de
pendrive chino. Sí, yo también tuve uno. ¿Muy complicado? Tu vecino puede llegar a tu
propia casa corriendo y en un instante, pero si necesitas algo de la casa de tu vecino tú no
puedes hacerlo a la misma velocidad, debes pedírselo a él.
Sumado a eso la mitad de triángulos por segundo (275 millones) que RSX podía procesar al
compararlo con Xenos de XBOX 360 (500+ millones), el resultado estuvo a la vista los
primeros 3 años de vida de la consola, y con ello la reputación de Cell: Era un parto
Pág 65 de 254
programar para la consola, los videojuegos que salieron tenían serias fallas y se veían
pésimo comparado con la competencia, nadie quería arriesgarse con crear un título
exclusivo sin soporte financiero (por lo menos de Sony) por medio, y muchos juegos
cancelados para esa consola, dejando títulos que pegando simultáneamente en XBOX 360,
Wii y/o PC. Todo eso sucedió en una consola que costaba casi la mitad del sueldo de
mucha gente.
¿Quieren más? IBM tuvo bastantes problemas para producir el famoso chip. Algunos de
los SPE simplemente estaban muertos, lo que significó dejar sólo 6 disponibles para los
desarrolladores, 1 para el sistema operativo y otro por si llegase uno a fallar.
En la Internet el tema de las imposibilidades de PlayStation 3 resonó bastante. El que sabe
algo de inglés se va a reír con esta tira si no es primera vez que la lee.
Pág 66 de 254
Cell, el chip que se quedó solo
Como dijo delfín, “¿Quién lo hizo, y por qué lo hizo?” Las primeras impresiones siempre
son importantes, lo sé por experiencia propia en mi carrera, y su inicio no partió con el pie
derecho a pesar de no ser completamente su culpa. Comentaban por ahí que las
herramientas para desarrollar en CELL eran prehistóricas y difíciles de dominar. Los SPE
eran bastante específicos, y a pesar de tener bastantes para ser ocupados, si uno quería
sacarle el jugo se necesitaba bastante trabajo en el software, pensar mucho en procesos
multihilo, y así evitar tiempos muertos. Mientras el CPU de la XBOX 360 era algo así como
tres grandes Hummer, que servían hasta para llevar tres cadáveres fresquitos, Cell
disponía de seis Kia Pop que requerían desarmar y armar muy bien lo que querías llevar
adentro de ellos. Eso era un trabajo mucho más abordable por el sector de
supercomputadoras, por ello Cell fue puesto en Blade Center H y luego Roadrunner de
IBM.
Sólo el año pasado supimos que IBM le cortó la cabeza a un sector del desarrollo de Cell,
presumiblemente porque la evolución de la arquitectura era un callejón sin salida. Toshiba
anunció modelos de televisores con este chip para salir justamente este mes (si no lo han
retrasado), que seguramente serán carísimos. Por ahora las aplicaciones para Cell se han
limitado a una consola de videojuegos principalmente. De hecho, Sony no planea contar
con una evolución de Cell en PlayStation 4, lo que en otras palabras significa que buscarán
alguna solución que no termine por dejarlos vendiendo una consola a pérdidas y matando
la reputación del hardware que lleva adentro. Por otra parte, la merma de triángulos por
Pág 67 de 254
segundo en RSX le estaría costando a NVIDIA el contrato con Sony para la próxima
consola. ¿Es mi idea o todo lo que tocó Cell cayó en desgracia?
Menos mal, PlayStation 3 ha demorado su resto en madurar, y la arquitectura promete
durar bastantes años ya que el desarrollo también ha madurado… aunque prefiero pensar
que si llegara la PS4 ahora todos los partners de Sony no apoyarían ni un pixel la nueva
consola, bastante tienen con las aneurismas para programar en ella.
Por favor, si van a lanzar una PlayStation 4, ojalá no terminen por quitarle cosas a medida
que pase el tiempo, porque es la única consola que en mi vida he visto le han restado
cosas por cada versión que sale: Retrocompatibilidad, puertos USB, y OtherOS. Por otra
parte, el gran plus de estas consolas es la posibilidad de jugar aquellos títulos de la
generación anterior, así que está en el aire qué hará Sony para remediar eso cuando salga
la próxima versión de su consola si no contarán con Cell. ¿Volverán a juntarse con IBM y
Toshiba para remediar los errores del pasado o simplemente olvidarán todo esto? ¿Dejará
Sony un sucesor de Cell en la PS4 o veremos un chip totalmente diferente? ¿Cuánto
durará Cell en el mercado?
Pág 68 de 254
(053) Googleplex: El oasis de Silicon Valley por Francisco Bravo
¿Google… qué?
Si pudiésemos definir en una sola palabra a Google, creo que esa palabra sería
Googleplex, el centro de operaciones de la compañía con sede en Mountain View,
California. En este edificio han nacido todos los avances de la compañía, acá se condensa
el trabajo realizado por la asociación de estos dos genios llamados Larry Page y Sergey
Brin, ex-estudiantes de doctorado en Ciencias de la Computación de la Universidad de
Stanford, para crear el motor de búsqueda más famoso de la historia, acá se concretó la
compra de Youtube el año 2006 y probablemente acá se geste lo que se nos viene en el
futuro de Google, una compañía que no termina de sorprender día a día.
Pero, ¿qué tiene de especial Googleplex que lo hace ser un edificio tan famoso y deseado
por todo aquel computín con una mente soñadora como el lugar ideal para trabajar? Tal
vez sea bueno aclarar que existen oficinas de la gran G repartidas por todo el orbe, pero
como Googleplex no hay ninguna.
Pág 69 de 254
Googleplex es un complejo – de ahí viene el nombre, Google + complex, Googleplex – de
más de 20 edificios, donde habitan los empleados de la compañía o “Googlers” y en donde
se desarrolla y mantiene todo lo que conocemos de la compañía, desde la mantención de
los servidores de búsqueda y demás servicios, hasta la creación diaria de los famosos
“doodles”, esos dibujos que cambian regularmente en la página principal del buscador.
Una de las secciones del campus de Googleplex
Los cuatro edificios principales del complejo ocupan nada más ni nada menos que 47.038
m2, edificios que fueron construidos y originalmente ocupados por años por Silicon
Graphics (SGI), compañía fundada en 1982 – que le debe su creación al PARC y a la
Universidad de Stanford, por cierto. El resto del complejo se encuentra repartido en una
superficie de 110.000 m2 y éste contiene a su vez al Charleston Park, un parque público de
20.000 m2. El año 2003 SGI le arrendó sus instalaciones a Google, de éste modo el año
2006, que coincide con la compra de Youtube, la gran G le compra definitivamente a SGI
todas las instalaciones incluyendo Googleplex por USD$319 millones. El año 2006 fue, tal
parece, realmente importante en la historia de la compañía y diablos que sí tenían sencillo
en los bolsillos.
Dato freak: Cuál no fue mi sorpresa al visitar las instalaciones de Google de forma virtual –
justamente en uno de sus productos estrellas, Google Maps – y toparme con el que sea,
tal vez, el triángulo más significativo y prolífico en la historia de la tecnología de la
información y sistemas de hardware de todo el planeta, donde cada arista se encuentra
separada de la otra por menos de 3 kilómetros, el PARC, Google y la Universidad de
Stanford, esta última cuna de los creadores de Google y que aportó mucho también al
Pág 70 de 254
desarrollo del PARC. Muy cerca está también el edificio corporativo de Microsoft. Increíble
cómo el que poner las cosas en perspectiva a veces no da gratas sorpresas.
Prohibidos los Segway
Google desde sus inicios ha apostado por las operaciones autosustentables, dentro de lo
posible, claro está. Por ponerles un ejemplo, el año 2007 la compañía terminó de colocar
los 9.212 paneles solares encima de ocho edificios corporativos, además de la
construcción de dos estacionamientos techados solares, sistema que en su totalidad es
capaz de suministrar 1,6MW de electricidad. Estos paneles solares proveen el 30% del
consumo ‘peak’ que requiere Googleplex, también se utiliza para cargar los autos
eléctricos que utilizan algunos “Googlers”. Además de esto cada edificio está construido
con gran parte del techo con vidrios, de esta forma la luz natural se aprovecha muy bien
durante todo el día. Otro signo del lado “verde” se puede apreciar en que toda la madera
utilizada en la construcción del campus y del mobiliario es madera de bosques
sustentables, ecológicamente hablando. Dentro de las instalaciones existen muchísimas
“bicicletas comunitarias” que son utilizadas por los empleados para recorrer las
instalaciones de forma expedita, insonora y sana. Y cómo olvidar a las simpáticas cabras
que arrienda la compañía cada mes para que corten el pasto de todo Googleplex, estoy
seguro que no existen podadora de césped más ecológica y entretenida de mirar que
estos animalitos.
Probablemente uno de los ítems que más gasta energía dentro del complejo sean los
miles de servidores que dan vida a la esencia de Google, sus servicios. Y si esto se realiza
de la manera más sustentable y “verde” posible, tanto mejor. Acá un video donde la
Pág 71 de 254
compañía nos acerca a uno de sus Data Centers, con espacio para 45.000 servidores
dentro de alguno de los 45 contenedores.
La envidia de Silicon Valley
Sin temor a equivocarme por mucho, Google es por lejos la empresa en la que cualquier
empleado en el resto del mundo desearía trabajar: comida gratis, ya sean snacks o comida
preparada por un chef a gusto de cada empleado; varias horas al día de relajo dentro de
las horas laborales; muchas salas de juegos; Metronaps EnergyPods repartidos por todo el
campus para una reparadora siesta después de almuerzo; suculentos sueldos y bonos; un
fósil de un tiranosaurio Rex de mascota en la entrada de uno de los edificios donado por
Sergey y Larry; una réplica del SpaceShipOne dentro de uno de los edificios; cuatro
amplios gimnasios; dos piscinas “sin fin”; lavandería gratis; varias canchas para volleyball
de arena; 18 cafeterías con diversa selección de café, entre eso algunos granos son
cultivados en los mismos patios del complejo. ¿Queda alguna duda que Google cuida y
quiere a sus empleados?
No, no es un Zerg tragándose a un Googler, el hombre sólo está tomando una reparadora siesta en un EnergyPod.
Pág 72 de 254
Si no me creen vean el video que realizó la compañía con un tour por sus instalaciones en
200 segundos:
Recordará el lector asiduo a leer la sección “Noticias Breves” que algunos empleados nos
contaban, de primera mano, pero sin identificarse con nombre y apellido, algunos detalles
desconocidos de trabajar para la compañía de Mountain View. En ella nos enterábamos
de la idiosincrasia que ha generado el estilo de vida que se lleva ahí dentro en alguno de
los empleados. Uno de ellos contaba que en ciertas secciones de algunos departamentos
la gente era tan malcriada que comenzaba a reclamar por la mala calidad de los ‘brownies’
que se sirven gratis, lo que nos da también una perspectiva de que una política como la
que implementa Google también tiene sus aristas oscuras.
El viaje llega a su fin
En fin, son pinceladas de una fotografía que en general, como simples mortales, no
podemos apreciar en su totalidad, pero que se intentó bosquejar en éste artículo de la
mejor forma posible sin extenderse en demasía. La vida y obra de Google es mucho más
que un complejo enorme lleno de comodidades, lleno de vida y colores, perros
merodeando el campus, energía solar generada gracias a paneles solares colocados en los
techos y que las comodidades de que disfrutan los empleados diariamente, es mucho más
que eso, es una cultura que la compañía fundada por dos jóvenes emprendedores y llenos
de ideas nuevas y frescas ha logrado impregnar a sus súbditos de forma que también se
aprecie el trabajar bien cuando se debe y aprovechar esas comodidades en favor del
trabajo como un conjunto, pues mal que mal Google sigue siendo una corporación que
debe rendir cuentas al directorio y a la junta de accionistas cada fin de mes. Si esto se
mantiene en el tiempo con un trabajo realizado bajo la base del profesionalismo y la
confianza de ambas partes, tengan por seguro que tendremos Google y productos de
calidad por mucho tiempo más.
Pág 73 de 254
(060) Macintosh 128K Por Geovanne Salinas
¿Has visto esta cita antes?
El 24 de Enero, Apple Computer presentará Macintosh. Y verás porque 1984 no será como
1984
Era una simple pero poderosa frase que se metió en las cabezas de muchos durante el
medio tiempo del Super Bowl XVIII de 1984, y hasta el día de hoy, dicha frase resuena en
la cabeza de muchos al marcar el comienzo de la computación personal tal y como la
conocemos, gracias a la introducción del primer computador personal destinado al hogar
y que incluiría Interfaz Gráfica de Usuario (GUI).
Aquel 24 de Enero, Steve Jobs subió al escenario para sacar desde un misterioso bolso gris
lo que todo el publico esperaba: Apple Macintosh, no tenía número de modelo,
simplemente era Macintosh, posteriormente se le agrego el apellido de 128K con la salida
de nuevos modelos como Macintosh 512K.
Nacimiento
Aunque Macintosh fue estrenado al público en 1984, podemos decir que su nacimiento
data de los años 70 y no específicamente en los cuarteles de Apple.
Pág 74 de 254
La idea original de la Interfaz Gráfica de Usuario, al igual que el mouse que acompaño al
Apple Macintosh, tuvo su génesis en Palo Alto Research Center (PARC), donde los
ingenieros de Xerox desarrollaban tecnología que pensaban estaba muy adelantada para
la época. Durante esos años, Xerox estaba muy interesada en invertir en Apple gracias al
gran éxito de sus anteriores computadores, por lo que dejaron que los ingenieros de la
manzana tuvieran acceso exclusivo a dicha tecnología.
Steve Jobs, impresionado por lo visto en PARC, ordenó a sus ingenieros trabajar en un
proyecto llamado Lisa, que se basaría en el sistema operativo gráfico “Alto GUI”. Tiempo
más tarde, Apple Lisa se convirtió en el primer computador en poseer una interfaz gráfica
(System 0.8.5), lamentablemente fue un rotundo fracaso por el elevado precio
(USD$9.995) que los altos ejecutivos de principios de los 80 no estuvieron dispuestos a
pagar y optaron por la opción más económica, los IBM PC.
Mientras Apple Lisa se venía al suelo, un pequeño proyecto – sin importancia en ese
tiempo – estaba tomando forma, su nombre era Macintosh. Jobs decidió enfocar todos
sus esfuerzos en sacar aquel “pequeño” proyecto adelante y comenzó a tomar ideas
“prestadas” del equipo de Lisa para Macintosh, y esto lo confirma el co-autor del sistema
de escritorio Finder:
Mucha gente piensa que nosotros lo robamos a Xerox. Pero en realidad, lo robamos de
Lisa
Pág 75 de 254
Comienza la revolución
En 1984, la computación personal se resumía a trabajar en estrechas pantallas y a ingresar
una serie de línea de comando, por lo que era necesario dejar en claro el potencial de
Macintosh desde un principio, y que mejor que reproducir un video. Macintosh
fue concebido para tener un importante rendimiento multimedia y al mismo tiempo que
pudiera ser accesible para la clase media, todo un reto si pensamos que el hardware para
lograrlo podría haber elevado el precio de Macintosh de USD$2.495 a más de
USD$10.000.
Hasta el día de hoy existe el mito de que los diseñadores sólo trabajan con equipos Mac,
esto se debe en cierta forma a la introducción del primer Macintosh, que gracias al nuevo
sistema operativo gráfico hacia la vida más fácil a todo profesional que trabajara con
publicaciones, procesamiento de texto, fuentes y arte en general. Macintosh incluía el
sistema operativo System 1.0 y Finder 1.0, este último era el principal responsable de
la interacción visual entre el usuario y el sistema operativo. Finder también fue el primero
en introducir el concepto de “Papelera”, donde se arrastraban archivos hasta dicha
Pág 76 de 254
“carpeta” para que estos quedarán eliminados. El sistema operativo incluía una serie de
aplicaciones gráficas muy interesantes, como: MacPaint, MacWrite, MacProject y
Microsoft Word, pero no todo era hogar y diseñadores, los desarrolladores también
tenían su espacio con herramientas como MacBASIC o MacPascal.
Los computadores de la época funcionaban de manera muy simple, las
fuentes consistía en un único carácter formado por una matriz de puntos, nada de recrear
formas para cada letra. Con la introducción de Macintosh, los sistemas se volvieron cada
vez más complejos, y era necesario cargar varias funciones en memoria, como por
ejemplo: fuentes de sistema, formas de iconos, ventanas, fuentes especiales, Finder y el
sistema operativo. El nuevo aspecto visual de Macintosh no sería gratuito, y
la revolución gráfica tendría que pagar un precio en preciados kilobytes de RAM.
Pág 77 de 254
Ventanas
Hoy en día, mover una ventana a través del escritorio es algo tan trivial cómo hacer click
en un icono y abrir un menú, pero ¿cómo aprendieron las personas a utilizar la primera
Interfaz Gráfica de Usuario?. Con cada Macintosh 128K que Apple vendía, se incluía un
manual bastante extenso que debía explicar conceptos más básicos sobre el uso del
mouse, teclado y como estos interactuaban en la pantalla. Por ejemplo, era necesario
describir en detalle sobre el concepto de ventanas, el manual decía lo siguiente:
Las ventanas representan información. Puedes tener múltiples ventanas en tu escritorio,
de ese modo puedes ver más de un conjunto de información al mismo tiempo.
La mayoría de las ventanas se pueden mover, cambiar tamaño, desplazarse o cerrar. Ellas
se pueden sobreponer. Cuando más de una ventana está abierta, una está al frente, y es
donde toda la acciones suceden. Haciendo click en cualquier parte de una ventana ésta
vuelve al frente, o se hace tan pequeña que no la puedes ver (minimizar)
Pág 78 de 254
Hardware
En aquellos tiempos, contar con una unidad destinada exclusivamente para
almacenamiento era prácticamente una locura, donde un disco duro de 10MB podría
costar varios cientos de dólares, por lo que había que encontrar una solución al gran
consumo de memoria que provocaba tener una interfaz gráfica.
La eficiencia era la principal prioridad para el equipo Macintosh, quienes decidieron
desarrollar varias funciones del sistema operativo en lenguaje de máquina y las
almacenaban en un chip ROM (64 kb) para evitar cargar la totalidad del sistema operativo
en los escasos 128 kb de RAM. Sin embargo, con estos 192 kb no alcanzaba para correr
todas las aplicaciones incluidas en System 1.0 y Finder, por lo que el Macintosh fue dotado
Pág 79 de 254
de una unidad floppy de 3.5” con capacidad para almacenar 400 kb (el doble de los discos
IBM PC). Para correr el primer Mac OS, era necesario insertar el disco floppy y cargar parte
del sistema operativo en RAM para posteriormente ejecutar otras aplicaciones desde él,
aunque era posible ejectar el disco de inicio para cargar otro, dejando al sistema con lo
más básico.
El corazón de Apple Macintosh era nada menos que un procesador Motorola 68000 (32-
bit) con frecuencia de 8 MHz lo que equivalía a 0.7 MIPS en rendimiento, conectado por
un bus de 16-bit a los 128 kb de DRAM y sin posibilidad de actualizar. Como cada byte
cuenta, en el primer Macintosh 22 kb eran destinados al framebuffer del controlador de
video DMA.
Pág 80 de 254
Otro de los grandes hitos del primer computador personal de Apple, fue su pantalla CRT
de 9” monocromática 512 x 342 píxeles, que marcó el estándar de edición electrónica en
72 PPI. Mouse y Teclado también fueron incluidos en Apple Macintosh, a pesar de que en
Apple Lisa no tuvo el éxito esperado.
Diseño
La compañía de la manzana siempre se ha preocupado por el aspecto físico de sus equipos
más allá del hardware, y Macintosh no fue la excepción. Al momento de comenzar a
desarrollar la nueva apuesta de Apple – luego del desastre que fue Lisa – Steve Jobs
Pág 81 de 254
encargo a sus ingenieros aprender de los errores del pasado y asegurar un diseño
amigable para los usuarios, que serían personas comunes y corrientes.
El diseño estuvo guiado personalmente por Steve junto a Terry Oyama y Jerry Manock,
aunque posteriormente Oyama confesara:
A pesar de que Steve no dibujo ninguna de las lineas, sus ideas e inspiración hizo el diseño
lo que es. Para ser honesto, nosotros no sabíamos lo que significaba un computador
amigable hasta que Steve nos dijo.
Reunir todo el equipo y pantalla en el mismo case, utilizar tan sólo 3 cables (incluido el de
energía) eran algunos de los requisitos que debía tener el Apple Macintosh.
Cierre
El Apple Macintosh original, fue el computador encargado de revolucionar la
industria tecnológica y al mismo tiempo convencer que usuarios comunes y
corrientes podían tener acceso a estos terminales gracias a su increíble sistema operativo
con interfaz gráfica, y hardware económico para la época que no necesitó de grandes
cantidades de memoria para funcionar. Estos dos hitos abrieron paso a nuevos productos
y a una acelerada competencia entre Apple e IBM por estar presentes en cada hogar con
un computador personal y no sólo en las manos de los altos ejecutivos de las empresas.
Pág 82 de 254
(067) Cuando llegó el puerto AGP al mundo Por Italo Baeza
Había una vez, un puerto PCI
Durante los años 90, cualquier tarjeta que querías conectar al equipo sólo tenía sólo dos
destinos: los puertos ISA que estaban en decadencia y los PCI, su natural reemplazo.
Desde unas gráficas nuevas, pasando por las tarjetas de red, módems, y otras más, era
posible conectar a los universales PCI de 32bit. Y nadie alegaba nada – tampoco había
porqué hacerlo, no había una razón para pensar en otro estándar. ¿Acaso esa tarjeta de
red iba a transferir 100GB de un soplón?
Wikipedia (GNU)
Todo seguía su curso normal, el sol salía por el lado contrario donde se escondía, el
módem no superaba los 56Kbps, todos tenían televisión a color y las tarjetas de sonido
con suerte tenían una salida estéreo y dos entradas. En cambio, las tarjetas gráficas
empezaron a tener algunos cambios arquitectónicos y tener hambre de polígonos. Sólo en
1996 el mercado empezó a migrar al puerto AGP, que sería la solución a todos los
problemas que PCI traía en ese aspecto. Tal como en Chile hubo un revuelo nacional al
Pág 83 de 254
aumentar la velocidad máxima para andar por carretera a razón de los autos más rápidos
y más seguros, el problema no se aleja de algo semejante por el lado de la informática.
Dedicación
El puerto PCI tiene un ancho de banda máximo de 133MB por segundo para transferir
datos, lo que podríamos compararlo con rellenar un CD en unos 6 segundos más o menos,
sin contar con el resto de limitaciones naturales. Suena rápido, pero lo que es malo de
esta tecnología es que todos los puertos PCI comparten una misma línea y un mismo bus,
y para un mercado de chips gráficos que ya estaban apunto de sobrepasar lo que permitía
el mismo, que querían más ancho de banda para comunicarse con el sistema, y querían
relacionarse más directamente con la CPU y RAM, no había cabida; eventualmente
empezarían a topar con el ancho de banda de otros dispositivos. Para rematar, la memoria
de video era cara de implementar en el PCB y tendía a bastar sólo para la información 2D.
8MB de memoria en una tarjeta de video era bastante pero no lo suficiente para afrontar
gráficas 3D a todo dar.
Entonces nació AGP como la solución a esas demandas.
Pág 84 de 254
Adiós cuello de botella, por ahora
Intel decidió crear en sus laboratorios el puerto AGP en 1996, que debutó en el
antiquísimo Socket 7, el encargado de ser el pilar base de los Pentium II. Para hacer al AGP
más que un puerto con un bus dedicado, en términos técnicos, existían 6 ventajas netas
sobre el PCI:
• Pipelining (Paralización): El bus PCI sólo permitía una instrucción para enviar, dejando a las otras esperando para ser enviadas o recibidas, lo que significaba muchos tiempos muertos y rendimiento mermado. El puerto AGP podía agrupar estas instrucciones y llevar a cabo varias al mismo tiempo. En peras y manzanas, mientras al bus PCI llegaba la instrucción “3 x 9 + 5 – 8″, el puerto AGP recibía “(3 x 9)”, “(5-8)” y “Suma el resultado de ambas”.
• DIME: No, no te lo digo. Jojojo, qué bromista soy. DIME es el corto de “Direct Memory Execute”, y fue una gran característica que el bus PCI no podía igualar. Esto permitía que la tarjeta de video pudiese ocupar parte de la RAM del equipo – determinada por la opción “AGP Aperture Size” – para manejar texturas mientras el CPU también podía interactuar en esa zona. Con ello también llegó el GART, Graphics Address Remapping Table, que se encargaba de hacer una especie de mapa para que la tarjeta AGP no se perdiera entre tanta memoria.
• Sideband Addressing: El bus AGP, en conjunto con el controlador del chip gráfico, tenía la capacidad de separar 8 líneas para manejar sólo las direcciones de
Pág 85 de 254
memoria, dejando al resto del bus manejando los datos, asincrónicamente. El ejemplo clásico es del aprendiz de cocina: con una mano sostienes la hoja con los ingredientes y la preparación, mientras que con la otra mano revuelves la comida de una olla. Práctico ¿no?
• Más ancho de banda: La guinda de la torta. Gracias a tener un bus dedicado, y trabajar a 66MHz, el doble de lo que permitía el bus PCI, AGP podía llegar a transferir 266MB por segundo a 32 bits, mientras que PCI sólo llegaba a 133MB en el mejor de los momentos, con los planetas alineados y un doble arco iris en tu patio.
La industria con el pulgar arriba
El apoyo se hizo unánime, especialmente por los fabricantes de tarjetas gráficas. Aún
cuando Intel era el creador, los primeros chipset encargados de llevar el puerto AGP
encima eran VIA Apollo VP3, SiS 5591/5592, y ALI Aladdin V, que salieron primero de la
mano de fabricantes como FIC – que ya nadie escucha – y EPoX – que tampoco nadie
escucha. Por lo menos eso es lo que está documentado, en mi caso personal nunca vi una
tarjeta AGP hasta entrado el 1999 en el mercado chileno, caracterizado por siempre estar
a la vanguardia de la tecnología cuando: las cosas están apunto de morir, ya pasaron de
moda, están baratas o se pueden vender al doble de lo que cuestan sin que nadie alegue.
Signo de ésto fue cuando empezamos a ver este tipo de productos en multitiendas (donde
también compras ropa) y servicios técnicos truchos que mostraban orgullosamente en la
ventana esa tarjeta de sonido 5.1 marca chancho. Ahí tienen un Momento Bicentenario.
Pág 86 de 254
ATI Rage 128 AGP, qué días aquellos... - Wikipedia (CC)
Por otra parte, los fabricantes de tarjetas gráficas de ese entonces tenían dos opciones si
querían subir al barco: o tomaban un chip gráfico ya hecho para PCI y sólo modificaban su
compatibilidad con el bus a 66MHz – lo que era mucho más barato y rápido pero no
aseguraba un gran rendimiento – o simplemente se daban el trabajo de crear un chip que
aprovechara todas las ventajas del puerto AGP. Aquellas tarjetas que sólo se cambiaron de
camiseta fueron la 3dfx Voodoo Banshee, Matrox Millenium II y la S3 ViRGE GX/2,
mientras que NVIDIA ponía sobre el tapete RIVA 128 y ATI hacía lo suyo con la 3D Rage
Pro, ambas aprovechando lo que AGP prometía.
Para el caso del omnipotente Windows 95, sólo la versión OSR2.1 llegó para permitir la
compatibilidad con AGP y USB, al mismo tiempo que se emitía un parche para la versión
OSR2.0, todo a mediados de 1997. Perfecto timing para disfrutar el juego de FIFA Francia
‘98 a buena calidad en tu computadora con AGP más cercana.
Pág 87 de 254
Más que PCI
Los benchmarks no se hicieron esperar para demostrar que AGP había llegado para
quedarse. Pero no muchos tendrían la dicha de un mejor rendimiento por el sólo hecho de
cambiar a una plataforma con un puerto AGP, porque dependiendo de algunos factores, el
poder del nuevo puerto era sólo apreciable a grandes resoluciones y con grandes
cantidades de datos.
Veamos el lado extremista de la vida. Intel hizo una prueba entre entre ambos estándares,
dejando claro que PCI ya no era viable.
Pág 88 de 254
Pero lo que ustedes no saben, es que para esa prueba usaron una escena donde las
texturas que se movían llegaban a los 6MB. La ventaja del AGP, para leer directamente
desde la memoria del sistema, es algo que el PCI no puede replicar y con justa razón
rendía tan poco. El cambio era relativamente inapreciable ante una pantalla pequeña,
pero con resoluciones mayores, y con más datos andando en el bus, el cambio de PCI a
AGP se percibió mucho mejor. ¿O acaso alguien conecta su Atari 2600 a su televisión
FullHD en estos tiempos?
Cambiar de estándar es un dolor en el trasero – especialmente al principio – pero tarde o
temprano habrá que hacerlo. Menos mal, el mareo de un nuevo estándar, con productos
que podrían ser mejor pero técnicamente están “por ahí”, se olvidan después que la
tecnología madura.
¡AGP está evolucionando!
La transferencia de datos que demandaban las tarjetas
gráficas empezaron a crecer, por lo que el AGP 1.0
empezó lentamente a ceder hasta que una nueva versión
apareció para mejorar el eventual cuello de botella. La
filosofía de esta actualización era mantener en cierto
grado la retrocompatibilidad con los modelos antiguos: a
nadie le gusta tener que comprar placa madre nueva,
procesador nuevo, y tarjeta de video nueva por unos
míseros megahertzios más al menos que tu patio sea una
refinería de petróleo y tengas 7 esposas por cada dedo.
En tan solo 8 años el puerto AGP había pasado de los
266MB a los 2.133MB por segundo, 8 veces más que en
un comienzo:
• AGP 2X pasó a los 133MHz y 512MBps, y mantenía los 3.3V de funcionamiento. • AGP 4X pasó a los 266MHz y 1066MBps, con un voltaje de 1.5v. • AGP 8X pasó a los 266MHz y 2133MBps, con un voltaje de 0.8v.
El problema que trajo los voltajes se tradujo en zócalos diferentes. Forzar (literalmente)
una tarjeta de video AGP de 1.5v en un slot de 3.3v o viceversa era lo más cercano a un
suicidio, pero menos mal, habían puertos “AGP Universales” que aceptaban ambas sin
problemas.
Pero AGP no siempre fue AGP como tal lo conocimos. El puerto tuvo un par de
extensiones oficiales como AGP Pro para tarjetas que requerían más electricidad para
Pág 89 de 254
funcionar como algunos modelos para workstations (guorquesteichons en espanglish),
donde las tarjetas eran más grandes, más caras, y hacían más cálculos. Otra extensión
oficial fue AGP 64-bit, que duplicaba el actual canal de 32 a 64-bit, pero nunca llegó al AGP
3.0, y se fue directo al tacho de la basura. NPI porqué, pero al parecer era un parto
duplicar el ancho de banda en el PCB y al final la ganancia iba a ser mínima.
Para sobrepasar algunas limitaciones del AGP, algunos fabricantes decidieron aventurarse
con sus propias variaciones, como Ultra-AGP de SiS, que permitía andar a AGP8X hasta
3.2GBps. De hecho yo la tuve en mi placa madre con chipset SiS 730 antes que se quemara
por intentar overclockear cambiando los MHz de trabajo (craso error), y la ganancia era
nula: no por aumentar el límite de velocidad en la carretera ese Lada Samara iba a correr
como un Ferrari. Por otra parte ¿Para qué un fabricante se arriesgaría lanzando una
tarjeta de video consumiendo 3.2GBps de ancho de banda si la gran mayoría de la
industria estaba a 2133MBps como límite?
No sólo existieron variaciones mejorando el AGP, sino también otras “para atrás”. A ver si
les suena una de éstas: AGI de ASrock, AGX de EpoX y XGP de Biostar, todas ellas se
transformaron en una especie de paso medio de PCI a AGP; esencialmente eran puertos
PCI disfrazados de AGP para que los chipsets que no poseían la compatibilidad respectiva,
lo que a más de alguno le trajo algún problema. Lo más fascinante de todo era la
incompatibilidad con varias tarjetas, algo así como con 3/4 del mercado de modelos AGP;
sólo una limitada lista podía funcionar sin problemas, mientras otro poco funcionaba
cojeando. Otros fabricantes tuvieron más de algún problema implementando el susodicho
en otros chipsets, especialmente los baratos, y ya era de común saber que algunas placas
madres “a precio de huevo” con una sospechosa lista de “Compatibilidad AGP”. Si la
tarjeta no estaba en ese papel, era seguro que presentaría algunos problemas de
velocidad y compatibilidad. ¿Alguien dijo “PCChips”?
Si te veo, no te conozco
AGP no duraría mucho, pero se las ingenió – como tecnología basada en el bus PCI – para
mantenerse a flote hasta el 2004~5, años donde PCI Express aparecía como el próximo
reemplazo natural. NVIDIA y ATI no podían hacerse los sordos con una tecnología que
tenía los días contados, porque ningún cambio es inmediato y muchos usuarios aún
conservarían su placa madre funcionando por varios meses más, y en esos momentos
lanzaron variaciones de sus nuevas tarjetas con el chip “Rialto” que actuaba de puente
entre la información que salía desde el chip gráfico en idioma PCI Express en AGP y
viceversa. Nada de malo por para quienes eran usuarios normales, pero al menor signo de
overclock, el puente tendía a limitar los datos que entraban y salían gracias a que su
Pág 90 de 254
frecuencia daba “justo” para el desempeño de fábrica. Varios eran los casos de tarjetas
PCI Express bridgeadas a AGP con buen overclock pero nula ganancia, y no había nada que
hacer.
Otros casos fueron al revés. Recuerdo a Albatron lanzando un puente para esas tarjetas AGP que querían pasar a PCI Express pero no podían porque… bueno… porque no cabían. Pero era una solución que sólo era compatible con una lista pequeña y que sólo se comercializó en Japón (lo digo porque nunca la ví en América o Europa). Otros se pasaron de listos y decidieron poner un puerto AGP en calidad
Albatron ATOP
de renegado en una placa madre PCI Express, pero era otra integración malandra que no
gozaba de mucha aprobación, y que a sólo afortunados usuarios – esos que se ganaban la
lotería 3 veces seguidas y efectivamente salen en algún comercial – eran quienes elegían
estas placas porque mágicamente su tarjeta de video estaba dentro de la lista.
En todo caso, lo que sucedía era evidente: mejor pasarse rápido y con todo, y así el AGP
dejó lentamente de vivir, total el mercado de tarjetas gráficas y fabricantes de placas
madres eran los únicos afectados, no todo el mercado de la informática. Mientras alguno
OEMs siguieron (y siguen) apoyando la tecnología AGP, ya sea por cualquier razón, ya
llevamos unos 5 años aproximadamente sin placas madres a la vista con este singular
puerto. Si alguien me pregunta por AGP, le preguntaré de vuelta si se refiere a alguna
asociación en protesta o algún celular nuevo. Tecnología muerta no se extraña, como
James Bond hace con todas las féminas que se ha repasado.
Pág 91 de 254
(074) Cyrix MediaGX: CPU+GPU existió hace 14 años Por David Sarmiento Portocarrero
Actualmente las 2 grandes empresas fabricantes de microprocesadores x86, Intel y AMD,
han encontrado que el integrar el mayor número de componentes en el CPU, reduce los
costos de producción, a la vez que incrementa la confiabilidad y el desempeño de sus
respectivas plataformas.
En los recientes años apreciamos que ambas,
paulatinamente, integraron en sus CPU componentes
que antes eran externos como la unidad de punto
flotante (x87), el controlador integrado de memorias,
e incluso recientemente varias partes del propio
northbridge.
En los actuales microprocesadores Core ix Series vemos que el IGP, si bien no forma parte
del microprocesador aún, está presente en el mismo encapsulado. Pero esta situación está
a punto de cambiar, pues ambas empresas
están terminando sus próximas
arquitecturas conocidas como Sandy
Bridge (Intel) y Fusion (AMD) las cuales
serían los primeros productos de dichas
empresas en integrar un IGP/GPU en el
propio microprocesador; pero
definitivamente no serán los primeros
productos x86 que logren esa proeza, pues
aunque para muchos resulte un hecho
desconocido, dicho hito ya había sido
alcanzado hace 14 años por el
microprocesador MediaGX de Cyrix.
Pág 92 de 254
Nace Cyrix MediaGX
Corría el año 1996, el Pentium MMX (arquitectura P5) de Intel cumplía 1 año y medio de
reinado en el mercado desktop, mientras que el Pentium PRO (arquitectura P6) cumplía
un año reinando en la gama profesional, sus competidores más importantes eran el K5 de
AMD y el 6×86 de Cyrix (3º empresa en participación del mercado de CPUs x86 en esa
época); mientras que los precios de las PC superaban fácilmente los $1000 incluso en sus
versiones más económicas; esta situación no era motivo para extrañarse, AMD y Cyrix
poseían microprocesadores con un poder de cálculo en enteros de similar e incluso
ligeramente superior que los de Intel, pero eran derrotados por el abrumador poder de
coma flotante de los Pentium MMX. Y si bien ambos planificaban futuros
microprocesadores para revertir dicha situación: K6 (AMD) y 6×86MX, Cyrix también se
encontraba desarrollando otro CPU altamente integrado: MediaGX, el cual fue lanzado en
noviembre de ese mismo año, y crearía la por ese entonces famosa: fiebre por la PC sub
$500, un precio impensable por esas fechas.
Esquema del CPU Cyrix MediaGX y su chipset Cx5510
Cyrix MediaGX fue un microprocesador diseñado para ofrecer un bajo consumo y una alta
integración, creando por primera vez el concepto que ahora conocemos como plataforma;
esta integración consistió en integrar el mayor número posible de componentes tanto en
el propio CPU como en el chipset; unificando northbridge y southbridge, con otros
componentes como modem v.34 (por esas fechas era común acceder a internet usando
conexiones vía modem comúnmente a 28 o 33kbps), y salidas para el audio integrado en
el CPU, componentes integrados a un único chip denominado Cyrix Cx5510; mientras que
por parte del CPU, este integró gráficos 2D, un controlador de memoria EDO RAM, y audio
en un microprocesador basado en el Cyrix 5×86 (un CPU con una potencia similar a la de
los Pentium de gama baja de entre 66 a 75MHz, pero que era compatible con los sockets
Pág 93 de 254
de las mainboards Intel 486), este chip fue denominado Cyrix MediaGX; CPU sobre el cual
entraremos en detalle.
Tecnologías
El CPU Cyrix MediaGX fue todo un hito en cuanto a la integración: CPU+GPU+Audio+IMC y
para gestionar sus componentes integrados se basaba en 4 tecnologías las cuales usaban
la arquitectura VSA (Virtual Systems Architecture):
XpressGRAPHICS
La gráfica al estar integrada al CPU funcionaba a la misma velocidad de reloj (entre 120 a
266MHz), eliminando el cuello de botella que representaba el acceso al bus PCI (en esos
tiempos no existían aún AGP ni PCIe), además de ello incorporaba tecnologías de
compresión gráfica y de acceso compartido al controlador de memoria, eliminando la
necesidad de memoria dedicada. Cabe mencionar que si bien integraba muchas porciones
de hardware de un chip gráfico 2D, muchas de las funciones eran “emuladas” por el
microprocesador gracias a su arquitectura VSA.
XpressRAM
Era el controlador de memoria integrado (IMC); el cual al estar integrado al CPU eliminaba
la latencia asociada a la memoria EDO-RAM, además permitiendo a Cyrix prescindir del
cache L2 (en esas fechas era de entre 128 a 512kb y estaba ubicado en la mainboard).
XpressAUDIO
Eliminaba la necesidad de un chip de sonido adicional “emulando” un chip de sonido
gracias a su arquitectura VSA.
XpressROM
La base de la arquitectura VSA, proporcionaba las rutinas básicas de compatibilidad a nivel
hardware con los componentes integrados en el chip MediaGX y su chip companion
Cx5510.
Pág 95 de 254
Notas finales
MediaGX cumplió su cometido y marcó el inicio de las PC ultra-económicas, mercado que
se ha mantenido hasta la actualidad con equipos como nettops y netbooks; si bien su
performance era similar al de un Pentium 75 a 90MHz en sus modelos iniciales, poco a
poco fue escalando en potencia, aunque nunca se mantuvo a la altura de los CPUs más
actuales, pocos meses luego del lanzamiento de MediaGX, hizo su aparición el en ese
entonces todopoderoso Pentium II, y si bien MediaGX tuvo un relativo éxito entre varios
OEM, no tuvo el impacto esperado en el mercado de consumo, pero la idea de un chip
integrado con características similares es algo que se mantiene hasta la actualidad, y ya es
una realidad.
Se podrían hacer muchas analogías entre MediaGX y Atom de Intel (Pineview) u Ontario
de AMD, tanto por el relativamente escaso poder de cómputo que ofrecían, como por su
grado de integración, y el tipo de equipos a los que estaban dirigidos; pero existió un
factor que determinó el fracaso de MediaGX, y el de su creadora Cyrix: simplemente al ser
el 3º competidor de esa época, dicho chip fue una apuesta muy arriesgada, pues Cyrix
careció del poder de mercado para crear una nueva necesidad en los usuarios y mejorar
su oferta para llevarla a equipos de tamaños más reducidos (como nota curiosa: en 1999
la propia Intel intentó desarrollar un chip similar, el que tuvo por nombre código Timna, el
cual incluiría un controlador de memoria RDRAM (Rambus) integrado y un núcleo gráfico,
pero este chip nunca llegó a salir, siendo cancelado a fines del 2000).
MediaGX continuó desarrollándose en su nueva pero menos ambiciosa encarnación
conocida como Geode, desarrollada por su nueva dueña National Semiconductor (adquirió
a Cyrix en 1997), para posteriormente ser vendida a AMD (2002), la cual tuvo algunos
pocos éxitos con ella (OLPC). Ya veremos cuál será el destino de Fusion de AMD, chip al
que se podría considerar (sin serlo en realidad) la siguiente evolución del concepto que
dejó MediaGX.
Pág 96 de 254
(081) Consolas que marcaron nuestra historia Por Italo Baeza
No soy antiguo en eso del mundo de los videojuegos, pero llegué, al fin y al cabo. Hay
muchos que llegaron mucho antes que yo, cuando esto de las consolas no era tan
masificado y quien poseía uno de estos aparatos debajo de la televisión era porque su
padre tenía un trabajo más estable que la Placa Escocesa y algo conocía de los
videojuegos. Estamos hablando de entrado los años ‘90.
Antes que los videojuegos se tomaran la televisión de la casa, la principal atracción eran
las arcadias, también llamados arcades, flippers, o las “esas maquinitas idiotas”. Y eran
buen negocio, porque nadie tenía el dinero para importar una consola, y no había
mercado para comprar e intercambiar cartuchos. Pero con eso de la globalización y un
montón de otras hierbas más, ya a mediados de la década el Super Nintendo empezaba a
amenazar y después estaríamos empezando a comprar juegos digitalmente.
Gameboy
En las décadas pasadas, algo “portátil” tenía un
significado muy diferente al de ahora. Actualmente,
si puedes meterlo en tu bolsillo trasero sin que
piensen que tienes un tumor o te está saliendo algo,
es portátil. En los años 80, si no tenía enchufe a la
corriente, era portátil. ¿Notan la diferencia?
El primer apronte portátil de Nintendo se materializó
en lo que llamamos Gameboy. Para el que nació ayer,
era un aparato muy parecido a un ladrillo del cuento
de El Lobo Feroz y los Tres Puercos, pero de plástico,
plomo, y una pantalla LCD monocroma de color
verdeamarillento. Y se podía jugar en él. Mario Bros,
Metroid, Wario, Kirby, Tetris, había bastante para
elegir y poca batería con la que sobrevivir. No era
una consola para meter en el bolsillo e intentar
sacarlo de ahí sin usar ambas manos – ya saben, por
desgracia tenemos un brazo que está justo en el lado
opuesto de un bolsillo – sino una caja para introducir
adentro de la mochila, bolso, maletín, cajón o
Pág 97 de 254
guantera. ¿Y saben qué tenía adentro? Un procesador de 8bit a no más de 5MHz, un LCD
de 160×144 píxeles, 8KB de RAM y 8KB de VRAM.
Una de sus características más emblemáticas era su durabilidad. Era increíble cuántos
arañazos y caídas podía soportar un aparato de plástico como el Gameboy, y era
totalmente normal ver alguno con sus respectivas marcas de guerra: rozaduras, esquinas
deformadas, rayones profundos, etcétera. Después de un encuentro cercano con el suelo,
con suerte se salían las pilas, por lo que era también normal notar alguno con su parche
de cinta adhesiva por atrás.
No precisamente un aparato portátil como podemos denominar ahora, pero nos entregó
horas de diversión – dependiendo de la calidad de las pilas – a pesar de su abultado
tamaño, dándole paso al corolario “No es necesario una consola gigante en la casa para
entretenerse”. El iPod se quebrará, el DS se partirá por la mitad, la PSP morirá con su
pantalla, pero el Gameboy seguirá de pie como en el primer día de adquirido.
Moraleja: Use Gameboys para construir su casa. Aislante de calor FTW.
Atari 2600
Wikipedia (PD)
Este es más viejo que mis memorias logran recordar, pero me tocó la oportunidad de
conocerla gracias al hermano de un amigo de mi antigua población que la tenía y nos
Pág 98 de 254
invitaba a jugar (al parecer, su hermana era demasiado mala para estas cosas). Antes que
llegase el NEs y SNES la gente que nació en una cuna hecha a mano por sus propios
padres, existían algunos espécimenes de raza humana con una Atari 2600 y evidente
polvo. Las historias son innumerables.
Antiguamente los cartuchos de los videojuegos llegaban por medio de un familiar que
viajaba constantemente a gringolandia, situación muy típica ahora que lo noto, y que
cuando volvía siempre traía un juego nuevo a su sobrino preferido. No había mercado
nacional establecido, por lo menos, donde yo vivía: cualquier parte que no fuese Santiago.
Las gráficas de los juegos de esa consola no eran para nada competitivas frente a un
Gameboy, este último quedaba atrás pero recuerden que fue lanzado después. Podíamos
jugar entre dos y eso era algo bastante entretenido que estar frente a una pantalla en
solitario.
La historia que recuerdo como si me la contasen ayer es la de Estación Fantasma, aunque
su nombre puede variar, que la escuché por primera vez del mismo dueño de ese Atari,
porque antes había tenido una consola a casete. Verán, antiguamente uno podía no sólo
grabar música en casete, sino también cualquier cosa que sonaba en la radio. Y existía una
clandestina en Santiago que emitía los videojuegos en las noches y madrugadas para que
los radioescuchas los grabaran, con algunos alegando al otro día que se grabó mal. ¿La
primera aproximación al P2P en el país? MOMENTO BI-CEN-TE-NA-RIO SEÑORES!
Evidentemente fue una consola que vivió su época de oro a mediados de los ‘80, pero
duró bastante para entregarle mucha diversión a la generación siguiente que no tenía
acceso a una consola top, un tío que viajara o una abuela con herencia.
Moraleja: Integra un teclado a la consola y pasarás a la historia. ¿Y cómo las
computadoras?
Pág 99 de 254
Neo Geo
Wikipedia (CC)
En los años ‘80 y ‘90, montar una tiendita con arcadias, taca-tacas (fútbol de mesa) y
pinballs era buen recurso para sobrevivir, no hasta la crisis asiática que terminó
mágicamente por hacer desaparecer algunas de ellas post-1997. Volviendo al tema, cerca
de los inicios de la década de 1990 encontramos uno de los arcades más famosos y caras
de la historia: Neo Geo. Para muchos, la cuna de varios juegos de pelea y el aparato que
llevó a la edad de oro estas máquinas que tendían a dejar a los pequeños en banca rota y
agotar los vueltos del pan.
SNK decidió lanzar Neo Geo en 1990 con varias ventajas para el tipo que tenía una centro
de entretenimiento y los billetes no sobraban. De partida la consola se considera un
“MVS”, que quiere decir “Multi Video System”, lo que permitía meter hasta 6 cartuchos en
el susodicho sin alegar por nada, lo que ahorraba espacio cuando se trataba de tener
mayor variedad o comprar una máquina nueva: para qué si sólo se colocaba el cartucho
de un nuevo juego o se reemplazaba uno y listo, los que bordeaban los USD$50 y
Pág 100 de 254
USD$150, mucho menos que una máquina nueva. Ahora ya saben porqué algunas
arcadias tenían un juego que sólo usaba dos de los 6 botones disponibles. A todo esto,
mientras ustedes escuchaban Soda Stereo y Los Prisioneros, en Japón estas máquinas
empezaron a popularizar todos sectores de arriba para abajo.
Pero SNK no decidió parar ahí, al revés, quiso tomar la oportunidad de llegar al mercado
hogareño con una versión modificada de Neo Geo (AES - Advanced Entertainment
Machine), pero era un aparato que sólo hijos de gerentes podían pagar; era más caro que
arrendar un servicio de acompañantes por completo (lo acabo de medir), y por los
cartuchos más aún. El precio de lanzamiento fue de USD$649,99 con dos juegos y dos
controles, y posteriormente salió una versión de sólo 1 control y sin juegos por
USD$399,99. Si le sumamos a esto cartuchos que se vendían a más de USD$200, podemos
decir que si te encontrabas con esta versión, tenías una suerte increíble, amigos muy
ricachones, o vivías en el sector privilegiado de tu ciudad.
¿Porqué tanto? De partida el hardware era envidiable. El procesador principal era un
Motorola 68000 a 12Mhz junto a un co-procesador ZiLog Z80 de 4 Mhz, pero andaban a
16-bit y 8-bit, respectivamente. Por una parte el Motorla 68000 podía manejar 65.000+
colores (siendo sólo 4096 disponibles para mostrar) mientras que el co-procesador podía
ayudar en las tareas de sonido junto al chip Yamaha YM2610. A pesar de todo el
hardware, los juegos arcades que salieron en versión hogareña no tenían la misma
calidad, y pagar demasiado por una experiencia que podía salir más barato a unos cuantos
pasos más… no hay por dónde perderse.
A pesar de todo lo malo tratando de entrar al sector hogareño, la vida de las arcadias Neo
Geo se extendió hasta el 2004, fecha en que la empresa decidió cortar el soporte. Esta
plataforma es considerada la cuna de los títulos de peleas 2D y marcaron fuerte entre
quienes son adultos el día de hoy. Entre los que sobrevivieron hasta hoy podemos
encontrar sagas como Metal Slug, Fatal Fury, Samurai Showdown, AeroFighters y el
omnipresente King of Fighters. El resto está lleno de juegos donde los combos abundan.
Moraleja: Lanza una versión modificada de un producto que haga ver la superioridad de la
primera.
Pág 101 de 254
PlayStation (PSX)
Wikipedia (PD)
La navidad oriental de 1994, meses después del mundial de Estados Unidos 1994 (lo
siento, es la manera de ubicarme en el tiempo), fue bastante dulce para quienes les
gustan los discos con mucho contenido. Está bien, no fue la primera consola en ocupar
discos compactos, la primera fue Amiga CD32 que se lanzó 1 año antes. Sólo ese margen
de tiempo necesitó PlayStation para matar a Amiga CD32, no puedes pelear con una
consola que permite mostrarte gráficas 3D.
¿Porqué PSX? ¿Porqué “X”? ¿Qué pasó con Nintendo? Vamos por parte, dijo el carnicero.
Sony le hizo el grandioso y famoso chip de sonido a Nintendo para la SNES, y por esa
relación Nintendo decidió extenderles el contrato para realizar un accesorio para utilizar
CDs en el SNES, llamado “Play Station”, que permitiría más espacio disponible que los
cartuchos. Pero el día después que Sony hablaba sobre su noviazgo con Nintendo en la
presentación de la CES de 1991, el mandamás de Nintendo de América, Howard Lincoln,
contó otra cosa: la Nintendo y Philips se habían unido, dejando de lado la aventura con
Sony. Watafac.
Hiroshi Yamauchi, conocido más por la película “Suck my yellow balls”, se había leído el
contrato con lupa y se pilló con la frase “Sony será el amo y señor de todo lo que se
produzca en los discos compactos del SNES”. Por supuesto eso no le gustó, era una
Pág 102 de 254
“mariconeada” en buen chileno (una estocada por detrás) para aprovecharse del éxito de
la consola, y como estos nipones son vengativos hasta el hueso, mandó a Lincon con otro
señor más a hacer las pases con Philips unos días antes y bien callados para que Sony no
se alarmara. Al final Sony los largó, pero decidió tomar lo que habían aprendido y les puso
el estándar que ellos habían desechado en su propia cara: lanzaron PlayStation en Japón
en 1994, y un año más tarde en Gringolandia. ¿Y la “X” después de “PS”? Es básicamente
el nombre clave por el que se conocía a la consola, PlayStation Experimental.
El asunto aquí es que marcó una era no sólo por las gráficas que podía mover un
procesador de 32bit, o por el catálogo más adulto que la SNES, sino por el uso de los
discos y el posterior auge de los modchips. En un disco podían caber cerca de 600~700MB
de almacenamiento, que podían ser rellenados con videos, música, y el resto de datos del
mismo juego. Ya era normal tomar un café o mirar el cielo mientras cargaba un nivel,
como también mirar cinemáticas largas y escuchar larguísimos diálogos con buena calidad
de audio en vez de tomar nota de los subtítulos. De paso, en algunos lugares se
transformó en el reproductor de música de la casa. A pesar de no tener nunca esta
consola, eso no me detuvo para probar ese disco de Raúl DiBlasio en las casas de mis
amigos sin pedir permiso.
Pero el auge de los modchips apareció, dejando a los consumidores y a Sony como los
grandes ganadores, y todo el resto de desarrolladores con un aire de desconfianza
evidente. Los grabadores de CD empezaron a bajar su precio, y para que se pudiesen jugar
respaldos sólo bastó un chip soldado cuidadosamente en la controladora del lector de la
PSX para que evitara leer el código “SCEA” escrito en el anillo del disco, algo irreproducible
al menos que Sony fuese el creador del medio. Al final, todos hicieron su respectiva
columna llena de discos y juegos, Sony vendió PSX como pan caliente, el mercado del
modchip se agrandó, y terminamos con una consola que ni la Nintendo 64 – junto a todas
sus maravillas técnicas – logró desbancar.
Moraleja: De grandes “mariconeadas” aparecen los mejores productos.
Pág 103 de 254
Nintendo Wii
Wikipedia (CC)
Con código nombre “Revolution”, la consola de Nintendo fue exactamente eso, una
revolución, donde se hizo más importante la interacción con el sensor de movimiento en
vez de las gráficas, que más de alguna vez fueron fuertemente criticadas por no mover ni
un dulce. Mientras la XBOX 360 y PlayStation 3 ponían todo sobre la mesa en las gráficas y
otras posibilidades que permitían (Xbox Live por una parte y Blu-Ray por otra), la Wii
sufría de tener síndrome de “2 x Gamecube + DVD + USB + SD + Sensor de movimiento”.
¿Y saben qué? Les ganó a todas.
Pág 104 de 254
Ya lo comentaba ALX en Niubie. El primer signo de una guerra terminada es cuando los del
bando perdedor adoptan la religión del ganador, para bien o para mal. ¿A alguien le suena
“PlayStation Move”? ¿”Kinect”? Ahí tienen la prueba. Si bien XBOX 360 y PlayStation 3 han
vivido de su propio éxito, la Wii logró crear un nicho que seguro ni si quiera los de
Nintendo habían logrado dar en un principio: el mercado de los jugadores casuales. Ese
perfil que juega ocasionalmente desafíos fáciles y entretenidos es el que terminó por
demostrar que no sólo de juegos hardcore viven las empresas, y títulos que aprovechaban
el sensor de movimiento aparecieron rápidamente.
Uno de los títulos con el que venía la consola era Wii Sports, que era la sensación cuando
se demostraba en las tiendas de videojuegos – o en el sector de entretención de algunas
casas comerciales – dejando a todos babeando. Y este juego de demostraciones usando
deportes terminó por ser uno de los títulos más vendidos del mundo, con una consola que
superó en ventas a sus “rivales”. Esos días del año 2006 la táctica más usual era ahorrar y
esperar a que bajara de precio. Mi viejo padre me dijo esos años “Espera a que baje de
precio, todas las cosas bajan”. Te vengo a cobrar la palabra: en 3 años de vida la consola
NUNCA ha bajó de precio, sólo para llegar USD$50 menos el 2009. Estás despedido del
cargo de Consultor Económico Financiero, el pez ocupará el puesto desde ahora.
En esta generación, Nintendo Wii probó exactamente lo que quería: las gráficas no lo son
todo si la jugabilidad es genial y si el juego es esencialmente entretenido. Eventualmente
salieron títulos que intentaron sacarle el jugo a la consola, pero como no podía estar a la
altura de una XBOX 360 o PlayStation, Wii terminó estableciendo su propio catálogo de
videojuegos que una colista de las consolas superiores en hardware. Y al final ambos
primeros tuvieron que resignarse a explorar ese mercado.
No podía terminar este capítulo sin mencionar las gracias que trajo la comunidad después
que encontrar un bug en el último juego de Zelda para la consola. The Homebrew Channel
(El Canal de software casero) terminó por expandir las posibilidades de la consola,
dejando claro que no por ser una Gamecube al cuadrado no podrías ver una película a
través de WiFi o emular esos clásicos de Gameboy Advance y Coleco.
Moraleja: Para revolucionar el mercado necesitas simplemente cinta adhesiva y nadar
contra la moda.
Pág 105 de 254
Dreamcast
Wikipedia (CC)
No podía quedarse afuera, la consola que golpeó primero y fuerte. Lejos, la mejor consola
inventada en su tiempo, y el sueño de muchos quienes querían la guinda de la torta, hasta
que desapareció. Duró menos que un suspiro.
Terminado el mundial de Francia ‘98, la Dreamcast llegó al mercado japonés con un golpe
categórico: Fue la primera consola de la “sexta generación”, antes de la PlayStation 2,
XBOX y Gamecube. Se vendió como pan caliente en Norteamérica al año siguiente por
unos míseros USD$200, junto a títulos como Soul Calibur y Sonic Adventures, pero sólo
durante los primeros días de lanzamiento. Lo que movía las piezas detrás de esta máquina
era un procesador RISC de 128-bit a una frecuencia de 200Mhz, capaz de mover 1.4
GFLOPS de precisión simple. A este le acompañaba el chip PowerVR2 CLX2, que podía
mover la módica suma de 7.000.000 de polígonos por segundo como máximo. Con 16MB
de RAM para el sistema, y 8MB para el video, era muy poco lo que no se podía hacer en la
consola, pero claro, ese trabajo de hacer cosas fue el fallo.
Quienes deben hacer juegos son las compañías de terceros, y en esta ocasión no apoyaron
mucho a SEGA. Habían tres razones, principalmente. La primera era la historia que tuvo
SEGA con su Saturn, nunca logró reflotar después de meterle tanto hardware para estar a
la moda. Aprender a programar en esa consola era como aprender programación desde
cero, ya que se manejaba de forma diferente y el tiempo que había que meterle era
Pág 106 de 254
demasiado, así que ese pasado condenó a las otras compañías que no estaban dispuestas
a quemar más billetes para investigar si esta vez se podría hacer un juego en esa consola.
De pasada, el sistema operativo para cargar los juegos no residía en la consola, sino en el
propio disco del juego, que significaba un trabajo extra, aún cuando estaba la opción de
colocarle una versión optimizada de Windows CE con DirectX, lo que atrajo a bastantes
desarrolladores pero no a todos. La segunda razón es bastante simple: pobre marketing.
Y la tercera es también simple: el lanzamiento de la PlayStation 2 estaba requete-recontra-
súper-hype-ado y con eso para salir pronto, era mejor quemar los billetes en una consola
que prometía bastante – 16 millones de polígonos por segundo para ser exactos – que
crear para una consola que estaría atrás de una XBOX y Gamecube, además de la PS2. Las
dificultades financieras de SEGA terminaron por enterrar este engendro que salió antes
que nadie, pero murió primero, ya que el nuevo cabezón de la compañía decidió
transformar a SEGA en algo más software que hardware. Las consolas que salieron
después terminaron por hundir a la Dreamcast, catalogándola como un engendro que
salió entre medio y que ya era vieja.
Moraleja: “Nombre de Consola + Número generacional” puede acabar con cualquier
producto del mercado.
Pág 107 de 254
iPhone / iPod Touch / iPad / iCosa
Meter todos al saco de “teléfonos móviles”,
siendo que el único que llevó la entretención
más allá fue el iPhone, me parece ofensivo,
pero empieza a tomar forma cuando pensamos
que otros dispositivos también están
empezando a transformarse en consolas
portátiles. Pero por ahora, me quedo con el
aparato de Apple exclusivamente.
De buenas a primeras, a Apple le importa un
carajo los videojuegos. Bajen STEAM, hagan la
comparativa de algún juego compatible
también con Windows, y verán que el rendimiento es mucho menor donde la manzana.
Nada en contra de la compañía de Jobs, pero desde que fracasaron con Pinpin, una mugre
por donde se le mire, que le tienen miedo a explorar este mercado, y por la fama que han
alcanzado sus equipos es que los desarrolladores de videojuegos están empezando a
tomar en cuenta el sistema. Pero en iOS es otra historia, porque “mágicamente” se
abrieron las puertas para estos desarrolladores, tanto grandes como chicos, que se
encargaron de explotar el sistema del teléfono y reproductor de música.
Y el resto es historia. Ninguna consola en el mercado tenía soporte multi-touch capacitivo,
una pantalla buena, cámara y giroscopio. Okey, la Nintendo DS se aproxima, pero el App
Store era la ventaja: miles de juegos – algunos buenos y otros como el nepe - por un par de
dólares. De pasada podías reproducir música o hacer una broma anónima a un número
desconocido. Un procesador ARM bien formado, 128MB o más de memoria para hacer
cualquier cosa, muchas aplicaciones para acompañar, y la visión de un producto apetecido
por mucha gente: la combinación perfecta.
¿Suena injusto? Sí, porque Nokia se tiró a la piscina con ese N·GAGE, también llamado
“orejera”, y no le resultó, mientras que otra empresa lanzó un aparato y sin querer
terminó por transformarse en otra consola de videojuegos portátiles que, según el orgullo
de Steve, ha vendido más que la PSP y DS juntas. En mi universidad a veces aparecen mis
compañeros con ideas generadas en 5 minutos, que terminan sacándose la mejor
calificación del mundo, mientras otros que pasaron su semana cabecéandola terminan
pasando apenas. La vida es injusta, pero ¿qué le vamos a hacer? ¿Un App Store?
Pág 108 de 254
Moraleja: Cualquier producto que hace todo mejor menos su cometido principal es un
éxito. El N·GAGE no servía para jugar ni para llamar. ¿Ven?
PC
¿No veían esa venir, eh? El PC se convirtió también en
una máquina de videojuegos exactamente en 1958,
cuando William Higinbotham creó Tennis for Two, en
una máquina que en ese entonces estaba destinado al
cálculo duro, científicos serios y ocio después de la
jornada de trabajo. Algunos años más tarde sería la
cuna de todos los juegos que conocemos – no hay
ningún título de consola que no haya pasado por PC
primero – y anfitrión de sí mismo.
Una de las cosas que vale la pena destacar fue la era del shareware, donde la gente podía
obtener una prueba del juego antes que tuvieran que mostrar los billetes. Esta práctica
para la industria fue bastante famosa en los años ‘80 hasta mediados de los ‘90, y una de
las razones por las cuales los usuarios pudieron verse más dispuestos a pagar por un juego
completo. ¿A quién no le tentó Duke Nukem, Wolfenstein, y otros más? Por lo menos yo
pude probar Raptor antes de comprarlo en algunos disquetes años atrás por unos míseros
billetes en un supermercado.
Para qué vamos a ahondar en el hardware, cada uno arma su equipo como quiere. Para
qué vamos a ahondar en el software, cada uno instala lo que quiere. ¿Penetración? Ahora
tenemos una computadora como mínimo en cada casa. ¿Precio? Tú se lo colocas.
¿Disponibilidad? Aquí y ahora. En vez de estar esperando a que una consola salga, puedes
jugar con tu teclado y mouse ahora mismo. Por ahora, nada ha podido quitarle el trono al
PC como la plataforma predilecta para jugar cualquier tipo de videojuego sin preocuparse
de las limitaciones o retrocompatibilidad. El mouse es lo mejor para apuntar a la cabeza
de tus rivales.
Moraleja: Jugar en una consola es para niñitas que les falta fuerza para instalar algo en el
slot ZIF.
Menciones honrosas
Magnabox Odissey: Me disculparán si no entró la primera consola hogareña del mundo.
Pero sólo jugar “Pong” – no fue llamado así hasta que Atari le puso ese nombre – no me
calienta demasiado, nací una década y media después de eso. El control me recuerda las
Pág 109 de 254
arcadias de Arkanoid, eso no más. Sí la vi en carne y hueso cuando andaba paseando por
Valparaíso cuando pequeño, sólo para darme cuenta después qué era de verdad.
Sega Genesis: Nunca en mi vida pensé que a alguien se le ocurriría meter tantos
accesorios en una consola para que lograse vender más. Pregúntenle a alguien con años
encima si alguna vez encontró genial tener un Sega 32X o un Sega CD además de la
consola. Por lo menos Angry Videogamer Nerd no lo encuentra tan así. Además, los ports
de arcade a Genesis eran deplorables. ¿Alguna vez compararon Sunset Riders para
Genesis con el de arcades?
Nintendo DS: Cuando llegó la DS al mercado apenas había vuelto a la civilización, así que
me pilló por completo. Pero lentamente empezamos a olvidarnos del Gameboy Advance
para reemplazarlo por un stylus y juegos donde podíamos interactuar entre dos pantallas,
y los números de las ventas confirman que es un éxito. Se aproxima la 3DS, y de no ser un
próximo lanzamiento, lo hubiese puesto primero en la lista.
Pág 110 de 254
(088) Sergey Brin y Larry Page, los arquitectos de Internet Por Juan Pablo Oyanedel
Cuando Johannes Gutenberg inventó la imprenta moderna hace más de 500 años atrás,
inmediatamente se le reconoció como un personaje que cambió la forma en la que el ser
humano se comunicaba y se transmitía la información. En la actualidad, y apoyados por
los avances tecnológicos, puede que Sergey Brin y Larry Page sean los Gutenberg de
nuestra era, al también revolucionar el ámbito de la difusión de conocimientos a través de
Internet.
Larry Page y Sergey Brin
Porque hay un antes y un después de Google, donde salimos de una época con
buscadores inexactos, repletos de publicidad y con un pobre motor de indexación. El
modelo seguido por estos dos jóvenes para construir un sistema que organizara el caos
reinante en la web era limpio, rápido y eficiente, lo que luego llevó a la creación de
servicios basados en Internet entregando lo que ningún otro había podido dar antes,
resultando en un cambio en la vida de las personas.
Pág 111 de 254
Los inicios de Sergey Brin
Sergey Mikhaylovich Brin nació en Rusia durante la
época de la Unión Soviética, el 21 de agosto del año
1973, teniendo ahora 37 años de edad. Sus padres,
ambos de religión judía, se sintieron descontentos en
su país de origen debido a que Michael Brin, padre de
Sergey, quería estudiar astronomía pero las escuelas
de física en su nación no querían judíos en sus aulas,
por lo que optó a una carrera matemática casi a la
fuerza y sin mucha alegría.
Producto de esta situación, cuando Sergey tenía seis
años finalmente la familia decidió emigrar a los
Estados Unidos, donde el padre encontró trabajo
como profesor de la Universidad de Maryland y su
madre, una científica de profesión, se desempeñaría
como investigadora en la NASA.
Fueron sus padres, amantes de la ciencia y las matemáticas, quienes iniciaron al niño en
las artes de la informática, puesto que el padre le enseñó desde muy pequeño números y
programación a Sergey, regalándole además su primera computadora en su cumpleaños
número nueve: una Commodore 64.
Luego de graduarse de la secundaria, el joven entró a estudiar Ciencias de la Computación
y Matemáticas a la Universidad de Maryland, la misma donde su padre ejercía como
docente. Más tarde, decidió matricularse en Ciencias Informáticas de la Universidad de
Stanford, completando todos los cursos de la carrera. En ese momento es cuando su vida
sufre una interrupción permanente llamada Google.
Pág 112 de 254
Los inicios de Lawrence “Larry” Page
Nacido el 26 de marzo de 1973 en
Michigan, Estados Unidos, Page
tiene la misma edad que su amigo
Sergey: 37 años. Pero no sólo eso
comparten, sino que Larry también
es de familia judía, con padres que
coincidentemente ejercían como
profesores de Ciencias de la
Computación en la Universidad de
Michigan.
Este ambiente intelectual fue
propicio para que Larry se involucrara desde pequeño en el mundo de las matemáticas y
la informática, confesando una pasión por descubrir e inventar cosas nuevas, donde él
mismo se refiere a esta época de su vida de la siguiente forma:
Desde muy temprana edad, me di cuenta de que también quería inventar cosas. Así que
me volví muy interesado en la tecnología y los negocios. Probablemente cuando tenía 12
años ya sabía que eventualmente iba a comenzar una compañía.”
Es así como luego de salir de la secundaria en 1991 entra a Ciencias de la Ingeniería
Informática en la Universidad de Michigan, para luego aplicar a una maestría en la
Universidad de Stanford, donde el destino quiso que se conociera con Sergey Brin.
Una estabilidad gracias a la unión
Estando en Stanford, Larry Page se interesó en el tópico de la relación entre las
matemáticas e Internet, entendiendo a la red como un conjunto de nodos unidos por
enlaces o aristas, sólo que a una escala enorme y representando lo que finalmente
son los hipervínculos.
Pág 113 de 254
Así, se dio cuenta de que los llamados “backlinks”, o vínculos que apuntan a cierto sitio
web, eran de vital importancia para otorgarle un rango de calidad a la página web en
cuestión, por lo que unificó toda esta teoría con fundamentos matemáticos en una
investigación llamada BackRub.
Es aquí cuando aparece la figura de Sergey
Brin, quien conoció a Page en marzo de 1995 mientras le enseñaba el campus de la
universidad al que más tarde sería uno de sus mejores amigos y socio fundamental dentro
de Google.
Sergey se interesó mucho por la idea del BackRub, viendo en ella un reflejo de los
conocimientos que el ser humano podría depositar en Internet si se organizaba
correctamente. Es así como juntos desarrollaron PageRank, el sistema para darle una
categoría a cada sitio web basándose en sus relaciones con los demás portales, naciendo
finalmente el buscador que todos conocemos y amamos: Google.
Pág 114 de 254
La vida actual
Por todos es sabido el éxito que se generó gracias a
Google, derivando a numerosos servicios y a una
plataforma de publicidad en línea que produce
millones de dólares mensualmente. Sin embargo,
esta fortuna no hizo que ambos fundadores
cerraran los ojos al mundo real, creándose
entonces el sitio alternativo google.org, dedicado a
la filantropía y a la búsqueda de soluciones
energéticas para mejorar las condiciones climáticas del planeta.
En forma paralela, Larry Page está aún más comprometido con las formas de generar
energía alternativa al invertir en compañías como Tesla Motors, quienes desarrollan
nuevas tecnologías para crear automóviles eléctricos.
Todas estas ocupaciones de igual forma dejan espacio para la vida amorosa, ya que Sergey
está casado desde el 2007 con Anne Wojcicki, bióloga de la Universidad de Yale, mientras
que Larry también contrajo matrimonio el año 2007 con Lucinda Southworth, doctorada
en Informática Médica de la Universidad de Stanford.
Y es que como podemos ver, la vida de ambos amigos y colegas está llena de similitudes
bastante curiosas, quizás en una clara señal del destino que ya había planeado de
antemano el encuentro de estas dos mentes, que juntos lograron rearticular Internet para
luego intentar centralizarla en servicios propios, llevándose gran parte de la atención en la
red y sin duda siendo protagonistas permanentes de todas las tendencias que involucran
la vida en el mundo de la WWW.
Pág 115 de 254
(095) Fabricantes de microprocesadores x86 que pasaron a
la historia Por David Sarmiento Portocarrero
Actualmente son muy pocos los fabricantes de microprocesadores x86 que han podido
sobrevivir a la dura competencia que representa Intel, el creador de dicha arquitectura;
quedando unos pocos competidores como AMD (conocida por sus microprocesadores
Sempron, Athlon II, y Phenom II) y VIA (conocida por sus microprocesadores C3, C7, y
Nano); pero tal como se vio en el artículo por el día de la tierra, existen también otros
competidores poco conocidos, pero con algunos desarrollos interesantes enfocados al
bajo consumo.
Pág 116 de 254
Las pocas empresas actuales que desarrollan microprocesadores x86 han sobrevivido y/o
han surgido como nuevas competidoras, fusionándose y/o absorbiendo (adquiriendo) a
alguna de las empresas que originalmente fabricaban microprocesadores x86. Pasa que,
aunque muchos no lo recuerden, Intel no siempre fue la gigantesca empresa que es ahora,
y en los inicios del despegue del x86, se vio en la necesidad de licenciar su tecnología a
muchas otras empresas, a fin de asegurarse de que en el mercado hubiese un número
suficiente de chips x86 para satisfacer la en ese entonces naciente y creciente demanda
de PCs IBM compatibles (conocidas en esas fechas como clónicas de Intel).
En este artículo haremos una breve descripción de los fabricantes de CPUs x86 que
pasaron a la historia del hardware, así como también en manos de quien terminaron
algunos de ellos.
Generación 8088/8086 (1978 a 1982)
Eran los inicios del x86, y quizá la etapa más prolífica en cuanto al número de fabricantes
de microprocesadores compatibles; haremos una lista de los existentes en ese entonces:
AMD, CCCP, Fujitsu, Harris, IBM, Intersil, MHS, Mitsubishi, National Semiconductor, NEC,
OKI, Siemens, Sony, y Texas Instruments. Muchos de los chips fabricados por estas
empresas en realidad eran vendidos por Intel, llegándose a ver casos curiosos como un
microprocesador 8086 con los logotipos de AMD e Intel en el mismo silicio, una
combinación que sería imposible de ver en la actualidad, en esos tiempos la
compatibilidad a nivel de socket era absoluta, y se mantuvo en las siguientes generaciones
hasta la aparición del slot 1 de Intel en tiempos de los Pentium II, hecho que se detallará
posteriormente.
Pág 117 de 254
Siemens 8086 5MHz
Generación 80188/80186 (1982)
CCCP, MHS, Mitsubishi, NEC, OKI, y Sony fueron los primeros fabricantes de chips x86 que
cayeron, abandonando el negocio, y dedicándose a otros de los rubros que mantenían,
muchas de estas empresas caídas continúan hasta la actualidad fabricando periféricos, PC
y laptops, entre ellas quizá la más famosa sea Sony.
AMD 80186 8MHz
Generación 286 (1982 a 1985)
En esta generación no hubo bajas, la popularidad de las IBM PC compatibles no hacía más
que crecer, pero nuevos competidores estaban empezando a surgir, con novedosos
desarrollos basados en la ingeniería inversa.
Pág 118 de 254
Harris 286 16MHz
Generación 386 (1985 a 1989)
Harris, Intersil, y Siemens son los siguientes en caer, de ellos Siemens en la actualidad es
ampliamente conocida por sus tecnologías de comunicación y celulares. Pero también se
aprecia el nacimiento de 5 nuevos competidores: Acer Labs Inc (ALI/ULI), Chips and
Technologies, Cyrix, NexGen (famosa por introducir un diseño híbrido CISC-RISC), y UMC,
los cuales como se comentó, lograban la ansiada compatibilidad x86 haciendo uso de
ingeniería inversa, lo que originó problemas legales con Intel, siendo famoso el caso de
Cyrix (conocida en ese tiempo por sus coprocesadores matemáticos Fasmath), empresa
que consiguió vencer a Intel en la corte, e incluso posteriormente en tiempos de los
Pentium Pro y Pentium II, irónicamente demandó a la propia Intel por violar sus patentes
de ahorro energético, hecho que llevó a un acuerdo extrajudicial, en el cual Intel y Cyrix
lograban un arreglo de patentes cruzadas, y Cyrix también ganaba el acceso a la licencia
x86, así como la capacidad de exteriorizar la fabricación de sus microprocesadores, lo que
originaría el nacimiento de algunos nuevos fabricantes de chips x86.
Cyrix 486DLC 40 MHz para mainboards 386
Generación 486 (1989 a 1993)
Ali y Chips & Technologies abandonan el negocio, en el caso de Ali podemos comentar que
se mantuvo fabricando chipsets hasta tiempos de los AMD Athlon 64 socket 939/AM2, y
se mantuvo vendiendo chips 386 compatibles, años después desarrolló SoCs basados en
386 enfocados a sistemas embedidos, para posteriormente terminar siendo adquirida por
Nvidia, perdiendo su licencia x86. En cuanto a Chips and Technologies esta fue adquirida
Pág 119 de 254
por la propia Intel, la cual se quedó con su división de chipsets y VGAs, a fin de usar sus
tecnologías para fortalecer su presencia como plataforma.
Debido a la mencionada victoria de Cyrix sobre Intel, esta externalizó su producción de
chips x86 a IBM, ST Microelectronics, SGS Thompson, y Texas Instruments.
IBM 486 DX4 100 MHz
Generación Pentium/MMX/Pro (1993 a 1997)
Fujitsu y UMC abandonan el negocio x86, pero UMC mantiene sus fábricas, encargándose
de fabricar los chips de futuras competidoras x86 como Rise Technology y SiS. Vemos
también el nacimiento de 2 nuevos competidores al mundo x86: IDT/Centaur (CPUs
Winchip) y Rise Technology (CPUs MP6) las que aparecen como opciones económicas en
tiempos de los Pentium MMX siendo compatibles con el socket 7; por su parte IBM se
convierte en aliado de Cyrix, fabricando los CPU de esta, así como vendiendo algunos de
ellos con su propia marca.
Pág 120 de 254
Nextgen Nx586 P90 84MHz
Generación Pentium II/III (1997 a 2000)
Cyrix, IDT, NextGen, y Rise Technology son absorbidas por National Semiconductor (lo que
origina que IBM, SGS Thompson y Texas Instruments abandonen también el mercado x86),
VIA, AMD (baso sus próximos Athlon en las tecnologías adquiridas a NextGen) y SiS
respectivamente, marcando el final en la carrera de estas empresas, pero el inicio de SiS y
VIA en el mercado x86, así como también Transmeta hace su aparición con sus chips x86
(CPUs VLIW que emulaban el código x86) de bajo consumo; otro nuevo competidor a
mencionar es el chip chino Godson/Longson/Dragonson el cual fabrica chips x86 para el
mercado chino, obviamente que sin contar con la licencia de Intel.
Cyrix MII 400 285 MHz
Generación Pentium 4 (2000 a 2006)
Pág 121 de 254
National Semiconductor, SiS y Transmeta y son las más recientes en la lista de bajas,
National Semiconductor vendió su división MediaGX a AMD, y el resto de su división de
chips x86 a VIA; SiS vendió su división x86 a DM&P Electronics (CPUs Vortex86) la cual
continua desarrollando estos chips enfocados al bajo consumo; mientras que Transmeta
vendió su división de CPUs y otras tecnologías de ahorro energético a Nvidia.
National Semiconductor GX1300B 300MHz
Generación Core/Core II/Core ix Series (2006 hasta la actualidad)
Surge un nuevo competidor: Montalvo Systems, el diseño de su chip x86 enfocado al
mercado de servidores llama incluso la atención de Sun, la cual la adquiere, y
posteriormente Sun es adquirida por Oracle la que desecha dicho proyecto. A partir de
este momento la historia es conocida por todos, las actuales empresas que aún
sobreviven en el mercado oficial x86 son: AMD, DM&P Electronics, Intel, y VIA. Sobreviven
también algunas empresas poco conocidas que poseen chips basados en las viejas
arquitecturas 386/486 enfocados al mercado de productos embedidos: RDC
Semiconducters, Zet, y ZF Micro.
DM&P Electronics Vortex86MX PMX-1000 1GHz
Pág 122 de 254
Notas finales
Un minuto de silencio por: Ali, CCCP, Chips & Technologies, Cyrix, Fujitsu, Harris, IBM, IDT,
Intersil, MHS, Mitsubishi, Montalvo Systems, National Semiconductor, NEC, NextGen, OKI,
Rise Technology, SGS Thompson, Siemens, SiS, Sony, Texas Instruments, Transmeta, y
UMC; en el mercado x86, si bien muchas de ellas continúan vivas en manos de sus
actuales dueños, mientras otras ganaron reputación en otros rubros, y otras quebraron
definitivamente. El que actualmente queden unos pocos fabricantes en el mercado x86, es
un reflejo de las actuales tendencias del mercado y del duro mundo de los negocios.
Pág 123 de 254
(102) Steve Ballmer, todo un personaje tech No tiene precisamente fama de simpático, pero detrás del carácter tan extrovertido hay
un ejecutivo exitoso que hoy comanda el navío luego de la era Bill Gates.
Publicado el 15/09/10 a las 9:15 am por Juan Pablo Oyanedel
Quien fuera por mucho tiempo la mano derecha de Bill Gates al mando de Microsoft,
Steve Ballmer hoy está a la cabeza en la compañía donde alguna vez fue sólo un
empleado, perfilándose actualmente como uno de los personajes más relevantes de la
escena tecnológica y destacando, como siempre, por su interesante personalidad
y carácter, que le han entregado al jet set de la informática grandes momentos
comunicacionales.
Su historia temprana
Steven Anthony Ballmer, más conocido como “Steve”, nació el 24 de marzo de 1956 en
Detroit, Michigan, hijo de un inmigrante suizo y de madre norteamericana. Asistió a una
escuela privada en su niñez y adolescencia, para luego graduarse de ella en 1973
obteniendo un puntaje perfecto de 800 en el examen matemático del SAT; sistema para la
admisión a la universidad en Estados Unidos.
Así, entró a la Universidad de Harvard con una beca ganada gracias a sus buenos
resultados académicos, institución donde sería compañero de cuarto con Bill Gates,
fundador de Microsoft. Y aunque Bill se retiró para darle énfasis a su nueva empresa,
Steve siguió su camino y se graduó con grandes honores obteniendo un título en
matemáticas y economía.
Pág 124 de 254
Luego de aquello, trabajó dos años como asistente de productos en Procter & Gamble, sin
embargo, se retiró de la compañía para entrar a estudiar un Master en administración de
negocios en la Universidad de Stanford en 1979.
La entrada a Microsoft
Pero en 1980, su antiguo acompañante de
cuarto Bill Gates lo convenció para que dejara Stanford y se fuera a trabajar con él en
Microsoft, prometiéndole un salario de $50.000 dólares y un porcentaje del 8% de la
compañía, para que fuese también dueño. Ni tonto ni perezoso, Ballmer aceptó la cálida
oferta de su compañero y juntos siguieron un camino en Microsoft que los ha convertido a
ambos en parte del grupo de los hombres con mayor fortuna económica en el planeta.
Así, Steve Ballmer se hizo cargo del área de marketing y finanzas en Microsoft, algo que
por sus estudios sabía hacer muy bien y que le vino como anillo al dedo a un Bill Gates que
deseaba preocuparse de su visión de la tecnología y nuevos productos para cambiar la
vida de las personas.
Su gestión fue un éxito, pues durante los primeros cinco años Steve logró duplicar en
forma anual la cantidad de empleados, junto con reorganizar la estructura interna, crear
positivos grupos de trabajo e inagurar un programa para que los empleados tuvieran la
opción de hacerse con acciones de Microsoft, algo que a la larga llevaría a que varios de
ellos se convirtieran en multimillonarios.
En julio de 1998, Ballmer fue ascendido al cargo de Presidente de Microsoft, sillón que
dejaría en enero del año 2000 para asumir como CEO de la compañía, luego de que Bill
Gates cediera su puesto y empezara a perder protagonismo en forma voluntaria dentro de
la institución que construyó. Hasta el día de hoy, Steve ejerce como CEO de Microsoft.
Su cara más conocida
Pág 125 de 254
Independiente de sus estudios, logros en la empresa, o relevancia en la marca de
tendencias tecnológicas, Steve Ballmer se ha hecho más conocido en la industria por su
singular y única personalidad, la cual ha provocado toda una construcción de un personaje
alrededor de su persona, estando marcado inevitablemente por momentos que muchos
de nosotros jamás olvidaremos.
La publicidad para vender Windows
Como buen hombre de negocios, Ballmer hacía lo posible para vender el que siempre ha
sido el producto estrella de la empresa: Windows. Con muy poca vergüenza, un articulado
discurso y entusiasmo de sobra, un par de videos fueron grabados con él mismo como
protagonista resaltando en forma exaltada los beneficios de migrar a una plataforma
Windows 1.0. Eso demuestra que para hacer un comercial no hace falta guionista, ni un
curso de modulación, y hasta se puede usar una chaqueta vieja de vendedor puerta a
puerta.
.
Eventos en vivo
Pág 126 de 254
En grandes eventos, Ballmer no sólo destacó por su voz y entusiasmo, sino que también
hasta por sus bailes en el escenario. Y es que el ahora CEO de Microsoft afirma en una de
estas presentaciones que “ama a esa compañía”, algo que sin duda demuestra con creces
cuando habla frente al público.
Pero este amor también lo comparte con los desarrolladores, pues en una segunda
ocasión al entrar al escenario Ballmer no se cansa de repetir a gritos “developers!
developers!” (¡desarrolladores!), con una camisa completamente mojada por el sudor y
sin duda en busca de caer bien entre la multitud presente en el evento que era
precisamente de desarrolladores, contagiando alegría, entusiasmo y algunas veces temor
a los asistentes.
Sobre la competencia
La mordaz lengua del CEO de Microsoft no se deja
de mover cuando es momento de referirse a la
competencia, dejando damnificados de todos los
bandos en el camino, algunas veces con dichos en
público con un micrófono al aire y otras a través de
diálogos internos que igualmente se filtran.
Tal es el caso de lo que supuestamente habría
ocurrido cuando Mark Lucovsky, un importante ingeniero de Microsoft, decidiera aceptar
una tentadora oferta desde Google para cambiarse de trabajo, desatando la furia de
Pág 127 de 254
Ballmer en una reunión que tuvo éste con Lucovsky cuando discutieron acerca de su
renuncia. El diálogo habría sido el siguiente:
(Ballmer) Sólo dime que no te vas a Google.”
(Lucovsky) Sí, a Google.”
(Ballmer, mientras toma una silla y la lanza a través de su oficina) ¡Maldito Eric Schmidt es
un maldito cobarde! ¡Voy a enterrar a ese tipo, lo he hecho antes y lo haré otra vez! ¡Voy
a matar a Google!”
Acto seguido, Steve se habría calmado e intentó persuadir al ingeniero a quedarse en
Microsoft, algo que éste claramente no aceptó luego de ver la verdadera cara de su jefe
poseído por la furia. Más tarde, Ballmer se referiría a esta historia como “una grosera
exageración de lo que realmente sucedió”, confirmando que efectivamente “algo” pasó,
pero que no habrían habido malas palabras (que por amor a la lingüística no quisimos
traducir en el diálogo) ni sillas voladoras de por medio.
Apple también ha sufrido las críticas de este personaje, quien ve con malos ojos el precio
de los computadores de la manzana, se ha reído del iPhone y ha menospreciado al
popular iPod.
¿Pagar $500 dólares extra por una computadora en este ambiente (de crisis económica),
con el mismo hardware, pagar $500 dólares más por tener un logo (de la manzana) en
ella? Creo que esa es una proposición más arriesgada para la persona promedio hoy de lo
que fue en el pasado.”
“No, yo no uso un iPod. Ni lo hacen mis hijos. Mis hijos, en muchas dimensiones se
comportan tan mal como otros niños, pero al menos en esta dimensión les he lavado el
cerebro a ellos: No usarás Google, ni usarás un iPod.”
¿$500 dólares, con subsidio completo y un plan? Ése es el teléfono más costoso del
mundo, y no es interesante para el mercado de los negocios porque no tiene un teclado
físico, lo que no lo convierte en una muy buena máquina para enviar correos
electrónicos.”
Su futuro en Microsoft
Pero pese a sus momentos mediáticos al mando de la compañía, Steve Ballmer sin duda
ha hecho un buen trabajo en ella desde que era compañero de Bill Gates en 1980 hasta
que asumió el 2000 en el mayor desafío de su carrera: ser CEO de Microsoft.
Pág 128 de 254
Con Gates fuera del camino y dedicado a la filantropía, actualmente quedó en manos de
Ballmer el manejo de los proyectos que podrían catapultar a un mayor éxito o bien
sepultar a la institución, por lo que hay que mirar con atención el presente y el futuro de
la innovaciones tecnológicas que impulse Microsoft para saber si el actual CEO se
mantendrá en su cargo o caerá producto del fracaso y las malas ventas.
Por lo pronto, podemos poner atención a lo que ha hecho con el sistema operativo
Windows 7, el cual resultó ser un gran éxito, al igual que la hoy consolidada consola de
videojuegos Xbox. Pero el discreto rendimiento del reproductor multimedia Zune y el
incierto futuro del sistema operativo para smartphones Windows Phone 7 podrían definir,
en parte, cómo terminará esta historia.
Pág 129 de 254
(109) Cuando PCI Express reemplazó al AGP Porque no hay segunda sin primera (sino estaríamos retrocediendo en el tiempo), mi
último artículo les hablará de otro hito materializado en un puerto: PCI Express.
Editar | Publicado el 16/09/10 a las 9:11 am por DarkGhostHunter
Lo más doloroso para algún techie es decidir cuándo y cómo actualizarse a la nueva
tecnología. Creo que lo vivimos todos, y así como cada cual nace sabe de antemano que se
morirá tarde o temprano, el que presiona teclas en la computadora sabe también que
algún día llegará ese fatídico momento donde dirá, con énfasis en el adjetivo calificativo y
una rabia evidentemente sempiterna durante toda la frase, “Esta basura está más vieja
que mi mamá”.
Eso fue lo primero que dije cuando noté que algunos videojuegos requerían una tarjeta de
video mucho mejor, y gracias a mi mamá, tengo esta cicatriz. Para que Katarn le cortara la
cabeza a un Sith tenía primero que entender la letra de una canción Death Metal
cualquiera para lograrlo – así de difícil era tratar de jugar mientras mi computadora
alegaba hasta en calidad baja y resolución mínima. Para sopesar ello, tenía una opción
muy clara: votar esa antigua Radeon 7000 de 64MB que me acompañó por años sin
ningún problema, y reemplazarla por algo mucho mejor como una Radeon X700 o
GeForce 6600. La sorpresa que me llevé al saber que no había versión AGP, la misma
cuando supe que mis zapatillas de planta lisa no servirían para jugar fútbol en el pasto
(doh!). El sólo hecho de cambiar la tarjeta gráfica era algo así como un cambio de cancha
completo, pero después de investigar algo, mi billetera tenía todas las de perder.
PCI a otro nivel
Así como AGP era la solución de de los cuellos de botella, PCI Express también era una
nueva tecnología para solucionar los problemas del anterior, pero estaba en juego algo
más allá de las tarjetas gráficas; era cambio arquitectónico sobre cómo comunicar lo que
se conectaba en ese bus con el resto del sistema.
Pág 130 de 254
Wikipedia (GNU)
PCI sufría de un malestar: todos los dispositivos que se conectaban allí compartirían el
mismo bus, por lo que el rendimiento se vería mermado cuando una necesitara más
ancho de banda que otro dispositivo. Esta pelea de intereses llevaría, por poner un
ejemplo, a que dos controladoras de discos estuviesen rindiendo a la mitad en la
transferencia mientras peleaban con los datos que entraban y salían de alguna LAN gracias
a la tarjeta de red. Ni hablar de resoluciones HDTV y video en alta resolución, 133MB se
escuchaba grande pero en la práctica no es tanto cuando tienes muchas cosas conectadas
chupando como reviewer de cumpleaños en botillería sin nadie que atienda.
Llegó el momento de las analogías: imaginemos el caso de la carretera 5 Norte que
interconecta a todas las ciudades del país del norte de Chile, pero con sólo 1 línea en vez
de 4. Todas las ciudades comparten la misma carretera, y todos se entenderán bien
mientras no salga de Arica una caravana gigante que termine por crear un interminable
taco en los cientos de kilómetros que faltan a la capital, aún cuando alguien desee llegar
sólo a Iquique o la ciudad de más adelante.
Pág 131 de 254
Ars Technica (C)
¿Qué sucedería si cada ciudad tuviese una carretera exclusiva hacia Santiago? Eso es PCI
Express, una conexión punto-a-punto, con un “switch” al otro extremo de la línea,
encargado de mandar cada auto a su destino correspondiente. Y el cambio arquitectónico
no era nada de otro mundo, por lo que aquellos dispositivos hechos para PCI sólo tenían
que, en el mejor de los casos, cambiar la conexión a PCI Express. De pasada, como estás
solo en esta especie de pista recta, no hay miedo en presionar el acelerador hasta que la
aguja se de unas diez vueltas al tacómetro. ¿O acaso vas a chocar con una curva?
Hay que tomarse la línea (no esa línea)
La filosofía de PCI Express es la conexión en serie, directa,
mientras permitía que la información llegara sin errores, y
con el menor esfuerzo posible. La conexión está basada en
líneas, cada una de ellas consta de dos pares de “sub-
líneas” que transmiten hacia y desde – en total 4
autopistas, dos en sentido contrario a las otras dos.
Cada uno de ellos lanza 1 bit al aire por cada ciclo (o
hertzio para que no se pierdan), y cada byte está codificado
en 10 bits en vez de 8 (luego explico eso). Con esto luego el
switch que recibe la información verifica a través de la
decodificación del mismo paquete si todo salió bien o mal.
HowStuffWorks (C)
Pág 132 de 254
La frecuencia de operación de PCI Express 1.0 es de 2.5GHz, o mejor dicho, 100MHz con
un multiplicador de x25, lo que se traduce en 250.000 bits por segundo. Resultado: los
datos que pueden salir por una línea en un segundo es de 500MB redondeados, sin
embargo, dado que los dos bits de codificación ocupan el 20% de lo que se transfiere,
estamos hablando de 400MB reales, o 200MB por cada lado. Mientras AGP lograba los
2133MB en el mejor de los casos, con sólo 8 líneas PCI Express se lograban 3200MB
asíncronos por segundo y sin despeinarse. Tecnologías comparables, pero no iguales.
La gran diferencia entre el AGP, PCI y PCI Express era que este último era administrado por
un “switch” que tenía lugar en el Northbridge, aquél chip donde pasa todo incluyendo el
bus del sistema, para administrar los datos que pasaban y su destino: el CPU, RAM, o el
mismo bus central. También trajo bastantes cambios abajo del capot, como lo hizo AGP en
su tiempo:
• Prioridad: Antiguamente, si algún “paquete” de datos de algún dispositivo PCI debía llegar rápido y sin demoras a un lugar, tenía que quedarse en la cola de los otros que habían llegado antes. Con PCI Express, el switch se encarga de ordenarlos en caso que uno necesite tener más prioridad que el otro. Por ejemplo, mientras uno le da duro a un videojuego de acción, los paquetes de información gráfica serán los primeros en llegar en vez de aquellos que mande una tarjeta de red inalámbrica.
• Punto a Punto: El trabajo del switch también es interconectar cada dispositivo directamente con otro, asegurando el ancho de banda completo a cada uno en vez de dividirlo entre un número determinado de dispositivos conectados.
• Full Duplex: Mientras el bus PCI estabas recibiendo o enviando datos, considerando la espera entre cada paquete, en PCI Express se pueden hacer ambas cosas simultáneamente. No más “Cambio y Fuera”.
• Ancho de banda ajustable: Todos los puertos PCI por norma eran iguales, pero en PCI Express se puede crear un puerto con menos líneas para otros dispositivos que no demandan tanto, como tarjetas de sonido, de red, controladores de discos, etcétera. De ahí los puertos PCI Express 1X, 2X y 4X.
• Menor degradación de la señal: Como la señal ya no es compartida en un mismo bus, la recepción de las señales son mucho más limpias y hay menos errores entre los datos. Cada línea envía una versión “positiva” y otra “negativa/invertida” de la señal al destino, donde se combinan al llegar al switch, limpiando el ruido electromagnético.
• Coexistencia con software: PCI Express es una tecnología que no es diferente a como PCI funciona a nivel de software, por lo que los sistemas operativos necesitaron muy pocas maniobras para ser compatibles.
• Donde quieras: La versatilidad de PCI Express es suficiente para que una tarjeta de 8X o 4X pueda insertarse en un puerto PCI Express 16x (pero en muchos casos no al revés). Total, lo único diferente eran el menor número de líneas.
Pág 133 de 254
• Mejor reconocimiento de errores: Nadie es perfecto, y menos las computadoras. Como en el bus PCI Express se codifican los 8bits en 10bits, una pérdida del 20% del ancho de banda es marginal comparado con la posibilidad de recuperar el byte corrupto en el próximo ciclo.
• Hot Swap: Así como algunos discos SCSI eran posibles de ser intercambiados mientras funcionaban, en PCI Express también es posible si la tarjeta conectada lo permite. Eso sí, no lo intenten con la tarjeta de video mientras funciona, es pésima idea. Ya lo comprobé y tuve que reiniciar.
• Mayor energía: El puerto AGP podía entregar cerca de 40W a la tarjeta de video, pero PCI Express lograba 75W mientras se usaba el puerto con 16 líneas. No más pines de alimentación aparte, no más estragos a la hora de crear un GPU que consumiera menos.
Aún con todas esas ventajas, la transición a PCI Express fue bastante dolorosa para
algunos, pero en el mercado de tarjetas gráficas el cambio era casi obligado cuando
apareció el rumor que algunas de las próximas tarjetas gráficas empezarían a sentir el
techo de lo que podía ofrecer AGP y el rendimiento que se perdía al no usar las ventajas
del nuevo estándar. Se dieron algunos casos alejados de puertos PCI Express 32x, pero el
slot era demasiado largo que era mucho más común verlo en tarjetas madres de
servidores con algún engendro chupa-ancho-de-banda montado que en las computadoras
de los consumidores finales. De hecho solo las he visto por fotos de Google.
¿Verdad que les dije que les iba a explicar eso de la codificación? Eso de 8b/10b mucha
gente no lo entiende, así que aquí les va otra analogía. Imagínense que vamos a comprar
huevos, y nos encargan 8 bandejas gigantes para llevar en nuestra mochila. Lo más obvio
sería comprar aquellas 8 e ir directamente a entregarlas, pero nadie nos asegura que
durante el camino se nos pierda o se suelte el paquete entero con las 8 bandejas. La
solución que pone en el tapete PCI Express era llevar 8 piezas y 2 bandejas más vacías, que
para esta analogía colocaremos una en cada extremo. Si bien aportan con más espacio, es
mucho más seguro que lleguen las 8 a salvo si se nos cae el paquete completo y pega en
una de las bandejas vacías. Después de tres vueltas habremos entregado 24 bandejas con
huevos en vez de 30, pero hey, no tendremos que hacer un cuarto transporte para
reponer aquella que se perdió.
Pero no se crean el todo esa analogía. En PCI Express no se ponen un bit al principio y otro
al final del byte, sino que se dan vuelta unos bits de posiciones, se intercalan con dos bits,
y el resultado es un número decimal que puede resultar en un dato o un caracter. Sí,
tampoco lo entiendo yo, pero sí entiendo que no puedo alegar para que me devuelvan
esos dos bits demás.
Pág 134 de 254
Casi todos con el pulgar arriba
Recordarán en el episodio anterior de nuestra web-novela, “me cambio de puerto”,
también conocido como “Cuando llegó el puerto AGP al mundo”, AGP era un cambio que
afectaba específicamente a los fabricantes de tarjetas de video y un poco más a aquellos
que hacían chipsets y placas madres. Eso no fue nada comparado con el cambio que
impulsó PCI Express, porque este nuevo estándar significaba deshacerse por el AGP y los
puertos PCI. Así de simple.
La primera tarjeta de sonido PCI Express de Creative recién se presentó el 2007 - PC Watch (C)
O sea, no sólo tenemos en el saco de la
actualización a los fabricantes de tarjetas de
video, sino a aquellos que hacen placas
madres, chipsets, tarjetas de sonido, de
red, controladoras de discos, y todo el
resto. Por una parte era entendible, pero
los cambios que representaban en ellos los nuevos puertos, como también los costos
asociados, eran mucho más grandes que la ganancia para el usuario al usar un puerto PCI
Express en vez de un PCI. Me explico: una tarjeta de sonido perfectamente podía
funcionar en el puerto PCI como una de red. Dicho y hecho, aquellos fabricantes que
tenían productos útiles pero poco demandantes no se movieron mucho, lo que terminó
por dejar a los fabricantes de placas madres casi-obligados a ofrecer productos con
puertos PCI normales para coexistir.
Quienes sí se regocijaron mucho fueron aquellos creadores de portátiles. El nuevo
estándar permitía menos espacio para conectar tarjetas WiFi u otras en comparación con
el puerto PCI, mientras por otra parte le daba paso a la creación del derivado ExpressCard,
que mató a la PCCard por el tamaño y la velocidad. También habían otras soluciones locas
como la posibilidad de conectar un puerto PCI Express a un cable de hasta 5 metros, pero
existió poco apoyo, al parecer, porque PCI-SIG aún no daba con las especificaciones
concretas, por lo menos, hasta hace poco. Otra solución más loca, pero genial al fin y al
cabo, es wPCIe, una solución para conectar algo sin cables como una controladora de
audio o un chip de video.
Pág 135 de 254
En el caso de los servidores era un poco diferente. Allí se necesitaba la mejor velocidad
posible, y PCI Express abría las puertas a más tarjetas de red y más controladoras de disco.
Allí se usaban principalmente puertos PCI-X, una variación de los antiguos PCI que en su
etapa de oro tenían 64-bits, eran algo más largos y andaban entre los 66MHz y 133MHz,
pero aún así sostenían los mismos problemas que el PCI. El nuevo estándar era un respiro
para los problemas de ancho de banda, así que el cambio fue casi natural pero no
inmediato – recuerden que en este sector los billetes que se mueven son más grandes
pero a mediano o largo plazo. De hecho apareció un estándar en paralelo llamado PCI
Express ExpressModule, que por lo que sé permitía conectar placas madres en placas
madres creando un loop infinito de divisiones por cero.
La versatilidad de PCI Express logró algo que también era muy difícil lograr entre AGP y
PCI. En los workstations, o “estaciones de trabajo”, para tener una salida a múltiples
pantallas usualmente se combinaban tarjetas AGP en conjunto con otras PCI para lograrlo,
implementación que era más rara y cara, y nunca llegaron al consumidor final a un precio
aterrizado y buen rendimiento. Pero en PCI Express perfectamente se podían conectar
una tarjeta de video “A” y otra “B” directamente, permitiendo que tanto NVIDIA como ATI
lanzaran soluciones como SLI y Crossfire, respectivamente, donde los chips gráficos se
comunicaban directamente.
The Tech Report (C)
Pág 136 de 254
Como les comentaba en el artículo anterior, para los usuarios que no querían actualizar
aún la placa madre, sumando el procesador y memorias en algunos casos, hubo algunas
soluciones gráficas basadas en PCI Express que tenían un chip “Rialto” que actuaba como
intermediador entre el chip gráfico y el bus, transformando la señal PCI Express en algo
entendible para el AGP. Pero el puerto tenía una fecha de muerte tan fuertemente
impresa que empezó a ser una prioridad secundaria. Las GeForce 8800, que salieron el
2007, no tenían ninguna versión compatible con AGP – por lo menos que yo recuerde – y
sobre las nuevas Radeon HD 5000 que salieron el 2009, tampoco había una entre sus filas.
0MG tengo un facepalm para compartir xD
Cuando muchos cambiaron del puerto PCI a AGP, no habían foros, redes sociales, blogs, ni
Internet para toda la gente: todas las anécdotas sobre el cambio de tecnologías se
pasaban de boca en boca. Pero en este cambio sí existen, y gracias a ello pudimos apreciar
una obra de arte en el concepto de botar dinero. Un usuario de Tech-Forums intentó
poner su tarjeta PCI Express en (presumiblemente) un puerto AGP, sin mucho éxito:
Asunto: NVIDIA 7800 no funciona
Compré una de estas e intenté colocarlo en mi Dell Dimension 2350. Mi amigo me dijo
que la parte brillante de metal abajo tiene unas líneas para que yo las pudiese cortar en
caso que no entrara. Así que cuidadosamente las corté para que pudiera caber en un
puerto de mi computadora. Pero no funciona. ¿Corté algo mal? Pondré una imagen ¿Hay
alguna manera de arreglar ésto? Gracias por la ayuda.
Pág 137 de 254
Sí hay una manera de solucionarlo: extiende el cupo de tu tarjeta de crédito.
Esta historia está lejos de terminar
Los tipos de PCI-Sig, las 900 compañías detrás del estándar, lanzaron la especificación PCI
Express 2.0 el 2007, y trajo cambios mucho más grandes a diferencia de los anteriores
1.0a y 1.1, siempre manteniendo la retrocompatibilidad. La segunda versión doblaba la
frecuencia base, pasando de los 2.5GHz a los 5.0GHz. Sin tomar en cuenta la codificación
8b/10b, en una línea se podían transferir 500MB por segundo en cada lado, y en bruto un
puerto PCI Express 16X logra alcanzar 16GB por segundo. Lo que hizo PCI-SIG fue
simplemente cambiar el multiplicador de x25 a x50. Además, lograron que duplicar el
suministro de energía a la tarjeta de video, de 75W a 150W, por lo que algunas tarjetas de
video no necesitaban necesariamente de un enchufe 6-pin extra para funcionar.
Las nuevas tarjetas de video que salieron apuntando las nuevas especificaciones fueron
las Radeon HD 3000 y GeForce 9000. Eran retrocompatibles con PCI Express 1.1, eso sí
algunas pedirían enchufe 6-pin para solucionar el problema de un menor suministro de
energía. También hubo algunos casos de tarjetas que se negaban a partir en placas con la
versión de PCI Express atrasadas; creo haber visto algunos casos en el foro en su tiempo
Pág 138 de 254
donde sólo podían cambiar de placa madre para no perder la inversión, o probando con
otra fuente de poder más top.
Ahora PCI-SIG planea lanzar al aire el más que retrasado PCI Express 3.0, que tenía como
objetivo terminar sus especificaciones el año pasado, pero no logró. La nueva versión
traerá lo siguiente:
• Dejará a PCI Express funcionando a 8GHz, o sea, el bus base de 100MHz multiplicado por 80.
• La frecuencia dará como resultado una línea pasando 1GB de información por segundo (500MB en cada dirección) aproximadamente.
• Reemplazará la codificación 8b/10b a favor de 128b/130b (si todo les resulta bien). • Logrará suministrar el doble de energía, cerca de 150W. • Usuarios preguntando si su tarjeta PCI Express 3.0 le hace a la 2.0. • Más de alguno cambiando de placa madre por pavo.
Pero según lo que reportamos anteriormente, el “cacho” de pagar nuevo hardware recién
lo viviremos entrado el 2011. El cálculo es simple: si terminan las especificaciones este
año, pasará bastante tiempo para que los desarrolladores y arquitectos que tienen los
fabricantes de placas madres y chipsets los adapten a sus próximos productos, y
perfectamente principios o mediados del próximo año estarán listos. Según el calendario
maya, eso es justamente antes del fin del mundo.
Por ahora sólo nos queda mirar cuántos otros fabricantes se están sumando al barco de
PCI Express, porque lentamente los puertos PCI están dejando de ser numerosos en las
placas madres, y sólo es cosa de darse una vuelta por las vitrinas de tu tienda favorita para
notar que estas tarjetas nuevas están empezando a traer uno o dos de esos puertos en
vez de sólo traer un par de PCI Express para la tarjeta de video. Menos mal, todos se están
cambiando, y recién este año hemos empezado a notar que las tarjetas de sonido, y
algunas de red, están usando PCI Express para funcionar. Espero que el cambio de PCI
Express 3.0 al próximo estándar sea mucho más fuerte y menos caro, miren que mi vecino
recién terminó de pagar las cuotas de esa placa nForce 4 con PCI Express.
Pág 139 de 254
(116) Los 10 mejores IGP de la historia Por David Sarmiento Portocarrero
IGP de la Foxconn Digital Life Conema II Deluxe
Introducción
Si bien las PC basadas en la popular arquitectura x86 fueron populares desde sus inicios
con los viejos chips 8088/8086, no fue hasta la aparición de los sistemas operativos con
una interfaz gráfica de usuario como el popular Microsoft Windows 95, que empezó la
época dorada para la PC; las ventas se elevaron exponencialmente, y un componente que
había pasado desapercibido empezó a tomar relevancia: los chips de video o aceleradores
gráficos, los cuales empezaron a mostrar su impacto en el rendimiento general del equipo,
y no solamente en los viejos juegos para MS-DOS, el popular sistema operativo
predecesor de Windows. Los grandes OEM iniciaron una dura competencia, y a fin de
diferenciarse de sus competidores e incrementar sus ganancias tuvieron una idea genial,
integrar un chip de video soldado en la propia mainboard a fin de reducir costos y espacio,
un enfoque que se inició en tiempos de las Intel 386, y que se mantuvo popular incluso en
tiempos de los microprocesadores Intel Pentium, pero no fue hasta que un fabricante de
chipsets llevó este concepto más allá dando nacimiento a los actuales IGP.
Pág 140 de 254
El IGP
Inicialmente un IGP (Integrated Graphic Processor o procesador gráfico integrado)
consistía en un chip de video incorporado al chipset (siendo preciso al northbridge), pero
en la actualidad este concepto se está extendiendo también a los chips gráficos integrados
en el microprocesador (bien sea como parte integral de él como el caso del próximo AMD
Fusion, o en forma de un chip independiente pero ubicado en el mismo die del
microprocesador como el enfoque de Intel Core i3/i5/Pentium G).
Pág 141 de 254
Los 10 mejores IGP
A continuación haremos un breve recorrido por una lista de los 10 mejores IGP de la
historia, lista ordenada cronológicamente en orden de los adelantos que incorporaron a
través de su evolución. Debido a la diversidad generacional se hace muy difícil e insulso
declarar a un ganador, por lo que ese no será el objetivo de este artículo; sino
simplemente describir la importancia que tuvieron cada uno de estos chips, los que sin
dudarlo fueron los 10 más importantes dentro del mundo de los IGP para PC Compatibles
x86.
1. SiS 5596 (inicios de 1996)
El IGP acaba de nacer, SiS, una reconocida
empresa fabricante de chipsets y VGAs,
tuvo la genial idea de integrar una versión
básica de su VGA SiS 6215 junto a un
northbridge, dando origen al 1º IGP de la
historia, y al chip que inició la carrera por
las mainboards económicas con el mayor
número de funciones integradas: el chipset
IGP SiS 5596, el cual hizo su aparición en
tiempos de los primeros microprocesadores
Intel Pentium Socket 5, posteriormente SiS
lanzó una versión adaptada al socket 7 de
este chip a la que denominó SiS 5598. Este
IGP al estar basado en el chip de video SiS 6215 carecía de funciones de aceleración 3D, y
sus funciones de aceleración 2D fueron muy básicas (podía usar hasta 4MB de la RAM del
sistema), pero se convirtió en una de las alternativas más económicas de su tiempo.
Pág 142 de 254
2. Cyrix MediaGX (fines de 1996)
Un nuevo tipo de IGP había nacido, Cyrix,
empresa fabricante de microprocesadores x86
(posteriormente adquirida por National
Semiconductor y luego dividida y adquirida por
AMD y VIA) marcó un hito en la industria al
integrar un chip gráfico y un controlador de
memorias a su microprocesador Cyrix 5×86,
dando como resultado el microprocesador Cyrix
MediaGX, microprocesador del que hablamos en
otro artículo dedicado por completo a él, debido
a su impacto y trascendencia en el mercado. Era
un acelerador 2D.
3. SiS 620 (1998)
Con la aparición del microprocesador Intel Pentium
MMX socket 7 la fiebre por los juegos 3D se disparaba,
creando en los usuarios nuevas necesidades, las cuales
crecieron al hacer su aparición los nuevos Pentium II y
AMD K6/K6-II; y SiS estaba listo para atender dichas
necesidades lanzando 1º IGP 3D: el chipset SiS 620 el
cual estaba basado en el GPU SiS 6326 (posteriormente
hizo su aparición el SiS 530, prácticamente un SiS 620 adaptado para los
microprocesadores socket 7/Super 7). Apoyaba el API DirectX 5 (podia usar hasta 8MB de
la ram del sistema) pero a diferencia del SiS 6326 en el que estaba basado, no apoyaba
OpenGL, pero aun así se constituyó en la opción más económica permitiendo a usuarios
de equipos de gamas bajas disfrutar de gráficas 3D, en tiempos en los que estas eran
componentes elitistas.
Pág 143 de 254
4. Intel 815 E/P/EP (2000)
Otro IGP que causó gran impacto en la
industria, borrando por completo la asociación
que los usuarios daban a los IGP con los
equipos con poca capacidad de expansión
gráfica, siendo el 1º IGP que brindó a los
usuarios la capacidad de realizar mejoras a
futuro incluyendo una ranura AGP 2x/4x, otro
de sus aportes fue el uso de la tecnología de
memoria dinámica DVMT (usada hasta la
actualidad en los IGP de Intel), con DVMT el IGP realizaba un consumo mínimo de la
memoria compartida (UMA) entre 512kb a 8MB, y en el modo 3D podía llegar a usar hasta
64MB. Otra de sus peculiaridades era la de podérsele instalar módulos AIMM en la ranura
AGP, los cuales incrementaban su desempeño gráfico al estar conformado por entre 4 a
8MB de memoria dedicada de video conectándose directamente a una ranura AGP. El IGP
Intel 815 era compatible con los microprocesadores Pentium III/Celeron socket 370 y
estaba basado en el GPU Intel 740.
5. Nvidia Nforce 420 (2001)
Luego de que Nvidia
desarrollase su chipset para la
consola Xbox de Microsoft,
aprovechó dicho desarrollo
para crear su IGP Nforce, el
primer chipset desarrollado por
una de las empresas líderes en
el mercado 3D. Nforce hizo su
aparición para la plataforma
AMD Athlon/XP socket 462,
llevando las gráficas integradas
a un nuevo nivel de performance, al integrar un chip de video basado en el GPU Nvidia
Geforce 2 MX. Apoyaba las API DirectX 7 y OpenGL; otro de los adelantos de este IGP fue
el uso de un controlador de memoria de doble canal, con el cual solventaba el escaso
ancho de banda de las memorias DDR-200/266, eliminando el freno al desempeño gráfico
que daría a dicho chip. Podía usar hasta 64MB de la memoria RAM del sistema.
Pág 144 de 254
6. ATI Radeon 320/330/340 IGP (2002)
ATI otra de las empresas líderes en el desarrollo
de chips gráficos, desarrolló un IGP basado en
sus exitosos GPU ATI Radeon 256/7000 dando
origen al ATI Radeon 320/330/340 IGP, más
conocido como Radeon 7000 IGP, el cual traía los
mismos beneficios que el Nforce de Nvidia a la
plataforma socket 478 de Intel (330 y 340 IGP), y
posteriormente también lanzó una versión de
este chip para la plataforma AMD socket 462
(320 IGP). Apoyaba las API gráficas DirectX 7 y
OpenGL; fue el primer IGP en apoyar la
reproducción de videos acelerada por hardware
DXVA, brindando a los equipos de escaso poder
de cómputo la capacidad de reproducir DVDs a alta calidad sin saltos y con un bajo uso de
microprocesador. Podía usar hasta 128MB de la RAM del sistema.
7. ATI Radeon Xpress 200 (2004) Trajo las gráficas integradas DirectX 9.0 a las plataformas Intel socket LGA 775, 478, y
AMD socket 754 y 939, y fue el primer IGP diseñado para el bus PCI Express (Intel pocos
meses antes había lanzado su 915G, pero este IGP tuvo muchos problemas gráficos que lo
descalifican como para ser incluido en esta lista, Nvidia lanzó el Geforce 6100 un año y
medio después); este chipset fue quizá uno de los más populares por su bajísimo consumo
(8W TDP) así como su gran estabilidad y desempeño gráfico, lo que le valió que incluso sea
usado por la propia Intel en sus populares mainboards D101GGC y D102GGC2. Radeon
Xpress 200 estuvo basado en los
GPU ATI Radeon X300 (DX 9.0B), y
mantuvo e incrementó las
capacidades multimedia de sus
predecesores ATI Radeon 9100 y
7000 IGP. Podía usar hasta 256MB,
y además era compatible con la
tecnología Hypermemory.
Pág 145 de 254
8. AMD 780G (2008)
El IGP que dio inicio a las mainboards
enfocadas al HTPC (HD) debido a sus
excelentes capacidades gráficas. Apoya
las API DirectX 10, OpenGL, entre sus
capacidades multimedia tenemos el
soporte a DXVA-HD o reproducción de
videos HD acelerada por Hardware, lo
que unido a su soporte para múltiples
conexiones tanto análogas como digitales
hizo de las mainboards basadas en este
chipset, una de las opciones más
populares; una de sus peculiaridades fue su apoyo a memorias SidePort (DDR3 128MB),
así como la capacidad de combinar su poder gráfico con algunos GPU ATI de gama baja
(Radeon HD 2400, HD 3400) a fin de lograr un desempeño superior, característica
denominada Hybrid CrossFire. Este chipset está disponible para los microprocesadores
AMD socket AM2+ e incluso algunos fabricantes lograron adaptarlo a los viejos sockets
939 y 754. Es capaz de usar hasta 512 de la RAM del sistema, y posee la tecnología
Hypermemory.
9. Intel HD Graphics (2009)
Por segunda vez en esta lista vemos un IGP
integrado a un microprocesador (aunque quizá
lo más apropiado sea decir, pegado junto al
microprocesador en el mismo encapsulado),
Intel HD Graphics representa una senda mejora
y la reivindicación de Intel en el mercado de los
IGP, brindando unas características multimedia
(sobre todo en la calidad en la reproducción de
videos HD acelerados por hardware) que se
acercan a las de los IGP de AMD e incluso igualan a actuales GPUs Nvidia de gama baja; en
modo 3D da algunas sorpresas acercándose en algunos test a los IGP de AMD y Nvidia.
Soporta DirectX 10. Está disponible en los microprocesadores para socket LGA 1156: Intel
Pentium G, Core i3, y algunos Core i5.
Pág 146 de 254
10. AMD 890GX DirectX 10.1 (2010)
El más actual y el más potente de los IGP
de esta lista. Soporta DirectX 10.1 e
incorpora el motor de video acelerado
por hardware UVD2, gracias a su soporte
DirectX 10.1 brinda una mejor experiencia
de uso en los equipos que usan el sistema
operativo más reciente de Microsoft
(Windows 7) al soportar nativamente
todas las funciones gráficas de su GUI
(interfaz gráfica de usuario). Está
disponible para los microprocesadores
AMD socket AM3.
Pág 147 de 254
Premios Consuelo
Han existido otros IGP dignos de mención, pero que por motivos como el haber sido
lanzados posteriormente, u ofrecer relativamente pocas mejoras frente a sus
predecesores no están incluidos entre los 10 mejores, uno de ellos sería el popular Nforce
2 (2003 – socket 462/A), el cual si bien trajo un incremento de performance en promedio
30% superior que el Nforce original, no trajo nuevas características gráficas (pero si las
trajo como northbridge y southbridge); otro seria el ATI Radeon 380IGP (2003 – socket
478/754), el 1º IGP DirectX 8.1 existente, y con un performance y características que
podrían haberle dado un lugar en la lista, pero de nuevo, no ofrecía muchas novedades
frente a su antecesor el Radeon IGP 320/330/340, y los GPU DirectX 9 existían un año
atrás; por último ION2, aunque en términos exactos no se le podría considerar un IGP,
pues es un GPU completo que viene acompañado de la tecnología Optimus.
Notas finales
En la rápida evolución de la tecnología hemos apreciado la constante evolución de los IGP,
los cuales iniciaron su vida como chips gráficos 2D, y se han ido adaptando a las
necesidades del mercado hasta la actualidad, quizá dentro de algunos años el termino IGP
desaparezca de los diccionarios informáticos, pues su integración al microprocesador los
convertirá en una más de sus unidades de cálculo, tal como ocurrió en su momento con
los chips coprocesadores matemáticos (ahora la unidad FPU del microprocesador, pero
antes se insertaban en un socket en las mainboards), los módulos de memoria cache L2 y
L3 (si, antes eran vendidos por separado y existía una ranura en las mainboards para
insertarlos), y recientemente el northbridge (microprocesadores como Intel Core i Series y
AMD Fusion los integran en el CPU).
Pág 148 de 254
(123) La historia del disco duro: 60 años de evolución Por Francisco Bravo
Y todo comenzó con 5 Megabytes
Corría el año 1995, tal vez principios de 1996 (lo recuerdo claramente por la propaganda y
el “hype” por el lanzamiento de Windows ‘95) y yo por fin tenía en mis manos mi primer
PC hecho y derecho – comprado por mis padres -, anteriormente usaba un Atari 65XE, que
entre la tortuga del Logo, el Montezuma y el rechinar de la casetera ya me tenía harto,
hasta que pasó de moda, por suerte – aunque en honor a la verdad Montezuma era un
juegazo.
Pero la idea no es echar abajo el Atari sino recordar mi primer PC. Lo recuerdo como si
fuera ayer, era un glorioso Compaq Presario 5528 “unibody” con un veloz procesador 486,
4MB RAM, lector de CDs de cuádruple velocidad (sonaba mucho más lindo que 4X) y un
inagotable disco duro de 400MB, o eso al menos pensaba yo en ese tiempo al compararlo
con los míseros (aunque en ese tiempo era un espacio más que respetable) 1,4MB de un
diskette de 3,5″. Hacía el cálculo mental, si cabían casi 300 diskettes dentro, no había
forma que se me llenara. ¡Imposible!
Probablemente alguien que lea esto dirá algo como “pff, eso no es nada, mi primer PC
tenía 50 MB en disco duro”, y eso, estimados lectores, es lo lindo de todo esto, cada uno
tiene su propia historia y están todas unidas a través de todos estos años por uno de los
elementos que ha evolucionado mucho y poco a la vez, pero que sigue siendo tan
indispensable como su primer día, el disco duro.
Pág 149 de 254
IBM 350 RAMAC
Lo que yo no sabía en esos años era que justo 40 años antes, en un laboratorio de IBM
nacía el primer disco duro de la historia, se trataba del IBM 305 RAMAC (Random Access
Method of Accounting and Control), una mole de 1 tonelada, del porte de dos
refrigeradores que en su interior tenía 50 platillos de 61 centímetros (24″) cada uno y su
capacidad era de 5 millones de caracteres de 7-bits, aproximadamente 4,4 MB actuales o
el espacio que ocupa una canción en formato MP3 que cualquier hijo de vecino tiene hoy
en día en su computador. Cada megabyte costaba USD$10.000 de la época, para que se
hagan una idea.
El sistema RAMAC representó una evolución enorme a las cintas de almacenamiento
debido al acceso aleatorio, ya no dependían de la lentitud de búsqueda secuencial de las
mismas sino que mediante platillos se lograba acceso con las cabezas de lectura/escritura
a través de las pistas en un tiempo relativamente pequeño, uniforme y constante. La
superficie de cada plato estaba cubierta de pintura magnética, en donde se almacenaban
los 1’s y 0’s que luego la cabeza detectaba, leía y escribía.
Si bien podemos tender a mirar con pena o sentimientos de obsolescencia a este gigante,
no se engañen, muchos de los conceptos iniciados con el RAMAC se mantienen en los
discos duros actuales: varios discos o platos muy juntos unos de otros con superficies
Pág 150 de 254
magnéticas, cabezas de lectura/escritura que permiten trabajar con una gran cantidad de
pistas e información y el hecho que estas cabezas estén separadas de la superficie por la
distancia suficiente para que cumplan su objetivo y evitar el daño mutuo entre una y otra.
Modelo más moderno de un disco duro IBM.
Seagate y la explosión de los computadores personales
A través de los años estos platos se han ido haciendo cada vez más pequeños, con el
consiguiente aumento de densidad para almacenar los 1’s y 0’s. Pero no fue sino hasta el
“boom” de las computadoras personales a principios de los ‘80 que la historia de esta
noble pieza de hardware tomó fuerza descomunal. Es acá donde entra en juego una
empresa que siempre ha llevado la vanguardia en éste tipo de tecnologías, hablamos de la
estadounidense Seagate Technology, fundada en 1979 por Al Shugart.
Pág 151 de 254
Desde los años ‘50 a principios de los ‘70 los discos duros eran
utilizados por sistemas computacionales de corporaciones,
gobiernos, etc., y no fue hasta fines de los ‘70, principios de
los ‘80 que el panorama cambió con las “computadoras
personales”. Así es como esta historia comienza a tomar
forma el año 1980 con la salida del ST-506 de 5,25″ de
Seagate que almacenaba, curiosamente, 5MB igual que su
tatarabuelo de 1 tonelada, pero 999 kilos más liviano. Posteriormente en 1983 la empresa
Rodime lanza el que sería el primer HDD de 3,5″ de la historia, se trataba del RO352 de
dos platos y 10MB de capacidad, había nacido el disco duro para las masas.
Desde esos años a la actualidad todo ha ido evolucionando hacia la minimización de los
factores, por un lado del tamaño de los dispositivos y por otro la economía de escala ha
permitido hacer discos duros cada vez de mayor capacidad y más baratos. Desde el
tamaño de dos roperos hasta el disco duro más pequeño del mundo fabricado por Toshiba
de 0,85″, pasando por el popular tamaño para dispositivos móviles (y no tan móviles) de
2,5″, utilizado en laptops, ciertos reproductores MP3’s, consolas como la PS3 y la Xbox
360, y sin olvidar, por supuesto, a nuestro incondicional disco de 3,5″.
¡Quien gira más rápido gana!
En el año 1992 Seagate presentó por primera vez el primer disco duro Ultra ATA de 7.200
RPM, era un Barracuda de 2,1GB, posteriormente en el año 1996 presentaron el primer
disco duro de 10.000 RPM, nacía la familia Cheetah. Finalmente en el año 2000, también
Seagate estrena el llamado Cheetah X15, que giraba a vertiginosos 15.000 RPM.
Dato freak: ¿Alguien recuerda los discos Quantum? Estoy seguro que más de alguno sí.
Esa empresa fue comprada el año 2000 por Maxtor. Quantum era el segundo mayor
fabricante de discos duros a la fecha, detrás de Seagate. Con la adquisición, Maxtor pasó a
ser el mayor fabricante de discos duros del planeta. Tal vez de esa época en adelante
relajaron la mano en el control de calidad y fue donde nació el apodo “Malaxtor”. Como
son las vueltas en esta industria el año 2006 Seagate adquiere Maxtor, dejando aún más
estrecha la competencia en el mercado.
Ahora que estamos hablando de los RPM’s se me vino a la cabeza el famoso SCSI, esta
historia estaría incompleta sin una reseña al respecto.
SCSI (Small Computers System Interface), pronunciado, al menos coloquialmente, como
“escasi”, es una interfaz estándar para la transferencia de datos entre distintos
dispositivos. Esta interfaz no fue especialmente popular entre los computadores de
Pág 152 de 254
escritorio de las “masas” pero sí lo fue en el entorno de alto rendimiento, servidores, y
periféricos de gama alta. La historia de SCSI se remonta al año 1981 cuando Al Shugart, el
mismo de Seagate, se asocia con la compañía NCR para desarrollar una “interfaz de
unidades de disco inteligente” a la que llamaron Shugart Associates Systems Interface
(SASI), que fue, en definitiva, el padre de SCSI.
Así es como el año 1986 las especificaciones finales de SCSI son liberadas y nació la
leyenda. El primer computador personal (o uno de los primeros) en utilizar esta interfaz
fue un Apple Macintosh Plus el mismo año ‘86.
De la arquitectura longitudinal a la perpendicular
En la constante carrera por hacer cada vez discos duros con más capacidad se supo que la
tecnología de grabación longitudinal tenía un límite físico debido al llamado “efecto
superparamagnético” y que éste era de 100 a 200GB por pulgada cuadrada. Es por eso
que ya se está utilizando en algunos modelos la tecnología PMR (Grabación Magnética
Perpendicular), la cual tiene en teoría diez veces la densidad de almacenamiento que la
Pág 153 de 254
longitudinal (hasta 1TB por pulgada cuadrada), lo que a la postre alargará en varios años
más la vida del disco magnético.
Del PATA al SATA, un mundo de diferencia
El caso de las interfaces que se utilizan en un PC común y corriente hoy en día en bien
particular, si bien una es muy superior a la otra, aún conviven sanamente en la mayoría de
los computadores de escritorio actuales y algunos laptops también, ya sea por un disco
duro antiguo o debido a algún dispositivo de lectura/escritura óptico como un grabador
de DVDs. Así es, estamos hablando de la tecnología PATA (Parallel Advanced Technology
Attachment) y la tecnología SATA (Serial ATA).
La tecnología PATA y sus dispositivos, también conocidos como dispositivos IDE, ha ido
evolucionando junto con el disco duro. El ATA original de los ‘80 soportaba una
transferencia total de 8,3MB/s, lo que era bastante para la época. ATA-2 increíblemente
dobló esa cifra a un máximo de 16.6MB/s. Posteriormente llegó Ultra ATA y sus muchos
diferentes sabores, a saber eran Ultra DMA-33 (Direct Memory Access) con 33MB/s, hasta
el Ultra DMA-133 con 133MB/s, también conocidos simplemente como Ultra ATA-33 y
Ultra ATA-133, pasando por Ultra ATA-66 y Ultra ATA-100.
Pág 154 de 254
Uno de los problemas para los entusiastas de llevar su máquina a los límites era
justamente el tamaño que suponía el cable de 40 u 80 alambres del IDE. ¿Quién no enrolló
alguna vez estos gruesos cables con un scotch para mejorar la ventilación dentro de la
torre? Aquellos más busquillas compraban esos cables IDE directamente redondeados, yo
aún utilizo uno de esos para el grabador de DVDs. La llegada de la interfaz SATA vendría a
tomar en cuenta ese detalle, adiós a la mala ventilación.
Cuando el Ultra ATA-133 quedó obsoleto por el cuello de botella que significaba, se diseñó
SATA. Actualmente SATA existe en tres sabores, SATAI, SATAII y SATAIII: 150MB/s,
300MB/s y 600MB/s respectivamente. El resto es historia, nada más agradable de
conectar que el delgado cable SATA, un simple movimiento seguido de un “click” y
estamos listos, no más pelear por varios minutos al poner o sacar un cable IDE.
Sobre la lenta adopción de los SSDs
No entraré en mayores detalles sobre los SSDs, de partida porque no es un disco mecánico
(y técnicamente no es un disco duro) – que es sobre lo que ha tratado éste artículo -, pero
sí nombraré ciertos hitos que marca como un antes y un después, mal que mal los SSDs
Pág 155 de 254
son, en teoría, cuando sus precios se hagan accesibles, los sustitutos naturales de los
discos mecánicos en un futuro próximo.
Una unidad SSD, siglas del inglés ‘Solid State Drive’ o ‘Unidad de estado sólido’ es un
medio de almacenamiento que no depende de piezas mecánicas para su funcionamiento,
ya saben, las revoluciones por minutos (RPM) de los platos que hacen a un disco tener una
lectura mucho más veloz. En cambio un SSD posee almacenamiento de datos gracias a
memoria no volátil o del tipo flash, lo que lo hace menos susceptible a los golpes,
prácticamente no hacen ruido y tienen un menor tiempo de acceso y de latencia. Por otro
lado los SSDs utilizan la misma interfaz que los discos actuales, SATA, por lo tanto son
completamente compatibles con un sistema actual.
La lenta adopción de esta tecnología se debe básicamente al alto costo de estas unidades,
esto a su vez porque las memorias flash son considerablemente más caras de fabricar. Sin
embargo esta no es una desventaja técnica, con el correr de los años el mercado
madurará y se equiparará, tarde o temprano, con uno disco duro mecánico. Por otro lado
está la baja capacidad actual si los comparamos con su par magnético que ya supera los
2TB (como el Seagate GoFlex externo de 3TB). Una desventaja técnica de los SSDs es su
baja o nula recuperación luego de un fallo de alguna de las celdas que lo componen, al
fallar la celda queda completamente destruida, inutilizable y por ende imposible de
recuperar, a diferencia de uno mecánico que bajo supervisión experta es posible lograr
alguna recuperación.
Conclusión
Y así concluye esta reseña al que probablemente sea el componente menos apreciado y
reconocido dentro de la historia de la computación. No me cabe duda que alguien leerá
estas líneas en 5 años más y se dirá a sí mismo: “Estos tipos tenían discos duros
magnéticos de apenas 3TB de capacidad y SSDs de míseros 512GB, ¡ahh, qué tiempos,
cómo cambia de rápido la computación”. Y 5 años después la historia volverá a repetirse,
es la evolución, nadie se escapa a ella, tal vez en 10 o 15 años los discos magnéticos estén
obsoletos y los SSDs ya estén temblando por perder el trono frente a otro competidor.
Tiempo al tiempo, señores, tiempo al tiempo.
Pág 156 de 254
(130) Fabricantes de GPUs que murieron en el camino Por David Sarmiento Portocarrero
La actual industria de los GPU actualmente está limitada a las opciones que nos dan AMD,
Nvidia, y S3 Graphics (división gráfica de VIA). Pero ello no siempre fue así, en los inicios
de la PC existieron muchas fabricantes de chips gráficos, pero al igual como ocurrió con los
primeros fabricantes de CPUs x86, muchas de estas gráficas eran clónicas del chip gráfico
IBM Monochrome Display Adapter (MDA), chip gráfico lanzado en 1981, con tan sólo 4kb
de memoria y que era capaz de mostrar 80 columnas por 25 líneas de caracteres de texto.
IBM MDA ISA 8 bits
Generación Pre-DirectX (1981 a 1995)
Desde la original MDA, la industria del video para PC ha tenido muchas evoluciones,
siendo las más sonadas: CGA, HGC, EGA, VGA, y SVGA; sería un tema demasiado extenso
el detallar cada una de dichas evoluciones, así como a los fabricantes de chips gráficos de
esa época, por lo que nombraremos a algunos de los más conocidos: IBM (al ser el creador
de la PC, también fue el primero en ofrecer un chip gráfico), Hercules (1º competidor), 3D
Labs, Alliance (Promotion), Amdek, ATI (Small Wonder, VGA Wonder, Mach Series),
Avance Logic (adquirida por Realtek), BitBoys (Acceleon), Chips & Technologies, Cirrus
Logic (GD 400/500/5000 Series, Alpine), Genoa Inc, Matrox (Millennium, Impression),
Number Nine, OAK Technology (chips Eon, OTI, SpitFire y Warp), Orchid Technology,
Paradise Inc, Plantronics Colorplus, PowerVR/Videologig (Apocalypse), Realtek (RT Series),
Rendition (chips Verite), S3 Graphics (800/900 Series, Vision, Trio), STB, SiS (chips 62xx),
Tandy, Trident (chips Providia), Tseng Labs (chips ETxxxx), Video 7, entre otros.
Pág 157 de 254
Hercules HGC ISA 8 bits
Creative Labs Video Blaster basada en Chips & Technologies ISA 16bits
Pág 158 de 254
VGA FIC con chip Cirrus Logic CL-5426 VLB
Alliance Promotion 6410 PCI
Los requerimientos gráficos por esas fechas se limitaban a resoluciones VGA (640×480,
320×200 e inferiores) en la época de apogeo de los juegos, así como también las
extensiones SVGA y sus modos VESA VBE (VESA Bios Extensions) con los que se conseguía
Pág 159 de 254
superar los 640×480 de resolución, pasando por 800×600, 1024×768, y llegando hasta los
1280×1024 (existían resoluciones mayores, pero no eran parte del estándar). Por esas
fechas destacaron PowerVR, Rendition y 3dfx siendo las líderes al incorporar funciones 3D
que fueron usadas por muchos juegos MS-DOS.
3dfx Voodoo PCI
Generación DirectX 1/2/3/5 (1995 a 1998)
En esas fechas hizo su aparición Windows 95, este popular sistema operativo introdujo el
API gráfica estándar Direct3D (parte de DirectX), la cual causó tal revolución en el mundo
gráfico que muchas de las empresas existentes no pudieron adaptarse a los cambios
quebrando, o dedicándose a otros rubros (muchas de ellas debido a la competencia ni
siquiera llegaron a esa época), o siendo absorbidas por otras empresas (fueron famosos
los casos de Chips & Technologies que fue adquirida por Intel, y de Tseng Labs adquirida
por ATI).
Pág 160 de 254
Protac Fastware AG240D basada en el GPU Intel 740 AGP 2x
QDI Legend Rendition Verite V2200 AGP
Pág 161 de 254
Si bien fueron muchas las empresas que dejaron de existir, otras como 3D Labs (chips
Permedia), ATI (Chips Rage 3D), Cirrus Logic (Laguna), Matrox (Millenium g100/g200,
Mystique), Number Nine (chips Revolution, Imagine y Pepper), PowerVR (chips
Apocalypse), Rendition (chips Verite 1000/2000), S3 (chips Virge VX/DX/GX/GX2/VX,
Trio3D), SiS (chips 6326), Trident (chips 3D Image 9×50 y Blade3D), lograron adaptarse a
los cambios ofreciendo chips de video compatibles con las primeras versiones de DirectX;
mientras que otras como BitBoys planificaron chips DirectX que nunca llegaron a lanzar; y
otras se dedicaron a otros rubros como por ejemplo IBM, Hercules y STB (estas 2 últimas
pasaron a ser fabricantes de tarjetas de video usando GPUs de otras compañías). Vimos
también la aparición de 3dfx (chips Voodoo 1/2/Rush), Intel (chip i740 el primer chip AGP),
y Nvidia (chips Riva 128/ZX).
STB Glyder Max 2 basada en el GPU 3DLabs Permedia 2 AGP 2x
Pág 162 de 254
Number Nine Revolution IV 16MB AGP
Generación DirectX 6/7 (1998 a 2000)
Empresas como 3D Labs (adquirida por Creative Labs para dedicarla al mercado
profesional), Intel (abandonó la producción de GPUs para dedicarse a los IGP, basándose
en las tecnologías de sus desarrollos anteriores y las de su nueva adquisición: Cirrus Logic),
Number Nine (adquirida por S3), y Rendition dejaron de existir, las demás: 3dfx (chips
Banshee, Voodoo 3/4/5), ATI (Chips Rage Pro/128/128PRO, Radeon 256/7×00), Matrox
(chips Millennium G400/450, G500/550), Nvidia (Riva TNT/TNT2, Geforce 256/2/MX),
PowerVR (chips Kyro I/II), S3 (chips Savage 3D/4/2000, SuperSavage, SavageXP), SiS
(300/305, y 310/315), Trident (chips BladeT/XP), lanzaron GPUs compatibles con las
nuevas API.
Pág 163 de 254
Hercules PowerVR Kyro II AGP
3dfx Voodoo 5 5500 AGP 64MB
Pág 164 de 254
Generación DirectX 8/8.1 (2000 a 2002)
GPU Trident Blade XP4 T1
Observamos que en este punto el mercado se consolida aún más,
con la desaparición de 2 empresas: 3dfx (adquirida por Nvidia) y
PowerVR (se dedicó a la fabricación de chips de bajo consumo e IGPs
para los chipsets de Intel, división que mantiene hasta la actualidad),
las empresas restantes: ATI (Chips Radeon 8000/9000/9100/92×0),
Matrox (chips Millennium 650/750 y Parhelia), Nvidia (chips Geforce
3/4), S3 (fue adquirida por VIA, pero continuó desarrollando IGPs, pero no lanzó ningún
chip DX8), SiS (Xabre/600), y Trident (Blade XP4) continuaban en la competencia.
SiS Xabre 400 AGP 8X
Pág 165 de 254
Matrox Parhelia 128 256MB AGP 8x
Generación DirectX 9/9.0a/9.0b/9.0c (diciembre 2002 hasta noviembre 2006)
BitBoys es adquirida por ATI, Matrox abandona la competencia, y se enfoca a desarrollar
chips gráficos para aplicaciones médicas y profesionales, Trident es adquirida por SiS, la
cual se dedica de lleno a los IGPs, pero crea una nueva empresa llamada XGI (eXtreme
Graphics Innovation), la cual usa las tecnologías combinadas de SiS y Trident lanzando su
familia de chips Volari V3/V5/V8/V8 Ultra/Duo); las demás empresas restantes: ATI
(Radeon 9500/9700/PRO, Xxx0, y X1xx0), Nvidia (Geforce FX/6/7), y S3
(DeltaChrome/S10/S20 Series, GammaChrome/S10/S20 Series, Chrome S20 Series)
continúan desarrollando sus productos; pero el no haber lanzado un GPU por casi 3 años
significó para S3 empezar de nuevo.
Pág 166 de 254
XGI Volari V8 Ultra AGP 8x
S3 DeltaChrome S8
Pág 167 de 254
Generación DirectX 10/10.1 (noviembre 2006 a octubre 2009)
XGI al igual que PowerVR abandona la competencia 3D, pero se mantiene hasta la
actualidad fabricando chips DirectX 10 y 10.1 enfocadas a mercados de servidores y
productos embedidos de bajo consumo; las demás empresas: ATI (es adquirida por AMD,
y con su nueva dueña lanza sus GPU Radeon HD 2000/3000/4000), Nvidia (Geforce
8/9/G20x/G2×0), y S3 (Chrome S400/S500 Series) continúan ofreciendo productos
compatibles.
S3 Chrome 540 GTX PCIe
Pág 168 de 254
Generación DirectX 11 (octubre 2009 hasta la actualidad)
ATI (Radeon HD 5000 Series) y Nvidia (Geforce 400 Series) son por el momento las únicas
empresas que ofrecen chips DirectX 11, las demás: Matrox, PowerVR, S3, y XGI si bien
continúan desarrollando productos DirectX 10 y DirectX 10.1, aún no poseen un chip
DirectX 11, siendo de entre ellas S3 la única que ha anunciado próximamente GPUs e IGPs
compatibles con DirectX 11.
ATI Radeon HD 5870 1GB PCIe
Notas finales
Han sido muchas las empresas que han desaparecido desde los inicios de las PC
compatibles; siendo Matrox (actualmente desarrolla GPUs para entornos profesionales) y
PowerVR (Continua siendo la división gráfica de Imagination Technologies al igual que en
las fechas cuando fue fundada) las únicas que se ha mantenido desde tiempos de las
primeras PC; S3 Graphics aún sobrevive en manos de su actual dueña VIA Technologies,
mientras que recientemente le dijimos adiós a ATI; no nos olvidemos de XGI la cual se
podría considerar a la de menor antigüedad entre las actuales fabricantes de GPUs,
puesto que le será quitado dentro de algunas semanas cuando AMD lance los primeros
GPUs con su propia marca (Radeon HD 6000 Series).
Pág 169 de 254
(137) Procesador Intel 8086 Por Geovanne Salinas
El abuelo de todos los X86
El 8 de Junio de 1978, Intel presentó al público el chip 8086 (también conocido como
iAPX86), procesador que se convertiría en la base para el actual conjunto de instrucciones
de arquitectura x86, dando inicio a la historia moderna de las CPUs de propósito general.
Con frecuencias que bordeaban los 5 MHz en un principio, ese número se logró duplicar
para 1990, año en que el chip fue descontinuado por la compañia.
Cerca de dos años de desarrollo tomó al equipo liderado por Bill Pohlman diseñar el chip
Intel 8086 de 40 pines y extensión completa de 16-bit, siendo el sucesor directo de 8080,
microprocesador de 8-bit construido en 1974 y que empezaba a bosquejar los primeros
intentos de un procesador
de propósito general por parte de
Intel. Curiosamente,
la producción del chip 8086 era
subcontratada, y en la siguiente
imagen podemos ver dos modelos
hechos por AMD y Fujitsu
respectivamente:
Historia
Durante los años 70, Intel era una compañía que prácticamente se dedicaba a
la producción DRAM en lugar de procesadores, pero gracias al chip 8008, lograron
un éxito que les permitió seguir en competencia con los grandes de la época como:
Motorola, National Semiconductor o ZiLog, esta última empresa se volvió muy popular
gracias a su chip Z80, el cuál había sido diseñado por exs empleados de Intel utilizando
una microarquitectura e instrucciones muy similares al chip 8085 (versión con
compatibilidad binaria de 8080).
El diseño de Intel 8086 tenía como principal objetivo seguir la línea y mantener
retrocompatibilidad con los chips 8008, 8080 y 8085, de este modo los programadores
(machos que hacían todo el aseembler) no debían editar o rehacer código, pero a
Pág 170 de 254
diferencia de sus hermanos menores, 8086 incluiría soporte completo para el
procesamiento de 16-bit.
Stephen P. Morse, principal arquitecto del proyecto 8086, comentó que las instrucciones
en el nuevo diseño de Intel tendrían mejor relación con algunos lenguajes de más alto
nivel de la época (Pascal, PL/M) y no tanta implicancia con el compilador.
La contratación de Morse en el proyecto dio bastante que hablar, ya que era un Ingeniero
de Software que tenía una visión totalmente distinta sobre el diseño de CPUs, la que había
estado dominada por Ingenieros de Hardware:
Por primera vez, íbamos a mirar las características del procesador desde una mirada del
software. La pregunta no es ‘¿Para qué características tenemos espacio?’ sino
‘¿qué características queremos en orden para hacer el software más eficiente?’
Junto a las nuevas instrucciones agregadas al procesador como: soporte completo para
enteros con signo, direccionamiento base-offset, y operaciones repetitivas con una
perspectiva de computó general, diferenciaron a Intel del diseño de Z80.
El chip 8086 finalizó con 20.000 transistores activos (29.000 contando todos los ROM y
PLA), mientras la construccion del procesador fue hecha bajo el proceso llamado HMOS
(High performance MOS) y utilizado por Intel para fabricar de manera más rápida sus
productos SRAM.
Pág 171 de 254
Bus, registros y otras hierbas
La verdadera identidad de 8086 se establecen en sus registros y buses (interno, externo)
de 16-bit, lo que permite un direccionamiento I/O de 64 KB (216 = 65.536), mientras el bus
externo de 20-bit permitía un direccionamiento físico de 1 MB.
Los registros del 8086 estaban divididos en dos secciones principales, de propósito general
y de índice.
AX: Registro acumulador, dividido en AH / AL. Su principales funciones eran generar
código de máquina, operaciones de aritmética, lógica y transferencia de
datos, multiplicación y división, salidas y entradas.
BX: Registro base de direccionamiento, dividido en BH / BL.
CX: Registro contador, dividido en CH / CL. Su objetivo era iterar segmentos de código,
repetir operaciones y contar bits
Pág 172 de 254
DX: Registro de datos, dividido en DH y DL. Junto con AX se concatenan operaciones MUL
y DIV en un registro de 32-bit, también especificaba puertos en algunas operaciones de
entrada/salida.
SI: Registro indice. Usado de puntero para ciertos datos y como fuente para ciertas
instrucciones de procesamiento.
DI: Indice destino. Cumple el mismo objetivo de SI con un offset distinto (SS).
BP: Puntero base. Usado para acceder a parámetros pasados vía pila.
SP: Puntero de Pila. Siempre apunta al primer item de una pila (a FFFEh si está vacía)
Luego tenemos los registros bandera, de segmentos y apuntador de instrucciones
especial; Cada uno de ellos cumplía funciones muy específicas, como conocer el estado
del procesador luego de haber realizado una operación (banderas) o acceder a los valores
alojados en memoria (segmentos) aunque también se podían almacenar en aquellos
registros (64KB) pero no era la idea para aquella época donde un KB más o menos
marcaba la diferencia.
Uno de los inconvenientes del bus de datos del 8086, era que estaba multiplexado
(dividido en varias señales) con el bus de direccionamiento, limitando el rendimiento final
especialmente en aquellos procesos de 8-bit, que corrían ligeramente más lentos que los
procesadores de 8-bit de aquellos tiempos. Otros problemas que afligían al recién nacido
8086 eran la lentitud con la que se realizaban operaciones aritméticas, por lo que Intel
decidió agregar un segundo chip (8087) encargado de realizar
operaciones matemáticas con números de 80-bits, éste es el denominado co-
procesador matemático.
Pág 173 de 254
Pines
El sistema de entradas y salidas del microprocesador 8086 está diseñado en el formato
DIP (Dual Inline Package), que consiste en 40 patas (o pines) en total -20 en el lado
izquierdo, 20 en el derecho- separadas entre sí por 2,54 milímetros.
Cada uno de los pines cumple con una función específica y están enumerados del 1 al 40.
Para identificar cada pin es necesario fijarnos en la muesca semicircular que marca el
comienzo de la numeración de los pines, siempre desde el lado izquierdo hacia abajo y
luego desde abajo hacia arriba por el lado derecho. Esto último es muy importante tener
en cuenta antes de conectar los pines a sus respectivas entradas/salidas, porque no
faltará el descuidado que conecte la entrada de 5V (Vcc) a la salida GND (tierra/masa).
Pág 174 de 254
Las funciones de los pines son las siguientes:
1. GND (Masa) 2. AD14 (Bus de direcciones) 3. AD13 (Bus de direcciones) 4. AD12 (Bus de direcciones) 5. AD11 (Bus de direcciones) 6. AD10 (Bus de direcciones) 7. AD9 (Bus de direcciones) 8. AD8 (Bus de direcciones) 9. AD7 (Bus de direcciones y datos) 10. AD6 (Bus de direcciones y datos) 11. AD5 (Bus de direcciones y datos) 12. AD4 (Bus de direcciones y datos) 13. AD3 (Bus de direcciones y datos) 14. AD2 (Bus de direcciones y datos) 15. AD1 (Bus de direcciones y datos) 16. AD0 (Bus de direcciones y datos) 17. NMI (Entrada de interrupción no enmascarable) 18. INTR (Entrada de interrupción enmascarable) 19. CLK (Entrada de reloj generada por el 8284) 20. GND (Masa) 21. RESET (Para inicializar el 8088) 22. READY (Para sincronizar periféricos y memorias lentas) 23. /TEST 24. /INTA (El 8088 indica que reconoció la interrupción) 25. ALE (Cuando está uno indica que salen direcciones por AD, en caso contrario, es el
bus de datos) 26. /DEN (Data enable: cuando vale cero debe habilitar los transceptores 8286 y 8287
(se conecta al pin de “output enable”), esto sirve para que no se mezclen los datos y las direcciones).
27. DT/R (Data transmit/receive: se conecta al pin de dirección de los chips recién indicados).
28. IO/M (Si vale 1: operaciones con ports, si vale 0: operaciones con la memoria) 29. /WR (Cuando vale cero hay una escritura) 30. HLDA (Hold Acknowledge: el 8088 reconoce el HOLD) 31. HOLD (Indica que otro integrado quiere adueñarse del control de los buses,
generalmente se usa para DMA o acceso directo a memoria). 32. /RD (Cuando vale cero hay una lectura) 33. MN/MX (Cuando esta entrada está en estado alto, el 8088 está en modo mínimo,
en caso contrario está en modo máximo) 34. /SSO (Junto con IO/M y DT/R esta salida sirve para determinar estados del 8088) 35. A19/S6 (Bus de direcciones/bit de estado) 36. A18/S5 (Bus de direcciones/bit de estado)
Pág 175 de 254
37. A17/S4 (Bus de direcciones/bit de estado) 38. A16/S3 (Bus de direcciones/bit de estado) 39. A15 (Bus de direcciones) 40. Vcc (+5V)
Esta es la configuración del 8086 en modo mínimo, cuando se le aplica más de 5V al pin 33
(MN/MX) automáticamente el microprocesador entra a funcionar en modo máximo y
algunos de los pines cambiaban su significado:
• Pin 24, QS1: Estado de la cola de instrucciones (bit 1). • Pin 25, QS0: Estado de la cola de instrucciones (bit 0). • Pin 26, S0: Bit de estado 0. • Pin 27, S1: Bit de estado 1. • Pin 28, S2: Bit de estado 2. • Pin 29, /LOCK: Cuando vale cero indica a otros controladores del bus (otros
microprocesadores o un dispositivo de DMA) que no deben ganar el control del bus. Se activa poniéndose a cero cuando una instrucción tiene el prefijo LOCK.
• Pin 30, RQ/GT1: Es bidireccional y tiene la misma función que HOLD/HLDA en modo mínimo.
• Pin 31, RQ/GT0: Como RQ/GT1 pero tiene mayor prioridad. • Pin 34, Esta salida siempre está a uno.
Micro-computadores con 8086 y clones
Uno de los primeros computadores en
incorporar la tecnología del chip Intel
8086, fue el famoso IBM PC, modelo que
utilizaba el chip 8088 -una versión de 8086
con un bus de datos de 8-bit- y marcó el
comienzo de un estándar para el resto de
la industria de computadores. Luego de
IBM PC, vinieron los modelos IBM PS/2
que incorporaron el verdadero 8086 con una frecuencia de 8 MHz. Sin embargo, el primer
micro-computador en comercializar el procesador 8086 fue el fabricante noruego Mycron
y el su modelo Mycron 2000, que utilizaba el sistema operativo CP/M-86. Otros micro-
computadores que adoptador el procesador de Intel fueron:
• Compaq Deskpro, con el chip 8086 a 7,14MHz, además fue el primer IBM PC clon que permitía tarjetas diseñadas para el IBM PC XT.
• IBM Displaywriter, máquina de procesamiento de texto diseñada en los Laboratorios Wang
• Tandy 1000 serie SL
Pág 176 de 254
• Amstrad PC1512, PC1640 y PC2086, todos utilizaban el chip 8086 corriendo a 8MHz
• FLT86, fabricado en Inglaterra
Como toda buena influencia en el mercado, no podía estar ajena a las copias y el chip Intel
8086 fue víctima de aquello.
En los años 80, Intel no disponía de sus propias fabricas para proveer de sus chips a todo
el mundo, por lo que muchas unidades eran encargadas a otras compañías como: Fujitsu,
Harris/Intersil, OKI, Siemens AG, TI, USSR, NEC o Mitsubishi, las que aprovechaban de
hacer versiones compatibles. En algunos casos, el 8086 no sólo era copiado, sino que
también mejorado para diversos propósitos, esto sucedió con los modelos V20 y V30 de
NEC, los que agregaban el set de instrucciones de los 80186 y una frecuencia ligeramente
mayor, aunque en esos tiempos tener 2 MHz extras podía significar hasta un 30% más de
rendimiento.
Sin embargo, también existieron clones de 8086, estos nacieron en la ex
Union Soviética gracias el espionaje industrial y la ingeniería inversa. El clon ruso de Intel
8086 era denominado K1810BM86, que además -patudamente- era compatible con los 40
pines y set de instrucciones del original. La necesidad de proveer de procesadores a los
computadores de la Union Soviética los llevó a implementar su propia solución de chip,
diseño de circuitos y bus de datos independientes al producto original de Intel.
Pág 177 de 254
Conclusión
El éxito logrado por Intel y sus microprocesadores 8086 y 8088 no sólo tuvo un fuerte
impacto en la computación de hoy en día, en los años setenta fue catalogado por la revista
“Fortune” como uno de los mejores negocios de la época gracias a la inclusión del
microchip en soluciones de computación económicas como fueron los IBM PC, aunque
originalmente fue pensado para sistemas embebidos.
Al mismo tiempo que se iba masificando el chip 8086 y sus hermanos, nacía un nuevo
termino, x86, y que hace referencia al conjunto de instrucciones de arquitectura que se
estaba formando. Desde aquellos tiempos hasta la fecha, x86 se ha vuelto en la
arquitectura más popular entre PCs de escritorio como portátiles gracias a que varias
marcas como HP, Sanyo, Toshiba y otros, imitaron los pasos de IBM con productos clones.
Las siguiente iteraciones de la arquitectura fueron mejorando considerablemente
en características, por ejemplo: La segunda generación x86 estuvo liderada por los chips
Intel 80186 y 80286 comenzó a ofrecer un espacio de direccionamiento físico de 24-bit y
paginamiento de memoria, la tercera y cuarta generación estuvo marcada por la evolución
a un direccionamiento lineal y físico de 32-bit, la transición más larga de
la computación personal moderna.
Han pasado más de 32 años desde la aparición del histórico Intel 8086 y hoy nos
encontramos en la denominada décimo tercera generación de la arquitectura x86, que
nos ofrece un direccionamiento lineal/físico de 64-bit y todo un nuevo conjunto de
instrucciones y características como SSE5/AVX, virtualización, controladores de memoria
en el mismo die de la CPU, FPU superescalar y por supuesto un diseño totalmente
modular. Todo esto no habría sido posible sin 8086.
Pág 178 de 254
(144) El primer CPU QuadCore x86 Por David Sarmiento Portocarrero
Un CPU Quad Core (cuádruple núcleo) integra 4 núcleos en un único chip, y se
constituyeron en el siguiente paso evolutivo luego de los CPU Dual Core (doble núcleo), en
teoría un CPU Quad Core debe integrar 4 núcleos en el mismo die, pero el 1º CPU Quad
Core conocido: Intel Core 2 Quad QX6700 Extreme Edition obviaba esta regla integrando 2
die cada uno con 2 núcleos y comunicados internamente por el FSB (Front Side Bus) en el
mismo encapsulado (caso similar al acontecido con el 1º Dual Core: Intel Pentium D); lo
que en su tiempo desató la polémica, siendo muchos los que no lo consideraban un
verdadero CPU Quad Core; mientras que el CPU Phenom X4 de su rival AMD si fue
considerado un verdadero Quad Core al poseer 4 núcleos en el mismo die, lo que por ese
tiempo llamaron un CPU Quad Core monolítico.
AMD Phenom X4 y Core 2 Quad "al desnudo"
Basándonos en lo anterior podríamos afirmar que Intel Core 2 Quad QX 6700 Extreme
Edition fue el 1º CPU con 4 núcleos en el mismo sustrato (2 die con 2 núcleos cada uno),
mientras que AMD Opteron 8350 fue el 1º CPU con 4 núcleos en el mismo die… así que
porque no describir los productos de ambas empresas.
Pág 179 de 254
Intel Core 2 Quad QX6700 Extreme Edition
El 2 de noviembre del 2006, Intel lanza su primer CPU Quad Core, un nuevo hito en el
mundo x86, tanto desde el punto de vista tecnológico, como en rendimiento, superando a
cualquier CPU x86 existente hasta ese momento: Intel Core 2 Quad QX6700 Extreme
Edition, un CPU dirigido a los usuarios entusiastas con el “módico” precio de $999. Este
CPU tenía un chip Kentsfield fabricado con el proceso de manufactura de 65nm con 4
núcleos funcionando a 2.66GHz, 8MB de cache L2 (4MB por cada 2 núcleos), un TDP de
130W, y compatible con el socket LGA775; no introdujo nuevas características en
comparación con los Core 2 existentes.
Este microprocesador tuvo un rendimiento sobresaliente en multitareas, superando por
amplio margen al Core 2 Extreme X6800 (Dual Core a 2.93GHz y máximo exponente de los
Dual Core hasta ese entonces), y a cuanto competidor le saliera al frente; aunque en test
que no aprovechaban la multitarea se veía superado por este último. Aun así su
rendimiento en multitareas en muchos casos era del 60 a 70% superior frente al Core 2
Duo E6700, CPU que equivalía a uno de los núcleos dual core del QX6700 (en test
sintéticos si alcanzaba el doble del desempeño).
Pág 180 de 254
AMD Phenom X4 9600
El mismo mes del lanzamiento de los CPU Intel Core 2 Quad Extreme Edition, AMD en una
maniobra desesperada lanza su plataforma Quad FX (2 CPU Athlon FX + mainboard doble
socket), con la cual ganó tiempo hasta que un año después el 19 de noviembre del 2007,
AMD lanza su 1º CPU Quad Core para el mercado doméstico: el Phenom 9600 (el 10 de
setiembre 2007 ya había lanzado el Opteron 8350 para el sector profesional), Phenom
hizo su aparición en un momento muy difícil para AMD (pocos meses atrás , lanzó las poco
exitosas Radeon HD 2000 Series).
Phenom 9600 usaba el núcleo Agena en su revisión B2, fabricado con el proceso de
manufactura de 65nm funcionando a 2.3GHz, 2×512kb de cache L2, 2MB de cache L3,
introdujo la nueva versión del bus HyperTransport 3.0 (HT 3.0, para aprovecharlo era
necesaria una mainboard socket AM2+) con un 86% mayor ancho de banda comparado
frente al HT 2.0, un nuevo controlador de memoria con la capacidad de funcionar en 2
modos de doble canal: agrupado (ganged, el modo dual cannel 128 bits tradicional) y
desagrupado (unganged, 2 canales de 64 bits independientes), una nueva unidad de
Pág 181 de 254
cálculo de enteros, una nueva unidad de predicción de ramas, virtualización mejorada, y
las nuevas instrucciones SSE4a.
Este microprocesador no se destacó por su elevado rendimiento frente a los CPU
existentes de Intel, pero ofreció una mejora suficiente en comparación con los Athlon
64/X2/FX existentes, su punto fuerte fueron las multitareas y su atractivo bajo precio
(comparado con las opciones de Intel).
Pág 182 de 254
El Bug TLB en los Phenom de AMD
Un hecho que manchó la reputación de los primeros Phenom de AMD fue el error en los
buffers TLB (descubierto a los pocos días de lanzado), responsables de sus mejoradas
capacidades de virtualización, error exagerado por muchos medios informativos; pues era
prácticamente imposible de detonarlo en el uso de escritorio normal (se detonaba en
ambientes servidor con uso intensivo de virtualización); error que fue corregido en la
siguiente revisión B3 (para los CPU B2 existió un parche de microcódigo activable en el
BIOS); pero AMD recibió demasiada mala prensa por él, lo cual sumado al lento soporte
que brindaron los fabricantes de mainboards con los primeros Bios compatibles para las
viejas mainboard socket AM2 (Bios Beta y en muchas ocasiones llenos de inestabilidades)
detonó que la web se llenara de temas culpando al error TLB por prácticamente cualquier
problema de compatibilidad CPU/mainboard AM2. AMD lanzó 10 meses después la nueva
revisión B3 con el error corregido, pero el daño ya estaba hecho.
Pág 183 de 254
El Bug TLB en los Core 2 de Intel
Para muchos es un hecho desconocido que el error TLB también estuvo presente en los
microprocesadores Core 2 Quad Extreme Edition (y otros modelos Dual y Quad Core), este
error fue descubierto casi 5 meses después de su lanzamiento (ocasionaba inestabilidades
y cuelgues en ciertos escenarios no descritos por Intel) , y que fue corregido por Intel con
una nueva actualización de microcódigo en nuevos Bios para las mainboards socket 775,
en combinación con un parche de Microsoft. Error que recibió casi nula atención de los
medios informativos, y quizá muchos recién se enteren que existió.
Notas finales
Han pasado casi 4 años desde la aparición de los CPU Quad Core, y la industria ha
continuado su evolución con los actuales Hexa Core (AMD Phenom II X6 e Intel Core i7 9×0
Extreme Edition), y dentro de poco tendremos CPUs Octa Core (con 8 núcleos; para el
sector profesional y servidores si existen microprocesadores con 8, 10, y hasta 12
núcleos); y es de suponer que el número de núcleos continúe en aumento conforme el
software evolucione también hacia la misma dirección.
Pág 184 de 254
(151) George Hotz, GeoHot: el maestro jailbreaker Por Geovanne Salinas
George Hotz
Nacido un 2 de octubre de 1989, George Francis Hotz -alias GeoHot, million75 o mil- ha
logrado capturar la atención de los medios durante los últimos años gracias a su ingenio,
que lo llevó a romper la protección de seguridad en el baseband del iPhone cuando sólo
tenía 17 años y a los 19 vulnerar el sistema ultra seguro que Sony implementó en
PlayStation 3.
Hoy cuando está a punto a cumplir 21, se ha convertido en toda una estrella en el mundo
del hacking por sus habilidades que han permitido que millones de usuarios puedan
disfrutar de un iPhone totalmente desbloqueado, tener un iPod Touch/iPhone con
jailbreak, y por supuesto, ofrecer total libertad a los primeros usuarios de PlayStation 3.
A continuación revisamos la historia detrás del genio, y que entregó felicidad al mundo y
dolores de cabeza para Apple y Sony.
Pág 185 de 254
Historia
La vida del hacker transcurrió tranquilamente en la ciudad de Glen Rock, un poblado de no
más de 15.000 habitantes ubicado en el condado de Bergen County, New Jersey.
Su talento fue alimentado desde pequeño por la educación recibida en Bergen County
Academies, una escuela que divide sus clases en academias como por ejemplo:
Ciencias, Ingeniería, Telecomunicación o Negocios. Cada una de estas academias tiene
un currículo bastante especifico que refuerza las habilidades de los alumnos. Hotz estuvo
enrolado en la Academia de Ingeniería, donde participaba activamente de concursos
relacionados con las ciencias.
El año 2005, Hotz fue finalista de la competencia Intel International Science and
Engineering Fair con su proyecto “TheGoogler”, luego en el año 2007 gana junto a sus
compañeros de escuela en la misma feria de Intel que participó el 2005, gracias a un
dispositivo que proyectaba imágenes 3D denominado “I want a Holodeck”, recibiendo un
premio de nada menos que USD$20.000.
Los inicios de Hotz ya nos entregaban una pista de sus capacidades prematuras y que
siempre fueron apoyadas por la educación recibida.
Desbloqueo del iPhone
El 29 de junio de 2007 -y luego de meses de espera- Apple finalmente puso a la venta su
primer terminal telefónico, hablamos del iPhone, y denominado el invento del año por la
revista Times. Muchos recordarán el incontable número de personas que hacia fila en las
tiendas de AT&T y Apple Store para obtener la última ganga tecnológica, y por supuesto
Hotz estaba en presente para adquirir el suyo.
Durante las semanas al lanzamiento del iPhone, muchas fueron las criticas por estar
amarrado a un sólo carrier telefónico. Hotz con tan sólo 17 años, decidió invertir varias de
sus horas de vacaciones en buscar una solución al bloqueo y permitir que se pudiera
utilizar el iPhone en otros operadores. Finalmente, bastaron 500 horas de arduo trabajo,
varias latas de Red Bull y un soldador para alcanzar el éxito, porque GeoHot había logrado
por primera vez vulnerar la seguridad de Apple vía hardware:
Viví y respiré ese teléfono por los últimos dos meses
El hack realizado al iPhone para poder hacer llamadas desde otros carriers no era algo
simple, y muchas fueron las criticas por parte de los medios. Sin embargo, Hotz subió a
Pág 186 de 254
YouTube un tutorial que explicaba paso a paso como realizar la modificación al teléfono, la
que tuvo más de 107.000 visitas en la misma noche de la publicación.
Fueron varios los interesados en contactar a Hotz para tener acceso exclusivo a su
teléfono, uno de ellos fue el empresario Terry Daidone, fundador de Certicell, quién
ofreció su auto -un Nissan 350Z- y otros 3 iPhones por ser el dueño del iPhone modificado
de GeoHot:
El resto de la iPandilla
Luego del desbloqueo que lo llevó a la fama, era momento de buscar una nueva forma de
desbloquear el iTeléfono y el reproductor multimedia iPod Touch.
El 8 de Febrero del 2008, Hotz liberó por primera vez un método de desbloquear el iPhone
con bootloader 4.6 vía software. Este lanzamiento marcaría el fin de la plataforma cerrada
de Apple, permitiendo que nuevos operadores GSM pudieran ser utilizados, incluso
en países donde no había ningún acuerdo para utilizar iPhones. Lo que para muchos podía
ser una desgracia no poder usar el carrier que uno quiera, para GeoHot es todo diversión:
Personalmente, me gusta que Apple mantenga al iPhone así de cerrado. Este es un
pasatiempo personal; y no sería tan divertido si Apple hubiera hecho al iPhone tan abierto
como otros terminales. Pongan frente a mi a un ‘policia anti-jailbreak’, y después podré
demostrarle a Apple de lo que soy capaz de hacer.
Pág 187 de 254
Para la salida del iPhone 3G (11 de Julio del 2008), la técnica por hardware utilizada por
Hotz ya no era valida, por lo que todos sus esfuerzos se concentraron en vulnerar el
código del baseband y bootloader.
El 3 de Julio del 2009, Hotz anunció la salida de purpler1n, el primer exploit público y por
software para el jailbreak del iPhone 3GS, lo que permitiría que se pudieran instalar
terceras aplicaciones en el iTeléfono. Un par de meses más tarde, se anunciaría blackra1n,
la aplicación para realizar jailbreak a todos los iPhones y iPod Touches lanzados por Apple,
una verdadera bomba en las oficinas de Cupertino.
La ronda de nuevas versiones de blackra1n continuó en los siguientes meses, y se
encargarían de romper una y otra vez las nuevas mejoras en seguridad que
Apple incluía con los nuevos dispositivos (iPhone 3GS y iPod Touch 3G modelos MC).
Durante el 2010, las cosas se volvieron bastante complicadas en torno al jailbreak y unlock
de la iPandilla, por lo que GeoHot decidió alejarse un poco de la escena. El 24 de Junio del
mismo año, Hotz escribió en su Twitter que no tenía intenciones de liberar un nuevo
jailbreak, aunque en los días siguientes se filtró una imagen de un iPhone 4 corriendo iOS
4.0 y ejecutando Cydia, pero ese método nunca fue liberado al público. Luego de varios
dichos en contra de Hotz por no liberar el jailbreak, éste anunció por Twitter su retiro del
hacking de dispositivos de Apple:
Me estaba diviertiendo pero hay demasiadas personas que se lo toman enserio. Solo es un
teléfono y esto ya no es tan divertido.
Mi biografía no es la de un hacker de iPhones,lo era cuando estaba
aburrido.Realmente,muchos de uds se deberían preocupar por otras cosas, no por mi.
Fue muy entretenido, y aprendí de todos los desafíos. Sin embargo, uno de estos días
tendré que despedirme de forma mas formal.
La protección de Sony
PlayStation 3 fue la tercera consola fabricada por Sony y parte de la séptima generación
de consolas, junto a la Nintendo Wii y XBOX 360 de Microsoft, ambas tenían en común
que eran vulnerables al hackeo, mientras Sony se jactaba de tener la única consolas de
videojuegos inviolable. Las ventas de ésta consola no fueron muy fructíferas en un
principio, algunos de los factores eran: su elevado costo, utilización de discos Blu-Ray, y
por supuesto, que no era posible utilizar juegos de “respaldo” como si se podía hacer en
las consolas XBOX 360 y Wii.
Pág 188 de 254
Lamentablemente para Sony, toda la protección incluida en su consola llegó a su fin el día
en que Hotz comunicó sus intenciones de vulnerar la increíble seguridad de la PlayStation
3, calificandola como “Todo un reto”, palabras de las que se arrepentiría cinco semanas
más tarde. El 22 de Enero de 2010, GeoHot escribió en su medio de comunicación oficial
(Twitter) lo siguiente:
Bien, un tweet… acabo de hackear la PS3
La entrada de Twitter llevaba a un link de su blog, donde anunciaba el hackeo de la
consola luego de obtener acceso al monitor virtual de máquina (o hipervisor), lo que le
permitía leer y escribir sobre el sistema de memoria de la PlayStation 3. Tan sólo fueron
necesarias 3 semanas de análisis a la consola y otras 2 para el cracking del sistema. Súper
simple.
Cuatro días más tardes del anuncio en su blog, GeoHot -desde ahora, la leyenda viviente-
ponía a disposición del público un exploit que permitía ganar privilegio hipervisor en la
consola, sólo era requisito tener una consola PS3 con soporte para OtherOS,
una característica que permitiría -eventualmente- instalar el sistema operativo Linux en la
consola. A parte del exploit, también se encontraron especificaciones sobre como instalar
Homebrew y un emulador de PlayStation 2, funcionalidades que luego fueron removidas
por Sony -al igual que OtherOS- por motivos de seguridad.
Sony contraataca
Pág 189 de 254
La respuesta de Sony -luego de que GeoHot vulnerara la in-hackeable consola- no se hizo
de esperar, y a finales de Marzo del 2010 lanzaron una actualización al firmware para la
PlayStation 3 que deshabilitaba la función OtherOS, imposibilitando el hackeo a la consola
vía Linux.
Sin embargo, “la leyenda” no se detuvo ante las amenazas de Sony para que dejara de
intervenir en la consola, ahora sus esfuerzos estaban centrados en lanzar un firmware
modificado que permitía correr Linux incluso con el último firmware de la compañía
(3.21). Hotz utilizó YouTube para dar a conocer los avances sobre el firmware que estaba
modificando, tenía número de versión 3.21OO y traía nuevamente el soporte OtherOS a la
consola.
Lamentablemente, el progreso del firmware modificado de Hotz sólo pudo ser apreciado
por videos y nunca se publicaron avances. Para el 13 de Julio del mismo año, George
colgaba los guantes en la batalla contra Sony, el anuncio fue hecho vía Twitter:
Fue un viaje entretenido, y aprendí demasiado. Tal vez en los próximos días haga un adiós
formal
Conclusión
El genio detrás del primer jailbreak/unlock del iPhone y hacking de la PlayStation 3 aunque
se encuentra por el momento retirado de las canchas, sigue siendo uno de los personajes
más recordados del último tiempo por sus hazañas, y en especial por tener un prontuario
con tan sólo 20 años de edad.
Pág 190 de 254
A nadie le queda duda de que el chico de Glen Rock volverá a las canchas en un futuro
cercano, como el mismo dice, los retos -y el tiempo libre- son sus principales motivaciones
para seguir en el rubro del hackeo.
Pág 191 de 254
(158) ENIAC: La primera computadora electrónica
programable Por Geovanne Salinas
… Con la llegada del uso cotidiano de complicados cálculos, la velocidad se ha vuelto
fundamental en un grado tan alto que no hay un equipo en el mercado capaz de satisfacer
toda la demanda de los métodos modernos de cálculo. Las máquinas más avanzadas han
reducido en gran medida el tiempo necesario para alcanzar soluciones a los problemas
que podría haber precisado de meses o días por procedimientos antiguos. Este avance, sin
embargo, no es el adecuado para muchos de los problemas encontrados en el trabajo
científico moderno y la presente invención tiene por objeto reducir a segundos tales
cálculos largos.
Nada podría haber explicado mejor el principal propósito de construir ENIAC (Electronic
Numerical Integrator And Computer), conocida como la primera computadora electrónica
digital programable. El párrafo citado corresponde a la solicitud de patente número
3.120.606 llenada el 26 de Junio de 1947, y que pretendía dejar constancia de
la creación del Integrador Numérico Electrónico y Computador por el Laboratorio de
Investigación Balística del Ejercito de Estados Unidos.
ENIAC marca varios precedentes importantes en la informática y electrónica, como el
inicio de la computación de propósito general, la programación en lenguaje de máquina
(digital), y la historia de seis mujeres -ignoradas en su momento- hábiles en matemáticas y
lógica, que se convirtieron en las primeras programadoras.
Historia
Para Estados Unidos, el estallido de la Segunda Guerra Mundial en 1939 los hizo
despertar de la poca preparación militar que habían tenido en las últimas dos décadas,
dejandolos virtualmente eliminados como una potencia en materia bélica. En tiempos de
paz, los principales establecimientos científicos y de soporte para el departamento
encargado de diseño, desarrollo, adquisición, almacenamiento y expedición de todo el
material de combate y municiones para el ejército, estaban prácticamente abandonados.
Como en la mayoría de los grandes avances de la tecnología, ENIAC nace a partir de la
extraordinaria demanda que implicaba la guerra en esos tiempos, la milicia necesitaba
encontrar soluciones rápidas y precisas para sacar ventaja de sus rivales. Una de las
principales tareas a desarrollar en aquél entonces, era un sistemas de alta precisión para
bombardeos y manejo de datos complejos de balistica, por lo que el Ejercito de Estados
Pág 192 de 254
Unidos encargo el diseño de ENIAC en los primeros años de la Segunda Guerra Mundial y
para el 5 de Junio de 1943 se firmaba la construccion secreta del computador por la
Escuela Moore de Ingeniería Eléctrica de la Universidad de Pennsylvania.
Originalmente, ENIAC fue conocida por el nombre clave “Proyecto PX”, liderado por John
Mauchly y John Presper Eckert, junto a un equipo de ingenieros que incluía a Robert F.
Shaw, Chuan Chu, Thomas Kite Sharpless, Arthur Burks, Harry Huskey, Jack Davis y Iredell
Eachus Jr, cada uno de ellos encargados de una función especifica del computador como:
acumulador, multiplicador, programación, funciones de tabla, lectura/impresión, entre
otras.
ENIAC finalmente fue terminada el 14 de Febrero de 1946, luego de una inversión de
USD$500.000 (USD$6 millones actuales) hecha por el Ejercito de Estados Unidos. La
computadora fue presentada al público en Julio del mismo año, donde fue catalogada por
los medios como un “cerebro gigante”. Para el mes de Julio, ENIAC estaba funcionando a
su máxima capacidad y sólo fue apagada 4 meses más tarde para una actualización de
memoria y transferencia hasta las instalaciones de Aberdeen Proving Ground en
Maryland. Un año más tarde su puesta en marcha, ENIAC estaba nuevamente en las
canchas y continuó operando ininterrumpidamente hasta las 11:45pm del 2 de Octubre de
1955.
Descripción
Los números detrás de ENIAC son bastante grotescos, pero antes de ir con ellos debemos
recordar que ésta computadora era modular, es decir, estaba compuesta por distintos
componentes separados entre sí y que cumplían con distintas funciones; Veinte de
estos módulos eran acumuladores, los que se encargaban de sumar, restar y almacenar
hasta un número decimal de 10 dígitos. Los datos viajaban en buses de propósito general -
llamados trays- a través de todos los componentes, los que debían priorizar las acciones
en: enviar y recibir números, computar, salvar la respuesta, y desatar la
siguiente operación.
Sin embargo, lo más llamativo de ENIAC era su impresionante tamaño:
Pág 193 de 254
• Peso: 27 toneladas • Tamaño: 2.6 m x 0.9 m x 24 m • Espacio: 63 metros cuadrados
Si el tamaño no te sorprende, tal vez la complejidad de su construcción lo haga:
• 17.468 válvulas electrónicas • 6.000 interruptores • 7.200 diodos de cristal • 1.500 relés • 70.000 transistores • 10.000 capacitores • 5 millones de uniones soldadas • 200.000 W de consumo
Recordemos que ENIAC era capaz de almacenar un número con máximo de 10 dígitos,
para ello utilizaba contadores de anillo de 10 posiciones, cada uno de estos utilizaba
36 válvulas electrónicas y 10 de ellos realizaban el flip-flop en el anillo. La capacidad de
realizar operaciones simples no escapaba del asombro en aquella época, gracias a los 20
Pág 194 de 254
acumuladores, ENIAC era capaz de realizar 5.000 sumas o 300 multiplicaciones en tan sólo
1 segundo, y calcular la potencia 5.000 de un número de hasta 5 cifras en tan sólo 1,5
segundos. Otras operaciones que era capaz de realizar ENIAC era la resta, division y
extraer raices cuadradas.
Uno de los objetivos de diseño de ENIAC, era hacerla totalmente electrónica para obtener
mayor velocidad. El producto final cumplió el objetivo, porque sólo un
elemento mecánico quedó presente, se trataba del lector de tarjetas perforadas de IBM, y
que se encontraba fuera del sistema de cálculo como tal. Las tarjetas de
IBM permitían ingresar datos a la computadora como también imprimirlos.
Máquinas de la época
Podemos decir que el inicio de la computación moderna comenzó en los años 30, con una
serie de máquinas de cómputo mecánicas/electrónicas bastante limitadas en cuanto a
la programación y finalidad. Antes del desarrollo de éste primitivo hardware, la gente
debía hacer los cálculos a mano y sólo recibían algo de ayuda de máquinas mecánicas
(análogas) a las que podríamos llamar las primeras calculadoras.
Zuse Z3 (Alemania): Fue creada por Konrad Zuse en 1939 y tiene el mérito de ser la
primera computadora digital programable y de propósito general, curiosamente, en
la mayoría de los libros de historia se le atribuye a ENIAC el título de la primera
computadora programable, los motivos son totalmente discutibles, por un lado, Z3
realmente fue la primera computadora parcialmente programable, pero programable al
fin y al cabo. ENIAC por su parte, fue la primera computadora electrónica totalmente
programable. ¿Se entiende que la historia la escriben los ganadores?, en este caso Estados
Unidos y no la Alemania Nazi.
Pág 195 de 254
Replica de Zuse Z3
La lógica detrás de los cálculos de Z3 era binaria de punto flotante, y accidentalmente se
descubrió en 1998 que tenía Turing Completo. Lamentablemente, la vida de Z3 fue muy
precoz, sólo se conoce una presentación en público en Mayo de 1941, para luego ser
destruida en el bombardeo a Berlin de Diciembre de 1943, aunque una replica se conserva
en el Museo de Munich.
Atanasoff-Berry Computer o ABC (Estados Unidos): Mostrada al público en el verano de
1941, fue el primer computador electrónico de la historia, poseía una lógica binaria
y válvulas electrónicas, pero no era de propósito general y tampoco programable,
su misión era simplemente resolver sistemas de ecuaciones lineales.
Colossus Mark 1 y 2 (Inglaterra): Diseñada por Tommy Flowers fue una de las primeras
computadoras totalmente electrónicas junto a ENIAC, su lógica matemática estaba basada
en binario y era usada para el criptoanálisis, específicamente su misión era interceptar y
descifrar las comunicaciones nazis. Fueron destruidas en 1945 para mantener
el secretísimo, sólo en 1970 se supo de su existencia.
Pág 196 de 254
¡Cuidado!, mujeres programando
Controlar ENIAC no era algo trivial, se trataba de una máquina de 30 toneladas y varios
paneles (o módulos) que abarcaban toda una habitación, imaginen como se programaba
en tremenda máquina… no, no usaban teclados gigantes, todo se resumía a unir cables
entre los distintos componentes que formaban el primer computador programable
electrónico.
ENIAC estaba conectada por más de 1.500 relés, los que conectaba pulsos eléctricos
emitidos por las unidades del sistema, una de ellas era denominada la “unidad cíclica” que
se encargaba de los pulsos básicos, otras unidades se encargaban de repetir los pulsos,
acumular números y realizar el cálculo. La programación de ENIAC estaba a cargo de
mujeres (simples operarias en aquella época), quienes debían tomar un problema y
mapear la solución en un lenguaje comprensible para la máquina. Programar los ciclos,
estructuras y subrutinas era una tarea compleja que podía llevar un largo tiempo
planificarlas en papel, y varias semanas en aplicarla en la máquina al mover los cables y
conectarlos con ciertas entradas/salidas de las unidades. Luego de que
la programación estuviera lista, venía el periodo de verificación o debugeo.
Pág 197 de 254
Betty Snyder Holberton, Jean Jennings Bartik, Kathleen McNulty Mauchly Antonelli,
Marlyn Wescoff Meltzer, Ruth Lichterman Teitelbaum y Frances Bilas Spence, sentaron las
bases para una programación sencilla y accecible a todos, fueron las encargadas de crear
complejos set de funciones, aplicaciones de software y clases, pero nunca se les otorgó el
merecido reconocimiento, incluso en la década de los 80 se pensaba que las mujeres
que aparecían en el registro fotográfico de ENIAC eran simples “modelos” sin
ninguna relación con la máquina.
Sin embargo, también existe otro personaje importante detrás de la programación de
ENIAC, su nombre es Jon Von Neumann, matemático que estuvo involucrado en el primer
año de construccion de la máquina. Aunque ENIAC era un proyecto financiado e
impulsado por el Laboratorio Balístico del Ejercito, el Laboratorio de Los Alamos -donde se
trabajaba en simulaciones de la bomba de hidrogeno- se vio involucrado directamente con
la computadora, participando de la definición de un sistema lógico basado en la ideas
del matemático húngaro y que es conocido como la Arquitectura Von Neumann.
Pág 198 de 254
Eventualmente, el Laboratorio de Los Alamos ejecutó en ENIAC las primeras pruebas
de simulación sobre la bomba de hidrógeno (o atómica), alcanzando más de un millón de
entradas y salidas reflejadas en tarjetas perforadas.
Conclusión
La primera computadora electrónica programable, no sólo marca el comienzo de
la computación tal y como la conocemos -por su arquitectura, componentes electrónicos y
modelo de programación- sino también nos enseña como las motivaciones bélicas llevan a
grandes mentes a desarrollar este tipo de máquinas que eran muy avanzadas para la
época.
Aunque el objetivo original de ENIAC se cumplió a cabalidad: calculó varios bombardeos,
incluso contribuyo al desarrollo de la bomba atómica, lo que puso fin a la Segunda Guerra
Mundial y a Estados Unidos a la vanguardia de la tecnología, hoy su evolución nos permite
disponer de varios dispositivos de cómputo en nuestros hogares
para propósitos de diversión o aprendizaje, también ha permitido que la humanidad
avance en otras materias de importancia como la ciencia o medicina y que distan de la
finalidad inicial de ésta computadora.
Pág 199 de 254
(165) La compra de ATI por AMD – Parte I: Dificultades
iniciales Por David Sarmiento Portocarrero
Han pasado exactamente 50 meses desde que AMD adquirió a ATI, compra que
actualmente se considera una de las mejores decisiones tomadas por AMD; pero fue una
decisión bastante riesgosa en su momento y que llevó a AMD a uno de los peores
momentos en su historia, en este artículo detallaremos las distintas etapas de esta fusión
AMD/ATI, una de las más sonadas adquisiciones de la industria.
Antecedentes
A inicios de julio del 2006 (3 semanas antes del lanzamiento de los Core 2) se desvelaba el
nuevo proyecto Larrabee de Intel, con el cual ofrecería múltiples mini núcleos x86
enfocados a cálculos de gran paralelismo para el mercado HPC (proyecto que en la
actualidad es una realidad: CGPU Knights Corner); y con el cual consolidaría su posición
como líder en todos los aspectos de procesamiento, así como expandiría el alcance de su
concepto de plataforma a mercados distintos al mercado de consumo… mercado en el
cual sus soluciones chipsets, gráficas integradas (Extreme Graphics), lan (Pro
100/1000/wireless) junto a sus populares microprocesadores habían demostrado ser una
poderosa combinación, llevando a Intel a una posición de mercado mayor a la que había
tenido hasta ese entonces. Sus próximos proyectos buscaban hacer lo mi
Pág 200 de 254
Opciones de AMD
AMD la estaba pasando mal, Core 2 Duo de Intel fue un CPU con un rendimiento
sobresaliente, y acompañado de un bajo consumo, y con el cual Intel fortaleció su
presencia en el mercado desktop y portátil, y AMD no poseía nada con que contrarrestar
el fuerte argumento de ventas en que se habían convertido las plataformas de Intel
(conjunto CPU+chipset+gráficas+lan todo de una misma marca). Si bien AMD poseía
chipsets propios (pero no IGPs), estos no alcanzaban el rendimiento ni características de
los chipsets de ATI, Broadcom, Nvidia, SiS, Uli/Ali, y VIA compatibles con sus CPU (sockets
462, 754, 939 y AM2); ni tampoco tenía nada con que competir ante el anunciado
Larrabee en el mercado profesional. Una situación muy complicada para AMD.
Nvidia era la empresa que tenía mayor participación entre los chipsets para los CPU AMD,
sus chipsets/IGP Nforce mantenían el 80% de las ventas, también sus recientes GPU
Geforce 6 y 7 gozaban de gran popularidad; debido a ello cuentan los rumores que Nvidia
fue la primera opción de compra que consideró AMD a fin de aspirar a una plataforma
completa y competir ante los futuros proyectos de Intel en el mercado profesional (la
línea de GPUs Nvidia Quadro tenía también una fuerte presencia en dicho sector), pero
ello no se concretó.
Otras opciones de AMD pasaban por ATI (la 2º competidora en el mercado gráfico), Ali/Uli
(poseían buenos chipsets, pero en esas fechas ya había sido adquirida por Nvidia), SiS
(dueña de XGI y fabricantes de chipsets e IGPs de bajo consumo), y VIA (dueña de la
división S3 Graphics, pero esta empresa ya poseía una plataforma completa: CPUs,
chipsets, IGPs, GPUs, Lan, Sonido, USB).
Pág 201 de 254
ATI All in Wonder X1900, la última All in Wonder lanzada por ATI
Entre sus otras opciones, ATI era la que más se ajustaba a las necesidades de AMD, por
poseer una fuerte división gráfica tanto en el mercado de consumo (Radeon) como en el
profesional (FireGL), mientras que las demás opciones no tenían participación en las
gráficas de gamas altas ni para uso profesional… Otro detalle interesante era el reciente
cómputo GPGPU, estrenado por ATI en sus GPU Radeon X1800/1900 bajo el nombre de
Brook+ (1 año y 2 meses antes de que CUDA de Nvidia hiciese su aparición); es decir, un
arma contra el proyecto Larrabee de Intel (Brook+ posteriormente evolucionó en Close To
Metal y finalmente en el actual Stream). Otros beneficios eran que Microsoft usaba los
GPU de ATI en su consola Xbox 360, con ello tenia ventas aseguradas de GPUs por varios
años; además ATI era el proveedor de gráficas para la plataforma Mac de Apple.
Pág 202 de 254
AMD compra ATI
El 24 de julio del 2006 AMD anuncia oficialmente la compra de ATI, por un monto de $
5400 millones, una cifra superior a los $ 4400 que valía AMD; compra que la dejaba en una
delicada posición financiera debido a los préstamos a los que tuvo que recurrir para poder
realizarla; también esta compra fue hecha en un momento poco propicio: dentro de 3 días
Intel lanzaría sus poderosos Core 2 Duo, ATI hacia 9 meses había lanzado sus Radeon
X1000 Series (AMD casi no obtuvo beneficios económicos por dichos GPU) y el desarrollo
de su próxima generación (Radeon HD 2000 Series) se encontraba retrasado.
Pero esta compra desveló los planes a futuro que había hecho AMD, pues junto con ella
patentó una tecnología llamada unidad CPU y gráfica con L3 compartido, es decir lo que
ahora conocemos como Fusion, además obtuvo acceso a otros mercados como el de chips
DTV (procesadores ATI Xilleon en los que la propia ATI basó su tecnología AVIVO y
posteriormente AMD su tecnología UVD); con esta compra AMD también obtendría una
plataforma propia, pero ello sería algo a largo plazo, pues los chipsets/IGP existentes de
ATI, aún tenían que evolucionar para consolidarse junto a los CPU de AMD como una
plataforma.
Consecuencias
La situación financiera de AMD había quedado bastante debilitada con esta compra, las
cosas no podían más que empeorar en los meses siguientes:
Pág 203 de 254
Intel Core 2 Series: Más peligrosos de lo esperado
3 días después de la compra, Intel lanza sus CPU Core 2 Duo, y con ellos recupera la
corona del desempeño, consumo y costo de fabricación. Ante ellos AMD no tuvo otro
remedio que competir con precios económicos, y las cosas no pudieron ponérseles peor
pues 4 meses después Intel lanza los Core 2 Quad, CPUs ante los cuales AMD no pudo
competir hasta después de 1 año.
Intel retira a ATI la licencia para fabricar chipsets para sus CPU
ATI antes de ser adquirida por AMD, mantenía buenas relaciones con Intel, y ante los
poderosos IGP Nforce de Nvidia para la plataforma AMD, ATI se había convertido en el
equivalente para Intel, desarrollando chipsets e IGP con excelentes prestaciones, e incluso
siendo algunos de ellos usados en mainboards que Intel vendía con su marca (D101GGC y
D102GGC2), Intel al enterarse de la compra le retira la licencia, y realiza acuerdos con SiS,
la que pasa a reemplazar la posición que tenía ATI (Intel ofrece algunas mainboards con
chipsets e IGP de SiS), además le da acceso a Nvidia al suculento mercado de IGPs para su
popular plataforma LGA 775, así como también a su plataforma para portátiles (antes de
ello Nvidia únicamente podía fabricar chipsets no IGP y SLI).
Pág 204 de 254
Abit Fatal1ty F-I90HD una de las pocas mainboards basadas en el IGP AMD Radeon Xpress X1250 (el equivalente del 690G para la plataforma Intel socket LGA 775)
Esta medida de Intel tuvo mayor repercución de lo esperado, pues desencadenó meses
después, que Apple abandonara los GPUs de ATI, y se decantara por los GPUs e IGPs de
Nvidia.
Pág 205 de 254
Nvidia: El mayor aliado de AMD se convierte en uno de sus mayores rivales
Las buenas relaciones que mantenían ambas empresas se terminaron, Nvidia al tener
licencia a los sockets de Intel dio mayor prioridad al desarrollo de chipsets e IGPs para las
plataformas desktop y portátiles de Intel, y este en definitiva era un mercado mucho más
suculento que el de los chipsets para la plataforma AMD, Nvidia también incrementó su
competitividad en el sector gráfico lanzando con mucha anticipación sus poderosos GPU
Geforce 8000 Series (Noviembre del 2006), a tan sólo 3 meses de la compra de ATI por
AMD, la cual no tuvo los recursos para reaccionar ante ellas hasta dentro de medio año.
ATI Radeon HD 2000 Series: El primer tropiezo
El 14 de mayo del 2007, AMD lanza sus GPU Radeon HD 2000 Series (14 meses después de
que compró ATI, y 6 meses después de que Nvidia lanzara las Geforce 8 Series), y a pesar
del rendimiento en bruto que ofrecía su nueva arquitectura híbrida (SIMD+VLIW) y el bus
de 512bits de sus modelos de gama alta (Radeon HD 2900 Pro y XT), no pudo igualar el
rendimiento de los GPU de Nvidia, recibiendo una fría acogida. Nuevamente AMD recurrió
a recortar los precios para mantenerse competitiva. Irónicamente su gama media (Radeon
HD 2600 y sobretodo las HD 2400) gozaron de buena popularidad entre los usuarios y
OEMs debido a su bajo consumo (20W la HD 2400 Pro y 25W la HD 2400 XT frente a los
40W de las Geforce 8300 y 8400 GS). En el aspecto profesional introdujo con estos GPU la
nueva API GPGPU Close to Metal.
AMD Phenom: Más problemas para AMD
Noviembre del 2007, 1 año y 4 meses luego de la compra, AMD lanza sus CPU Phenom X4,
los que si bien son más competitivos ante los Core 2 Quad que los anteriores K8, no
consiguen la corona del rendimiento, y al poco tiempo se descube el error en los buffers
TLB del CPU, lo que complica aún más las cosas para AMD, pues la prensa no tuvo
compasión con ellos, AMD lanzó un microcódigo que corregía el problema, pero a costa de
perder entre 10 a 13% de rendimiento; AMD respondió a este problema con una serie de
recortes de precios los que ayudaron a mantener competitivos dichos microprocesadores,
pero estos no resultaron rentables para AMD, meses después lanza una nueva revisión B3
con el problema corregido.
Pág 206 de 254
ATI Radeon HD 3000 Series: Mejor, pero no suficiente
Lanzadas en noviembre del 2007, esta serie de GPUs si bien no constituyeron una drástica
mejora por sobre las previas HD 2000 Series (80 y 65nm), el nuevo proceso de
manufactura de 55nm y algunas mejoras a la arquitectura permitió que estos GPU fueran
más pequeños y tuvieran una buena relación de consumo/rendimiento, lo que les valió
sean más atractivas para los consumidores. En el aspecto profesional introdujeron la
versión evolucionada de Close to Metal llamada Stream.
ATI Radeon HD 3870X2 en CrossFire
AMD pierde valor bursátil: Momento crítico
Diciembre del 2007, debido al poco éxito de las Radeon HD 2000 Series junto a los
problemas de los primeros Phenom, AMD cae en la bolsa de valores llegando a un valor de
$ 5000 millones (en fechas de la compra y contando los prestamos AMD valía $9800
millones), es decir menos de lo que pagó por ATI. Una situación muy difícil para AMD.
Conclusiones
2 años muy duros para AMD, los malos pronósticos de los analistas parecían cumplirse,
pero AMD no se rendiría. No se pierdan la 2º parte de este artículo el día de mañana.
Pág 207 de 254
(172) La compra de ATI por AMD – Parte II: El resurgir de
AMD Por David Sarmiento Portocarrero
Luego de una de las temporadas más difíciles que le tocó pasar a AMD; lentamente los
vientos empiezan a soplar en otra dirección. Aquí la 2º y última parte de este artículo
dedicado a la compra de ATI por AMD.
AMD 700 Series Chipsets/IGP: Un acierto
En noviembre del 2007 AMD lanzó sus primeros chipsets desarrollados expresamente por
ellos y para su plataforma: los AMD 700 Series, chipsets que marcaron una diferencia
frente a sus anteriores chips (los que en realidad eran viejos chipsets de ATI renombrados
con la marca de AMD), tanto en términos de rendimiento como de estabilidad;
constituyéndose por fin en una de las más populares opciones.
El 4 de marzo del 2008 AMD lanza su 1º generación de IGPs desarrollada completamente
por ellos (en febrero del 2007 lanzó los IGP 690 Series, pero estos eran una versión
evolucionada de los IGP ATI Xpress 200) la que combinaba un núcleo gráfico basado en el
GPU Radeon HD 2400 (DirectX 10) con los exitosos chipsets AMD 700 Series, dando
nacimiento a la plataforma con la que AMD había soñado poseer desde un principio,
Pág 208 de 254
ganando popularidad en los sectores desktop y portátil. Y desplazando a los chipsets de
Nvidia (los que posteriormente desaparecieron del mercado).
ATI Radeon HD 4000 Series: Un fuerte competidor
El 25 de junio del 2008, AMD lanzó sus Radeon HD 4000 Series (9 días después de que
Nvidia lanzara sus Geforce 200 Series); GPUs que marcaron el regreso triunfal de AMD a
las grandes ligas, con un rendimiento muy cercano a los GPU de Nvidia, pero a un costo
muy inferior (forzó a Nvidia a reducir drásticamente sus precios), esta familia de GPUs se
ganó la preferencia de los consumidores. En el campo profesional introdujo Stream 2.0 y
apoyó al API GPGPU estándar OpenCL.
Tiempos de cambio: Adiós Hector Ruiz
El 17 de julio del 2008 Hector Ruiz luego de 8 años como CEO de AMD deja el cargo; 4 días
después AMD anuncia a su nuevo CEO Dirk Meyer, quien casi de inmediato sacrifica a una
de las áreas por la que muchos recordaban a ATI, en pos de enfocar sus esfuerzos en sus 3
mayores divisiones (CPUs, GPUs y chipsets).
Pág 209 de 254
AMD vende su división Digital TV: Adios TV Wonder y All in Wonder
El 25 de agosto del 2008 AMD vende su división DTV a Broadcom por $192.8 millones, en
un esfuerzo por reducir costos. Su división DTV se encargaba de fabricar los chips Xilleon
usados en muchos TV y dispositivos de video (AVIVO y UVD son también tecnologías
derivadas de Xilleon), y los chips Theater (chips en los que se basaban las ATI TV Wonder y
ATI All in Wonder originando el final de dichos productos).
AMD All in Wonder HD, la única y última AMD All in Wonder, estaba basada en el GPU Radeon HD 3650
AMD Phenom II/Athlon II: CPUs competitivos
En febrero del 2009 AMD lanza Phenom II, la actual familia de CPUs que es la evolución
directa de los primeros Phenom, pero con mejoras enfocadas a mejorar su rendimiento y
consumo, permitiéndole ofrecer CPUs más rentables que los viejos Phenom originales.
Con estos CPU AMD empieza a recuperar terreno, pero de ninguna forma eran lo único
que AMD tenía planeado, junto a ellos llegaron sus nuevos chipsets 785 Series (basados en
el GPU Radeon HD 3430), los que mejoraban las capacidades gráficas de los anteriores
780g y 790gx.
ATI Radeon HD 5000 Series: 6 meses sin competencia
Lanzadas en setiembre del 2009, fueron los primeros GPU DirectX 11, y llegaron 6 meses
antes que los de su rival, este producto es el que mayores beneficios le ha reportado a
AMD, y con el que consiguió liderar en la participación del mercado de las GPU discretas.
Pág 210 de 254
En el campo profesional (FireSream y FirePro) ofrecen mayor potencia GPGPU y bajos
consumos (incluso soluciones fanless).
Apple nuevamente con gráficas ATI: La manzana vuelve a ser roja
Luego de cumplir casi 2 años usando gráficas e IGPs de Nvidia, Apple retorna a la lista de
clientes de la división ATI de AMD, anunciando el 14 de octubre del 2009 la adquisición de
2 meses completos de producción de GPUs ATI Radeon HD 4850, en los siguientes meses
Apple adopto otras GPUs de ATI como las Radeon HD 4650, posteriormente realizó una
nueva compra masiva de GPUs Radeon HD 5750, y hace poco incorporó de serie los GPUs
de ATI en sus nuevas iMac y Mac Pro.
Arreglo extrajudicial con Intel: Un camino con menos baches
Luego de un largo proceso judicial, el 12 de noviembre del 2009 Intel y AMD arreglan sus
diferencias por un monto de $1250 millones el cual Intel abona a AMD por daños y
perjuicios, Intel también abandona algunas de sus prácticas monopólicas; y muchas más
de ellas llegan a su fin en un posterior nuevo arreglo extrajudicial entre Intel y la FTC.
AMD 800 Series Chipsets/IGP: Reforzando la plataforma
El 24 de febrero de este año AMD lanzó sus chipsets AMD 800 Series, con los cuales
fortalece su plataforma para este año, ofreciendo mayor potencia gráfica y mayor
rendimiento.
La “Fusion”: Adiós ATI
A pesar de los pronósticos negativos de muchos analistas ante la compra de ATI por AMD
(y vaya que casi tuvieron razón); el tiempo ha demostrado que si bien fue una decisión
arriesgada y realizada quizá no en el mejor momento (una posterior compra en los
tiempos de las HD 2000 con una ATI debilitada les hubiera sido más económica, o quién
sabe si para ese entonces hubiese aparecido otro interesado por ATI como la propia
Nvidia o Intel, nunca lo sabremos). Al final lo que importa son los resultados, y con ATI
AMD ganó terreno tanto en el campo doméstico como en el sector profesional.
Para AMD, ATI cumplió su cometido y terminó por absorber la marca y consolidar a ambas
con el nombre de AMD. Esta decisión obedece a la posición que ganó gracias a ATI, y a que
los planes que AMD tuvo con la compra de ATI (la fusión CPU+GPU, una plataforma
Pág 211 de 254
propia, y una poderosa arma con la cual competir contra Intel en el mercado HPC) son
ahora una realidad (recientemente apreciamos demostraciones de sus CPU Fusion).
Panorama actual
AMD ha sabido mantenerse ante las adversidades, siendo una empresa que ha sido
golpeada muchas veces pero ha sabido salir lo suficientemente librada como para poder
seguir compitiendo, el haber comprado a ATI quizá significó la unión de las 2 segundas
mejores empresas en sus respectivos rubros, pero ello también significó la unión de 2
empresas que sabían lidiar con las adversidades y salir adelante. Si bien el panorama
actual de AMD está lejos de lucir “de ensueño”, no nos quedan dudas de que continuará
representando una gran alternativa para los consumidores.
Que viene después
Prácticamente AMD ha revelado todo lo que podemos esperar de ella: Fusion (Bobcat,
Zacate, Ontario, Llano y Orochi), Bulldozer (Zambezi, Interlagos y Valencia), y sus GPU
Pág 212 de 254
Radeon HD 6000 Series (Northern Islands), y en casi todos ellos vemos que tienen algo de
ATI en su interior.
¿Qué hubiera pasado si AMD no compraba a ATI?
Algunas veces leí esa bizarra serie de comics: “What if?” y viendo lo que ha acontecido en
la industria podríamos hacer una predicción de lo que hubiera sucedido si AMD no
hubiese comprado a ATI. Tanto Phenom de AMD como las HD 2000 de ATI eran productos
que tenían un desarrollo bastante avanzado, por lo que no hubieran cambiado demasiado,
ni la forma como los recibió la industria, AMD se habría debilitado paulatinamente, y quizá
no hubiera podido financiar la compra de una empresa del calibre de ATI.
Que hubiera ocurrido con AMD
Por su parte AMD, hubiera dedicado sus recursos a salir del problema del TLB, por lo que
quizá habrían remediado ese problema con mayor prontitud, al no haber podido adquirir
a Nvidia ni a ATI, quizá se hubiese decantado por SiS (VIA sería algo poco probable pues ya
poseía plataforma completa) con la cual también hubiese conseguido su objetivo de una
plataforma completa, pero difícilmente incursionaría en el mercado de gráficas discretas
(Volari de XGI, la división gráfica de SiS, no podría haber competido ante las opciones de
ATI y Nvidia de gamas media y alta, quizá si en la gama baja), por lo que es muy poco
probable que AMD hubiese desarrollado algún IGP tan exitoso como el 690G y 780G, pero
si soluciones de bajo consumo las que hubieran tenido popularidad en el sector portátil;
SiS también posee tecnologías de reproducción de videos acelerados por hardware, por lo
que quizá AMD ofrecería IGPs similares a los que ofrece Intel, con un rendimiento 3D por
debajo de las opciones de ATI y Nvidia, pero con buenas características multimedia en
comparación con las ofertas de Intel. SiS posee también divisiones de fabricación de
módulos de memoria, chips de sonido, lan, wireless, por lo que es probable que AMD las
Pág 213 de 254
hubiese usado en su plataforma. Fusion hubiese existido de todos modos, pero quizá no
con la potencia gráfica que ofrece la versión que conocemos.
La actual AMD tendría una plataforma más débil en gráficos 3D, pero más completa en
cuanto a conectividad (con chips lan y wireless propios) y multimedia (chips de audio
propios), pero con pocas posibilidades en el futuro mercado HPC (tendría que verse
forzada a una alianza con ATI o Nvidia o quizá ambas a fin de competir ante Intel Xeon +
Knights Corner).
Que hubiera ocurrido con ATI
Para ATI, el tropezón sufrido con las HD 2000 no hubiera sido de gran impacto, teniendo
en sus manos el suculento mercado de chipsets e IGP para la plataforma Intel;
690G/X1250 hubiese sido vendido sin inconvenientes para la plataforma Intel, y hubiera
gozado de muy superiores ventas que las del 690G que conocemos, por lo que el éxito de
sus futuros IGP basados en las HD 2000 quizá hubiera amenazado demasiado el mercado
de chipsets Intel; lo más probable es que Intel le hubiese hecho lo mismo que a Nvidia
quitándole la licencia para sus sockets paulatinamente.
ATI no habría dejado de lado al GPGPU (Brook+) que estrenó con sus Radeon X1000 Series
(sin tener x86 sería su único camino), por lo que es muy probable que a esas alturas
estuviese tan asentado como CUDA (el cual salió más de un año después que Brook+), al
no haberse roto las relaciones que mantenían Intel y ATI sobre el desarrollo de Havok
acelerado por GPU, es probable que hubiese salido antes que PhysX o en fechas muy
cercanas. ATI Tampoco habría renunciado a su división Digital TV (Broadcom ofrece chips
basados en Xilleon que adicionan la capacidad para reproducir video y flash acelerado por
hardware en las plataformas Atom de Intel); por lo que hubiera ofrecido también IGPs
para Atom, y también chips aceleradores similares basados en sus chips ATI Xilleon; al no
poseer x86, lo más probable es que hubiese tomado el mismo camino que Nvidia
aliándose con ARM, y fortaleciendo su plataforma GPGPU.
Que hubiera ocurrido con Nvidia
En cuanto a Nvidia, quizá nunca hubiese tenido acceso a la fabricación de IGPs para la
plataforma Intel, por lo que enfocaría sus esfuerzos en la plataforma AMD, con la que si
bien no mantendría una rivalidad en gráficas discretas de gamas medias y altas, si la
habría en gamas bajas, chipsets e IGPs, sabiendo que en temas de consumo los chipsets
de Nvidia nunca pudieron competir ante los de ATI, y sabiendo que en la plataforma Intel,
los chipsets de SiS tenían el menor consumo (inferior que el de los chipsets de Intel y ATI),
Pág 214 de 254
es de suponer que también superaría a Nvidia en dicho punto, pero no en rendimiento;
por lo que veríamos una situación muy similar a la de Nvidia en la plataforma Intel antes
de que le quitara la licencia para sus sockets. Quizá el camino evolutivo hubiese sido casi
el mismo con AMD integrando el IGP y en Northbridge en sus CPU, haciendo menos
rentable el negocio de los chipsets e IGPs.
Notas Finales
Ha sido un muy largo, difícil, y lleno de sacrificios el camino el que ha tenido que recorrer
AMD para llegar a ser lo que es en la actualidad, su futuro ya no suena tan poco
promisorio como en fechas cuando adquirió a ATI, actualmente se ve a una AMD más
sólida que nunca, y quien sabe que rumbos tome en el futuro; nuevos vientos de cambio
suenan en la industria del hardware ante los rumores de una posible compra que podría
marcar un hito similar al que marcó la compra de ATI, pues de ser ciertos AMD (o Nvidia)
podría terminar siendo adquirida por el gigante Oracle.
Pág 215 de 254
(179) El primer CPU dual-core x86 Por Juan Pablo Oyanedel
Hoy en día ya estamos acostumbrados a tener chips con más de un núcleo físico tanto en
PCs de escritorio como en notebooks, siendo casi inconcebible para alguien con más de
$30 dólares en la billetera comprar algo que sea single-core. Pero este cambio en su
momento fue tan significante como sucedió cuando se rompió la barrera psicológica de
1GHz en una CPU, y sin duda la apuesta casi simultánea que hicieron AMD e Intel para
mover el mercado de consumidores hacia soluciones doble núcleo en el pasado rindió sus
frutos en la actualidad, siendo éstos ya adoptados por toda la industria con gran éxito
económico.
Así, se cambió el paradigma de “mientras más frecuencia, mejor”, convirtiéndolo en
“mientras más núcleos, mejor”. Por su puesto, nosotros seguimos creyendo que “mientras
mejor arquitectura, mayor frecuencia y más núcleos, mejor”.
¿Por qué multinúcleo?
Antes de entrar a detallar al chip pionero en los desktops de los usuarios comunes y
corrientes, vale preguntarse el porqué de los fabricantes por optar hacia este camino. En
una industria cuya carrera consistía básicamente por entregar la mayor frecuencia posible,
tanto Intel como AMD e IBM se dieron cuenta de si se continuaba con el desarrollo de
chips bajo este modelo, el consumo energético se haría insostenible e inaceptablemente
alto. Se comenzó a pensar con mayor seriedad entonces en el gasto de las CPUs, pero al
mismo tiempo había que seguir aumentando el rendimiento año a año y quedaban pocas
opciones para mantener un ritmo decente en el acelerado mercado de la computación.
Pág 216 de 254
Es mejor que la información fluya por dos ríos que por uno solo
Se encontró entonces que la mejor opción para seguir escalando en rendimiento y no
llegar a frecuencias alocadas, como los 10GHz que Intel se propuso con la
microarquitectura NetBurst, era irse por un circuito integrado con dos procesadores
individuales, o bien tomar dos die y ponerlos en un solo chip, como lo haría Intel.
Pese a aquello, la inclusión de chips de varios núcleos introdujo un problema de software
que hacía a todos preguntarse si las aplicaciones podrían hacer un uso eficiente del
hardware a disposición, requiriendo además ajustes en los sistemas operativos para
entregar soporte a estas nuevas CPUs. Porque el código estaba hecho para ejecutarse en
un sólo procesador, y continuaría funcionando de la misma manera bajo un dual-core, por
lo tanto gran parte del potencial quedaría desperdiciado y además el rendimiento bajaría
respecto a la competencia debido a que la gracia de estos chips es su rendimiento en
conjunto para llevar a cabo múltiples tareas en menor tiempo, no correr de la forma más
rápida posible un único hilo de ejecución.
Actualmente aún se está trabajando en solucionar esta dificultad de los programas para
que efectivamente puedan ocupar de manera simultánea dos o más núcleos, tanto en el
soporte por parte de los sistemas operativos como en nuevas tecnologías presentes en
ellos, poniendo como ejemplo lo de Apple con Grand Central Dispatch en su OS Snow
Leopard, que reparte la carga de cualquier aplicación a un bajo nivel hacia los núcleos
disponibles.
Citando más situaciones, la compañía de videojuegos Valve adoptó el soporte en su motor
gráfico Source y Crytek hizo lo mismo con CryEngine. Ejemplos como estos hay miles, y lo
Pág 217 de 254
importante es que ya existe una maduración por parte de la industria en este tópico y una
aceptación total hacia el multinúcleo.
Los inicios de una nueva era
Tan difícil como responder quién fue primero, si el huevo
o la gallina, es encontrar efectivamente al primer
exponente de los dual-core en el mundo. Así, lo mejor es
entonces dedicarse al primer procesador que llegó al
mercado de consumidores masivo, es decir, al desktop de
todo quien quisiera usarlo para propósitos generales y no
súpercomputadoras de universidad o servidores de
Microsoft, teniendo que viajar a los laboratorios más
recónditos de IBM para conseguir una muestra.
En tal caso, y pese a que AMD mostró al público el primer
Opteron de esta clase corriendo un servidor Hewlett-
Packard Proliant DL585 durante agosto del año 2004,
sería en el 2005 cuando Intel aterrizara con el Pentium
Extreme Edition 840, adelantándose por semanas al
Athlon 64 X2 de AMD y estrenando en las tiendas el
primer doble núcleo accesible y enfocado al área de
consumidores, cambiando para siempre el pensamiento
acerca de la CPUs.
Pero si queremos ir más allá y en rigor decir cuál fue el primerísimo, no hay que olvidar
entonces al POWER4 de IBM, que se podía encontrar dentro de súpercomputadoras y
grandes servidores en el año 2001. Efectivamente eran dos núcleos en un solo die, con
una frecuencia de 1.1GHz y 1.3GHz, además de un cache L2 unificado pero dividido en tres
partes iguales. Pero sigamos con el Pentium y los elementos que finalmente hicieron de
éste la primera piedra en el mercado masivo para la transformación hacia una vida con
muchos núcleos.
Pentium Extreme Edition 840
En respuesta a lo que AMD hacía en el mercado de los servidores con los Opteron, y con la
clara intención de adelantarse al inminente lanzamiento por parte de la compañía de un
chip dual-core para el mercado de los PCs convencionales, Intel mostró el Pentium
Extreme Edition 840, con nombre clave “Smithfield” y consistente en dos dies de un single
Pág 218 de 254
core empaquetados en un módulo multi-chip, o dicho de otra forma, dos núcleos de
Pentium 4 “Prescott” en una sola pieza de silicio. Sería AMD quien más tarde a través del
Athon 64 X2 realmente pusiera dos núcleos en el mismo die.
Haciendo su debut en abril del 2005, el Pentium EE 840 tenía una frecuencia de 3,2GHz, la
cual era algo modesta para la época, junto con soporte para la tecnología HyperThreading,
la misma usada hoy en día en la línea Core 2010 de Intel, permitiendo correr dos hilos de
procesamiento en un solo núcleo simultáneamente, creando otros dos núcleos
“virtuales”. Así, el 840 se mostraba como un quad-core, pero de mentira, porque ya
sabemos la historia del que realmente fue el primero en tener cuatro núcleos.
Cada uno de los cores tiene 1MB de cache L2 independiente a
bordo, compartiendo un bus frontal de 800MHz y fabricados
con un proceso de 90nm con 230 millones de transistores. Vale
mencionar que en ese entonces Intel ya tenía la costumbre de
ponerle el mismo precio de hoy a sus chips catalogados como
Extreme Edition, así que el costo de salida del Pentium EE 840
era de $999 dólares norteamericanos.
Acompañándolo vino también el chipset Intel 955X Express,
revelando consigo una cruda realidad: los procesadores dual-
core no serían soportados por chipsets anteriores. Es decir, renovación completa, ni una
actualización a la BIOS ni Jesús harían funcionar al 840 ni a ninguno en chipsets anteriores.
De todas formas, el chipset 955X ofrecía un mejor controlador de memoria con soporte
para hasta 8GB de RAM DDR2 en una configuración dual-channel corriendo hasta a
667MHz, subiendo desde los 533MHz de su predecesor el 925XE. Posteriormente, la línea
Pág 219 de 254
de chipsets 945 ofrecería soporte para CPUs doble núcleo a un precio menor, comenzando
la masificación de esta tecnología.
Características del Intel 955X Express Chipset
En cuanto al rendimiento del chip, fue el esperado para la época en escenarios donde el
multitasking o ejecución de múltiples tareas era necesario, brillando por sobre el anterior
Pentium 4 Extreme Edition de un núcleo corriendo a 3.73GHz, como se suponía que iba a
pasar.
Pág 220 de 254
Benckmarks al Pentium EE 840 contra el Pentium 4 EE de generación pasada, donde este último sobrepasa al dual-core en varias tareas
Sin embargo, y ejemplificando el problema de software antes mencionado, la baja
frecuencia le jugó una mala pasada el 840 frente a competidores con algo mayor a los
3.2GHz frente a aplicaciones que no sabían aprovechar los dos núcleos físicos vía
software. Tal fue el caso de los juegos, donde los gamers vieron que con el nuevo y
carísimo procesador Intel el rendimiento decreció en comparación a los 3.73GHz del
Pentium 4, realidad que incluso actualmente sucede regularmente y afecta a la hora de
decidir entre un hexa-core, quad-core o un dual-core con alta frecuencia.
Una historia repetida y sin final
Como muchos se habrán dado cuenta, Intel más tarde repetiría la fórmula de crear
procesadores multinúcleo poniendo varios dies bajo el mismo chip en lugar de usar uno
solo, como corresponde y como lo hace AMD, aunque siempre un paso más atrás
temporalmente. Sin embargo, y pese a la poca elegancia del método, los procesadores
que abren una nueva era en hardware y han venido apareciendo bajo la etiqueta de
Pág 221 de 254
Extreme Edition, desde el Pentium 840 al
Core i7 980X, siempre movieron la tierra
de la industria y en definitiva, marcaron,
marcan y quizás marcarán la tendencia de
lo que se viene en el ámbito de CPUs a
gran escala, como un “adelanto” a las
tecnologías del futuro por $999 dólares.
Y tal parece que Intel no le ha errado en su
pequeño juego de predicciones con los
Extreme Edition, logrando además
siempre el mejor rendimiento disponible en una CPU cuando llega la hora de lanzar algo
nuevo, probando nuevos paradigmas (como usar una menor frecuencia pero número
mayor de núcleos) y teniendo éxito en definir el curso que seguirá el rubro y la misma
Intel en los próximos años, porque nadie puede cuestionar el éxito de los procesadores
multinúcleo en el mercado, desde el 840 hasta el 980X, pasando por los Core 2 Duo y Core
2 Quad.
Pág 222 de 254
(186) Unidades de almacenamiento extraíble: Desde el
disquete al pendrive Por Francisco Bravo
Aquellos héroes de plástico
Es imposible no recordar con nostalgia y cariño a aquellos héroes de plástico, guardianes
de tantos 1’s y 0’s que luchaban a nuestro lado en aquellos difíciles momentos de entrega
de informes, respaldo de importantes documentos e incontables juegos (Prince of Persia y
¿Dónde está Carmen San Diego? se me vienen a la mente en este momento) o
simplemente el almacenar en sus entrañas aquellas pixelada foto “prohibida” que recién
habías conseguido con una escuálida conexión de 14,4 kbps luego de esperar varios
minutos a que terminara de descargar. Estoy hablando de los disquetes y su posterior
evolución, ya fuesen en su formato de 5,25″ o 3,5″, eran la forma de transportar la
información en las décadas de los ‘80 y ‘90. Las nuevas generaciones jamás van a
experimentar esa sensación de estar presenciando el umbral de los albores de la
informática, ni tampoco van a experimentar la frustración cuando llegado el momento de
tener que exponer darte cuenta que el archivo dentro del disquete estaba corrupto,
FUUUUU. En fin, sumando y restando creo que los que sí la vivimos fuimos muy
afortunados de cierta forma.
Si el disco duro tuvo su artículo especialmente dedicado a su historia y evolución, ¿por
qué no dedicarle unas cuantas líneas a sus hermanos menores de plástico? Partiremos con
los disquetes de 5,25″ y 3,5″, pasaremos por la olvidada unidad Zip de Iomega y los discos
magneto-óptico, los cuasi inmortales CD y DVD hasta llegar a los pendrives USB.
Pág 223 de 254
Disquete de 3,5" (1987)
El concepto que nació con el disquete de 8″
Todo partió el año 1971 cuando IBM comenzó la producción en masa (luego de comenzar
la investigación para el desarrollo del dispositivo en 1967) del que sería el padre de todos
los disquetes y el que marcaría el paso para la futura generación de unidades de
almacenamiento extraíble, el disquete de 8″, que en un principio tenía capacidad para
almacenar 81,6KB en 32 pistas; seis años más tarde lograba almacenar 1,2MB en 154
pistas. Nadie se imaginaba en ese entonces que 30 y tantos años después, por ejemplo, en
una memoria flash del porte de una estampilla (como una microSD) o un pendrive de
32GB cabrían más de 26 mil veces esa cantidad de información.
Pág 224 de 254
Disquete de IBM de 8" (1971)
El primer disquete de 5,25″, de esos que estoy seguro que muchos de los que están
leyendo estas líneas tuvieron alguna vez en sus manos con el típico sobre de papel para
proteger la abertura magnética, vio la luz del sol el año 1976 y era capaz de almacenar
prácticamente lo mismo que su primo del año ‘71, 89,6KB en 35 pistas. El salto viene
finalmente el año 1984 con el disquete de 5,25″ de cuádruple densidad que almacenaba
1,2MB.
Pág 225 de 254
Disquetes 5,25" (1978)
El disquete de 3,5″, el rey indiscutido de la familia, y que aún se siguen vendiendo
muchísimo en países como la India y que se niega a morir a pesar que Sony le aplicó
eutanasia, dio sus primeros pasos el año 1982 con una capacidad de 280KB, pero no fue
sino hasta 1987 que nació la iteración que daría en el clavo en la masificación con un
tamaño de 1,44MB, nacía el mítico disquete de Alta Densidad.
La influencia del disquete en nuestras vidas y en la evolución de los sistemas de
informática es innegable, basta darse cuenta cómo aún los desarrolladores de software al
día de hoy representan la función de guardado con un dibujo de un disquete de 3,5″. Sin
duda pasó a formar parte fundamental del subconsciente colectivo. Y al día de hoy, a
pesar que ya ningún fabricante lanza equipos con disqueteras incorporadas, aún tienen
una gran utilidad en ciertas tareas como el crear discos de arranque en caso de
emergencia en el sistema operativo, en el disco duro o un overclock mal hecho debido a
que la BIOS lo reconoce sin necesidad de driver alguno.
Pág 226 de 254
La efímera existencia de las unidades Zip Iomega
Unidad Iomega Zip 100MB (1994)
Un dispositivo que, aunque personalmente nunca tuve uno, sé que muchos usuarios acá sí
tuvieron, sobre todo los que tuvieron algún Apple Macintosh con una de estas unidades
incorporadas. Se trata de la unidad Iomega Zip, lanzaba en 1994 por Iomega en un intento
por reemplazar al disquete de 3,5″; podríamos decir que fue uno de los más fuertes
candidatos para la tarea, pero nunca lo logró.
La primera versión tenía una capacidad de 100MB, aunque más tarde saldrían versiones
de unos apetitosos, para la época, 250MB y 750MB. Paralelamente lanzaron el formato
JAZ, similar al anterior pero de 1GB de capacidad. Tanto el ZIP como el JAZ eran caros. Un
disco costaba casi lo mismo que el adaptador o drive externo en sí, y eso es mucho decir.
La masificación y caída de precios de las grabadoras y sus insumos CD-R y CD-RW, junto
con la también paulatina caída de precio del pendrive USB le dieron la estocada de muerte
a este muchacho que sólo quería hacerle la vida más fácil a los que se quejaban de la poca
capacidad y fiabilidad del disquete.
Pág 227 de 254
El disco magneto-óptico y el MiniDisc de Sony, dos caras de la misma moneda
¿Se acuerdan de los MiniDisk de Sony y sus reproductores de la época? Pues esos discos
eran del tipo magneto-óptico, también rival del disquete de 3,5″ y directo competidor del
Iomega Zip, de hecho éste último le robó una buena cuota de mercado.
Un disco magneto-óptico es en la práctica un disco óptico como lo es el CD, el DVD o el
Blu-ray, sin embargo, tiene una particularidad, tiene la capacidad de escribir y reescribir
los datos sobre sí mismo. Algunos podrán decir que el CD y DVD RW pueden hacer lo
mismo, pero no es lo mismo. El disco magneto-óptico graba la información de forma
Pág 228 de 254
magnética mediante un rayo láser y la lee como unidad óptica también mediante un láser.
Las capacidades más comunes fueron: 230MB, 640MB y 1,3GB.
La baja aceptación de este medio de almacenamiento no fue debido a que fuese un
sistema malo o poco confiable, sino que simplemente el tren CD/DVD le pasó por encima.
Para que se hagan una idea, una de las características de este medio es de hecho la
seguridad que provee para almacenar de forma segura, valga la redundancia, la
información. De partida no es posible borrar/modificar la información contenida mediante
un medio únicamente magnético, lo que los hace resistentes a este tipo de campos, a
diferencia de los disquetes. Los fabricantes aseguran que pueden almacenar datos por 30
años de forma segura. ¿Cuánto aguantaba un disquete bajo un uso normal pero sin
cuidarlo mucho? Ni un mes.
Por otro lado, una de las ventajas por sobre el CD/DVD es que unidades de grabación de
discos magneto-ópticos verifican la información después de escribirla, no así los primeros,
lo que lo hace un medio sumamente seguro. Pero la desventaja lógica de esto es que la
escritura demora tres veces más que los medios antes mencionados. Esto vuelve a
demostrar que no siempre lo mejor pasa a la historia, sino que lo que los intereses de las
grandes industrias dictan, sin importar si el medio logra almacenar la información de
forma segura o no.
Apogeo y decadencia del CD-ROM
CD-ROM
Pág 229 de 254
La llegada del CD supuso una pequeña revolución en lo que hasta entonces conocíamos
como almacenamiento portable. Ya no más cargar cajas y cajas de disquetes de un lado
para otro. Para serles honestos no recuerdo cuánto llegaron constando a nuestro país los
primeros CDs vírgenes (¿alguna idea entre los lectores?), pero ciertamente debe haber
sido una pequeña fortuna. Sí recuerdo que las grabadoras de CDs estaban por sobre los
CLP$200.000 algunas, las más baratas sus CLP$100.000. Ahora un grabador de CD/DVD
cuesta una ganga, es la evolución de la industria. Y para qué hablar de la velocidad de
grabación, con 2X a 4X eras afortunado si lograbas grabar un disco en menos de una hora
y eso si es que no fallaba la grabación entre medio.
Todos tenemos claros que el CD (y sus hermanos mayores) es un sistema de
almacenamiento bastante mediocre, ofrece nula verificación de escritura (sí, muchos
softwares lo hacen pero cuando se graba un CD-R y se encuentra una falla no es posible
sobrescribir el sector) y son muy delicados, cualquier maltrato puede provocarle una raya
condenando con ello a toda la información contenida a la muerte; pero como dijimos, los
intereses y la presión de la industria junto con la facilidad (cada vez mayor velocidad de
grabación) que se fue gestando a través de los años, fueron decidores.
¿Qué hubiese pasado si se llegaba a masificar el disco magneto-óptico, el cual tenía
capacidad igual o superior al CD? Ni idea, no soy adivino, pero ciertamente que otro gallo
cantaría y tendríamos nuestros datos mucho más seguros que el día de hoy con los
medios ópticos.
Pág 230 de 254
El rey que se niega a dejar el trono
DVD-RW
Y llegó el DVD. No creo que sea necesario explayarme mucho al respecto, todos sabemos
lo importante que fue la llegada del DVD grabable y las grabadoras a un precio
conveniente. Sus 4,7GB se convirtieron rápidamente en el medio de almacenamiento por
excelencia. Con la piratería en ciernes esto se hizo crítico, la facilidad de grabación de
grandes cantidades de datos y la copia 1:1 de las grandes producciones de la industria del
entretenimiento, películas, juegos, DVDs musicales, entre otros, jugaron un factor clave en
la masificación. Debe ser lejos el medio más odiado por la industria del entretenimiento.
Cuando el pendrive y las memorias flash salvaron al mundo
Pendrives USB
Pág 231 de 254
La llegada del pendrive marcó un punto de inflexión en la historia de los medios de
almacenamiento. La omnipresencia del puerto USB en cualquier computador del planeta
(y que tenga Windows XP o superior, Windows 98 requiere drivers para reconocer un
pendrive) y su gran durabilidad y resistencia al mal uso, lo ha hecho el medio elegido por
personas que desean transportar datos desde su casa a casa de algún amigo, a la
universidad o al mismo trabajo, o simplemente para almacenar diversos archivos de
importancia a modo de respaldo.
A pesar que un pendrive puede durar, todo esto en teoría, más de 20 años conservando la
información y ser escribible más de 1 millón de veces, los imponderables siempre pasan y
el pendrive no está ajeno a dejar de funcionar por algún motivo desconocido, pasando por
una alza de voltaje o simple falla interna, sobre todo de las unidades más antiguas.
Lo mismo para las memorias flash, son tantas que no vale la pena ir nombrando una a
una, pero son tanto o más importantes que un pendrive, ¿qué sería de nuestro gadget
favorito sin una SD/microSD, una MemoryStick, una compact Flash o una XD? Nada.
Conclusión
Como ven la evolución del almacenamiento extraíble es muy interesante y debemos tener
presente a todos los primeros pioneros, aquellos que abrieron la senda del desarrollo,
optimización y evolución.
La increíble evolución de la que hemos sido testigos todos estos años nos da cuenta de
una industria con una capacidad de reinventarse sorprendente. Lo más entretenido de
este “mundillo” tech es que nunca sabremos qué se nos viene mañana, la industria no
para de sorprendernos con nuevos avances y nuevas tecnologías.
Despidamos con honores, entonces, a los héroes caídos y saludemos con respeto y
admiración a las tecnologías que nos acompañan hoy en día y a los hombres que las
hicieron posible, es lo mínimo que se merecen.
Pág 232 de 254
(193) Mark Zuckerberg Por Francisco Luco
Cuando hablamos de CEO-Rockstars,
inmediatamente se nos viene a la mente la
imagen de personajes que, con sus
particularmente casuales formas de vestir,
no menos curiosas formas de expresarse,
una billetera bien abultada y gran
posicionamiento en los medios, a veces
lucen más como estrellas de farándula que
como presidentes ejecutivos en grandes
multinacionales de la industria tecnológica.
Si estiramos al extremo los elementos de la
fórmula anterior y agregamos unos escasos
26 años de vida, además del hecho de ser
dueño de una de las empresas más
valoradas de Internet (y probablemente la que esté más cerca de dominar el mundo de la
información, junto con Google), el resultado es digno de guión cinematográfico.
Desde luego, Mark Zuckerberg no es otro muchacho del montón, aunque su aspecto a
simple vista resulte engañoso. No habiendo alcanzado aún las tres décadas, su fortuna
estimada ya roza los 7 mil millones de dólares (habiendo superado posiblemente a Steve
Jobs). Por si fuera poco, alberga en su red las vidas privadas de 500 millones de personas,
todo lo cual lo lleva a hacer –o más bien “ser”– noticia muy frecuentemente.
La sabiduría popular profesa que nadie se hace rico de la noche a la mañana, pero esta
industria, con sus inspiradores casos de éxito, se empeña en demostrarnos que no
siempre es así. La corta pero frenética trayectoria de uno de los fundadores y actual CEO
de Facebook es otra contundente prueba en contrario de tal afirmación.
Una historia de traiciones
Curiosamente, mucha de la información que se encuentra por Internet respecto a la
historia personal de Zuckerberg radica menos en lo que él mismo pudiera haber dicho de
sí en alguna entrevista, que en los datos entregados por quienes fueran compañeros de
clase durante su vida de estudiante, todo lo cual contribuye a crear ciertas leyendas y a
veces hasta un delicioso caldo de cultivo para hacer más interesante el guión de alguna
película. Así, pareciera que, paradójicamente, Mark se reserva bastante bien su privacidad
Pág 233 de 254
–a pesar de que su perfil en Facebook sea completamente abierto–, llegando incluso a
declarar en alguna ocasión, a propósito del inminente estreno de The Social Network, que
no le hubiera gustado que se realizara ninguna película sobre él mientras estuviera vivo.
Es de suponer que quien nada hace nada teme, por lo que sus buenas razones tendrá el
joven empresario.
Genio para muchos, un sujeto de perfil psicopático para otros, la historia de Mark Elliot
Zuckerberg adquiere un cariz turbio al mismo tiempo que comienza el desarrollo de sus
primeros proyectos informáticos en la Universidad de Harvard, donde –al igual que varias
otras estrellas como Bill Gates– no alcanzó a terminar su carrera.
Descendiente de padres judíos –si bien insiste en que es ateo–, Mark no nació en Harvard.
Antes de entrar a la prestigiosa institución pasó por la Phillips Exeter Academy, en donde
llevó a cabo su primer trabajo importante: el desarrollo de Synapse Media Player, un
reproductor de medios que de forma inteligente aprendía de los hábitos musicales del
usuario. Esta última idea le interesó de sobremanera a la propia Microsoft, la que no sólo
intentó comprar la aplicación, sino reclutar a Zuckerberg para que formara parte de las
filas del tío Bill. Sin embargo, en una instancia de esas en que la suerte de la historia
pareciera depender de una sencilla decisión, Zuckerberg probablemente tomó la correcta
y se negó al ofrecimiento, para así dar inicio a sus estudios en Harvard. Será, entonces, en
un humilde dormitorio de esta institución (al fin alguien que no fundó su compañía en un
garaje) que Facebook verá la luz, gracias al talento de Mark y a la ayuda de unos
desconocidos Eduardo Saverin, Chris Hughes y Dustin Moskovitz, todos compañeros de
universidad.
Pero como probablemente sepan, Facebook no partió siendo la red social abierta e hiper-
conectada que hoy todos conocemos, sino un proyecto circunscrito únicamente –en un
principio– a la universidad de Harvard, permitiendo compartir datos sólo entre los
estudiantes de dicha institución y armar verdaderas redes de contacto. Sin embargo, a
poco andar y con la ayuda de Dustin Moskovitz, la idea adquirió vuelo y se tomó la
determinación de expandir Facebook a otras universidades, como Stanford, Columbia y
Yale, entre otras.
Luego, fue el inversionista de riesgo Peter Thiel quien inyectara unos cuantos y necesarios
millones de dólares en 2004, mismo año en que la empresa nace con todas las de la ley y
Zuckerberg inaugura la primera oficina de Facebook en Palo Alto, California, ciudad en que
permanecen hasta el día de hoy.
Ésta es, en síntesis, la parte bonita de la historia; la oficial, si se quiere. Sin embargo,
mucho se ha escrito también sobre la supuesta faceta oculta del relato, aquella
Pág 234 de 254
sumamente turbia en que aparecen acusaciones de robo intelectual y hasta hackeo. Es la
historia de compañeros que se volvieron enemigos, de un sitio web llamado ConnectU y
de cómo Zuckerberg terminó desembolsando 65 millones de dólares de su bolsillo
después de haber sido demandado.
Resulta que allá por 2003 Cameron Winklevoss, Tyler Winklevoss y Divya Narendra –todos
estudiantes de Harvard–, concibieron una suerte de red social para la universidad llamada
HarvardConnection, y que más tarde será conocida como ConnectU.
La leyenda cuenta que el trío contactó a Zuckerberg (famoso a esas alturas en la
universidad por haber desarrollado un sitio web que ya en aquel entonces le trajo
problemas disciplinarios, al vulnerar la privacidad de sus compañeros) para que llevara el
proyecto de ser una mera idea a un sitio web. Mark en un principio habría aceptado unirse
al proyecto. Sin embargo, con el transcurso de los meses –según expone Business Insider
en su investigación–, Zuckerberg habría dilatado el asunto, estancando a propósito su
avance y engañando a los creadores originales de la idea, dándoles a entender, primero,
que la sobrecarga académica le impedía dedicar tiempo al desarrollo de
HarvardConnection y, más tarde, que la idea no era viable.
Para sorpresa de todos, cierto día a principios de 2004 vio la luz thefacebook.com, red que
sospechosamente parecía guardar algún parecido con cierta idea original. Sobra decir
cómo deben haberse deformado en aquel entonces los rostros de Divya y los Winklevoss,
quienes habrían visto cómo fueron engañados por Zuckerberg y su proyecto plagiado.
Pero una vivencia como aquella obviamente no podía quedarse en caras largas, de
manera que una demanda en contra de Zuckerberg era cuestión tiempo. Al final en 2008,
y tras un largo proceso judicial, se llegó a un acuerdo por el cual el buen Mark Elliot pagó
Pág 235 de 254
65 millones de dólares a su contraparte. Justificados o no, el hecho es que ese dinero se
pagó.
Otro episodio que da luces sobre el retorcido carácter de de Zuckerberg radica en la
investigación periodística realizada por Nicholas Carlson, editor de Silicon Alley Insider,
quien señaló que durante el año 2004 nuestro buen amigo Mark se habría permitido el
lujo de hackear a unos cuantos compañeros de universidad/enemigos –entre quienes se
encontraban precisamente Cameron y Tyler Winklevoss–, adentrándose en sus correos
electrónicos e interviniendo sus sitios web, todo ello con el fin de boicotear a la
competencia y evitar la publicación de un artículo en que se revelaría la supuesta verdad
detrás de la creación de Facebook y el robo de ideas.
Sin embargo, los hermanos Winklevoss no han sido los únicos personajes que, reclamando
la propiedad de Facebook o parte de ella, han entablado acciones judiciales (si así fuera la
historia ya no sería tan interesante). Notable es también el caso de Paul Ceglia,
empresario y desarrollador neoyorquino que recién hace algunos meses afirmó que en
2003 suscribió un contrato con Zuckerberg, a través del cual aportaba 1.000 USD a un –en
aquel entonces– proyecto de red social, a cambio del 50% de su propiedad más un 1% de
interés por cada día que transcurriera hasta terminar la construcción del sitio web.
Sumando, tenemos que al final Paul Ceglia reclama un impactante 84% de la propiedad de
Facebook.
Lo concreto, sin embargo, es que muchas de estas historias se basan en entrevistas y
discusiones sobre las cuales no pesa aún una decisión judicial (salvo en el caso de la
litigación de Zuckerberg con los Winklevoss). Pero al final todas concuerdan y parecen dar
vida a un perfil interesantemente malévolo; el de un tipo egoísta, aprovechador,
dispuesto a atropellar a quien se le pare por delante con tal de triunfar, quizá ladrón,
ambicioso y déspota, incluso capaz de impedir que los usuarios de Facebook puedan
bloquear su perfil (medida que dice bastante de su carácter y resulta más bien
innecesaria, pues con o sin bloqueo Zuckerberg sigue siendo naturalmente el patrón de
fundo o el rey en su tierra). Todo esto hablaría, en definitiva, de un cuasi-psicópata, como
algunos usuarios suelen decir.
Para colmo, la historia que en unos días llegará a los cines no parece dejarlo en mejor pie
(si bien ya rondan por ahí teorías conspirativas sobre la coautoría del guión). Vaya uno a
saber si en realidad los hechos ocurrieron como muchos insisten en hacernos ver, pero
como el adagio reza, si el río suena es porque piedras trae.
Pág 236 de 254
Hacker pero no delincuente
Sea cual sea la verdad detrás de la historia de Facebook, lo cierto es que hoy Zuckerberg
es mundialmente conocido como el fundador y actual CEO de la compañía. Y desde esta
perspectiva, resulta interesante también analizar algo sobre el carácter su obra y, por qué
no, su carácter propio. Después de todo, difícilmente la biografía completa de un hombre
podría escribirse sólo sobre el relato de cuchillazos.
Aficionado al minimalismo y
declarado admirador de Google,
Mark Zuckerberg no tiene
reparos al caracterizarse a sí
mismo como hacker, siendo este
mismo rasgo la impronta que
quiso conferir a su red social.
Animado por este espíritu
rebelde, el propio Zuckerberg
afirmó en alguna ocasión que lo
que en realidad quiso hacer con
Facebook fue “construir una
cultura del hacker”,
reconociendo además que es parte fundamental de su personalidad el moverse rápido y
“romper cosas”, ya que en una descarnada competencia de talentos como la existente, es
sencillamente la compañía que cuenta con los mejores hackers la que finalmente obtiene
la victoria.
Su red social se funda sobre esa última premisa. Una vez más según palabras del propio
fundador, es parte integral de la cultura de Facebook el conceder espacios a un hacker
que podría ser tan bueno como 20 ingenieros, permitiéndosele trabajar rápidamente y
hacer cosas alocadas. Según él, la noción de hacking tiene que ver menos con el destruir e
irrumpir, que con el perder el miedo a romper cosas y hacerlas mejores.
Sin embargo, pareciera que a veces Zuckerberg también se toma aquello del “hacking” de
forma bastante literal, pues como decíamos anteriormente, se le ha acusado de haber
intervenido en 2004 las cuentas de varias personas, en el contexto de la historia previa
sobre ConnectU. Asimismo, en sus años mozos tampoco desperdició la oportunidad de
aprovechar los bugs de sistemas completos, llegando a dejar fuera de AOL Messenger a
Pág 237 de 254
unos cuantos compañeros, mientras otros perdían el tiempo irrumpiendo en
computadoras personales ajenas o buscando vulnerabilidades en algún software.
De todas formas, como corolario de su corta pero intensa trayectoria (y como buena
celebridad), al final el balance pareciera ser positivo. En este sentido, los rankings de
prestigiosos medios también aparentan ser lo suyo, pues Mark Zuckerberg tuvo el
privilegio de ostentar el primer lugar en la lista de Vanity Fair de “los 100 personajes más
influyentes en la era de la información” de 2010. Y todo por haber transformado al
pequeño “The Face Book” en lo que hoy conocemos.
La criatura
Los alcances de la empresa llevada adelante por Zuckerberg ya están a la vista de todos.
Para muchos el resultado más admirable seguramente sea la cantidad de millones de
dólares que –se estima– vale Facebook. Sin embargo, para varios otros –entre quienes me
incluyo– Facebook es más que la enorme pila de dólares que en pocos años hizo a uno de
sus creadores probablemente más rico que Steve Jobs. A Zuckerberg le va bien en cuanto
números, claro está, pero –de la misma manera en que Google podría darse el lujo de
perder o ganar poco con YouTube porque sus cartas son otras– sus mayores logros pasan
por una ganancia de poder y posicionamiento: la consolidación de, primero, una útil y
popular herramienta web, luego la instauración de una moda, verdadero fenómeno social
y hasta nuevos hábitos, y finalmente la consolidación de una gigantesca base de datos que
no tiene problema en perfilarse como un sólido candidato –compitiendo codo a codo con
otros monstruos del rubro– al honorífico título de “Gran Hermano”.
Facebook, a día de hoy, probablemente sea un poco de todo esto último. La evidencia
indica que la empresa crece a un ritmo imparable, habiendo necesitado mucho menos
tiempo para proyectar una tenebrosa sombra sobre Internet de lo que le ha tomado a
imperios como Google y, desde luego, a otros “más 1.0″ como Microsoft y Apple (sin
perjuicio de que haya que considerar también todos los riesgos y desventajas de competir
en este “mundo 2.0″). Sin embargo, es precisamente esta misma velocidad a a la que
traga uno de los factores determinantes del miedo que inspira esa criatura llamada
Facebook, sobre todo cuando nos desenvolvemos en un contexto histórico único, distinto
a cualquier cosa que haya ocurrido antes, en una sociedad de la información en donde
problemáticas como la privacidad pasan a ser el centro de la discusión hasta sociológica.
Pág 238 de 254
Probablemente se requiera de un artículo por sí solo para hablar del imperio que es hoy
Facebook, con todas las implicancias tanto negativas como positivas (si acaso existen) que
conlleva, más aún a propósito del eterno debate de la apertura de la información vs.
privacidad. Pero para alcanzar a mencionar algo sobre el tema, baste pensar en las
interesantes conclusiones que un investigador de Electrónica y Ciencias de la Computación
de Reino Unido expresaba hace algún tiempo, en el sentido de que mientras más se
difumina (o más bien se estira) la línea que divide lo público de lo privado, más difícil es
otorgar una protección jurídica eficiente a ese hoy casi inexistente derecho llamado
privacidad. Y es que, como el mismo investigador señalara, “a medida que se suben más
vidas privadas a la red, se están reduciendo las expectativas razonables”, bautizando el
fenómeno como “privacidad 2.0″ y del cual, qué duda cabe, Facebook es el precursor y
más emblemático baluarte, y Zuckerberg su padre.
Por último, si quieren que la cosa adquiera un cariz más tenebroso, casi distópico, para así
hacerse una idea de hasta dónde nos ha llevado lo que fuera concebido como una simple
e inocente red universitaria, baste pensar en la nueva función Places, la que convertirá el
hecho de que cualquier persona pueda etiquetarnos en fotografías comprometedoras sin
nuestro consentimiento en la última de las preocupaciones, pues Places permitirá que una
persona no sólo suba una fotografía de su amigo en un deplorable estado de ebriedad,
Pág 239 de 254
sino que además informe a todo el mundo, en tiempo real y a través de geolocalización,
que va caminando con él por algún barrio de dudosa reputación. Demás está decir que en
ambos casos es bien poco lo que el amigo podría hacer para no ver vulnerada su dignidad
y privacidad, salvo amenazar al simpático autor de la hazaña con una golpiza o, mejor aún,
subir fotografías de la misma índole.
Cuando la privacidad no existe… O eso nos quieren hacer creer
A propósito de privacidad en la red, la particular visión de Zuckerberg sobre el
controvertido tema no parece haber cambiado en los últimos años. Pero curiosamente sí
lo ha hecho la forma en que muchos usuarios alrededor del globo ven al actual CEO de
Facebook y el propio servicio.
A fines de 2008, cuando la cantidad de usuarios de Facebook apenas se empinaba hacia
los 125 millones, siendo aún un humilde directivo y no habiéndose hecho merecedor
todavía de tanta controversia y reconocimiento mediático, Zuckerberg declaraba:
No sentimos ninguna presión (…) Simplemente vamos a hacer lo mejor que podemos en
términos de ser usados por la mayor cantidad de personas en todo el mundo.
Frente a ese políticamente correcto discurso –que no es sino el mismo proferido hoy en
día–, no pocos usuarios pensaron que las intenciones de Mark eran tan loables como las
de su obra de caridad más cercana, que le faltaba bastante para llegar a pensar siquiera en
anteponer las ganancias e intereses comerciales ante el mejoramiento de su servicio, o
que quedaba un largo trecho por recorrer como para poder compararse con otros CEO’s
de la industria en un índice de maldad. La pregunta que cae de cajón es si hoy todos
pensarían lo mismo.
Más aún, respecto a lo abierto que Zuckerberg quiere que sea el mundo, ninguna duda
dejan las declaraciones emitidas a inicios de este año, en las que el CEO pretensiosamente
afirmó que la gente ya no quiere privacidad y que, por el contrario, se siente mucho más
confortable compartiendo información y siendo lo más abierta posible, todo lo cual se
transformó en una “norma social” que él fue capaz de prever.
Se trata de una visión sobre la que, por cierto, deberíamos sospechar si damos por
verídicos los registros de una conversación de mensajería instantánea que difundió el
previamente citado Business Insider. En los polémicos historiales, Mark Zuckerberg llama
“dumb fucks” a los estudiantes de Harvard y usuarios de Facebook que le habrían
confiado su información privada, cuando apenas tenía 19 años y se jactaba de disponer de
Pág 240 de 254
más de 4.000 mails, correos, direcciones y demás información privada, ofreciendo a su
interlocutor ayuda siempre que necesitara saber algo sobre cualquiera en Harvard.
Desde luego esta “particular” visión, que supondría que el hombre ha de despojarse de
algo tan propio de su naturaleza como lo es la privacidad –ese sagrado derecho a
mantener su vida en reserva y lejos del conocimiento de terceros–, ha cosechado una
horda de detractores a lo largo y ancho del mundo, tanto en la misma red como en la
sociedad civil y hasta en tribunales.
De cualquier manera, es evidente que Zuckerberg no puede hacer oídos sordos a las
exigencias de una comunidad que, le parezca paradójico a algunos o no, demandan mayor
privacidad en una red concebida precisamente como un espacio para ventilar su vida
privada.
Eso sí, no nos confundamos, señores. El que Facebook preste utilidad como una
plataforma para compartir con el resto de la comunidad fotos, vídeos, tiempo que podría
emplearse en tareas útiles y hasta pensamientos, no implica que sus usuarios deseen
mostrar tal información a cualquier persona, ni menos que aquella pueda ser
comercializada para efectos publicitarios. De esta forma, me parece que quienes ven un
oxímoron al incluirse los términos “Facebook” y “privacidad” en la misma frase están
siendo, cuanto menos, algo simplistas.
Decía antes que Zuckerberg, por muy obstinado y majadero en sus argumentos que
pudiera parecer, no puede negarse a lo que sus usuarios piden, aunque ello
probablemente tenga que ver más con el bienestar emocional y financiero de los
inversionistas de su empresa que con mantener alegres a sus usuarios y hacer un mundo
más abierto, interconectado y mejor, con conejitos saltando en la pradera y un arcoiris en
el horizonte. Sea cual sea la razón, el hecho es que muchas veces los usuarios pusieron el
grito en el cielo, los medios se hicieron eco de ello, y a Zuckerberg no le ha quedado más
remedio que revisar las polémicas políticas de seguridad y privacidad del sitio, llegando
incluso, en un par de ocasiones, a implementar nuevas configuraciones y no menos
discutidos reajustes.
Hace un par de meses la demanda por un mejoramiento en las configuraciones de
privacidad y seguridad alcanzó su clímax. Una buena parte de los usuarios veía el gran
meollo del asunto en lo torcido y complicado de dichos apartados, aunque a decir verdad
no pareciera que fuera el control de los usuarios sobre tales ajustes el problema de fondo.
De todas formas Zuckerberg se vio presionado a publicar una columna en el The
Washington Post refiriéndose al tema, reiterando algunos lugares comunes (como la
visión de la empresa y su deseo por hacer del mundo un mejor lugar, más abierto y
Pág 241 de 254
conectado), anunciando lo que en un pocos días se concretaría en una simplificación de
las configuraciones de privacidad y enfatizando algunos puntos claves de la política de su
red social, como que supuestamente no entregan información personal de los usuarios a
otras personas o servicios sin su consentimiento, ni la venden a avisadores. Pero estas
directrices se encuentran sujetas a interpretación, claro está, e investigaciones han
demostrado que si bien no se entrega “información personal” a los avisadores, éstos sí
obtienen, por ejemplo, los nombres, números de ID y –hasta antes de que se realizaran
estas modificaciones y Mark Zuckerberg se viera entre la espada y la pared– datos como
lugar de residencia u ocupación. Después de todo, que esté en las políticas de privacidad
no significa que se respete.
Si no les molesta seguir leyendo ejemplos de cómo la absurda obstinación de Zuckerberg
“le ha pasado la cuenta”, lean sobre las numerosas demandas que se han entablado en
contra de Facebook alrededor del mundo por problemas relacionados con el manejo de
información privada, como en Alemania y en Canadá (mientras que en la nación germana
una asociación de usuarios demandó por la utilización de información privada de terceros
–es decir gente que ni siquiera se había registrado en Facebook–, en el país del querido
Justin Bieber Facebook ha debido encarar una demanda por vulnerar sus propias políticas
de privacidad, comerciando con la información privada de sus usuarios).
500 millones de amigos no bastan
El carácter y las curiosas concepciones de Zuckerberg sobre lo humano y lo divino nos
sirven de introducción para el último punto, referido a las innovaciones que Mark
introdujo con Facebook Connect y demás características anunciadas durante la
conferencia f8 de este año.
A muchos les podrá parecer mórbido que una sola persona albergue en sus manos
innúmeros bits de valiosa información (no crean que sólo de mensajes como “fui al baño
hace 5 minutos” se alimenta este hombre), logrando que 500 millones de personas
ingresen a una misma red social –o simple sitio web–. ¿Y si Facebook ahora no fuera tan
sólo un sitio web? ¿Y si el servicio se propagara por toda la red?
Seguramente no serán pocos a quienes les parezca baladí la existencia del botoncito “me
gusta” en una tienda deportiva o un sitio de cine. Sin embargo, para muchos la sola
posibilidad de ingresar a otros sitios con las credenciales de Facebook ya es motivo de
desconfianza. Por supuesto que mucho más temor inspira el que toda Internet se plague
de botones sociales y se integren API’s del servicio social por doquier.
Pág 242 de 254
Zuckerberg señaló expresamente que quería hacer de Internet un lugar más social. Desde
mi enfoque personal, se trata en cambio de sólo un eufemismo que apenas con algo de
análisis podría traducirse en “queremos que para participar activamente de este
maravilloso universo llamado Internet debas utilizar nuestro servicio”. Una prueba que me
permite reafirmar el argumento son las propias declaraciones de Mark, quien alguna vez
señaló “350 millones [de usuarios] es bueno, pero cuando lo comparas con todos en el
mundo es sólo un comienzo”. Más literal y autoexplicativo imposible.
Sin embargo, para algunos la imparable ambición –sana o no– de Zuckerberg no se queda
en su red social ni en la Red, pues esta misma semana se ha hecho eco fuertemente en la
blogósfera el rumor de que Facebook se encontraría ad portas de lanzar su propio
teléfono, el cual, cómo no, operaría un sistema propio basado completamente en la red
social.
Si bien la propia compañía desmintió completamente los rumores, declarando a través de
un portavoz que lanzar un teléfono no se enmarca dentro de lo que “ellos hacen”, el
medio impulsor de la información reafirmó con fuerza que sus fuentes son confiables y
probablemente sólo se esté llevando a cabo una artimaña o bluff por parte de Mark
Zuckerberg y compañía. En este sentido, conviene recordar que tras lanzar Android,
Google también afirmó que era falso que estuvieran trabajando en su propio teléfono, y
ya ven en lo que terminaron.
Pág 243 de 254
Conclusión… Y lo que viene
En 1999 el docudrama Pirates of Silicon Valley retrataba –en las actuaciones de Noah
Wyyle y Anthony Hall– las historias detrás de quienes hubieran erigido los omnipotentes
imperios de Apple y Microsoft, respectivamente. Hoy, en vísperas del estreno de The
Social Network, no ha faltado quien haya realizado una comparación entre los perfiles de
Zuckerberg y Jobs y entre ambas películas, afirmado que la segunda es para nuestros días
lo que fuera Pirates of Silicon Valley para fines de la década de los ‘90. Y algo de parecido
debe haber entre los protagonistas también.
Asimismo, en algún artículo anterior mencioné que la mejor forma de reconocer un
evento o personaje que resulte particularmente relevante o interesante para una
comunidad, es observando si acaso ha inspirado alguna película; de suerte que el tema no
es poca cosa. Zuckerberg se ganó dicho honor y junto con ello una buena cantidad de
biografías no autorizadas (ya lo querrá cualquiera que tenga 26 años), además del
privilegio de aparecer hasta en Los Simpsons, South Park y en las noticias día por medio.
El anteriormente mencionado largometraje, a cargo del reconocido David Fincher –
director de Fight Club y The Curious Case of Benjamin Button–, se estrenará oficialmente
el 1 de octubre, y se sabe que esboza un retrato poco feliz de Zuckerberg, exponiéndolo
casi como un individuo de personalidad maniática que llegó a ser lo que actualmente es
motivado por fama, dinero y sexo, ratificando así la tesis del CEO-Rockstar.
Sea cierto o no lo que se muestre en cines en algunos días más, no hay que perder de vista
que la increíble base de 500 millones de usuarios (como referencia Google maneja 800
millones, y Zuckerberg apuesta a superarla) se ha formado en apenas un lustro, de
manera que con esta curva de crecimiento, y a menos que tenga lugar alguna metida de
pata irreversible y de proporciones inconmensurables, pronto nos veremos enfrentados a
un verdadero imperio de la nueva era en Internet, sea para bien o mal, y haya sido su
principal fundador un ángel o un… tipo malo.
En este contexto vale la pena –sin ánimo alguno de desacreditar la exitosa y admirable
carrera de quien inspira este artículo–, si no dudar sobre la utilidad del invento y de la
pertenencia al mismo, al menos meditar o reflexionar sobre lo que el solo formar parte de
esta gigantesca comunidad significa.
Al final, con esas masas de información fluyendo diariamente, y a la luz de las polémicas
que siguen surgiendo día tras día, buenas razones para desconfiar hay, aunque el CEO
fuera el mismísimo Jesús.
Pág 244 de 254
(200) La llegada de los tablets Por Juan Pablo Oyanedel
Sin duda el panorama de la computación actual ha cambiado. Y como artículo final de la
serie Bicentenario en CHW, más que hablar del pasado esta vez hablaremos del futuro, en
un año 2010 que hace coincidir la celebración que nos convoca junto con el aterrizaje
definitivo de un concepto que pese a no ser nuevo, al fin ha captado la atención de los
fabricantes en todo el mundo, quienes este año tomaron acuerdo para sentar las bases de
lo que será el modelo que de seguro nos acompañará por varios años más: los tablets.
Dibujo de 1968 del primer concepto de tablet, el Dynabook
¿Qué es un tablet?
Para quienes vienen recién despertando después de 20 años de preservación criónica, vale aclarar los aspectos que hoy en día definen lo que es una computadora como tableta.
Primero que todo, las diferencias obvias
con el PC de escritorio son el tamaño y la
forma: una sola pieza rectangular, delgada
y con tamaños que varían entre las diez y
Pág 245 de 254
cinco pulgadas, con una pantalla táctil en lugar de mouse y teclado, y la CPU junto con los
demás componentes electrónicos integrados dentro del mismo dispositivo, al igual que lo
hace un teléfono móvil o un notebook, logrando un solo aparato que cumple todas las
funciones esperadas en una computadora.
El desarrollo de los estándares que en el 2010 definen un tablet son el resultado de un
largo camino que revisaremos más adelante, así que ahora nos limitaremos a decir que
actualmente se espera a que se cumpla con lo siguiente:
• Procesador x86 para sistemas operativos propios de un PC de escritorio (Windows 7, Ubuntu), o bien una CPU ARM para sistemas operativos móviles (Android, iOS 4, webOS, QNX, etc)
• Pantalla táctil de entre 5 y 10 pulgadas aproximadamente, pues se prioriza la portabilidad del aparato.
• Larga autonomía energética a través de una batería integrada. • Hardware interno tal como el de una computadora: CPU, memoria RAM,
almacenamiento vía Flash NAND o SSD, chip para gráficos, etc. • Conectividad a Internet tanto por WiFi como por redes móviles celulares vía 3G. • En el caso de sistemas operativos móviles, acceso a una tienda de aplicaciones en
línea para conseguir software adicional al preinstalado. Si se trata de un tablet x86, la disponibilidad de programas es la misma que en los PCs tradicionales.
Pág 246 de 254
Una sola idea, dos caminos diferentes
Identificamos así dos grandes corrientes basándonos en la CPU que se decida utilizar: x86
o ARM.
La primera ofrece la ventaja de ser compatible con todo el software que popularmente se
ha usado durante los últimos 20 años en la computación tradicional, pues el soporte para
sistemas Windows o Linux es nativo al tratarse simplemente de una computadora normal,
pero miniaturizada y con pantalla táctil.
Por otro lado, al usar ARM se aprovechan las ventajas de una arquitectura que está
diseñada desde su base para lograr una mayor eficiencia energética y un buen
rendimiento, la cual se enfoca casi únicamente al sector de los dispositivos móviles, como
lo son los tablets.
Es precisamente este punto el que ha causado mayor controversia al momento de
ponerse de acuerdo para fijar lo que será un tablet: ¿Queremos un dispositivo móvil por
definición, o una computadora tradicional reducida en tamaño?
ARM y x86 ofrecen la diferenciación perfecta y necesaria para marcar esta disyuntiva, y si
bien aún no se logra un consenso total en la industria acerca de cuál es el formato más
conveniente a utilizar, sí se está apreciando una tendencia para asumir que un tablet es un
aparato móvil, por lo que la utilización de un chip basado en ARM y un sistema operativo
móvil como Android es la opción adecuada a seguir, en lugar de poner “un elefante a
dieta” y usar CPUs x86 con Windows encima; una plataforma que hasta el momento no es
del todo amigable para su uso con los dedos, en contraste con Android o iOS 4 que son
hechos desde su raíz para ser movidos en forma táctil.
Pág 247 de 254
De esta manera, vemos cómo un tablet no es más que la evolución necesaria para lo que
es llevar un computador al factor más pequeño posible sin comprometer espacio de
trabajo, continuando un camino que comenzó con los ordenadores utilizando salones
completos, para luego pasar a PCs de escritorio,notebooks, netbooks, smartbooks, y ahora
tablets.
Pero este paso en la transformación tiene un aspecto esencial y que lo diferencia de
cambios que hemos vivido anteriormente, puesto que por primera vez nos estamos
moviendo desde el uso del mouse y teclado físico a una interfaz controlada vía una
pantalla táctil a través de los dedos en forma directa, cambiando el paradigma presente
por casi cuarenta años.
Sin embargo, la idea de mover la computación a una forma táctil no es nueva, y muchos ya
habían pensado en cómo ejecutar este cambio durante décadas anteriores, la gran
mayoría sin éxito comercial.
Una breve historia de los tablets
Antes de hablar de tablets, en la antigüedad el tema de moda era la computación vía un
lápiz. Se querían combinar los libros con la tecnología, y en las primeras etapas de
desarrollo nació una obsesión por crear máquinas que pudieran interactuar con lápices
estilo stylus, con la facultad de reconocer el texto escrito manualmente y pasarlo a digital,
pues se pensaba que ésta era la forma para escapar del mouse y teclado.
Así, en 1957 Tom Dimond muestra el Styalator, un sistema de entrada que era una tableta
capaz de captar lo que se escribía en ella con un lápiz stylus, lo que servía para que un
software de reconocimiento pasara las letras manuales a ceros y unos en una
computadora a la que era conectado el periférico. Ocho años más tarde, durante 1965,
aparece el RAND Tablet, utilizando el mismo concepto del Styalator.
Pág 248 de 254
RAND Tablet
Pero más importante aún, en 1968 y bajo el alero del Xerox PARC, Alan Kay creó un
concepto llamado Dynabook, un tablet que jamás pudo ser construído debido a los
problemas técnicos en hardware que se presentaban para la época, puesto que éste era
muy delgado y sin duda demasiado futurista. El Dynabook estaba enfocado para su uso
educacional en niños, y esta pasión años más tarde llevaría a Alan Kay a involucrarse en el
proyecto One Laptop Per Child (OLPC).
Dynabook
Podría decirse que este concepto es el primero en acercarse a lo que hoy conocemos por
tablet, pues su creador describe lo que según él es:
Pág 249 de 254
Un panel que cubre toda la extensión de la superficie del aparato. Cualquier disposición
del teclado que uno desee puede ser mostrada en cualquier parte de la pantalla. Cuatro
sensores de deformación montados en las esquinas del panel registrarán la posición de
cualquier toque.
¿Suena familiar? Alan Kay lo pensó en extenso en su documento llamado “A Personal
Computer for Children of All Ages“, donde se detalla lo imaginado para un tablet allá por
1968 en el Xerox PARC.
Más tarde, un grupo de compañías bajo el nombre de Pencept se encargaría de
desarrollar aún más el concepto de computación vía lápiz stylus (o pencomputing) con el
PenPad, reemplazando definitivamente el teclado por el reconocimiento de escritura
manual.
PenPad 200
Pero sería la compañía GRiD Systems Corporation la primera en ofrecer una computadora
realmente portable durante el año 1989, con el llamado GRiDPad ofreciendo una pantalla
monocromática táctil que reconocía un lápiz stylus. El GRiDPad modelo 1910 incluía una
CPU NEC V20 corriendo a 8MHz, un disco duro interno de 20MB y un puerto PCMCIA v1.0.
Pág 250 de 254
GRiDPad
Así, otros intentos surgieron los años posteriores, utilizando diferentes sistemas
operativos como MS-DOS en 1989, PenPoint OS de GO Corporation que fue usado en
varios dispositivos de IBM a principios de los noventa, Pen Windows, que se trataba de
una serie de complementos para Windows 3.11 y Windows 95 que los ayudaban a
funcionar mejor en un dispositivo con entrada Stylus, y finalmente Windows XP Tablet PC
Edition.
ThinkPad 700T
Vale destacar lo que IBM mostró con el ThinkPad 700T, usando una pantalla de 10.1
pulgadas a dos colores, CPU Intel 386SX/20, y hasta módem incluído, bajo el alero del
sistema operativo PenPoint OS recién mencionado, que era la apuesta de GO Corporation
para manejar dispositivos capaces de reconocer escritura manual.
También hay que señalar al Apple MessagePad bajo Newton OS, una apuesta independiente de la compañía para lograr también computación basada en lápices stylus. Porque en 1986 el CEO de Apple John Sculley comenzó el desarrollo de este aparato, el que sirve como ejemplo perfecto para mostrar cómo evolucionó la industria a partir de su lanzamiento el año 1993.
Pág 251 de 254
Desde pencomputing a PDAs hasta tablets
Mucho hemos hablado del pencomputing, ¿pero qué tiene que ver esto con los tablets? Sigamos al Apple MessagePad (más conocido como Newton) para entender mejor.
Este dispositivo se enfocó en desarrollar el
software necesario para reconocer la
escritura, siendo pensado inicialmente en los
años 80 como un tablet hecho y derecho. Sin
embargo, con su lanzamiento en 1993 y
reflejando la tendencia que necesitaba en ese
entonces la industria, estos esfuerzos fueron
utilizados en un nuevo formato llamado
Personal Digital Assistant (PDA), el cual tenía
un tamaño más reducido que diez pulgadas.
El MessagePad entonces poseía una CPU ARM
610 RISC corriendo a 20MHz, 640kB de
memoria RAM y una pantalla en blanco y negro táctil para un stylus. Este formato luego
sería ampliamente adoptado por otros fabricantes, masificando por primera vez
la computación portátil en un formato cercano al de los tablets actuales, pues la idea era
tener un tamaño pequeño, con pantalla táctil y bajo un sistema operativo móvil desde su
nacimiento, como lo era Newton OS y PenPoint OS.
Así, durante esta década compañías como Palm y su modelo Pilot se encargaron de
masificar un concepto nacido bastante tiempo atrás, con Dell, Sony y otros siguiéndole los
pasos y haciendo evolucionar estos dispositivos con pantallas a color y mejores
prestaciones en hardware y software.
El cambio desde PDAs a tablets podría
definirse por convención en el 2001, con
Bill Gates hablando en el evento Comdex
de ese año y presentando diversos
prototipos de tablets de Compaq, Acer,
Fujitsu y Toshiba, usando el nuevo
Windows XP Tablet PC Edition en
reemplazo de Pen Windows. Allí, el
mandamás de Microsoft declaró que él ya
Pág 252 de 254
usaba un tablet como su computadora de uso diario, diciendo además una frase que ha
pasado a la historia:
(Un tablet) Es un PC que virtualmente no tiene límites – y de aquí a cinco años yo predigo
que va a ser la forma de PC más popular vendida en Estados Unidos.”
De sistemas operativos móviles a Windows y viceversa
Claramente la predicción no sucedió como Bill Gates decía, pero este evento el 2001 sirvió
para que el término “Tablet PC” se popularizara, sentando además las bases para lo que
sería la segunda corriente de tabletas: aquellas que usan un sistema operativo basado en
x86, escapándose al trabajo que se estaba haciendo previamente con Newton OS y
PenPoint OS, donde la idea era desarrollar software especializado para un aparato móvil,
que pasó de ser ideado desde un tablet hasta mutar a un PDA.
Siguiendo en el 2000, más aparatos nacieron usando x86, sentando las primeras bases
reales en la mente de las personas acerca de este nuevo formato de computación portátil.
Tablet Compaq
Pero el funcionamiento y experiencia de uso no lograron convencer a la gran mayoría de
las personas que veían frustrante usar un complejo sistema operativo de escritorio en un
pequeño tablet con menores prestaciones técnicas, lo que en definitiva desencantó al
público y no permitió que las ventas despegaran como se deseaba.
Pág 253 de 254
El concepto reposó por años, siempre con un deseo oculto en la industria por revivir este
formato de la manera correcta y llevarla al fin a manos de la mayor cantidad de personas
posibles, cambiando en definitiva el modo en que todos haríamos computación y
mezclando en una obra de arte final los esfuerzos que por décadas se habían estado
poniendo a prueba.
¿Qué nos quedó? Se rechazó el reconocimiento de escritura manual y el lápiz stylus, pero
se rescató la pantalla táctil, el formato de pequeño tamaño y el uso de sistemas
operativos móviles desde su creación.
Por otro lado, y como fue explicado anteriormente, la corriente iniciada por Bill Gates
sigue presente, con modelos x86 bajo Windows que apoyados en la factibilidad técnica de
llevar más memoria RAM y mejores procesadores a un tablet, buscan transportar la
experiencia completa desde el escritorio a los dedos.
El año 2010 y lo que viene
Apple iPad
Tomando todo esto, sería finalmente Apple quien daría el primer paso en el mercado
masivo presentando al iPad, que usa el SO móvil iOS 4 con una pantalla multitáctil en una
forma pequeña, delgada y liviana, basándose en el iPhone y encontrando allí la fórmula
necesaria para traer finalmente los tablets a todo el mundo, reemplazando de una vez por
todas al mouse y teclado físico.
Pág 254 de 254
Este impulso y éxito de ventas por parte de Apple haría que el resto de los fabricantes reconociera el formato de una vez por todas, mostrándose durante este año 2010 innumerables modelos utilizando software Android, como el Samsung Galaxy Tab. Y pese a que el mercado está recién naciendo, cada día vemos propuestas más interesantes todavía, siendo éste el caso del PlayBook de RIM usando un software llamado QNX, basado en Unix pero enfocado a la portabilidad.
RIM BlackBerry PlayBook
De la misma forma está renaciendo la idea de usar Windows, con el actual CEO de Microsoft adelantando que falta por ver modelos de diversas compañías grandes usando Windows 7 y con su mayor exponente en el aún no estrenado HP Slate, marcando así la línea entre ambos tipos de productos.
¿Cuál corriente triunfará? ¿O tendremos un ecosistema con ambas? Sólo el tiempo dirá,
pues nos encontramos en un momento donde este nuevo paradigma está recién
madurando en forma definitiva y queda por ver si los tablets terminan por conquistar al
público y reemplazar parcialmente a los notebooks y desktops para quienes lo necesiten.
Planteamos la situación entonces, a ver si en cien años más para el “tricentenario” leemos
este artículo nuevamente con la respuesta a esta interrogante: ¿Cambiaron los tablets la
forma de entender la computación entre la población?